Samsung demonstreert 256TB-ssd voor datacenters

Samsung heeft een datacenter-ssd met een capaciteit van 256TB gedemonstreerd. De ssd maakt gebruik van 3d-qlc-nandgeheugen. De fabrikant deelt verder echter weinig concrete details over de drive in kwestie.

Samsungs demonstreerde zijn 256TB tijdens de Flash Memory Summit in Californië. De drive maakt gebruik van Samsungs 3d-qlc-nandgeheugen met vier bits per cel, wat een relatief hoge datadichtheid mogelijk maakt. Samsung toonde vorig jaar al een 128TB-ssd met qlc-nand tijdens de Flash memory Summit.

De fabrikant zegt dat de 256TB-ssd ongeveer zeven keer minder stroom verbruikt dan acht losse 32TB-ssd's, die gezamenlijk ook goed zijn voor 256TB. Samsung deelt verder weinig technische details over de ssd. Het is ook niet bekend of en wanneer de ssd daadwerkelijk beschikbaar komt voor klanten. De ssd zal als dat gebeurt vooral bedoeld zijn voor hyperscalers en datacenters.

Naast zijn 256TB-ssd, kondigde Samsung tijdens FMS 2023 ook een PM9D3a-ssd aan voor datacenters. Deze serie beschikt over een PCIe 5.0-interface en komt beschikbaar in capaciteiten van 3,84 tot 30,72TB. Samsung meldt dat de ssd tot 2,3 keer hogere sequentiële leessnelheden haalt dan de huidige PM9A3, die sequentiële leessnelheden van 6,9GB/s haalde. Daarmee zou de nieuwe ssd in theorie snelheden van rond de 16GB/s halen. De willekeurige schrijfsnelheden worden volgens Samsung verdubbeld. Deze ssd's komen binnenkort beschikbaar in verschillende formfactors. De fabrikant noemt echter geen prijzen.

Samsung Flash Memory Summit 2023
Samsung op de Flash Memory Summit 2023. Bron: Samsung

Door Daan van Monsjou

Nieuwsredacteur

11-08-2023 • 18:56

91

Lees meer

Reacties (91)

Sorteer op:

Weergave:

De prijs zal wel niet fijn zijn maar het stroomverbruik en de rackspace natuurlijk wel. Goede ontwikkeling want die datacenters vreten veels te veel stroom voor een paar vakantiefoto's.
Maar ze blijven die schijven volstoppen voor 99.8%, dat is dan wel weer erg jammer.
Daar zal wel wat marge inzitten bij dat soort spul. Desalniettemin betekent dit dat we over 2-4 1-2 jaar 4TB op een consumenten ding van 100€ gaan zien

[Reactie gewijzigd door divvid op 22 juli 2024 22:10]

Zal ook van de markt afhangen. Als "iedereen" cloudopslag gaat gebruiken wordt de markt van mensen die zelf SSDs kopen krimpen. Of als er voornamelijk laptops worden verkocht met vastgesoldeerde opslag.
Cloudopslag is toch geen vervanging voor je locale opslag?
Niet? Als ik voor dubbel de prijs vergelijkbare cloudopslag kan krijgen dan wordt dat wel heel interessant (mits je natuurlijk al wel fatsoenlijke internetaansluiting hebt), alleen al vanwege dat ik me dan geen zorgen om backup en eventuele vervanging zorgen hoef te maken, naast dat daardoor dus ook mijn PC kleiner kan zonder meer stroom verbruik en warmte ontwikkeling. Lokaal is dan alleen nog meer als cache oid.
De backup van de cloud provider is er enkel voor het geval er iets mis gaat bij de cloud provider.
Ik denk niet dat men een backup zal terugzetten omdat je een Excelletje kwijt bent.
Je bent dus nog steeds verplicht een eigen backup te hebben.
Nee, backup in geval van ssd/hdd crash, het is mij al vaker voorgekomen dat mijn ssd of hdd is gecrashed, en om daar een volledige backup van te hebben is behoorlijk prijzig. Naast dat er genoeg cloudstorage is waar je pas verwijderde bestandjes wel weer terug kunt halen.
Raid 1 of 10 of 5 of...

Er zijn zat mogelijkheden om crashes op te vangen. Maar dat is iets anders dan een backup.

Ja, full backups kunnen duur zijn, maar alles kwijt zijn is heel irritant en potentieel nog veel duurder.

En wat kost een HDD tegenwoordig nog?
Daarvoor heb je been persoonlijke recycle bin in de cloud waar je zelf kan uit restoren.
On demand restore kan look maar tegen een kostprijs die het Meestal niet waard maakt.
Versiebeheer is iets anders dan backups, en iets anders dan replicatie.

Een cloud provider moet zelf zorgen voor zijn eigen replicatie; meestal begint dat bij een kopie bijhouden (al dan niet slim dmv striping/parity zoals Raid 5). Dit beschermt je data in geval van een permanent disk failure. Bij een wat luxere cloud heb je ook off-site backups, zodat je ook tegen bv natuurrampen beschermd bent en het datacenter zelfs kan affikken en je data nog steeds beschikbaar blijft.

Backups is eigenlijk een snapshot van je data maken, en dat kan tegen bv cryptoware beschermen. Helaas is replicatie niet voldoende voor dit soort bescherming, want de door de cryptoware ge-encrypted files worden natuurlijk als een malle gescynchroniseerd omdat de cloud nu eenmaal dat als doel heeft; je data overal gelijk houden zodat in geval van een disk failure alles teruggehaald kan worden.

Als laatste heb je ook nog versiebeheer, individuele bestanden die gewijzigde of verwijderd zijn worden bijgehouden tot een bepaald maximum, indien de cloud dat ondersteunt. Dat is voor dat excelletje wat je per ongeluk verwijderd hebt. De recycle bin, zoals hier ook al genoemd was. Echter is de ruimte beperkt voor onthoude wijzigingen, en in geval van encryptie van al je files door cryptoware zal dat ook zijn grenzen hebben afhankelijk van de cloud provider.

Een gemiddelde goede cloud ondersteunt replicatie en de 'recycle bin', dus als je het risico neemt van cryptoware kun je best af met een cloud-only opslag zoals @SuperDre aangeeft. Bovendien, al heb je ook een kopie van data lokaal staan, wordt dat 9 van de 10 keer toch in sync gehouden middels de cloud software ('niemand' heeft zin om steeds handmatig te moeten syncen), en zal cryptoware daar alsnog misbruik van maken om de hele bende te encrypten, tenzij je het op tijd door hebt en het kunt stoppen.
Tja, uitzonderingen zullen er altijd zijn. Maar de kans dat er iets bij mij thuis zou gebeuren waardoor ik geen fatsoenlijke backup zou hebben is groter.
Niet? Als ik voor dubbel de prijs vergelijkbare cloudopslag kan krijgen dan wordt dat wel heel interessant (mits je natuurlijk al wel fatsoenlijke internetaansluiting hebt), alleen al vanwege dat ik me dan geen zorgen om backup en eventuele vervanging zorgen hoef te maken,
Tot ze je account afsluiten en je naar je data kan fluiten.
Daarom dat je ook kiest voor een cloud provider met zero knowledge protection.

Even mijn topic hier pluggen }>
https://gathering.tweakers.net/forum/list_messages/2193136
tja, dat kan je thuis ook gebeuren als je hdd's ineens compleet fubar raken en je de data niet kunt terughalen.
Cloud, ammenooitniet als enige voor m’n dierbare foto’s. Ik heb diverse kopieën, ook off premises. Op dit moment op external HD en SSD
Nu al onder de 200 piek. Schiet al mooi op 👍
De 4TB SSD's kosten al de wereld niet meer, zeker de 2.5" varianten. Ik heb zelf zes 4TB SSD's in RAID6 en twee 8TB (geen RAID) SSD's in resp. mijn server en workstation zitten. Ik was aangenaam verrast door de prijs!
“veel stroom voor een paar vakantiefoto's.”

Dus waardevolle foto’s van mensen die hun moment hebben vastgelegd om daar later naar terug te kijken daarvoor word teveel stroom gebruikt.
Die hoef je alleen niet continue powered op te slaan. maar omdat we ze altijd snel willen kunnen zien gebeurd dat wel..
Een tape-opslag kost geen stroom, slaat tb's per tape op, en is nog eens houdbaarder ook, maar ja, access times die in de minuten kunnen lopen, dat kan natuurlijk echt niet voor je dierbare foto's.
Jij weet overduidelijk niet waar je het over hebt. Voor het opstarten van een tapedrive en het lezen/schrijven naar de tape, kun je een SSD een half jaar van stroom voorzien.
Ehh??

Een tape op een shelf gebruikt nul. Net als een uitgeschakelde SSD.

https://www.ibm.com/docs/...rmance-lto-specifications
Als je power-on, load, seek, read/write en unload tijden bij elkaar optelt dan kom je misschien aan 5 minuten als je een paar foto's wil benaderen. Een LTO- 9 drive verbruikt ~15W idle, ~35W active. Met één drive kan je heel veel tapes lezen en schrijven. Power per TB is daarmee aanzienlijk lager dan welke SSD dan ook.

Een Enterprise SSD verbruikt best wel wat(t). Even de specs van een Samsung PM1733 opgezocht, 8,5W idle en 20W active. SSD is prachtig, snel, en fantastisch voor random access data. Maar voor archief en power per TB is tape absoluut king.

Oh, en ook niet onbelangrijk, bij dit soort capaciteiten is de error rate ook interessant. Enterprise SSD's zitten op 1 sector per 10^17 bits. Tape op 1 bit per 10^19 bits. De kans dat je op SSD corruptie oploopt is 100x zo groot.
het is altijd fijn als je niet weet waar je het over hebt, maar dat je toch de wiskunde achter je hebt staan. ;)
Je verraad de reden al in je eigen tekst, fantastich voor random acces data.
Wat foto's natuurlijk gewoon zijn. duizenden bestanden van een paar mb die ineens benanderd dienen te wrden.
Dat zijn dus die bestanden die je bij een gesprek op een feestje spontaan wil laten zien.
Dan ga je toch niet wachten tot deze ergens van tape word gehaald en beschikbaar voor je worden gesteld.

Dan geef je rekensom en geef je aan dat je toch wel 5min moet wachten voordat een foto beschikbaar voor je is. Alof dat snel is 8)7 En als je uit een ander album of als je pech hebt een andere foto uit dezelfde collectie op een andere tape staat, sta je zeker weer 5min naar een loading scherm te kijken.
Ik denk dat dit bovendien de levensduur (moeten we dan ook rekening mee houden) van de tape niet ten goede komt en dat kost ook geld.

Tape en SSD hebben beiden hun eigen goede eigenschappen en zelfs voor HDD is een plekje.
Laten we tape voor archivering houden, SSD voor random acces data en HDD voor grote sequentiele bestanden.

[Reactie gewijzigd door Sinned123 op 22 juli 2024 22:10]

Wellicht iets minder hoog van de toren blazen?
Die ssd gebruikt per dag ruim meer dan wat die tape gebruikt voor een paar lookups, en die ssd kun je niet afschakelen, want dan verdampt je data.
SSD's kun je prima uitzetten hoor ? Hoe dacht je dat niet 7x24 apparatuur de nacht doorkomt ???
1. SSDs are temperature sensitive. If you put it on a shelf of a storage room with high temperature, the memory charge that defines bits in flash will fade quickly over time. When the charge is gone, so is the data.

2. SSD’s speed and reliability are much relying on the firmware’s house cleaning work. Yet, when unpowered, the firmware is unavailable.
Barre statements. Iedereen laat alle apparatuur met usb sticks/ssd/nand chips altijd 7x24 aanstaan vanwege deze redenen.... NOT !

En ja cold storage kun je beter met physieke disken of tapes doen. Apparatuur een paar uur/dagen/weken uitzetten schaad ssd's niet. En nee inderdaad, aan de zon of in hitte (oven?) moet je nooit apparatuur onnodig blootstellen ...
Zover ik weet zakt de schrijfsnelheid in bij qlc, na x MB. Of was dat alleen bij de Intel modellen? Anders heb je toch vrij weinig aan 256tb

[Reactie gewijzigd door Mic2000 op 22 juli 2024 22:10]

Ligt er een beetje aan, maar ja dat klopt. Over het algemeen wordt er een deel van de cellen gereserveerd als SLC write cache. Daar kun je dan heel snel een paar honderd MB tot enkele gigs naar toe schrijven en de controller regelt daarna zelf dat die dat wordt weggeschreven naar het achterliggende QLC wat significant trager is. Vaak een factor 5 tot 10.

Vaak is het zo dat hoe duurder de schijf hoe meer ruimte er is voor die write cache en hoe langer je dus de performance kunt vasthouden bij sustained writes.
Vraag me altijd af of je zon ssd naar volledig slc kan flashen
in theorie, jazeker. Het is de firmware die het regelt. En firmware is na de 1e update net als chiptuning beschikbaar voor wijzigingen. Misschien chiptuner (no pun intended) informeren hoe zij het doen, want hun moeten ook altijd de eerste software update voor een auto hebben om aan de gang te gaan met modificeren.
Maar dan wel ten koste van een factor 2^n aan capaciteit als je qlc naar slc wilt omdopen...
Zal vast wel kunnen, maar verwacht dan een kwart capaciteit over te houden.
Wat meer, want QLC heeft een stuk meer aan reservecapaciteit nodig vanwege de kleinere marges. (1/16 tegen 1/2 cell level)
Of was dat alleen bij de Intel modellen?
In elk geval niet bij de Optane-modellen, want die zijn en blijven bloed snel. Dus ook in steady state.
Dat is helaas nog ff een ver van mijn bed show, maar het zou wel een hoop oplossen qua rackspace en snelheid. De prijzen zullen helaas voorlopig wel nog niet haalbaar zijn. Ze zullen eerder gericht zijn voor AI doeleindes.
Rack space is allang het issue niet meer , stroom verbruik echter wel.

Kijk je nAr azure datacenters die zijn allemaal gelimiteerd op stroom en kwa oppervlakte staan ze maar half vol.

Logische ook door de density heb je zoveel stroom nodig om een 48he te vullen dat rijen vol dense op elkaar in een groot dc ver over de 500 megawatt uur zouden gaan wat niemand kan aansluiten.

En voor de warmte en maintenance is het fijner om wat meer ruimte te hebben.

Vroeger was dat idd aanders en was ruinte de issue
het is zelfs zo dat een 2u voeding efficienter is dan 1u, dus langzaam aan word 2u de norm ipv 1u zoals dat vroeger was. Of gewoon 4u en een stuk stillere machines met grotere en dus efficientere fans. 15 watt per server voor de fans uitsparen kan al aardig op gaan lopen op duizenden servers
4u met 4 blades in ;)
En wat ik maar niet begrijp is waarom niet een tropisch zwemparadijs naast/op/onder een datacenter geplaatst wordt. Ditto zou ik best wel in de winter een stukje datacenter onderdak willen bieden; ik geloof alleen dat experimenten in het verleden stilletjes van het toneel zijn verdwenen...
Paar van deze in de NAS zou toch wel erg leuk zijn!
Totdat een drive faalt en je nas de raid array moet rebuilden.
Zolang je een RAID-setup gebruikt waarbij geen pariteit hoef te worden berekend (zoals RAID10) is het een eenvoudige kopieeractie, en zal hij binnen een dag wel klaar zijn met rebuilden.
een dag?

Als we van van een sloridge 7GB/s uitgaan in een raid 10 setup is het een slordige 11uurtjes kopieren voor een volle SSD, en die dingen zijn nooit vol, dus dan is het haast in een werkdag opgelost :+
Maar als ik me niet vergis, kijkt een RAID-controller niet naar wat er in gebruik is, en wordt de disk bit voor bit gekopieerd, ongeacht wat er op staat. Dus of hij nou leeg of vol is, het duurt altijd even lang. Ja ik ging ook van die 7 GB/s uit, maar dat is de leessnelheid. Schrijfsnelheid is misschien iets langzamer, en als de array tegelijk ook nog in gebruik is... ik rondde het af naar een dag. ;)
256TB betekend ook heel wat cellen waar tegelijk naartoe geschreven kan worden :) maar alsnog, al duurt het 24uur. Een beetje raid 5/6 array met 4TB schijven van vroeger duurt er langer over.
Heel wat cellen, maar 1 controller. Gaat afhangen van wat de bottleneck is: de controller of de capaciteit van de cellen die tijdelijk als SLC gebruikt worden waar als buffer naartoe geschreven word.
Als je (zoals veel NASsen tegenwoordig) software-RAID gebruikt, dan hoeven die tekortkomingen toch niet te gelden?
Dan heb je weer andere tekortkomingen. Bijvoorbeeld de CPU die het bij software RAID allemaal moet trekken. En uiteindelijk kan het ook zo zijn dat je niet de maximale bandbreedte van de bus kunt gebruiken.
1 dag is best vlot toch vergeleken met een grote SATA disk
Ja dan ben je ff bezig _/-\o_
Inderdaad. Gelukkig zou een 3way mirror voorlopig genoeg moeten zijn (en snelle rebuilds)
Meh, met 16GB per second rebuilden zorgt ervoor dat het ook bij deze schijven geen eeuwen duurt…
Eventjes een reminder dat een raid set geen backup is. Het zorgt er voordat het niet letterlijk uitvalt bij een stukke disk. Ben je bang dat er in die tijd nog een disk stuk gaat? Dan zul je iets met raid 6 moeten doen, ofzelfs raid 60.
Wat moet je met 256 terabyte opslag
Ik kocht ergens begin jaren 90 een 286 met een harde schijf van 40 megabyte. En toen kreeg ik al dezelfde vraag gesteld. Misschien is 256 terabyte nu wat overdreven. Aan de andere kant zou je zo ook een paar hidden backups op een andere partitie kunnen zetten en daarmee potentieel iets hebben om terug te zetten als je een keer iets "fouts" hebt binnengehaald. Vooropgesteld natuurlijk dat dat je backup niet gezien heeft en die ook vrolijk encrypted heeft.
Ja idd een hardeschijf upgrade van 100 mb of een geheugen reepje van 1 mb 😦
Misschien dat de het laatste woord van de titel een hint geeft? Ik denk dat een datacenter gerust meerdere/tientallen van dergelijke SSDs in een SAN plaatsen.
Ik reageerde op teun die een paar van deze in een nas zou willen, buiten data centers zie ik dit voor particulier gebruik op dit moment overbodig
Mja, 256 TB is natuurlijk overkill voor De Normale Mensch (voor nu, althans) en zoveel hoef ik ook helemaal niet.

Maar het zou leuk zijn als 6 of zelfs 4 TB een beetje beter betaalbaar wordt. Een enkele SSD van 6 TB is nog wel te doen, maar wanneer je een 4-bay NAS hiermee moet vullen wordt het toch wel érg prijzig, in vergelijking met mechanische opslag...
Lijkt of alles steeds zwaarder moet worden, nu klinkt bijvoorbeeld 1gbit glas nog leuk maar hoe lang zal het duren voordat zoiets al weer achterhaald is zoals adsl.
Het mooie van glas is dat je de snelheid enorm kunt verhogen zonder de vezel te vervangen. alleen de hardware aan beide kanten. Dus zal niet snel achterhaald zijn.

Verder betreft opslag, ik maak regelmatig foto's en zat laatst te tellen, heb al zo'n 50TB aan raw storage hier liggen.
Dan is die 256tb ssd nog wel overkill, maar een gemiddelde hobbyist heeft al snel veel data opslag nodig. En liever ssd dan hdd uiteraard, mits dat betaalbaar wordt op termijn.
Ik ben het met je eens dat het best flink is, aan de andere kant, ik heb nu zon 70tb(usable) en ik moet echt selectief zijn met wat ik bewaar. Er niet meer zo op te hoeven letten zou mooi zijn, denk ik.
4k content neem echt behoorlijk wat ruimte in beslag.
Dit zijn SSD's speciaal voor datacentra.De prijzen zullen daar ook naar zijn. Zelfs voor de (middel)grote bedrijven met een eigen netwerk storage zullen de prijzen waarschijnlijk nog te hoog liggen.
Voor een datacenter betekend het dat ze hun capaciteit uit kunnen breiden en toch het stroomverbruik terug kunnen dringen. Het lagere stroomverbruik van de SSD's betekent ook dat er minder warmte wordt geproduceerd, wat het stroomverbruik nog verder terug kan dringen. Minder koeling betekend ook nog eens minder watergebruik.

Waar de SSD's voor gebruikt gaan worden is natuurlijk koffiedik kijken. Voor een groot deel is dat de data die nu al in datacenters staat, maar AI voegt daar de laatste twee jaar gigantische hoeveelheden data aan toe.
Wel knap dat ze 256TB op QLC nog voor mekaar krijgen. Ben zelf nog al data hongerig dus loop al te watertanden bij dit soort ontwikkelingen.
QLC maakt niet uit, je gaat gewoon "stapelen" van laagjes geheugen en de SSD word er gewoon fysiek dikker door uiteindelijk.
Inderdaad. Nu SSD's steeds goedkoper worden begint het op te vallen hoe beperkt de high-end opties nog zijn. De populaire Samsung 980 reeks stopt bij 2TB, terwijl je bij WD zo'n 50% meer per GB betaald voor de 4TB optie.

Met games die langzaamaan standaard richting de 100GB gaan zou 4TB als high-end mainstream optie geen gekke keuze zijn, maar momenteel is het goedkoper om meerdere schijven te combineren.

[Reactie gewijzigd door Wolfos op 22 juli 2024 22:10]

Zit mij even af te vragen tot hoeveel TB conventionele harddisks eigenlijk gaan en er volgens mij geen 256 TB harddisks bestaan. Dus dan wel opmerkelijk dat de ssd's nu de harddisks voorbij gestreefd zijn qua hoeveelheid opslag. Enigste wat ik mij wel af vraag is hoe het met betrouwbaarheid zit en hoe lang dan die ssd's mee gaan in vergelijking met harddisks.
Met technieken als HAMR worden op korte termijn volgens mij 32TB schijven "beloofd" bij de traditionele HDDs. Maar SSDs zijn natuurlijk al lang aan de weg aan het timmeren. Je kunt nu al (tijden) 8TB kopen in 2,5" formaat, en dat is waarschijnlijk ook nog grotendeels een leeg doosje. Terwijl 2,5" HDDs maximaal 5TB zijn en dan ook nog eens veel dikker (~eens zo dik als een SSD). En nu koop je 3,5" HDDs tot 20, 22TB, iets dat met SSDs ook vast al lang kan, alleen het kostenplaatje... Bij SSDs zit het probleem ogenschijnlijk voornamelijk in de kosten v.w.b. de controller & chips. Bij HDDs moeten er echt keer op keer jaren in development worden gestoken om met iets nieuws te kopen. Nu HAMR, daarnaast hebben we nog helium drives, (voornamelijk) bij 2,5" zie je vaak SMR, het afwijken van de semi standaard dikte om meer platters er in te stoppen, etc etc.
En nu koop je 3,5" HDDs tot 20, 22TB, iets dat met SSDs ook vast al lang kan
Ja voor zover ik mij kan herinneren dacht ik ook dat 22 TB het maximum is bij harddisks qua opslag. Hoe dit bij ssd's zit weet ik eerljk gezegd niet maar inderdaad, vooral de prijs bepaald. Alhoewel je tegenwoordig voor pak weg rond 60 tot 70 euro kan je al een 2TB ssd kopen. Maar het vreemde bij ssd's is dat je opeens dan een behoorlijk prijsverschil ziet tussen b.v. 2 en 4 TB.
Erg benieuwd naar de TBW van deze SSD. Willen ze zorgen dat de drive lang mee gaat, zal er flink wat overcapaciteit aan nand in moeten zitten. Anders zal dit type geheugen snel het loodje leggen, zeker in combinatie met bijvoorbeeld ZFS pools.

Uiteraard is het wel erg workload afhankelijk. Operationele toepassingen voeren echter altijd veel schrijfacties uit.

[Reactie gewijzigd door Mastermind-- op 22 juli 2024 22:10]

Leuke rebuild tijden :) .
Rebuild tijden van wat.

Deze schijven gebruik je niet in raid sets.

Ik denk dat je reseed bedoelt van software copien en aangezien je dan geen calculatie hebt kun je full burst streamen van meerdere sources.
hoezo? Raid 10 wat je bij dit soort capaciteiten zou moeten gebruiken is gewoon 1:1 kopieren plakken, dus in een uurtje of 10 met 7GB/s schrijven is het gedaan als ie helemaal vol zou zitten.

Een traditionele raid 5 met 4TB hdd's duurt er vele malen langer over.
Thuis in de NAS ook wel een leuk formaatje, alleen een bijbehorende goede zoekfunctie is dan ook wel erg handig ;)
Hoe lang zal het nog duren voordat we op een moment uitkomen dat je geen geheugen meer nodig bent?

SSD’s worden groter, maar ook sneller en sneller. Zou wel bijzonder zijn. Bij stroomonderbreking is er niets aan de hand en gaat de computer verder waar het gebleven was zodra de stroom er weer op staat.
Ik vraag me af welke bouw vorm deze hebben, ik vind die van 128TB ook niet terug maar ik vermoed dat deze beide 3.5" zijn en niet 2.5", 2.5" is momenteel 30TB als "grens". Als ze die pcie bus nu eens uitbreiden naar 8x in de plaats van 4x dan heb je dubbel zoveel transfer per schijf.

Ik zou zelfs een jumper achter op schijf zetten voor 4 of 8 pcie lanes zodoende dat je zelf kan kiezen voor standaard of extended :) maarja dan vermoed ik dat er ook een "nieuwe connector" moet komen.

Op dit item kan niet meer gereageerd worden.