Door Willem de Moor

Redacteur

De honger naar opslagcapaciteit

Flash wordt nog veelzijdiger met qlc-nand

11-07-2017 • 06:00

63

Multipage-opmaak

Inleiding

Intel en Micron hebben onlangs een nieuwe generatie nand met 64 lagen aangekondigd, waarmee het nand-dies tot 512Gbit kan maken. De eerste ssd's met het 64-laagsgeheugen zijn Intels 545-serie ssd's, met in eerste instantie 512GB aan opslagcapaciteit, vooralsnog samengesteld uit 256Gbit-nandchips, Nand met de 512Gbit-capaciteit wordt nog niet in grote aantallen geproduceerd en komt pas in de loop van 2018 beschikbaar.

Toshiba heeft op zijn beurt zijn vierde generatie bics-nand ontwikkeld, dat eveneens 64 lagen heeft, maar als eerste gebruikmaakt van qlc-geheugen in plaats van mlc- of tlc-geheugen. Daarmee kan 768Gbit per die gerealiseerd worden. Ook een partner van Toshiba, Western Digital, gaat ssd's produceren met dit bics4-geheugen.

Tijd om weer eens te kijken wat ook alweer de verschillen waren tussen de nandtypes die IMFT enerzijds en Toshiba anderzijds produceren. En hoe zit het met de grootste flashproducent, Samsung? Ook dat bedrijf is immers net begonnen met de productie van 64-laagsnand, in capaciteiten van 256Gbit per die. De eerste producten moeten externe ssd's uit de T5-serie worden, die van 256Gbit-chips gebruikmaken. Samsungs v-nandtechniek moet verder schalen met meer lagen en hogere capaciteiten, en zo 1Tbit per die bereiken. Maar we beginnen met een terugblik op de flashmarkt en de reden waarom al die fabrikanten eigenlijk geheugen met zoveel lagen, dat enorm lastig te maken is, zijn gaan produceren.

Steeds meer lagen in nand

De geheugenmarkt: een nieuwe verschuiving

De wereld van ssd's lijkt een stagnatiepunt te hebben bereikt. Na het verschijnen van steeds snellere satadrives hebben we een periode gezien waarin de sata-interface de bottleneck vormde. Die werd overwonnen door de introductie van pci-e-ssd's, die aanvankelijk met een sata-interface direct op de pci-e-bus werd aangesloten. Om de prestaties nog verder te verhogen, werd het sataprotocol opgevolgd door het nvme-protocol, waarmee ssd's native konden worden aangesproken. Dat is de huidige stand van zaken: we hebben snelle pci-e-x4-ssd's met nvme-interface, maar waar zit de vooruitgang?

Die zit in twee aspecten: in het volume van ssd's die aan eindgebruikers worden verkocht, en, veel belangrijker, in ssd's die worden verkocht via oem's en odm's die complete desktops en laptops produceren. Als we de Pricewatch raadplegen, zien we daar op het moment van schrijven zo'n 3000 laptops. Daarvan hebben ruim 2300 uitvoeringen een ssd aan boord, en als we budgetlaptops met emmc-opslag en laptops met hybrid drives meerekenen, zijn het er zelfs ruim 2500 met een vorm van nand aan boord. Een jaar geleden waren dat er ongeveer 1600 en in juli 2015 telden we er iets minder dan 1000.

In bovenstaande grafiek hebben we de absolute en relatieve aantallen opslag in laptops op een rijtje gezet. Naast het steeds groeiende aantal verschillende laptopuitvoeringen zien we een duidelijke groei in het aantal ssd's in laptops. Als we alleen kijken naar sata-ssd's, is dat verdubbeld tussen 2014 en 2017, en het totale aandeel nandopslag is gegroeid van een derde naar vier vijfde. In absolute aantallen is de laptopmarkt gestagneerd, maar desondanks betekent dit dat de vraag naar flashgeheugen, alleen al voor laptops, flink gegroeid is. Bedenk daarbij dat de capaciteiten ook zijn gegroeid en het is duidelijk dat de totale nandmarkt in de laatste jaren flink in omvang is toegenomen.

Dat hebben we gemerkt aan de prijzen, want anders dan we gewend waren in de beginjaren van de ssd-opmars, zijn die per gigabyte in de laatste jaren nauwelijks gedaald. Fabrikanten kunnen eenvoudigweg niet aan de vraag voldoen. Dat brengt ons tot het tweede aspect waar vooruitgang te bespeuren valt, namelijk de capaciteit. Dan hebben we het niet zo zeer over de capaciteit van de ssd's die we kopen, want omdat de prijzen onder druk staan, en we maar een bepaald bedrag aan ssd's willen uitgeven, groeit die niet zo hard. We bedoelen de capaciteit van de afzonderlijke nandchips, de dies die op de wafer zitten dus. Juist op dat gebied zien we de laatste tijd interessante ontwikkelingen die we nader zullen bekijken en die op termijn misschien de harde schijf aardig verdringen. De keerzijde is, zoals we zullen zien, dat de snelheden paradoxaal genoeg zakken als de capaciteit toeneemt. Waarom dat is, bekijken we op de volgende pagina's.

Meer lagen, meer capaciteit

Fabrikanten van flashgeheugen hebben een paar opties om meer capaciteit te produceren. De simpelste zou natuurlijk zijn: gewoon het aantal wafers vergroten dat uit de fabriek rolt, ware het niet dat fabrieken al op maximale capaciteit draaien en uitbreiding niet alleen jaren, maar ook miljarden euro's kost. Het aantal flashchips, of beter gezegd dies, in een package vergroten is de meest haalbare optie. Daarmee vergroot je weliswaar de capaciteit, maar de kosten stijgen dan lineair mee. Dit is dus niet de beste optie als je geld wilt verdienen.

Beter is het om de capaciteit per die te vergroten, maar dat is een pittige opgave. Je kunt het bereiken door scaling, het kleiner maken van transistors, maar zeker voor nandopslag zijn kleinere transistors niet altijd beter. Als ze te klein worden, passen er nauwelijks nog ladingdragers, die de bits of de data vormen, fysiek in een geheugencel. Dat is de reden waarom de productie van vlak of planar nand op steeds kleinere nodes gestopt is. Zo'n 16-22nm is wel een beetje het minimum waarmee transistors geschikt zijn voor nand. De oplossing ligt, zoals we eerder schreven, in de hoogte, dus bij 3d-nand.

2d-nand

Nu zijn nandchips altijd al driedimensionale structuren geweest, met metaallagen over geheugencellen en ondergronden van silicium, maar met 3d-nand wordt de hoogte ingebouwd, met verscheidene lagen transistors boven op elkaar. Vergelijk het met een bungalow versus een flatgebouw; je kunt in het laatste geval op dezelfde grondoppervlakte veel meer kamers kwijt. De grootste fabrikanten van flash, en er zijn nog maar drie of vier echt grote, hebben dat in de laatste jaren gedaan.

De grote drie, Samsung, IMFT en Toshiba/Sandisk oftewel Flash Forward, hebben inmiddels alle drie nand aangekondigd met maar liefst 64 lagen geheugencellen. Vooralsnog zijn het de enige halfgeleiderproducten die zoveel lagen hebben. Het is dan ook extreem lastig gebleken om dit te produceren. Er moeten bijvoorbeeld gaten door alle lagen geëtst worden die een verhouding van 60:1 moeten hebben, anders worden ze te groot. Alleen dat is al een enorme uitdaging, maar 64-laagsnand komt er nu echt aan.

String-stacking

Een 3d-nand, ongeacht of die door Samsung, Flash Forward of IMFT gemaakt wordt, begint met een wafer. Daarop worden eerst de gewenste lagen via cvd gedeponeerd, de een na de ander. Zo wisselt Flash Forward lagen geleidend polysilicium af met isolerend siliciumdioxide en Samsung deponeert laagjes siliciumdioxide boven op lagen siliciumnitride. Wanneer de gewenste aantallen lagen bereikt zijn, wordt een lithografiemasker aangebracht en volgt een stap die nog lastiger is dan het perfect aanbrengen van alle lagen: de etsstap. Er moet een gat worden gemaakt door al die lagen die zijn afgezet om de geheugencellen te produceren. Net als wanneer je een gat in de grond graaft, kun je niet oneindig diep gaan zonder de doorsnede van het gat groter te maken, en dat is het lastige punt. De verhouding tussen doorsnede en diepte kan ongeveer, althans op basis van informatie die fabrikanten vrijgeven, ongeveer 1:40 tot 1:60 bedragen. Dat beperkt het aantal lagen in de praktijk en daarmee dus met hoeveel lagen 3d-nand geproduceerd kan worden.

Daarna volgen nog tal van stappen om de daadwerkelijke gates te produceren, maar voor de overzichtelijkheid illustreren we die alleen met het onderstaande schema van Samsungs productieproces.

Samsungs v-nand productiestappen

Er is echter een oplossing, namelijk string-stacking. Als de eerste ronde depositie, lithografie, etsen en metalisering klaar is, kan een isolerend tussenlaagje worden aangebracht. Daarna kan het hele proces opnieuw beginnen, al moeten de twee of meer strings geheugencellen wel aan elkaar gekoppeld worden. Zo kan tooling voor 32 lagen met een etsstap die nog goed te doen is, gebruikt worden om twee strings van 32 lagen te 'stacken' en zo nand met 64 lagen te produceren. Niet alle fabrikanten zijn duidelijk over het wel of niet gebruiken van string-stacking, waarschijnlijk om niet te veel informatie aan concurrenten prijs te geven. IMFT zou als een van de weinige fabrikanten string-stackingtechnologie toepassen, terwijl SK Hynix en Flash Forward dat in het midden laten, maar waarschijnlijk eveneens doen. Alleen Samsung zegt zijn 64-laags-v-nand zonder string-stacking te kunnen produceren.

Qlc: meer capaciteit, maar trager

Waarom hebben we het dan over qlc? Omdat dat een andere belangrijke methode is om meer capaciteit uit een die te persen. Vroeger, toen ssd's nog veel geld mochten kosten en weinig capaciteit hoefden te bieden, hadden we slc-geheugen. Een enkele bit per geheugencel werd opgeslagen en kon enorm snel worden gelezen en weggeschreven. Dat komt doordat de lading in een geheugencel moet worden uitgelezen. Eigenlijk gebeurt dat met hele strengen tegelijk, maar dat laten we nu even voor wat het is. Bij slc hoeft alleen maar gemeten te worden of de lading hoog of laag is om een 0 of 1 op te leveren bij uitlezen. Bij schrijven hoeft in principe maar net iets meer dan de helft van de lading negatief te zijn en er is een 1 geschreven.

Toen ssd's wat populairder werden, bedachten flashfabrikanten dat mlc wel goed genoeg zou zijn. Daarmee worden twee bits per cel weggeschreven en zijn er dus geen twee, maar vier toestanden in een geheugencel. Dat levert al wat meer moeite met lezen en schrijven op, want dat moet nu nauwkeuriger gebeuren en duurt dus langer. Bij het schrijven staat er langer spanning op de cellen, waardoor ze meer slijten en de levensduur van mlc, samen met de prijs, omlaaggaat. Bij tlc, of drie bits per cel, worden de spanningsverschillen nog meer verdeeld, duurt het dus langer om te lezen en schrijven, en gaat de levensduur verder omlaag. Daar staat weer een flinke capaciteitsverhoging tegenover, dus lagere prijzen per gigabyte.

Opslagniveaus in nand

Omdat nu ook de zogeheten koude opslag, die traditioneel door harde schijven of zelfs tape wordt verzorgd, aan de flashevolutie moet geloven én omdat we nog meer opslag voor nog minder geld willen, is qlc-nand bedacht. De ladingsniveaus in de cellen worden nog verder opgedeeld, lezen en schrijven vergen een nog grotere nauwkeurigheid en foutcorrectie-algoritmes hebben het nog zwaarder. De levensduur wat aantal schrijfcycli betreft, zou ook verder zakken, maar het gaat hier meestal om data die nauwelijks vaker dan één keer wordt weggeschreven. Denk aan een filmcollectie op een harde schijf: die wordt hoogstens aangevuld, maar verder slechts incidenteel gelezen. En met qlc krijgt nand de capaciteit die nodig is om echt met de bulkopslagcapaciteit van harde schijven te concurreren. Hoe de verschillende fabrikanten dat doen, bekijken we kort.

64 lagen en meer

We noemden de belangrijkste fabrikanten al even in vogelvlucht, met Samsung, met een marktaandeel van ruim een derde, als grootste. Dan volgen Toshiba, met joint venture Flash Forward samen met WD/Sandisk, en Intels en Microns samenwerking IMFT. De vierde, met nog zo'n tien procent marktaandeel, is SK Hynix. Die moeten we nog even noemen om redenen die zo meteen duidelijk worden.

Samsung

Samsung heeft al vorig jaar, tijdens zijn jaarlijkse SSD Global Summit, zijn nieuwste generatie v-nand aangekondigd. Samsung noemt zijn 3d-nand v-nand en het Zuid-Koreaanse bedrijf produceert dat inmiddels met 64 lagen. Het v-nand van Samsung maakt gebruik van een andere techniek dan IMFT's om lading in de geheugencellen op te slaan. Samsung heeft namelijk charge trap-cellen, waar IMFT floating gates gebruikt. Om 64 lagen te bereiken heeft Samsung de signaallijnen en de isolatie ertussen aanzienlijk dunner moeten maken, wat tot meer weerstand en ruis leidde. Het heeft flink wat r&d gekost om dat op te lossen, maar het heeft geresulteerd in dies van 129mm² met 512Gbit aan capaciteit. Er zijn nog altijd geen producten met het nieuwe 64-laags-3d-nand beschikbaar, maar dat moet dit najaar veranderen.

Toshiba/Sandisk/WD oftewel Flash Forward

Toshiba maakt net als Samsung gebruik van charge-trapgeheugencellen, maar Flash Forward heeft een eigen 3d-techniek ontwikkeld, die het BiCS, een afkorting voor Bit Cost Scaling, noemt. Getuige de naam is dat dus puur bedoeld om de kosten per bit te reduceren zonder kleinere procedés te hoeven gebruiken. BiCS is iets eenvoudiger dan Samsungs v-nand wat structuur en gebruikte materialen betreft. Dure halfgeleidermaterialen als tantalium en high k-diëlektrum zijn daarvoor niet nodig. Het geheugen van Flash Forward, waarvan naast Toshiba ook Sandisk en diens moederbedrijf Western Digital gebruikmaken, heeft inmiddels ook 64 lagen bereikt. De die is iets groter dan die van Samsung, 132mm², en heeft een capaciteit van 512Gbit met tlc-nand. Toshiba heeft echter ook een variant van zijn 64-laags-3d-nand ontwikkeld dat als eerste met qlc-geheugen werkt. Daarmee is de capaciteit vergroot tot 768Gbit per die.

Fabrikant Samsung Flash Forward IMFT SK Hynix
Capaciteit 512Gbit 512Gbit (tlc)
768Gbit (qlc)
768Gbit 256Gbit
(512Gbit eind 2017)
Aantal lagen 64 64 64 72
Die-oppervlak 129mm² 132mm² 179mm² ?mm²
Dichtheid 3,97Gbit/mm² 3,88Gbit/mm² 4,29Gbit/mm² ?Gbit/mm²
Bits Tlc Tlc en qlc Tlc Tlc
Celtype Charge-trap Charge-trap Floating gate Charge-trap
String-stacking Nee Waarschijnlijk Ja Waarschijnlijk

Intel en Micron: IMFT

IMFT, de samenwerking tussen Intel en Micron, getuige de naam Intel Micron Flash Technologies, maakt op zijn beurt gebruik van floating gates voor zijn 3d-nand, waardoor het kan terugvallen op een lange geschiedenis cmos-technologie. IMFT is mede daardoor al iets verder dan concurrenten Samsung en Flash Forward, want het heeft al producten aangekondigd en de eerste ssd's met 64-laags-3d-nand zijn in de vorm van Intels 545-ssd al verkrijgbaar. Bovendien heeft IMFT een 64-laags-3d-nand dat een hogere capaciteit haalt dan Samsung en Flash Forward. IMFT propt namelijk 768Gbit op een enkele die, maar die is, met 179mm², wel iets groter dan de concurrenten. De concurrenten moeten namelijk die-ruimte reserveren voor de aansturingslogica om het nand aan te sturen, terwijl IMFT dit dankzij cmos-integratie onder het nand kwijt kan. Let wel, dit gaat niet om de ssd-controller, maar de logica om de bitlijnen uit te lezen.

SK Hynix

Waar Samsung, Flash Forward en IMFT nand met 64 lagen ontwikkelen en in meer of mindere mate productiegereed hebben, heeft de vierde nandproducent, SK Hynix, nand met maar liefst 72 lagen aangekondigd. Dit is inmiddels de vierde generatie 3d-nand van Hynix, maar net als bij de derde generatie is de capaciteit 256Gbit per die. Later dit jaar moeten dies met 512Gbit volgen. De dies zijn echter wel dertig procent kleiner dan de v3-generatie, waardoor het bedrijf kosten bespaart door meer dies uit een wafer te halen. SK Hynix kondigde 3D-V4-generatie al in april aan, maar had moeite de yields voldoende hoog te krijgen. Inmiddels zou dat gelukt zijn en is de massaproductie van start gegaan. Overigens zou SK Hynix ook eigen controllers gaan maken, waardoor het net als Samsung 'verticaal geïntereerd' zou worden en een complete ssd in eigen silicium zou kunnen maken, zonder afhankelijk te zijn van controllers van derden.

Tot slot: richting de harde schijf?

Op de nandmarkt heerst momenteel een tekort aan capaciteit dat deels is terug te leiden tot de toegenomen vraag naar solidstateopslag in datacentra, laptops en andere consumentenelektronica, zoals telefoons. Een groeiend deel van de flashproductie is echter bedoeld voor veel minder zichtbare toepassingen, zoals internet-of-thingshardware en auto's. Dat is naar verwachting een grote groeimarkt, met talloze sensors die data verzamelen en die tijdelijk moeten opslaan. Alleen relevante data zou naar cloudservers verstuurd moeten worden, om bandbreedte, opslagcapaciteit en energie te besparen. Dat vergt een grote hoeveelheid nandopslag, waarvan nu al tekorten zijn en waarnaar de vraag alleen maar zal toenemen.

Fabrikanten hebben daarom in de afgelopen jaren de capaciteit van nand steeds verder opgevoerd, zowel door de lithografie te schalen en chips niet vlak, maar in 3d met vele lagen te produceren, maar ook door steeds meer bits per geheugencel op te slaan. Inmiddels zijn we aangekomen bij 64 en in een enkel geval zelfs 72 lagen geheugencellen die op een die opeengestapeld liggen, waarbij de dies zelf overigens ook nog eens een keer of zestien op elkaar gestapeld worden in een package. Dat betekent dat in een chip inmiddels zo'n 1024 lagen geheugen zitten. Bovendien is 64 lagen geen limiet voor het aantal lagen in een nanddie, want dankzij string-stacking kunnen verschillende stapels op elkaar geproduceerd worden.

Naast meer lagen hebben fabrikanten trucs uitgedokterd om steeds meer data per geheugencel op te slaan. Eerst was dat een enkele bit, inmiddels zijn dat er vier voor qlc-nand. Dat brengt uitdagingen voor foutcorrectie en levensduur met zich mee, maar vergroot ook de capaciteit met een derde. Qlc-geheugen moet in het bijzonder ingezet gaan worden in opslagtoepassingen waar data niet vaak ververst hoeft te worden, zoals cold storage in servers, maar ook waar kostenreductie een belangrijke factor is.

Een neveneffect daarvan is dat ssd's steeds groter kunnen worden. Met een enkele die waarop 768Gbit kan worden opgeslagen, past in een package al 1,5TB. Met vier van die chips in een ssd zit je op een capaciteit van 6TB, groter dan de gemiddelde capaciteit van een 3,5"-harde schijf. We zullen in de komende jaren moeten zien of de productiecapaciteit van nand toereikend is om ssd's de laatste hardeschijfbastions te laten innemen. Daarvoor zal het niet alleen op opslagcapaciteit, maar ook op kosten moeten concurreren.

Lees meer

Reacties (63)

63
62
29
4
0
25
Wijzig sortering
Heel erg goed artikel, en zeer goede timing. Er is nog al onder velen de verwarring wat de positie van QLC is, en dit artikel helpt. Echter één klein puntje ter aanvulling op het onderstaande vanuit her artikel:
Qlc-geheugen moet in het bijzonder ingezet gaan worden in opslagtoepassingen waar data niet vaak ververst hoeft te worden, zoals cold storage in servers, maar ook waar kostenreductie een belangrijke factor is.
Het is maar wat je exacte definitie van cold storage is. I.m.o. is cold storage letterlijk koud. I.e. door de opslag gaat geen elektrische stroom en is niet in beweging. In dat gebied zal tape simpelweg voor mega veel jaren heer en meester blijven, omdat de kosten per GB zo laag zijn, terwijl de data dichtheid eveneens hoog genoeg is.

QLC zal belangrijk zijn voor de markten die behoefte hebben aan opslag dat zich ergens tussen koud en heet bevindt. Opslag dus waar men de data meer leest dan met cold storage, en minder (her)schrijft dan hot storage.

Dat gezegd denk ik (maar wie ben ik?) dat QLC echt yuge kan worden, mits de industrie het voor elkaar krijgt om de prijs per gigabyte met een aantal factoren kunnen laten zakken om ook het laatste bestaansrecht van HDDs weg te kunnen nemen.
Flash heeft ook een aantal voordelen wat tape ook heeft.
Je kunt het namelijk spanningsloos maken en dan is het verbruik echt 0.
En het is een stuk minder mechanisch dan tape, dus slijtage is aanzienlijk minder.
Tape is wel goedkoop, maar alleen als je alle infrastructuur al hebt staan. Dus streamers, tape robots, etc.
Tot ruwweg een PetaByte aan storage, is tape duurder dan harde schijf opslag.
Daarboven kost een PetaByte op tape ongeveer 10k euro. (+ nog wat kosten ivm schaalbaarheid met extra drives, robots, etc.)
Op hdd's kost het ruwweg 100k per PB. (servers, hdd's, rackspace, energie, koeling, etc.)

Vooral die extra kosten van serverruimte, power, etc. maken schijf-opslag vrij prijzig en ik denk dat flash daar best wel rap de prijs van schijven kan evenaren.
En voordelen tov. tape zijn er ook genoeg.
Het onderhouden van een tape library is best wel kostbaar vanwege schaarser wordende expertise en je moet niet vergeten dat er voor de grotere archieven een best wel aanzienlijke landing zone nodig is aan hdd-ruimte + servers en bandbreedte.
Dat loopt ook al snel in de PetaBytes + redelijke aantallen tapestreamers + taperobots voor de echt grote archieven.
En flash heeft een veel hogere dichtheid dan tapes of hdd's en de energiebehoefte is tov. hdd's ook wel prettig.
Een beetje storage rack met hdd's (5 PB per 42 U ongeveer), zal zo'n 130 kg per 4 U wegen en per 4U een 1800Watt voeding hebben (60 disks die elk gemiddeld zo'n 10 Watt trekken onder load)
Met flash heb je daar al een behoorlijke winst te pakken, dus wanneer flash op zo'n 2x de prijs per GB uit zal komen van hdd's zal er echt heel erg veel vraag naar komen voor datacenter opslag en ik denk dat dat het eind van hdd's zal zijn.
Volgende maand komen de 12 TB schijven uit en tenzij we ineens een hele grote sprong gaan maken met hdd's, zal vermoedelijk de 20 TB hdd de grootste hdd zijn die we ooit gaan zien.
Zo'n sprong zou kunnen komen van HAMR schijven, maar die techniek staat al jaren op het moment van uitkomen.
Als die HAMR-techniek wel effectief inzetbaar blijkt, zou de hdd nog wel kunnen doorgroeien tot zo'n 180 TB per hdd. Kortom, hoe snel flash de hdd's zal voorbij gaan, zal de tijd leren (STOP flash!, HAMR time ;) )
Harde schijven kunnen moeilijk groter worden je ziet dat de prijs per GB ook niet lager wordt bij grotere capaciteit schijven. Backblaze heeft hier ook een interessant artikel over geschreven: https://www.backblaze.com/blog/hard-drive-cost-per-gigabyte/. De toekomst ligt echt in flashstorage, deze heeft de mogelijkheid veel verder nog te gaan groeien en over een aantal jaar HDD's helemaal te kunnen vervangen.
Flash geheugen dat volledig spanningsloos is degradeert aanmerkelijk sneller dan tapes.
Dat is een interessant gegeven.
Heb je daar meer informatie over?
Chips met 64 lagen! Om dat even in perspectief te zetten ter vergelijking; moderne high performance processoren hebben slechts 12 (AMD Zen) of 13 (Intel en Oracle/SPARC) lagen, dus dit is echt een flink stuk hoger -- al is me niet helemaal duidelijk uit dit artikel of het op dezelfde manier geteld wordt, in het geval van deze processors is het het aantal metal (verbindings) layers. DRAM chips zijn dacht ik slechts 3 lagen, en simpele chips, zoals een netwerk controller, zitten in de orde van 5 of 6 als ik me goed kan herinneren.
Dit is wel een beetje appels met peren vergelijken. Waarschijnlijk zijn de stack nodig voor flash geheugen wel hoger (absolute dimenties) dan die van high performance micro processors, maar daar houdt de vergelijking dan ook wel echt op.
Zoals je ziet in de plaatjes van Samsung in dit artikel, hebben ze voor één cell al 2 lagen nodig: één laag silicon oxide en één laag sikicon nitride. Dus voor een stack van 64 flash cellen op elkaar, zijn al 128 lagen nodig (en ga er maar vanuit dat het er veel meer zijn omdat Samsung zeker niet hun hele recept geheel zal prijsgeven).
Het klopt dat moderne productieprocessen iets van 10 of 12 metaallagen tot hun beschikking hebben. Om deze metaallagen te maken, zijn echter wel meerdere lagen materialen worden neergelegd. Het begint eigenlijk al bij de productie van de MOSFETs zelf, waarbij zeker al een laag of 5 of 10 wordt neergelegd of gegroeid en meestal weer geheel of gedeetelijk wordt weggehaald (denk aan de maskers voor ion implantatie, kristalgroei voor strained silicon, de verschillende lagen van de high-K gate oxides, de metal gate zelf, gate spacers, isolatie van de verschillende MOSFETS (shallow trench isolation) enz enz). Ook voor het maken van metaallagen zijn allerlei productiestappen nodig waarbij lagen worden neergelegd en weer verwijderd. Tevens worden de metalenverbindingen vaak omgeven door een materiaal (bv silicon nitride) om te zorgen dat deze niet langzaam migreren in de omliggende materialen (wederom twee lagen). En tussen de metaallagen liggen dan weer lagen diëlectrica (bv silicon oxide), die dan weer gescheiden worden tussen 2 metaallagen door een laag silicon nitride o.i.d.
Google maar een keer op afbeeldingen van "ChipWorks". Dan kan je zien wat voor lasagne van lagen zo'n processor wel niet is.
DRAM zit al lang op 36 lagen bij bijvoorbeeld SK Hynix, die dit jaar opschaalt naar 72 lagen. Echter moet je DRAM en Flash eerder met elkaar vergelijken dan één van deze met processors te vergelijken.

Naast het hele verhaal van achtbaanfreak, komt bij een processor ook warmtedissipatie (silicium is geen hele goede warmtegeleider, en de warmte die in de onderste lagen geproduceerd wordt moet door alle lagen heen) om de hoek kijken, en de complexiteit: DRAM en Flash zijn vele lagen van min of meer dezelfde structuren, tegenover een processor die uit vele verschillende structuren bestaat met geen enkele laag die identiek is.
DRAM zit al lang op 36 lagen bij bijvoorbeeld SK Hynix, die dit jaar opschaalt naar 72 lagen. Echter moet je DRAM en Flash eerder met elkaar vergelijken dan één van deze met processors te vergelijken.
Nee, dat is helemaal niet waar. DRAM is zover mij bekend nog steeds een simpele 2D structuur, al dat er soms wel stacks van DRAM chips gemaakt worden (en dan niet alleen bij HBM). Je lijkt te doelen op dit nieuwsbericht over Hynix, maar ze hebben het daar over 36, 48 en 72 laags 3D NAND flash, wat dus weer direct gerelateerd is aan het verhaal hier in dit artikel. Er zijn wel mensen, zoals van Hynix, die beargumenteren dat we naar vergelijkbare 3D structuren voor DRAM toe zouden moeten.

Wat wel een interessante ontwikkeling is die er aan zit te komen (en als ik me niet vergis heeft Intel's Skylake daar nu ook ondersteuning voor), zijn dat er NVDIMMS gaan komen; geheugen latjes met (NAND) flash in plaats van DRAM die als gewoon geheugen direct geadresseerd kunnen worden omdat ze aan je geheugen controller van je processor hangen en je niet via de I/O interface hoeft, zoals je nu nog PCIe praat met een NVMe.
Naast het hele verhaal van achtbaanfreak, komt bij een processor ook warmtedissipatie (silicium is geen hele goede warmtegeleider, en de warmte die in de onderste lagen geproduceerd wordt moet door alle lagen heen) om de hoek kijken, en de complexiteit: DRAM en Flash zijn vele lagen van min of meer dezelfde structuren, tegenover een processor die uit vele verschillende structuren bestaat met geen enkele laag die identiek is.
Goed, mijn vergelijking was ook wel een beetje erg kort door de bocht wellicht, en toegegeven @achtbaanfreak maakt een paar goeie punten, maar zo gek is hij echt niet. Bij processor chips hebben we het eigenlijk alleen over het aantal metal layers, dus de complexiteit van de verbindingen die je kan maken tussen componenten op de chip. Wikipedia heeft daar wel een goed plaatje bij. Dus inderdaad; het zijn een heel ander type lagen, maar het aantal lagen op deze NAND chips is nog steeds vele malen hoger dan van ander chips, en dat vond ik best waardom dat even vanuit dat perspectief te zien. Maar goed, misschien kan ik me maar beter met processor micro-architectuur bezig houden, dat is meer mijn vakgebied ;)
Ik bleef nooit stilstaan bij de levensduur, maar nu ik zie dat mlc (en qlc al helemaal) de levendsduur verkorten vraag ik me af hoe lang deze trend nog kan doorzetten..
Zoals het artikel ook al zegt is veel data niet erg veranderlijk van aard (het voorbeeld is de filmcollectie). Dat vermindert het levensduurprobleem. Bovendien kun je als je meer capaciteit hebt daarvan ook meer reserveren om 'slijtage' te compenseren, wat de fabrikanten de nodige speelruimte geeft om met slimme 'wear-level' algoritmes de effectieve levensduur (van een hele SSD) te vergroten.

En laten we eerlijk zijn, HDD slijten ook (en soms veel sneller dan gewenst). Onze 'data opslagbehoefte' is nu eenmaal schijnbaar oneindig groot.
Vraag me alleen of qlc ook meer last zal hebben van bitrot (omdat de cellen spanning verliezen) en hoe zich dat verhoudt tot hardeschijven en mlc. Bepaalde Samsung SSDs hebben dit probleem gehad, maar dit heeft Samsung in de firmware opgelost door data af en toe te verhuizen. Qlc is gevoeliger voor spanningsverschillen en het is meer bedoeld voor cold storage.
Dat zou je deels kunnen tegengaan door de A/D conversie in meer stappen toe te staan en een aantal cellen te gebruiken om de spanningsverliezen te kunnen ijken.
En je zou de flash-controller meer dynamisch kunnen maken door QLC geheugencellen wat vaker beschreven is te "degraderen" naar 3-level of zelfs 2-level.
Dat zou je kunnen doen door over-provisioning toe te passen, oftewel meer leveren dan dat je naar buiten kenbaar maakt.
Of de al-oude "bad sector" weer te herintroduceren, zodat filesystems om kunnen gaan met afnemende opslagruimte op het storage-systeem.
Het probleem met bad sectors is volgens mij dat er geen (goede) manier is voor de drive om aan het OS aan te geven dat een sector slecht wordt maar nog wel leesbaar is.
De drive zelf kan de sector dan verplaatsen zonder dat het OS er iets van merkt.

[Reactie gewijzigd door Olaf van der Spek op 22 juli 2024 16:20]

Je zou een read-operatie altijd kunnen laten werken, maar schrijf-acties naar een bepaalde sector altijd laten falen.
Op die manier kun je vanuit de drive kenbaar maken dat bepaalde sectoren niet meer bruikbaar zijn en op die manier dus effectief de grootte laten afnemen.
Dat werkt niet voor sectoren waarnaar niet (meer) wordt geschreven en dan verlies je dus data.
Lijkt mij meer een kwestie van N sectoren waarna het eerste geschreven gaat worden na een herwaardering van versleten sectoren te registreren.
Vergeet niet dat de LBA-mapping naar fysieke pages in flash toch al een behoorlijke administratie is vanwege de wear-levelling algoritmen.
Dus een paar LBA-sectoren die niet opeenvolgend zijn markeren als "accepteer geen schrijfacties meer" lijkt me niet echt een lastige opgave.

Dan hoef je nog steeds geen data-loss te hebben en kun je de capaciteit af laten nemen.
Ik begrijp weinig van je bericht.
Als de drive een slechte sector niet remapped en ook niet aan het OS kan laten weten dat de sector slecht wordt, dan zit je toch met data loss op het moment dat de sector echt niet meer leesbaar is?
Je kunt met flashgeheugen best wel goed -op een laag niveau- voorspellen of nieuwe schrijfacties minder goed gaan werken. Sterker nog, je zou het bij het schrijven meteen kunnen controleren en meteen re-mappen.
Dan heb je geen data-loss.
Dus je zou hele gebieden kunnen herdefiniëren tot 3-level en 2-level flash, maar dat hoef je pas te doen als je merkt dat het niet meer goed beschrijfbaar is.
En je kunt prima een drive een time-out laten geven bij het benaderen -voor het schrijven- van een specifieke LBA sector. Dan weet het OS ook genoeg. Let wel, lezen kan dan nog steeds, want het is goed opgeslagen.
Dit alleen als mogelijkheid om de capaciteit van de drive dynamisch te laten afnemen omdat flash-pagina's afgewaardeerd moeten worden.
Alternatief is natuurlijk dat filesystemen ermee overweg kunnen.
Sterker nog, je zou het bij het schrijven meteen kunnen controleren en meteen re-mappen.
Ik dacht dat het idee was om bad sectors door het FS te laten afhandelen en dus niet te remappen..
Nope, want dan verlies je wel data.
Je wilt juist dat het OS bepaalde stukken niet meer gaat gebruiken, dus het remappen moet in de firmware gebeuren (gebeurt nu al ivm. wear-leveling). Daarnaast moet er dus voor gezorgd worden dat effectief de capaciteit van je filesysteem kleiner kan worden.
In het kader van lange-termijn thuisopslag (bv. de filmcollectie) mis ik één belangrijk punt: de retentie. Voor SSD's die regelmatig on-line zijn geen punt, maar > 1 jaar in de kast kan al een probleem zijn (bron, blz 8, sowieso interessant leesvoer). Iemand ervaring met lange-termijn opslag op SSD?
Magnetische opslag houdt data lang vast. Zelf nooit problemen gehad met HDD's na een paar jaar kast; ook niet van gehoord. Verder anekdotisch bewijs: m'n stage-floppy doet het nog steeds foutloos! Een 1,2 MB van HP uit 1989...
Ik heb een maand of 3 geleden hier het één en ander over geleerd tijdens het vak Integrated Circuit Technology op de Universiteit Twente. Ik meen dat daar gezegd is dat cellen ontworpen worden om één ladingsdrager (elektron) per jaar of 10 jaar kwijt te raken. Dan kunnen cellen dus vrij lang mee. Let wel op dat het kwijt raken/lekken van lading uit de floating gate/nano particles een statistisch proces is. Het feit dat gemiddeld 1 ladingsdrager per x tijd uit de gate lekt, betekend niet dat uit één cell per x tijd 100miljoenmiljard ladingsdragers zijn weggelekt. De kans is niet zo groot, statistisch gezien is het een mogelijkheid (niet dat er 100miljoenmiljard elektronen één bit definiëren, ik meen dat het er 1000 tot 100.000 waren...heel erg weinig dus).
Dat was meen ik voor flash dat aan het einde van zijn schrijf cycles was, op dus. Ook moet een SSD niet in een warme omgeving worden bewaard omdat de cellen hun charge dan veel sneller verliezen.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 16:20]

1,2? Geen 1,44?
5¼-inch :+ de voorloper van de alom bekende 3½-inch floppy disks, slagje groter en wat minder opslag capaciteit.

Wel tof dat je nog een werkende lezer hebt voor 5¼-inch
Ach, tuurlijk. Stom :)
Ik heb nog een werkende 5¼" 360kb liggen. (DD-floppy's, geen HD)
Alleen geen juiste floppy's meer. (alleen nog maar HD)
Maar zolang de PC (museum stuk) nog start (XT, 15mb MFM disk) heb ik dat niet nodig. :)
5 en een kwart was inderdaad een slappe (floppy) disk in een papieren hoesje. Een 1.44 heet een diskette en zit in een stevige plastic behuizing. Eerste waren 720 kB later de 1.44 Mb

[Reactie gewijzigd door RAAF12 op 22 juli 2024 16:20]

Klopt allemaal, maar de levensduur van SSD's gaat langzaamaan naar beneden. Waar enkele jaren geleden 3 DWPD nog prima voor de high-end consumentenmarkt te krijgen was, wordt nu 3 DWPD zelfs voor de servermarkt al als een zware SSD beschouwd.

Een consumenten-SSD gaat inmiddels zo laag als 0,2 DWPD. Dat zal nog steeds voor velen voldoende zijn, maar het wordt ondertussen wel ongemakkelijk weinig. Als het gaat om de filmcollectie, doe mij dan maar een harde schijf. Zeker als die standby kan staan en niet continu hoeft te draaien, valt het met de slijtage ook wel mee.
Ik heb al mijn oude HDD's nog. Vermits vintage in is en de prijs van oude rommel terug aan het stijgen was, besliste ik om mijn 1 en 6GB examplaar maar eens van de hand te doen een paar maand terug. De data was nog volledig intact, al was ie 15 jaar niet gebruikt!

En een HDD die slijt of stuk gaat lijkt me nog altijd eenvoudiger te recoveren dan een SSD. Een powersurge op je SSD en je data kan voorgoed weg zijn.

Dit wil allemaal niet zeggen dag ik niet voldoende backups neem. Maar je heb van die mensen...
Ik denk dat dit voor de consument weinig tot geen impact heeft. De levensduur van een SSD is vaak al vele malen langer dan door de fabrikant opgegeven (1 van de bronnen). Voor datacenters is dit een totaal ander verhaal natuurlijk. Daar zul je een dergelijke SSD niet gauw in willen zetten. Wellicht ook alleen voor back-up doeleinden, maar niet in je server.
Helemaal met je eens de levensduur word zwaar onderschat.
Ik heb hier 2 intel mlc 60 GB ssd's van de eerste generatie draaien deze zijn volgens de smart al 909457 uur in gebruik. Het lijkt erop dat er een foutje in de smart info zit.
Maar goed ze worden al heel lang gebruikt als cache voor servers en worden echt heftig gebruikt.
Het feit dat ze nu pas geleden aangeven 1 % minder betrouwbaar te zijn geworden zegt toch wel wat.
Overigens heb ik hier een zeer oude 64 GB ocz van de beruchte serie welke spontaan het lieten afweten, opnieuw in gebruik genomen.
Omdat ik niet meer wist wat ik daar op had geplaatst heb ik de data nagekeken en bleek dat ik al een backup van deze data op de nas had staan. Voor de zekerheid heb ik een bit compare uitgevoerd om te zien of deze data met elkaar overeen komt. Er werden geen fouten gevonden en alle filmpjes en foto's openen ook zonder fouten.
Deze ssd is van 2007/8 (lastig te lezen de sticker is versleten op het laatste nummer) deze heb ik sinds 2010 niet meer gebruikt.
Hierbij word meteen de boven genoemde probleem situatie van verlies van data over wat langere tijd redelijk teniet gedaan.
Hoelang een ssd de data kan vast blijven houden blijkt dus ook veel langer dan ik had verwacht.
Normaal gesproken ligt een schijf echt geen 5 jaar in de kast. Want normaal gesproken hoor je magnetische data eens in het jaar te refreshen. Ik denk dat de data zeker nog wel een jaartje of 10 langer had kunnen blijven staan op deze ssd. uiteraard heeft het geen zin om deze nu nog weer eens 20 jaar te bewaren omdat ik denk dat tegen die tijd er amper tot geen sata meer zal zijn. Vandaar dat deze naar de kringloop gaat.
De ontwikkelingen gaan zo snel dat ik vermoed dat er een punt komt dat de consument over gaat naar een andere snellere aansluiting, misschien wel naar sas of dergelijke

[Reactie gewijzigd door rschwartnld op 22 juli 2024 16:20]

SAS gaat de consument niet gebruiken, dat wordt nvme op de PCI bus.
Niet eindeloos, het artikel geeft ook duidelijk aan dat QLC al een type is dat echt wel voor een ander doeleind bestemd is, namelijk cold storage. Maar met TLC/MLC is vooralsnog gebleken dat ze de geschatte levensduur ruim overschrijden, en dat komt met name door de controllers.
Bij normaal dagelijks gebruik is de kans dat de eigenaar van de SSD eerder sterft dan de SSD een reële optie.
768Gbit=96GB en niet 1.5TB of mis ik iets?
per 16 gestapeld per package = 1,5TB

[Reactie gewijzigd door jorisporis op 22 juli 2024 16:20]

.oisyn Moderator Devschuur® @Master_duck11 juli 2017 10:03
Een package bevat meerdere dies.
.edit: Note to self: refreshen voor reageren ;)

[Reactie gewijzigd door .oisyn op 22 juli 2024 16:20]

Denk dat de gemiddelde gebruiker zijn hardware (laptop / desktop / tablet) na 'zeg' een jaar of 4/5 toch wel vernieuwd. Ik gebruik hier nog steeds intensief mijn laptop Dell XPS L502X - bouwjaar 2010.
Dijk van een kwaliteit met traditionele HDD. Wellicht ben ik een uitzondering in het brede plaatje. _/-\o_
De gemiddelde gebruiker misschien.. ik heb nog een 2.4 GHz Core 2 Duo met 320 GB HDDs uit 2006.
Elke vier / vijf jaar totaal vernieuwen is echt niet nodig.
Waarom zou jij de uitzondering zijn? De gemiddelde consument vervangt z'n hardware niet als dat niet nodig is, en juist door de SSD is oude hardware nog prima te gebruiken.
De gemiddelde consument koopt een laptop van 300 euro (Acer oid). Die vallen sneller uit mekaar dan de levensduur van de harde schijf :P
altijd dat goedkope Acer bashen, mijn Aspire V7 werkt al probleemloos zo'n 24/7 vanaf zomer 2014, geen BOSD's, geen hardware storingen, beeldscherm nog perfect. Oké, ook maar n=1, maar producten aan de onderkant van het leveringsprogramma moet je wegblijven, bij Acer, maar ook bij HP en andere grote merken.

(zelf een m2 SSD bijgeprikt, werkt ook nog goed ;-) )

[Reactie gewijzigd door Frenz64 op 22 juli 2024 16:20]

Dit is niet echt de plek om Acer te gaan afzeiken ;)
Wat mij betreft is Acer overigens prima value-for-money. Het kost niet veel en dan is er een kans dat op enig moment iets stukgaat na een paar jaar. Prima, niks mis mee.
Maar hier relevant is dat de harde schijf in de gemiddelde (goedkope) consumenten laptop niet snel de bottleneck zal zijn qua levensduur.
Lijkt wel een NVidia kaart die sterft ook altijd net na het verlopen van de Garantie bij mij. Maar is dat voor iedereen zo????
Mwah, ik heb lekker een MSI GX660 met HDD én SSD (lang leven 2 hdd bays) en deze heeft zelfs nog een 1e gen i5 en die voldoet nu nog prima voor het beetje surfen etc dat ik op een laptop zou willen doen. Alleen de accu is nu zo goed als dood (ook niet gek na zoveel jaar icm met een HD5870m) en die vervangen kost een dikke 100 euro maar ik gebruik hem niet genoeg om dat te betalen :+
Neehoor, ik koop ook liever een high-end bewezen kwaliteitsproduct 2e hands van een paar jaar oud (heb zelf een Lenovo T410). Dan zijn ze ook wel van de meeste kinderziektes af en als er wat aan mankeert kan je zo online vinden wat de oplossing is.

Ik heb er zelf een goedkope Crucial SSD in zitten maar die gaf hem wel echt een boost.
Och, hier ook een ASUS "budget" laptop die dit najaar zijn 8e verjaardag gaat vieren nog volop in gebruik, voorzien van W10 op een kleine SSD en hij is zo vlot als mijn desktop
Iemand een idee waarom er geen fabrikant is die 3,5" ssds maakt, kan je qua formfactor heel wat extra chips kwijt :9
Omdat de prijs gerelateerd is aan het aantal chips, en de prijs van een volle 3.5" dus absurd hoog is. Zelfs een 2.5" is zelden vol, en inmiddels schuiven we op naar 2280-formaat, 22mm x 80 mm dus, waar net-aan een stel chips op past. Gaat prima, en bespaart op kosten voor printplaat en bevestigingsmeuk.
Ik denk dat er meer dan genoeg ruimte is in 2,5'' SSD's kijk maar naar de NVME SSD's in M.2 formaat daar kan je er meerdere van kwijt in een 2,5'' formfactor. Het is puur de prijs, ze kunnen een SSD maken in 3,5'' formaat van een paar duizend euro maar geen consument koopt zo'n schijf omdat het niet te betalen is. Ze worden overigens wel gemaakt voor enterprise oplossingen, zoals hier vandaag nog te zien was nieuws: Bedrijf begint met verkoop van 50TB-ssd in 3,5"-formaat. Deze 3d-nand technologie is juist om kosten te besparen op het maken van de nand-chips zelf, zodat de prijs per GB omlaag kan, deze wordt bepaald door de nand-chips niet door de grootte van de behuizing helaas.
" Een groeiend deel van de flashproductie is echter bedoeld voor veel minder zichtbare toepassingen, zoals internet-of-thingshardware en auto's " ben ik het niet mee eens in deze industrie zijn het juist de oplossingen van NXP / Microchip die gebruikt worden ook omdat er andere eisen gesteld worden aan opslag, en deze vaak vele malen kleiner zijn.
Microcontrollers hebben zeker hun plek en klein is dat niet, maar in zowat alle intelligente apparaten van tegenwoordig zitten echte NAND-flashchips: Denk aan je televisie of de ontvanger eronder, een stofzuigrobot, een telefoon, Raspberry Pi, VDSL-modem, ga zo maar verder. Dat concurreert natuurlijk met flashgeheugen voor PC-SSD's.
Deze partijen leveren juist NAND flash chips specifiek voor deze toepassingen. Al dan niet Encrypted, Automotive, zuiniger net naar gelang er voor de toepassingen gevraagd wordt. Ik kan je garanderen dat er in deze producten met uitzondering van de telefoon andere types geheugen zitten die meestal ook door andere fabrikanten geleverd worden. Dit vanuit werkervaring in deze industie.
Misschien beetje off topic, maar is de een mogelijkheid voor een ander contras bij laptop die grafiek
is best beetje slecht te zien veder zeer interessant stuk.
Ook best een beetje slecht te lezen wat je hier nou bedoelt.
ik bedoel dit de grafiek onder het kopje De geheugen markt

[img]https://i.gyazo.com/7a40b4f28a0c7c4b19175b7e34a6ce31.png[/img]

mocht afbeeding niet laden https://i.gyazo.com/7a40b4f28a0c7c4b19175b7e34a6ce31.png
img tags werken hier in reacties niet, het losse linkje maakt dus niet uit :+
Dit nieuwe QLC van Toshiba schijnt een vergelijkbare endurance the hebben als hun TLC chips. Om het gebruik van QLC dus meteen te kwalificeren als uitsluitend voor backups en filmcollecties lijkt mij dan ook voorbarig.

Toshiba's 768Gb 3D QLC NAND Flash Memory: Matching TLC at 1000 P/E Cycles?
http://www.anandtech.com/...sh-memory-1000-p-e-cycles

En net als met TLC, zullen technieken als simulated SLC write caching e.d. zorgen voor goede prestaties bij gewoon gebruik. Wel veracht ik dat het lezen wat trager zal zijn in bepaalde scenarios.
Ik vraag mij af, hoe gemakkelijk is het zo'n SSD te beschadigen? Er zit wel heel veel GB op een minuscuul oppervlak. Bijvoorbeeld invloeden van statische elektriciteit (ESD), een voltage/stroompiek/kortsluiting etc. Ter vergelijking, net als bij een blue-ray of een moderne TB harde schijf, is de data dichtheid zo groot, als er maar één kleine beschadiging is dan is er in één klap een grote hoeveelheid data weg.

Daarnaast, bij een HDD staat de data op platters en is gescheiden van de controller. Als de controller stuk gaat (schijnt wel eens te gebeuren) dan kun het controller board vervangen maar dat lijkt mij bij een SSD heel moeilijk, de data zit op hetzelfde board en bovendien mega klein allemaal. Andersom, als het mechanisme van een HDD het begeeft, dan is het eventueel nog mogelijk de platter(s) over te zetten in zo'n zelfde type HDD en kan data mogelijk worden hersteld. Echter, als flash geheugen stuk gaat (bijvoorbeeld doorbrand), dan kun je er eigenlijk wel van uitgaan dat het niet meer te herstellen is.

Ik weet niet hoe het bij jullie zit, vind backups maken best wel gedoe, de schijven worden steeds groter en daardoor laat je steeds meer staan. Als het misgaat is het best wel mogelijk/een kans dat je in één klap héél veel data kwijt raakt. Natuurlijk kun je RAID toepassen maar dat kun je niet overal toepassen, zoals je laptop bijvoorbeeld. Daarnaast ligt het eraan wat er is gebeurd.

Lopen we niet het risico dat straks niets meer te herstellen is door alles zo klein te maken en alles te integreren. Het gaat vaak wel om data dat zeer belangrijk kan zijn.
zeer belangrijke data heb je nooit op 1 device staan, maar in dezelfde omgeving op 2 devices, en graag nog "elders" op een 3e device (je 2e device brand net zo hard mee als het eerste)

Daarom maakt dit niet veel uit, de levensduur is inderdaad mogelijk minder. Maar de gemiddelde huis-tuin-keuken consument overleeft de SSD niet bij normaal gebruik. Hier ook vrij oude samsungs in gebruik die toch best "actief" als cache in freenas server (L2ARC voor de kenners) gebruikt worden. En geven nog volledig foutloos hun data door.

Op dit item kan niet meer gereageerd worden.