'Samsung gaat vanaf volgend jaar nandgeheugen met ruim 300 lagen produceren'

Samsung is mogelijk van plan om volgend jaar te beginnen met de productie van nandgeheugen met meer dan 300 lagen. Dat meldt DigiTimes. Samsung is volgens dat medium van plan om daarna 3d-nandgeheugen met 430 lagen uit te brengen.

DigiTimes schrijft dat Samsungs negende generatie V-NAND uit 'meer dan 300 lagen' bestaat, hoewel het exacte aantal lagen niet bekend is. Productie daarvan staat op de planning voor 2024, meldt Blocks and Files. Samsung gaat voor deze productie mogelijk gebruikmaken van zijn double stacking-techniek. Daarbij wordt eerst een stapel 3d-nand geproduceerd op een 300mm-wafer. Vervolgens wordt daar nog een stapel bovenop geproduceerd. Dat moet de yields maximaliseren, hoewel de productie daarmee ook langer duurt.

Later heeft Samsung volgens DigiTimes 430-laags nandgeheugen op de planning staan, hoewel het niet bekend is wanneer de productie daarvan precies moet beginnen. Mogelijk hanteert Samsung daarmee een triple stacking-techniek, waarbij drie nandstapels gecombineerd worden in plaats van twee. Samsung meldde vorig jaar dat het tegen 2030 nandgeheugen met 'meer dan duizend' lagen wil produceren. Momenteel produceert het bedrijf nandgeheugen met maximaal 236 lagen.

Samsung is niet de enige fabrikant die werkt aan nandgeheugen met meer dan 300 lagen. SK hynix onthulde zijn 321-laagse nandgeheugen eerder deze maand de tijdens Flash Memory Summit in Californië. Die fabrikant gaat drie stapels nand boven op elkaar produceren om tot dat aantal lagen te komen. SK hynix begint in 2025 met de massaproductie van zijn 3d-nand met 321 lagen, schrijft AnandTech.

Over het algemeen staan meer lagen gelijk aan een hogere capaciteit per geheugenchip. Dat maakt het produceren van ssd's met grotere opslagcapaciteiten mogelijk. Ook gaan de productiekosten per terabyte normaliter omlaag wanneer het aantal lagen toeneemt.

Samsung 8th Gen V-NAND
Samsungs huidige generatie V-NAND met 236 lagen. Bron: Samsung

Door Daan van Monsjou

Nieuwsredacteur

18-08-2023 • 20:14

35

Lees meer

Reacties (28)

28
28
14
1
0
6
Wijzig sortering
Betekent dit dan ook weer een kortere levensduur?
Want daar wordt met geen woord over gerept in het artikel..

Ik koop al bewust geen QLC omdat de levensduur daarvan zo slecht is, als er weer een halvering overheen komt is het dan nog wel de moeite waard?
Natuurlijk is het een ander ding zoals @cariolive23 al zegt, het gaat hier om het stacken van de lagen.

Maar ik moet zeggen dat het in normaal gebruik gewoon echt meevalt hoor. Kijk naar een Samsung QVO 1TB. 360TBW dus je kan hem 360x van top tot teen volschrijven. In een normale PC gebeurt dat niet, de meeste data is enorm statisch. Dan is dat ding allang te klein geworden voor hij kapot is want dat is vooral leeswerk. Tenzij je gespecialiseerd werk doet en elke dag met enooorme mediabestanden werkt. En in dat geval koop je geen budget SSD maar een premium zoals een 980 Pro die gewoon 600TBW trekt (en TLC is).

QLC is niet slecht voor het doel waar het voor bedoeld is, gewoon desktopgebruik. Voor zwaardere dingen is het ook gewoon te traag omdat ze vrijwel altijd een stuk SLC cache gebruiken dat vol raakt bij zwaar gebruik en dan kakt de snelheid enorm in.

In een gewone PC bouw ik gerust een QLC SSD in, als de kosten belangrijk zijn. Is dat performance of durability dan ga je sowieso niet voor zo'n model.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 20:56]

Sterker nog, je krijgt garantie dat het werkt tot 360 keer overschrijven. Hardware.info heeft in het verleden ooit een video gemaakt waarin ze om een moment zelfs maar stopten met de livestream omdat het te lang duurde.

https://nl.hardware.info/...9-eindconclusie-20-6-2013

De garantie op het aantal TB dat je weg kan schrijven ligt vaak aanzienlijk lager dan wat daadwerkelijk mogelijk is. Dit ging dan misschien om een schijf met TLC geheugen, maar het geeft in elk geval aan dat je niet snel bang hoeft te zijn voor kapotte cellen als consument.

Samenvatting over de Samsung 840 evo 250GB van destijds:
De schijf had garantie tot 1000 cycles.
Eerste re-allocated sector Schijf 1: 2945
Eerste re-allocated sector Schijf 2: 3152
Eerste uncorrectable error Schijf 1: 3187
Eerste uncorrectable error Schijf 2: 3247
Schijf geheel dood schijf 1: 3706
Schijf geheel dood schijf 2: test afgebroken

TLC garantie van destijds werd dus gewoon met 300% overtroffen voordat de eerste foutjes begonnen.
Op 250GB zou een normale consument er gemiddeld 88 jaar over doen om dit te bereiken op 250GB. (In de rest van destijds werd gesproken over 198 jaar, echter is het gemiddelde gebruik van consumenten sindsdien ook veranderd)
Ze zouden deze test moeten herhalen… epic was dat. Maar dat gaat nooit meer gebeuren.
Zou leuk zijn, kijken hoe lang een 8TB model, dan duurt te test ook nog wel even (al hoewel we hiervoor nu ook een m.2 gen4 versie kunnen gebruiken waardoor de data interface nu minder beperkingen bied.)
[...]
Maar ik moet zeggen dat het in normaal gebruik gewoon echt meevalt hoor. Kijk naar een Samsung QVO 1TB. 360TBW dus je kan hem 360x van top tot teen volschrijven. In een normale PC gebeurt dat niet, de meeste data is enorm statisch. Dan is dat ding allang te klein geworden voor hij kapot is want dat is vooral leeswerk. [...]
Juist dat 'statische' van het gros van je data is een 'probleem' bij SSDs.
Dat wil namelijk zeggen dat je eigenlijk maar een relatief klein deel van je SSD gebruikt om op te schrijven.
Dus juist die sectoren worden dan relatief vaak beschreven en daar zit 'm nou net het probleem bij flashgeheugen.
Het aantal wis-cycli per blok is de beperkende factor.
Nu heeft de firmware van een SSD wel allerlei wear-levelling algoritmen aan boord, maar ik weet niet of die ook af en toe 'statische' blokken data gaan verhuizen.

Een ander probleem met flash is dat het relatief warm kan worden bij het schrijven en met zoveel laagjes is het dus maar de vraag of die warmte goed afgevoerd kan worden.
En geeft dat ook mechanische stress op de verbinding tussen al die laagjes?
Zou de fabrikant daar rekening mee moeten houden en dus in de firmware moeten inbouwen dat de acties die warmteontwikkeling veroorzaken wellicht wat meer moeten wachten als de temperatuur oploopt?
Enkel SD/MMC geheugenkaarten en basic usb sticks maken dit soort foutjes nog uit budget overwegingen. SSD controller doet wear levelling vaak al met copy on write, kan ook in filesystem op geheugenkaart maar niet zoveel typische consumenten filesystems supporten dat volgens mij. Thermal throttling doet volgens mij ook zo een beetje elke ssd, merk je in elk normaal gebruik ook al niets van, laat staan als consument.
Nu heeft de firmware van een SSD wel allerlei wear-levelling algoritmen aan boord, maar ik weet niet of die ook af en toe 'statische' blokken data gaan verhuizen.
Ja, dat doen die algoritmes.
Een ander probleem met flash is dat het relatief warm kan worden bij het schrijven en met zoveel laagjes is het dus maar de vraag of die warmte goed afgevoerd kan worden.
Ik denk dat ze over die vraag al nagedacht hebben.
En geeft dat ook mechanische stress op de verbinding tussen al die laagjes?
Natuurlijk geeft dat mechanische belasting.

Edit: ja het kan inderdaad wel wat vriendelijker...
Ik geloof in elk geval dat al deze dingen al door Samsung bedacht zijn.

[Reactie gewijzigd door _Pussycat_ op 22 juli 2024 20:56]

[...]

Natuurlijk doen die algorithmen dat. Ze worden niet door idioten geschreven.


[...]

Ik denk dat ze over die vraag al nagedacht hebben.


[...]

Natuurlijk geeft dat mechanische belasting. Duh.

Sorry, maar denk je werkelijk dat dingen die jij na 10 seconden nadenken bedenkt bij Samsung nog niemand zijn opgevallen?
Nou nou een beetje vriendelijker kan ook wel.

[Reactie gewijzigd door TD-er op 22 juli 2024 20:56]

Daar heb je gelijk in. Ik heb het wat aangepast.
QLC gaat over het aantal bits per memory cell, niet over het aantal lagen.
Ah dat wist ik niet, gezien de naam (Quad-Level Cell)/(Triple-Level Cell), dacht ik dat dit hier ook in meespeelde.
Bedankt voor de verduidelijking.
Ik denk het niet.
Stapelen is de manier om grotere capaciteiten te maken zonder naar kleinere feature size of meer bit per cel te grijpen.
Lagen zijn niet hezelfde als aantal bytes voor opslag. (TLC, QLC, etc)

Zo is SLC vaak cache, en TLC snelle opslag. (Dit is WEL heel kort door de bocht.)

Echter als wij het hebben over het aantal lagen binnen NAND heeft het meer effect op opslag capaciteit per chip van hetzelfde "formaat". Als voorbeeld, als je met de huidige 236 lagen al op 1 TB zou zitten. Zal met 1000+ lagdn al sneller op 4TB per chip zitten.
Het is een boxer. (Geen waterkoeling dus.)
300 lagen
Betekent dat dat je 99,9 TB op het zelfde oppervlak kunt hebben waar het vroeger 333 GB was? (Alleen een beetje dikker...)

[Reactie gewijzigd door kimborntobewild op 22 juli 2024 20:56]

Heel vroeger, we konden hiervoor ook al > 200 lagen maken. Nu ja, we: Samsung. En 99,9 TB past echt niet op een chipje nog, verre van. Ik heb nog wel 4 MB geheugenstripjes liggen voor eerste digitale camera's. Ja, met een M. En smart cards hebben vaak iets van 20-120 KiB aan flash.
Spekkoek voor gevorderden.
Bladerdeeg... tompouche geheugen :+
Gemaakt volgens de bekende Hybrid Extended Memory Architecture standaard
Ik zou eerder denken aan baklava ? 1000 lagen is wel wat overkill voor zoiets lekkers :)
Ik las 300% verlagen :+ :o
Jammer dat we maar 3 dimensies ter beschikking hebben :(
We hebben ook nog ‘tijd’, je kan geheugen wissen en opnieuw gebruiken. Dan ben je eigenlijk in de vierde dimensie bezig :)
Mijn OCZ Vertex 2 ging terug in de tijd. Als ik de computer opnieuw aanzette was alles van de vorige boot gewist :+ (ook bekend als de Time Warp bug)
Ja, dan is een 1 bit memory-cell genoeg. Voor aarde.
Man wij zijn van het duurzame!

(analoog aan de 1 electron 'theorie')
Wolkenkrabber geheugen ?

Op dit item kan niet meer gereageerd worden.