Toshiba onderzoekt flashgeheugen met vijf bits per cel

Toshiba is begonnen met onderzoek naar plc-nandgeheugen, flashgeheugen waarbij vijf bits per cel worden opgeslagen. Het bedrijf heeft een aangepaste versie van zijn qlc-nand werkend gekregen als plc-nand. Er zijn echter nog veel uitdagingen.

Om plc-nand werkend te krijgen moeten de geheugencellen 32 verschillende spanningsniveaus kunnen opslaan. Bij qlc- en tlc-nand is dat respectievelijk 16 en 8. Ook moet het hoge aantal spanningsniveaus nauwkeurig uitgelezen kunnen worden door een ssd-controller. Deze benodigde nauwkeurigheid is een grote uitdaging bij het maken van plc-geheugen. Of en wanneer plc-nandgeheugen daadwerkelijk in producten gebruikt gaat worden is nog niet duidelijk.

Met het gebruik van vijf bits per cel kan de datadichtheid van flashgeheugen verder verbeterd worden, maar de snelheid en levensduur nemen af ten opzichte van varianten met minder bits per cel. Dat is ook al het geval bij het qlc-nand met vier bits per cel, dat momenteel door sommige ssd-fabrikanten wordt gebruikt.

Volgens Tom's Hardware, dat een presentatie van Toshiba bijwoonde, zouden nieuwe features van het nvme-protocol moeten compenseren voor de kortere levensduur en lagere snelheid van plc-nand. Zo moet de Zoned Namespaces-techniek de benodigde write amplification en over-provision verminderen. Ook moet ZNS de benodigde hoeveelheid dram van een controller beperken.

Toshiba werkt ook aan nieuwe manieren om de dichtheid van flashgeheugen verder te verbeteren. De geheugenfabrikant toonde een manier om geheugencellen als het ware in tweeën te knippen. Of dat een haalbare methode is weet de fabrikant echter nog niet.

Verder toonde Toshiba tijdens zijn presentatie een tijdlijn met opvolgers van zijn BiCS-flashgeheugen. Uiteindelijk zal de snelheid oplopen tot 2000MT/s met de zevende generatie, die gebruik zal maken van het pci-e 6.0-protocol.

Toshiba BiCS-presentatie - Foto's: Tom's HardwareToshiba BiCS-presentatie - Foto's: Tom's HardwareToshiba BiCS-presentatie - Foto's: Tom's Hardware

Door Julian Huijbregts

Nieuwsredacteur

26-08-2019 • 15:23

60

Reacties (60)

Sorteer op:

Weergave:

Om plc-nand werkend te krijgen moeten de geheugencellen 32 verschillende spanningsniveaus kunnen opslaan. Bij qlc- en tlc-nand is dat respectievelijk 8 en 4.
Nee. qlc = quad = 4 bits = 24 = 16 levels, tlc = triple = 3 bits = 23 = 8 levels. Dus niet 8 en 4, maar 16 en 8 levels voor qlc en tlc.

[Reactie gewijzigd door jj71 op 23 juli 2024 12:00]

Ik dacht ook al dat mijn hersenen het niet deden. MLC (2 bits) is 4, TLC (3 bits) is 8 enzovoort.
Yep, uiteraard 8)7 Foutje gefikst.
Groter sneller en beter is altijd gewenst. Wanneer gaan ze tegen de grenzen van kunnen aan lopen met de techniek. Wat gaat er dan op volgen?
groter, sneller en beter is PLC allerminst, want hoewel de capaciteit verhoogt, blijf je op dezelfde hoeveelheid cellen werken. Hoe het werkt is dat je per cel vroeger met SLC (Single Layer Cell) maar 1 mogelijke lading had, laat ons ze voor het gemak 1Ah geven (klopt absoluut niet, maar rekent makkelijker). De cel werd dan gelezen en als de lading hoger dan 1/2Ah was, dan was de binaire waarde 1, was ze lager, dan was de binaire waarde 0, ofte 1 level kon 2^1 ofte 2 waarden ofte 1bit bevatten.
Met MLC (Multi Layer Cell), werd daar een extra onderverdeling gemaakt, waardoor
alles tussen 0 en 1/4Ah als 00 werd aanzien
alles tussen 1/4Ah en 2/4Ah als 01 werd aanzien
alles tussen 2/4Ah en 3/4Ah als 10 werd aanzien
alles tussen 3/4Ah en 4/4Ah als 11 werd aanzien
hierdoor kon je dus 2bit per cel opslaan

met TLC werd dat dan verder uitgebreid tot 1/8Ah stapjes ofte 3bit per cel
met QLC werd dat dan verder uitgebreid tot 1/16Ah stapjes ofte 4bit per cel
Nu is er dus PLC met 1/32Ah stapjes ofte 5bit per cel

Je zou je dan kunnen afvragen waar de limiet ligt, maar het probleem is dat die lading van diezelfde cel er telkens nauwkeuriger moet worden opgezet, behouden en uitgelezen. Echter door zo vaak een cel te laden en ontladen zal haar capaciteit om lading vast te houden veel sneller degraderen, omdat je nu om 5 bits op te slaan, 5 keer een lading zet op dezelfde cel. Bovendien kunnen cellen ook een invloed op elkaar uitoefenen en die wordt relatief alsmaar groter, naargelang de fysieke cellen én ladingsverschillen kleiner worden.
De lading van de cel wordt uitgedrukt in volt (spanning), niet ampère uur (wat een eenheid van energie is). Verder goede uitleg!

Edit: nog een toevoeging op het verhaal is dat er bij plc slechts 25% meer opslag per cel mogelijk is terwijl de benodigde aantal spanningsniveaus verdubbelt. Bij slc naar mlc was dat 100%, van mlc naar tlc 50% en van tlc naar qlc 33%.

[Reactie gewijzigd door Takenzo op 23 juli 2024 12:00]

Als je wil corrigeren, doe het dan goed. De SI eenheid van lading is de Coulomb; 1 Ampere is 1 Coulomb/seconde. En dus is 1 Ampere-uur (Ah) 3600 Coulomb. De eenheid die @dasiro gebruikt is wat ongebruikelijk (1 Coulomb is al ontzettend veel voor een condensator) maar technisch is die correct; jouw Volten zijn dat niet.
Je hoeft de bits niet één voor één in de cel op te slaan. Door vijf bits in één keer op te slaan, hoef je maar één keer de spanning te wijzigen. Je moet echter wel bij elke wijziging in één van de bits de spanning opnieuw wijzigen.
Bij slc is de kans dat de nieuwe waarde van de cel gelijk is aan de oude waarde 50%. Wanneer je in twee cellen de waarde 2 had opgeslagen (binair 10) en je wilt die waarde wijzigen naar 3 (binair 11), hoef je maar één cel te wijzigen (de eerste cel heeft al de waarde 1 en alleen de tweede cel moet flippen van 0 naar 1). Dat scheelt in de 'slijtage' van je ssd.

Wat niet helpt is dat veel opslag gebeurt in Bytes (sets van 8 bits). Wil je optimaal gebruik maken van de geheugenruimte, moeten verschillende cellen delen van verschillende bytes bevatten. Byte A heeft dan vijf levels in cel 1 en drie in cel 2, Byte B heeft dan één level in cel 2, vijf levels in cel 3 en twee levels in cel 4. Wanneer alleen Byte B wijzigt, moeten de cellen 2, 3 en 4 wijzigen. (Kort door de bocht, bij voldoende lege ruimte op de schijf zullen de Bytes efficiënter verspreid worden. Het OS kan hierbij ook helpen, door Bytes die normaal gesproken alleen gezamenlijk zullen wijzigen, zoals van een mediabestand wel in zo min mogelijk cellen op te slaan, wanneer de drivers dergelijk micromanagement toestaan.)
Olc ssd's (acht levels per cel) zal efficiënter met de schijfruimte om kunnen gaan, maar het duurt nog wel even voordat de ontwikkelingen zover gevorderd zijn dat dat betrouwbaar werkt.
Je hoeft de bits niet één voor één in de cel op te slaan. Door vijf bits in één keer op te slaan, hoef je maar één keer de spanning te wijzigen. Je moet echter wel bij elke wijziging in één van de bits de spanning opnieuw wijzigen.
En daar gaat het mis. De essentie van Flash is dat je een eenmaal geschreven cel niet kunt wijzigen. Je moet het hele blok wissen. Inderdaad, dat is slijtage. De onderliggende reden is dat je een Flash cel niet individueel kunt ontladen. Precies die eigenschap zorgt ervoor dat Flash z'n bits jarenlang vasthoudt.

Waar het verhaal verder rammelt is in de misvatting dat er een probleem is met het opslaan van 8 bits van een byte in 5 bits per cel. Dat gebeurt sowieso niet. Flash is al jarenlang te onbetrouwbaar om zonder Error Correcting Codes te werken. Goede kans dat de ECC voor dit soort geheugen een input heeft van 4096 bits en een output van 5120 bits. Die output wordt vervolgens in 1024 cellen opgeslagen.

Ik zie zelfs gebeuren dat er ECC codes komen die om kunnen gaan met "halve bits". De grap is namelijk dat de 5 bits uit één cel niet allemaal evenveel kans hebben om fout te zijn. De eerste bit is eigenlijk nooit fout (dan moet de spanning 50% mis zijn), terwijl de laatste bit al fout is bij een spanningsverschil van 3%. En als de eerste bit fout is, zijn de andere volkomen onbetrouwbaar. Vanuit ECC oogpunt heb je dus geen 5 onafhankelijk bits.

Slimmere ECC codes werken daarom met een foutwaarschijnlijkheidsmodel, en gebruiken de input als een 1-uit-N waarde waarbij aanliggende waardes meer kans hebben. Dit klinkt nogal ingewikkeld, en de wiskunde is dat ook. Maar het is het best te begrijpen door terug te kijken - de ECC berekent welke input de meest waarschijnlijke input is die precies die cel-voltages oplevert (Maximum Likelihood Estimator, MLE). En daarvoor is het simpelweg niet noodzakelijk dat N een macht van 2 is.
Er staat toch ook bij dat de zoned namespace techniek die nadelen deels gaat opvangen.

De SSD zal dus daarmee goedkoper en beter worden.
Ik weet niet of dat in dit geval wel zo gewenst is. De capacity van drives gaat omhoog, maar in enige mate zou dit ook ten koste moeten gaan van de kwaliteit dan wel levensduur van de schijven.
QLC improves capacity over SLC, MLC and TLC NAND flash, but there are some issues. For one thing, the increase in capacity may be unsustainable. MLC doubles the capacity of SLC, and TLC has 33% more capacity than MLC, but QLC only provides a 25% increase over TLC. Not only are the capacity increases becoming smaller with each version, but endurance continues to suffer. The number of write cycles the drives can endure has plummeted from SLC to QLC, as the drives wear out faster.
https://searchstorage.tec...-flash-questions-answered

Correct me if I'm wrong though :)
Klopt helemaal. Als vuistregel is elke bit extra een 10 keer kortere levensduur. SLC doet 100.000+ writes, TLC doet 1000, en QLC gaat richting de 100. PLC gaat vermodelijk dus naar 10 full disk writes; HLC is write-once geheugen.
In veel gevallen, wanneer een bepaalde tech op z'n limieten aanloopt, vaak fysiek, zoals het aantal transistors op een chip dat ooit eindig is...

Wordt de industrie gedwongen op een drastisch andere techniek over te stappen.

Denk bvb. aan accu's... We zitten nog niet aan de limieten wat betreft liquid-state chemische batterijen, maar er loeren al compleet andere technieken om de hoek, die, ondanks nog in kinderschoenen te staan, mogelijks een toekomst hebben.

Afhankelijk van de efficiëntie van de techniek om een bepaald doel te bereiken: voor accu's: stroom opslaan en afgeven, voor geheugen: meer, in kleinere vorm, en liefst steeds sneller..., kan je binnen 10, 15, 20, 30,... jaar, drastisch anders aankijken op deze tech... zoals hedendaagse tieners waaraan je audio-cassettes toont, of bakelieten telefoons met draaischijf. Of zoals mijn grootouders die stierven wanneer er nog geen sprake was van Flatscreen TV's of monitoren, laat staan HD, Full HD of Ultra HD, hun oogbollen uit hun kassen zouden kijken moesten ze de beeldkwaliteit van hedendaagse 4K-televisies mogen meemaken. (Het waren twee docu -en sport op TV-fanaten, vandaar het voorbeeld, ik denk nog vaak aan hen.) O+
Buiten al het geklaag hier over de traagheid (zie andere comments) breken deze cellen toch ook eens sneller af? Ik heb mij iets laten vertellen in het verleden over het lekken van data uit zo'n cel.
De afbraak of degradatie is voor alle cellen gelijk. Elke keer dat je ze schrijft komt er wat ruis bij. Maar plc's zijn veel gevoeliger dan qlc's.
Zeg dat je een waarde wegschrijft tussen de 0 en 1 Volt. Bij SLC => 0 of 1V. Tot een fout van 0.499 volt weet je wat er stond (0.449=0, 0.501=1)
Met plc heb je 32 waardes, dus foutmarge is 0,015V ipv 0,030V bij qlc. Naast die ruis door gebruik heb je inherent ruis van het proces. Zeg 0,005V. Dus je foutmarge gaat van 0,025V bij qlc naar 0,005 bij plc. Technisch een uitdaging en inderdaad, maakt het zaakje een stuk minder robust.
Ik denk dat @Antrax eerder doelde op het weglekken van elektronen uit een cel waardoor je data letterlijk weg kan lekken als je ssd een tijdje spanningsloos is. Er bestaat namelijk een effect dat quantum tunneling noemt, waarbij een elektron door een barriere kan wippen waar ze normaal niet had kunnen door gaan. <Deeltjesfysica is een gekke wereld!>
Het effect word sterker als de wanden dunner worden. Elke keer als we het productieproces kleiner maken, kunnen we weer meer transistoren kwijt op dezelfde oppervlakte van wafer, en worden de muren aldus dunner.
Jou uitleg in Volt kan je omzetten naar aantal elektronen die 'vast opgeslagen zitten' om een 1 voor te stellen.
SLC kan 0 of 1 zijn, het heeft dus 2 niveau's. Het verschil tussen deze twee niveau's op een ssd van 45nm is ongeveer en verschil van 400 elektronen.
https://tweakers.net/ext/f/Yf1ie6X64eLkbo6TS4RT5tpe/full.jpg
Bij een MLC op 11nm zijn dat 10 elektronen per niveau. Dit wil dus zeggen dat 0 elektronen een binaire 00 is, 10 elektronen een 01, 20 elektronen een 10 en 30 elektronen een 11.
Of nog: als je 10 elektronen in een cel hebt (dus een binaire 01), dan mag je 4 elektronen verliezen (bv aan quantum tunneling) en je bent nog zeker dat het een binaire 01 is.

Nu met QLC op 8nm zou dat betekenen dat je maar 1 elektron schrijft om een binaire 0001 te maken. Schrijf je er per ongeluk 2, dan heb je per ongeluk een 0010. Gaat je ene elektron verloren, dan heb je plots een 0000. Het is dus fysisch zeer moeilijk / onmogelijk om een 8nm QLC ssd te maken, laat staan een PLC ssd.

Maar wat je ook kan zien is dat het probleem opgelost wordt door 3D nand te gebruiken. Door chips te stapelen krijgen ze meer transistoren op dezelfde oppervlakte. Aangezien ruimte dan minder een rol speelt, kunnen ze een groter productieproces gebruiken, met onderandere dikkere wanden tot gevolg.
Uit de pricewatch:
https://tweakers.net/ext/f/bfQB3LPNiPqx6RADobiyIYSM/full.png
Er is geen enkele QLC ssd die géén 3D nand aan boord heeft.
Met PLC zullen we weer iets dichter bij de fysieke grenzen aanlopen, tot we weer met een andere oplossing komen zoals dat 3D nand het probleem ooit heeft opgelost toen we richting <10 elektronen per niveau gingen. :)

[Reactie gewijzigd door Malantur op 23 juli 2024 12:00]

Is het niet mogelijk meer elektronen in een cel stoppen (bijvoorbeeld 4000 ipv 400) om zo meer dan 1 elektron per bit te gebruiken? Op die manier is er veel meer marge mocht er een elektron verdwijnen...
De spannign is recht evenredig met het aantal elektronen, en Flah gebruikt al een voor silicum belachelijk hoge spanning van circa 15 Volt. Om een idee te geven : tot de originele Pentium was 5 Volt normaal, de Pentium verlaagde dat naar 3.3 Volt, en daarna zijn CPU's en geheugen gedaalt tot (ruim) onder de 2 Volt. Jij stelt nu 150 Volt voor (!)
Tja, opslag wordt goedkoper op deze manier, ik denk ongeveer een halvering Tov QLC.
Maar het aantal writes bij QLC houd al niet veel over, ik denk niet dat "PLC" nog aan te raden is voor boot schijf.
Dat is het ook niet. PLC zou dan de tegenhanger worden van de ''trage HDD''. Met andere woorden een goede prijs/GB ratio.

Als dat zo is en deze PLC's zouden goedkoper worden dan is het simpelweg gedaan met de ouderwetse HDD. Als je al naar het prijsverschil kijkt tussen TLC en QLC SSD's dan is PLC nog veel goedkoper. 4TB/8TB SSD's zullen dan vrij goedkoop worden en zullen prima zijn voor taken waar snelheid niet het belangrijkste is (denk aan backuppen, NAS werk ect). Of de betrouwbaarheid van PLC vergelijkbaar is met de HDD moeten we nog zien. Maar als PLC inderdaad van de grond komt is er letterlijk geen reden meer om een HHD te gebruiken tov een PLC drive.

Voor bootdrives hou je gewoon de TLC SSD's die iets duurder maar ook veel betrouwbaarder/sneller zijn.
Met de levensduur "issue" blijft bulk data dan nog interessant voor een HDD.

En dan bedoel ik niet direct een filmschijfje" bij iemand thuis, maar eerder grote data arrays (backblaze etc). Niet perse hoge snelheid, wel veel cycles (vermoed ik dan).

Of het moet zo goedkoop worden dat PLC + vervroegde vervanging goedkoper is dan HDD. Dan is het idd waar.
PLC is op z'n best 25% meer capaciteit, en dat is onder de aanname dat je 0% extra kwijt bent aan ECC bits. Met een HDD krijg je 300% meer bits/euro, volgens de Pricewatch. Einde van de HDD? Nope. En dan negeer ik nog even het feit dat HDD's meerdere malen herschrijfbaar zijn.
Nee, je krijgt 25% meer effectieve bits, de prijs per bit gaat dus maar op zijn best met 20% omlaag.
Alle negatieve opmerkingen over snelheid en levensduur zijn eerder ook gemaakt bij de introductie van de voorgaande technieken vanaf iteratie mlc. De praktijk wees echter uit dat zowel snelheid als betrouwbaarheid niet achteruit, maar juist vooruit zijn gegaan.

Ik ben dus wat positiever over wat we mogen verwachten van PLC. Uiteindelijk, als ze de techniek onder de knie krijgen, zal dit ons enkel maar meer voor minder brengen :)
Dit dus. Iedere stap naar een extra bit werd beklaagd met dezelfde argumenten. Ondertussen worden SSDs alleen maar sneller, kleiner (fysiek), grotere capaciteit en goedkoper dan zijn voorgangers.

De betaalbare toppers zijn TLC SSDs. Wie had dat een paar terug bedacht? Over 5 jaar zitten we vast op de 8 bit per cel. 10 jaar 10 bit?

[Reactie gewijzigd door Gamebuster op 23 juli 2024 12:00]

Ze hebben nu echter wel de noodzaak om een techniek als Zoned namespace te gebruiken.

Dus lijkt me dat ze aardig tegen de grens aan zitten.

Daarnaast is er toch niks aan de hand? Want Intel heeft al 3DXPoint geheugen die deze nadelen niet heeft en Sandisk en HP waren ook met phase change geheugen bezig.

Bovendien komen er ook technieken als MRAM aan.
Iedere generatie werkt men tegen de grens. Als men niet tegen de grens zou werken, zou men verder ontwikkelen tot er een nieuwe grens gevonden wordt.

Dat is een proces dat al jaren loopt bij het vergroten van de X per Y; Denk aan LaserDisk, CD, DVD en BluRay, floppies, HDDs, SSDs, GPUs, CPUs, batterijen, motoren (pk per cc), etc. ik zie nog niet hoe dat het met (X)LC anders gaat zijn, zeker omdat we eigenlijk nog maar aan het begin staan.

SD kaartjes blijven ook maar groeien, terwijl ze niet groter of duurder worden: De prijs per GB blijft dalen, terwijl de capaciteit blijft groeien.

[Reactie gewijzigd door Gamebuster op 23 juli 2024 12:00]

Nou de grens in dit geval is dus wanneer het natuurkundig niet meer mogelijk is.

Zoned namespace is een workaround om bepaalde limieten weg te nemen. Zonder zoned namespace was het waarschijnlijk te duur geworden om nog door te gaan met de oude manier.

Er is dus weldegelijk een harde grens die je kan bereiken.
Er is altijd een harde grens die je kan bereiken, maar er is ook altijd weer een oplossing voor.

Je leeft in een wereld waarin SD kaartjes ter grootte van je vingernagel groeien van 256MB naar 256GB (1000-voudig) in een periode van misschien 10-20 jaar (niet opgezocht, maar het is snel gegaan). Denk je dat ze in de tijd van 256MB kaartjes niet al tegen de natuurkundige wetten aan het werken waren? Hoe zijn ze dan nu alsnog 256GB geworden?

Juist ja: Men vindt oplossingen om om natuurkundige wetten heen te werken. Zo vindt men hier ook weer oplossingen om van QLC naar PLC te gaan. En daarna naar 6LC, 7LC, 8LC, etc.

[Reactie gewijzigd door Gamebuster op 23 juli 2024 12:00]

Over 5 jaar zitten we vast op de 8 bit per cel. 10 jaar 10 bit?
Je vergist je in de richting van de exponent. Het wordt expontentieel moelijker (letterlijk) omdat het aantal spanningsnivo's exponentieel is in het aantal bits. PLC is al 32 nivo's, dus daarvoor hebben ze 16 extra nivo's moeten toevoegen. Elke extra bit wordt dus steeds moeilijker, en jij slaat even makkelijk de zesde en zevende bit over.

Tegelijkertijd wordt de winst steeds kleiner. SLC naar MLC was een eitje, 100% winst voor twee extra nivo's. TLC? Nou ja, 4 extra nivo's voor 50%. Dat kan. SSD's werden op dat punt relevant genoeg dat de 8 extra nivo's voor 33% de komst van QLC rechtvaardigden, wat kon dankzij 3D NAND. Maar nu 16 extra nivo's voor maar 25% winst?
Ik schreef precies hetzelfde net naar een vriend van me. De wenkbrauw heffing die ik kreeg bij het lezen van dit artikel, had ik ook by 3 en 4. Eerst zien, dan geloven of het niet werkt ;-)
Wellicht handig:

SLC (1 bit per cell) - fastest, highest cost
eMLC (2 bits per cell) - faster than regular MLC
MLC (2 bits per cell)
TLC (3 bits per cell)
QLC (4 bits per cell) - slowest, lowest cost
PLC (5 bits per cel) - nieuw en nog langzamer ;)

[Reactie gewijzigd door Pizzaballs op 23 juli 2024 12:00]

Grappig dat ondanks die theorie geen enkele SLC sneller is dan een Samsung EVO Plus (TLC).

*(lees)snelheid, prijs en bits-per-cell zoals vermeldt in de pricewatch.

Bron SLC SSDs: categorie: Solid state drives
Bron TLC SSDs: categorie: Solid state drives

Jouw lijstje is dus theoretisch gezien correct, maar in praktijk niet meer relevant.

[Reactie gewijzigd door Gamebuster op 23 juli 2024 12:00]

je moet alleen niet vergissen met SATA en NVME varianten vergelijken want dat is appels met peren, sata zit gewoon tegen een protocol limiet aan, nvme kan veel hoger, in de theorie is hoe meer bits per cell, hoe langzamer de drive (en minder betrouwbaar) nou word die betrouwbaarheid wel redelijk met error correction enz afgevangen, maar het is niet voor niets dat ze bij QLC schijven al een deel van de cellen als TLC gebruiken om als snellere cache gedeelte te dienen.. en zodra die buffer vol is, loopt de snelheid drastisch terug, dus daar merk je met kleine files en wat standaard operaties niet veel van, maar zodra je naar server/of andere meer professionele (dus grotere datasets) gaat merk je dat vrij snel en stort de snelheid in. Q/Tlc zijn goed om de prijs te drukken, en moet je zien als de vervanger voor HDDs, SLC/TLC zijn de werkpaarden die je voor performance (OS/Game/Data(weer je mee moet werken) disks) wilt hebben
je moet alleen niet vergissen met SATA en NVME varianten vergelijken want dat is appels met peren, sata zit gewoon tegen een protocol limiet aan
Klik eens op die linkjes die ik stuurde :) Genoeg NVMe/PCI-E SLC drives, en ze zijn allemaal langzamer dan de 970 Evo Plus (en VEEL duurder).

Maar leuk dat je zelf al aangeeft dat er meer factoren meespelen dan enkel SLC of TLC: Diverse TLC en SLC drives lopen al tegen de limieten op van de PCI-E bandbreedte. Dat SLC sneller kan zijn dan TLC is doelloos als TLC al tegen de PCI-E bandbreedte limieten aanloopt. Let op "kan", want in praktijk zijn de TLC drives al sneller. Geen enkele SLC schijf haalt de PCI-E x4 3.0 limieten, terwijl er al TLC PCI-E x4 4.0 varianten zijn die sneller zijn dan het limiet van PCI-E x4 3.0.
Q/Tlc zijn goed om de prijs te drukken, en moet je zien als de vervanger voor HDDs
QLC & TLC zijn "vervanger voor HDDs" en "prijs te drukken" dus, oke... oke...
SLC/TLC zijn de werkpaarden die je voor performance
SLC & TLC zijn de werkpaarden? Ik dacht dat TLC de vervanger voor HDDs was?

Tijden veranderen: QLC is wellicht nu nog "goedkoop" en "langzaam", maar dat is een kwestie van tijd. Eerder was TLC "goedkoper" en "langzaam", maar dat is nu ook achterhaald.

De specificaties van een SSD zijn gewoon niet meer te herleiden naar het aantal bits per cell; er spelen VEEL meer factoren mee.
Q/P* sorry typo, het ding is, die snelheden die je in de prijswatch zijn fabriant opgegeven snelheden, om T/Q/P LC werkbaar te maken zit er meer dingen als buffering in (zowel dram als minder volle cellen) waardoor de (tijdelijke)burst speed hoger is, maar sustained writes enz niet (grotere files verplaatsen/bewerken).

Waarom denk je dat de: Samsung 970 Pro mlc is en de EVO variant TLC?
Ik kan de video nu even niet bekijken maar volgens mij was dit het waar Linus tech tips het uitlegt: https://www.youtube.com/watch?v=OffzVc7ZB-o
Dit is eerder een achteruitgang dan vooruitgang, ja de storage dichtheid gaat er van omhoog, maar met de negatieve kanten: minder snelheid, minder betrouwbaar (er moeten allemaal extra CRC achtige checks worden gedaan om te zorgen dat de juiste data is weg gescheven en niet andere delen geraakt) en dan ook nog eens lagere levensduur, nou dan maar liever een kleinere drive dan dit.
De check zorgen juist dat de betrouwbaarheid beter is dan van kale cellen. je kan het vervelend vinden, maar errors zijn er altijd. Als je dan de dichtheid een paar % opschroeft, en vervolgens diezelfde paar % aan foutdetectie opoffert, is het resultaat onder de streep (veel) beter.
Een simpele manier om dit in te zien is: een cel die alleen 0 of 1 kan uitlsen is een heel simpele errordetectie - maar werkt per cel. Of de cel nu 99 of 51 uitleest, het is een 1. 49 tot 01 betekent een 0. Dat is best grof. Al die waardes - met een moegelijke afwijking - gaan beter in een dikke wiskundige formule, met wat andere cellen. Dan kan je die tussenliggende waardes nog nuttig gebruiken.
(Bijna) alle communicatie- en opslagtechnieken gebruiken dan ook Forward Error Correction (foutcorrectie) (Trellis, LDPC, Turbo, Hamming, Reed-Solomon...). Bij communivcatie heb je ook nog ARQ en HARQ - waarbij aHARQ een een slimme is, waarbij na een ontvangstfout steeds om extra foutcorrectiebits wordt gevraagd - totdat de puzzel oplosbaar is,
Ja maar om dat op te vangen hebben ze dus zoned namespace ontwikkeld.
Dat is puur theorie. Praktijk heeft al iets anders laten zien: Ongeacht de oorzaak, blijken betaalbare TLC SSDs sneller te zijn dan iedere SLC SSD op de markt. De Samsung Evo Plus (TLC) is sneller dan ALLE SLC SSDs. (bron: gespecificeerde leessnelheid in tweakers pricewatch) "Minder snelheid" is dus sowieso allang ontkracht.

Betrouwbaarheid? Ik weet niet hoe het daarmee zit, maar ik ben niet bekend met beruchte betrouwbaarheid-issues met recente Samsung SSDs. Natuurlijk zijn Samsung SSDs niet perfect, maar als ze betrouwbaarder zijn dan een gemiddelde HDD of SLC SSDs, zijn ze goed genoeg. (bron: Alle 7 Samsung SSDs die ik ooit heb gekocht doen het allemaal nog)

In theorie zijn er dus allemaal extra complicaties, maar in praktijk wordt de techniek veel beter doorontwikkeld omdat er een grotere markt voor is.

[Reactie gewijzigd door Gamebuster op 23 juli 2024 12:00]

Het zou me niet verbazen als de ssd markt zich gaat opsplitsen, in de kleine maar snelle ssd's voor bijvoorbeeld OS, apllicatie schijf, video surveillance en ander gebruik. En grote langzamere ssd's die maar beperkt herschrijfbaar zijn voor backup / film / iso storage.

Kan die 8TB 'schijf' ook betaalbaar vervangen worden voor een ssd :)
De nieuwe hybride schijven.
In het begin (misschien zijn ze nog steeds te verkrijgen) had je hybride schijven die een kleine SSD voor het OS combineerden met een grotere HDD voor data. Misschien komen binnenkort hybride SSD schijven met een klein gedeelte SLC voor het OS en een groot gedeelte XLC voor data (als de slijtage van de XLC cellen binnen de perken blijft).
Ik heb nu een 4bit per cel intel ssd, deze heeft ook al een kleine hoeveelheid snel geheugen die als buffer dient (volgens mij is dat meer een soort ram dan echt SLC) vanwegen de beperkte beschrijfbaarheid en snelheid hoop ik niet dat een hybride oplossing de standaard voor alle ssd opslag gaat worden.
Dat bestaat al lang.

Samsung kwam daarmee en volgens mij doen alle fabrikanten dat nu.

Er wordt een deel van de SSD chips als SLC geprogrammeerd die als een soort turbo buffer word gebruikt.
Een buffer is tijdelijk. Er worden snel gegevens in geschreven die bewaard worden totdat het langzamere deel van de schijf die gegevens weggeschreven heeft.
Waar ik op doelde is één behuizing met twee verschillende SSD's, die door het OS als twee verschillende schijven gezien worden.
Als er zo een hybride SSD komt dan zal bet gecombineerd moeten worden met 3dxpoint geheugen van Intel.

Dat is momenteel het enige commercieel verkrijgbare geheugen techniek die als SSD te gebruiken is als alternatief en NAND kan aanvullen en is tevens veel sneller.

Maar omdat het van Intel en Micron is weet ik niet of er veel andere fabrikanten dat zouden gebruiken, Samsung zou dat bijvoorbeeld niet gebruiken omdat het een concurrent is.
één behuizing met twee verschillende SSD's, die door het OS als twee verschillende schijven gezien worden.
Duur en onhandig. Als je het in software doet, kan de gebruiker zelf kiezen hoe de verdeling is, en heb je geen dubbele kosten aan twee controllers.
Dat zou inderdaad handiger zijn.
5 levels per cel wil zeggen dat je minstens 25 signaalniveau's moet kunnen onderscheiden - da's vrij veel, voor zo'n kleine cel. Misschien lukt dat wel als men terugkeert naar de iets grotere lithografiën - het maakt toch niet uit - gezien men met meer lagen kan/gaat werken.
Ideaal zou zijn dat je zo worm-media zou kunnen maken. één keer schrijven en gedaan - dan kan dat wellicht wel iets betekenen (fotografen vb. zullen dat leuk vinden).
Voorlopig hou ik 't bij tlc - qlc vind ik nog te onbetrouwbaar laat staan dat tlc al betrouwbaar genoeg is (onlangs nog op 't werk een hele reeks ssd's met TLC gehad die men onder garantie heeft mogen vervangen).
2^5=32 toch? Niet 25?
5 levels per cel wil zeggen dat je minstens 25 signaalniveau's moet kunnen onderscheiden -
Nee; je moet 2^5 = 32 levels onderscheiden
Nu krijgen ze 4TB op een klein M2 latje. Als ze eens 3.5inch (HDD format) SSD's maken, dan kunnen ze daar volgens mij een heel pak inkrijgen. Dus meer op een kleinere plaats is niet echt nodig… ze moeten gewoon goedkoper worden, even betrouwbaar (of beter) zijn, en dan kunnen ze zondeer problemen de HDD van de troon stoten.
De intel 660p stond een tijd geleden 200 euro voor 2TB. Steek zo'n 4 kaartjes in een 3.5-case en je hebt 800 euro voor een 8TB schijf. (huidige HDD 250 euro ongeveer)
Kun je je voorstellen wat er op deze formfactor kan?
https://www.intel.com/con...e-drives/edsff-brief.html (inmiddels al vrij veel gebruikt in grotere flashsystemen, echter niet goedkoop)
Wel interessant hoe deze technologie zich gaat bewijzen en wat er dan in een 2U chassis aan capaciteit past.

[Reactie gewijzigd door DB LucF op 23 juli 2024 12:00]

Op dit item kan niet meer gereageerd worden.