Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Toshiba begint in september met leveren samples qlc-flash aan fabrikanten

Toshiba heeft een prototype gereed van zijn nieuwste bics-geheugenchip die uit 96 lagen bestaat en qlc-technologie gebruikt. De fabrikant gaat begin september samples leveren aan fabrikanten en verwacht volgend jaar de massaproductie te kunnen starten.

Door de overstap naar qlc-technologie, waarbij elke geheugencel vier bits bevat, wordt de capaciteit van de geheugenchips flink vergroot ten opzichte van tlc-geheugen waarbij de cellen drie bits bevatten.

Toshiba kan nu geheugenchips maken met een capaciteit van maximaal 1,33 terabit. Volgens Toshiba is het mogelijk om zestien van deze chips te stapelen om zo tot een capaciteit van 2,66 Terabyte te komen in één package. Ssd's kunnen uit meerdere van deze packages bestaan, voor een nog veel hogere capaciteit.

Vanaf september gaat Toshiba geheugenchips leveren aan fabrikanten van ssd's en ssd-controllers, zodat zij producten kunnen maken op basis van het qlc-geheugen. De massaproductie moet in 2019 van start gaan.

Verschillende geheugenfabrikanten zijn bezig met de overstap van tlc- naar qlc-nand. Samsung startte onlangs de productie van flashgeheugen dat uit 96 lagen bestaat, maar doet dat momenteel nog met tlc-geheugen en stapt later over op qlc. Intel en Micron introduceerden in mei al een ssd voor servers op basis van qlc-nand. Intel heeft aangegeven nog dit jaar met consumenten-ssd's op basis van qlc-nand te komen. Toshiba kondigde zijn qlc-geheugen vorig jaar aan.

Huidige consumenten-ssd's gebruiken voornamelijk tlc-nand, met drie bits per cel. Toekomstige ssd's met qlc-geheugen hebben een hogere dichtheid en dat maakt lagere prijzen en hogere capaciteiten mogelijk. Er staan wel nadelen tegenover zoals een lagere snelheid en een kortere levensduur, maar fabrikanten kunnen dat deels opvangen met aanpassingen aan de firmware en de controller, en door meer geheugenchips toe te voegen voor overprovisioning.

Door Julian Huijbregts

Nieuwsredacteur

20-07-2018 • 12:38

43 Linkedin Google+

Reacties (43)

Wijzig sortering
Tjonge, ik ben echt benieuwd hoelang de traditionele harddisks nog gemaakt zullen worden...

Ik ben wel benieuwd wat ik mij bij de kortere levensduur voor moet stellen.
Is dat het aantal schrijfcycli dat dit bepaald?
Ik heb wel eens begrepen dat de verschillende cellen zo dicht op elkaar zitten, dat je letterlijk last krijgt van slijtage zodra ze een bepaald aantal keren beschreven zijn, tot op het punt dat ze dus niet meer uit te lezen zijn. Je hebt verschillende geheugencellen, namelijk SLC, MLC, TLC en QLC. Waar SLC staat voor Single Level Cell en QLC voor Quad Level Cell.
Met "wear leveling" zorgt een fabrikant ervoor dat de cellen gelijkmatig "weg slijten".

Dus terugkomend op je vraag: Ja, dat slaat inderdaad op het aantal schrijfcycli. SLC slijt het minste want er wordt maar 1 bit opgeslagen per cell, waar dat bij QLC 4 per cell is. Deze cell wordt dus ook vaker uitgelezen ( er staat immers 4 keer zoveel data in opgeslagen ) en slijt dus ook harder. Of deze schijven ook daadwerkelijk 4x zo snel slijten durf ik dan weer niet te zeggen, daar kan iemand anders misschien antwoord op geven? :)

Hier staat het nog wat meer uitgelegd: https://en.wikipedia.org/wiki/Multi-level_cell

edit: "zodra ze een bepaald aantal keren beschreven zijn" toegevoegd, thanks @xenn99

[Reactie gewijzigd door dehardstyler op 20 juli 2018 13:58]

Dit niet alleen. Ook behoeft elke toegevoegde bit een verdubbeling van het aantal spanningsniveaus.

1 bit: 2 niveaus
2 bits: 4 niveaus
3 bits: 8 niveaus
en 4 bits: 16 niveaus

Bij een gelijke maximale spanning over de cel neemt de rumite tussen de spanningsniveaus af, en dus worden de cellen foutgevoeliger. Een kleine schommeling in de spanning kan dus de betekenis van de cel aantasten. Dit zie je ook terug in de levensduur van de cellen. Ook foutcorrectie wordt steeds belangrijker.

EDIT: ik denk ook niet dat je kan stellen dat een cel vaker geschreven/gelezen wordt. De kleinste "adresseerbare eenheid" is een byte en die zit dan gewoon verdeeld over minder cellen. Maar dat voegt niets toe aan de frequentie van lezen/schrijven per byte en dus per cel. Enkel in situaties waar je één bit verandert, maar volgens mij zorgt wear leveling er voor dat dit niet uit maakt.

[Reactie gewijzigd door CykoByte op 20 juli 2018 14:14]

Flash disks schrijven clusters van 4096 bytes, niet per bit. Vanuit het OS gezien zijn het namelijk disks. Ook als je maar 1 bit in een file verandert zal het OS dus een 4096 byte write doen.
De meeste hebben veel grotere clusters, bijvoorbeeld 256kB. De 4kB is een conventie uit vroeger tijden waar we nog altijd mee opgescheept zitten. Als je OS een 4 kB write doet, doet je SSD dus een 256kB read + 256kB write cyclus (read-modify-write).

Daarom is de controller zo belangrijk, want een slimmere controller spaart wat writes op en doet ze allemaal ineens, zodat hij als het meezit niet eens hoeft te lezen.

En omdat je niet op dezelfde plaats wil terug schrijven, ontstaat er in de SSD een grote mapping tabel waarin staat waar zich de sectoren bevinden. En dat op zijn beurt veroorzaakt dan weer het probleem dat als de firmware van de controller in de problemen raakt, je doorgaans gewoon alle data kwijt bent omdat hij het gewoon niet meer terug kan vinden.
Nope. De 256kB blokken zijn de erase blokken. Flash heeft intern geen read-modify-write. Je doet een read van de oude locatie, een 4kB modify, en een 4kB write. De SSD controller pakt dan 1/64ste van een erase block dat op de free-list staat.

Dat is ook waarom de write performance zo kan inzakken bij sustained write. Je loopt dan tegen een lege free-list aan. Dan moet de SSD controller half-gebruikte erase blocks gaan consolideren, de vrijgekomen erase blocks integraal erasen, en beschikbaar maken vooor de free-list.
De write size hangt af van de gebruikte NAND technology. Vanwege de error correctie is er een minimum size die je moet herschrijven. De controller handelt dit uiteraard transparant af. De controllers worden steeds ingewikkelder met steeds meer lagen. Zo zie je nu RAM voor cache, daarna SLC als een soort L2 cache en daarna pas MLC voor de uiteindelijke opslag.

Op embedded systemen zie je deze wel terug komen, mijn laatste had 128kB erase en 2kB write.

Overigens heeft NOR geen minimum write size, een erase zet daar alle bits op "1" en die kun je desnoods stuksgewijs schrijven. Als de inhoud nu "1111001" is en je schrijft "1100111" dan is de inhoud daarna "1100001" (alleen de nullen worden geschreven, de enen hebben geen effect). Heel praktisch als je bijvoorbeeld een "geprinte pagina's" teller moet maken voor een printer of kopieerapparaat. Door slim bitjes om te gooien kun je bijna elke pagina registreren zodat de stekker eruit halen de teller niet reset, zonder dat je te vaak de erase moet aanroepen.
Bij een SSD is het zonder TRIM een 4-stappen plan: copy-modify-erase-write De SSD kopieert een 256kB blok naar een lege blok(cache), daar wordt de data gemodificeerd, en dan wordt de oude blok verwijdert, en daarna wordt de gemodificeerde blok geschreven in de verwijderde blok.

Een TRIM command is een communicatie tussen de OS en SSD welke blokken weggehaald kunnen worden(overwrite pages), en haalt deze weg(garbage collection). Hierdoor kan de OS direct naar een lege blok schrijven zonder eerst een lege blok te schrijven.

[Reactie gewijzigd door NotCYF op 22 juli 2018 02:49]

Bij Intel hebben ze het over 512 bytes tot 4096 bytes. Ik kan me ook herinneren dat SSDs 512 byte sectoren hebben. 256KB klinkt mij erg veel.

https://www.intel.com/con...2/memory-and-storage.html
Alleen de erase is op "grote" block sizes. Normale writes zijn kleiner. Wissen is meestal een achtergrond taak (trim)
Hier is TRIM dan weer voor gemaakt :)
Ook foutcorrectie wordt steeds belangrijker.
Ja, en dat is natuurlijk een nog groter probleem omdat ze ook nog eens erg dicht op elkaar zitten, waardoor je dus "bit flips" kunt krijgen, wat dan weer resulteert in corrupte data.
Jij bent in de war met CPU's waarbij door quantum tunneling de electronen naar andere paden kunnen overspringen.

Dat probleem heb je niet bij Flash, bij Flash geheugen heb je het probleem dat de opgeslagen bits worden aangeduid door verschillende voltages en je dus deze voltages nauwkeuriger moet uitlezen naarmate je meerdere bits opslaat.
I stand corrected! :)
"SLC slijt het minst".

Nee, SLC slijt net zo snel als QLC. Echter, omdat de nivo's in QLC cellen 16 keer dichter bij elkaar liggen heb je dus 16 keer minder tolerantie voor slijtage.

Je ziet dus meteen waarom QLC een slechte keuze is ten opzichte van TLC. In ruil voor 33% meer capaciteit heb je 50% kleinere marges. Overprovisioning en wear levelling helpt maar ten dele; de extra capaciteit voor overprovisioning gaat direct af van de extra capaciteit die QLC je biedt.
Mja, aan de andere kant riep iedereen dat ook toen we van MLC naar TLC gingen en nu zijn bijna alle consumentendrives gewoon TLC.

Met een levensduur van 400TBW (960 EVO) - de Pro is zelfs al goed voor 1.2PBW - maak ik me geen praktische zorgen over levensduur.

Uit wat oudere tests blijkt dat je zelfs met de goedkopere SSD's ruim 2x de opgegeven levensduur haalt.

[Reactie gewijzigd door Ethirty op 20 juli 2018 15:19]

Van MLC naar TLC was dan ook een 50% winst in bits voor een 50% verkleining van toleranties. Dat is nog een redelijke trade-off. SLC naar MLC was zelfs 100% meer bits voor 50% verkleining van toleranties, dat was een duidelijke winst.
De winst is misschien kleiner, maar je kan denk ik wel stellen dat de betrouwbaarheid en levensduur door de jaren heen aanzienlijk is toegenomen.
Echt niet. De levensduur varieert momenteel tussen de 1000 Full Drive Writes en 10.000 Full Drive Writes. Ik heb nog getest met eerste-generatie SLC geheugen. Volgens spec was dat 100.000 Full Drive Writes; we zagen ze falen bij 140.000 tot 180.000 FDW.

Het artikel wat je qoute kwam tot een "Abso-freekin-lutely amazing 35546 full drive writes" voor één MLC drive, en dat was dus al 5x minder dan wat je met eerste-generatie SLC haalde.
Klopt, maar 100.000 FDW op een 64GB (6PB) eerste generatie disk is puur qua hoeveelheid data nog altjid minder dan 10.000 FDW op een 1TB disk (~10PB). En dan hebben we het nog niet eens over het verschil in kosten. :)

Maar dan komen we meer richting de use-cases. SLC gebruik je niet voor bulk-opslag, net zo min als je QLC gaat gebruiken voor intensieve databases.
probleem is dat SLC bijna niet meer te vinden is

Bijna alle modellen maar 1-2 shops in de pricewatch.
Is wel te vinden , maar in andere sector, of je moet zelf met de soldeerbout bezig
Kleine kanttekening op deze informatieve post, cellen uitlezen zorgt niet voor slijtage, dit gaat puur en alleen om schrijven.
Daar heb je helemaal gelijk in, ik ga het er gelijk inzetten. :)
Helaas is dit niet waar. Lezen van cellen zorgt ook voor slijtage, zij het alleen minder dan wissen. Als je telkens dezelfde blokken zou lezen, zullen die na verloop van tijd hun lading verliezen.

Dit is omdat lezen ook spanning op de cellen zet, hoewel veel minder dan wissen.
Ik heb wel eens begrepen dat de verschillende cellen zo dicht op elkaar zitten, dat je letterlijk last krijgt van slijtage zodra ze een bepaald aantal keren beschreven zijn, tot op het punt dat ze dus niet meer uit te lezen zijn.
Alle flash geheugens (ook gewoon NAND en NOR flash) hebben hier last van. Elke "erase" cyclus veroorzaakt slijtage aan de isolatie rond de floating gate, en op den duur gaat die stuk.

Fouten bij het lezen zijn voor alle NAND technologieën normaal. Foutcorrectie is noodzaak, je kunt niet zonder. NAND is "stuk" als de foutcorrectie er ook geen kaas meer van kan maken.
Ook niet onbelangrijk, je hebt altijd een overcapaciteit zodat je wat slijtage kan hebben voordat je echt problemen krijgt. De huidige SATA SSD's van Samsung kunnen 150/300 TB schrijfdata aan, dat is waarschijnlijk ruim boven de 10 jaar voor de meeste mensen, langer bij 1 TB in je computer dan bij 500 GB in je computer ceteris paribus (omdat je minder vaak spul hoeft te verwijderen en opnieuw hoeft te installeren als je een grotere capaciteit hebt). In principe kan de levensduur best wel wat korter worden (over 10 jaar is de technologie zoveel verbeterd dat het er weinig toe doet dat je 500 GB 850 Evo versleten is) maar of dat dat ook zo is, dat durf ik niet te zeggen. Stel dat die levensduur 6 jaar zou worden, ik zou daar niet wakker van liggen, het is niet minder degelijk dan een harde schijf (die kan het 9 jaar uithouden maar ook na 1 jaar al stuk zijn).

[Reactie gewijzigd door CHBF op 20 juli 2018 16:55]

Voor backups and data opslag zullen ze nog heel lang relevant blijven.

HDD's raken door gebrek aan energie hun data niet kwijt. Een SSD voor een paar jaar in de kast laten liggen met je gebackupte data = weg data. Een HDD houdt het theoretisch een jaar of 70 vol.
dezelfde reden dat tape drives nog bestaan, alleen hebben harddrives het voordeel dat ze niet in een gereguleerde atmosfeer bewaard hoeven te worden maar gewoon huis tuin en keuken temperaturen makkelijk aankunnen.
Da's enigszins vertekend.

Je kunt ook flash opslag krijgen met gegarandeerd 100 jaar retentie.

Harddisks doen het niet zo best, je zult ze echt in de vriezer moeten leggen als je 't 70 jaar uit wil houden.

Ook nu nog is tape de meest praktische lange-termijn oplossing. Lage prijs (beduidend goedkoper dan harddisks) en lange retentie.
Prijs per GB is op traditionele harddisks nog altijd gunstiger.

En levensduur wordt vaak uitgedrukt in geschreven TB's. Dat zit tegenwoordig al op 100'en TB's. Ter vergelijking: mijn bijna 5 jaar oude werklaptop zit nu op zo'n 22TB.

Voor normaal gebruik ga je dat nooit merken. En bij zwaar server gebruik vervang je ze dan gewoon iets eerder.
Bij zwaar server gebruik kan een SSD in een paar maanden of zelfs paar weken helemaal versleten zijn.

Dat is ook de reden dat ze in de servermarkt niet gebruikt worden voor data opslag, wellicht wel voor toepassingen waar veel gelezen word.
Dat is ondertussen nogal achterhaald. Je hebt ook gewoon all-flash SAN's.

Write-intensive server SSD's zitten op zo'n >=10 DWPD. Dat is 10x de capaciteit van de SSD pér dag, elke dag, gedurende 5 jaar. Voor een 1TB SSD komt dat op ruim 18PB. Dat zijn hoeveelheden die je nooit naar 1 enkele SSD schrijft, dat doe je altijd naar een array van meerdere disks.

Natuurlijk gaan ze stuk, maar dat doen HDD's in servers ook. Soms nooit, soms al binnen 1 week nadat ze uit de verpakking komen.
10x ssd capaciteit per dag stelt ook niets voor, buiten dat is je memory in je SSD groot genoeg om wear leveling toe te passen.
Zou je een kleinere disk als cache gebruiken voor een grotere array, kortom geen ruimte voor wear leveling, dan is je SSD zo stuk.
Dat is ook de reden dat ze in de servermarkt niet gebruikt worden voor data opslag, wellicht wel voor toepassingen waar veel gelezen word.
Dan heb heb je de laatste vijf jaar niet erg opgelet want in heel veel servers zijn de HDD's snel aan het verdwijnen. Ook voor de middellange termijn opslag. Wij hebben recentelijk nog de 300 Tb aan opslag naar SSD gebracht. Scheelt enorm in ruimte, warmte en herrie en deze zullen tien jaar meegaan waar de standaard disks elke 5 jaar vervangen werden.
Prijs per GB is op traditionele harddisks nog altijd gunstiger.
Nog wel. Het is een kwestie van tijd voordat de SSD's minder kosten per SSD maar vraag me niet of dat dit over 3 jaar of over 10 jaar het geval gaat zijn maar het komt eraan. Puur omwille van de productiekosten die veel lager kunnen liggen voor SSD's. Nu betaal je nog gigantisch veel voor R&D.

Bij zwaar servergebruik is het toch ook typisch dat je SSD's als buffer gebruikt tussen de harde schijven en het externe netwerk?

[Reactie gewijzigd door CHBF op 20 juli 2018 16:59]

Denk dat dat nog wel tegen gaat vallen. Tot nu toe is de prijs per gb van ssd's en hardeschijven gelijkmatig gedaald. De prijsverhouding is nog steeds ongeveer dezelfde.

Ssd's worden goedkoper door schaling, maar de tijden van flash schaling zijn zo goed als voorbij. R&D kosten worden trouwens net steeds hoger bij nieuwe procedés.

Nieuwe volledig andere technologieën kunnen flash vervangen, maar die hebben nog veel R&D nodig en zullen niet snel goedkoper worden.
Op een gegeven moment valt er niet meer zoveel te verbeteren en dan blijven enkel de productiekosten over. Tot die tijd neemt de capaciteit fors toe. Ik verwacht niet dat over een paar jaar SSD's minder kosten per GB dan harde schijven, ik verwacht wel dat dit over 10-20 jaar het geval gaat zijn.
Dus straks krijgen we hybride SSD's?
Beetje slc, beetje qlc? Slc voor de zeer veel geschreven kleine data en qlc voor opslag?
Of iets dergelijks.
- foutje -

[Reactie gewijzigd door Ethirty op 20 juli 2018 15:43]

Mmm twijfels. Nu de MX500 1TB tegen de 190 euro aan kruipt wou ik die kopen voor mij games. Maar qbit klinkt interessant en is weer een stuk goedkoper te maken.
Het zijn samples van nieuwe technologie. Er moet eerst nog een werkend product van gemaakt worden en daarna moet de productie nog opgeschaald gaan worden.

Mijn gok is dat ze pas in de loop van volgend jaar gaan komen en dan nog is de vraag wat prijs en beschikbaarheid gaan zijn. En ongetwijfeld komt daarna weer wat beters of goedkopers.

Ergo: koop gewoon nu wat je nu nodig hebt.
Ik was in de war met Intel en Micron. Deze hebben al zakelijke SSD met qlc. Ik dacht dat ze nu dan ook naar de consumentenmarkt kwamen. Dan is het inderdaad wel ver weg als het om samples gaat.
nieuws: Intel en Micron introduceren zakelijke ssd's met 64-laags qlc-nand-chips

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True