Western Digital presenteert 3d-qlc-nandgeheugenmodule met 2Tb aan opslagruimte

Western Digital heeft een nieuwe generatie 3d-qlc-nandgeheugenmodule gepresenteerd. De module heeft per die 2Tb aan opslagruimte aan boord en is gericht op datacenters en AI-toepassingen.

Topman Robert Soderbery heeft de geheugenmodule gepresenteerd op een recente financiële vergadering van het bedrijf. De Executive Vice President van Western Digital claimt dat de geheugenchip binnenkort officieel geïntroduceerd wordt, al is niet duidelijk wanneer precies.

Uit de presentatie van Soderbery blijkt dat het een BiCS8-geheugenmodule betreft. Deze nieuwe generatie geheugenmodules laat onder andere 218-laags 3d-qlc-nandgeheugen toe. De geheugendichtheid van de nieuwe chip zou, in vergelijking met de vorige generatie 3d-qlc-nandgeheugenchips van Western Digital, met 50 procent zijn toegenomen; de snelheid zou ook met 80 procent zijn toegenomen. Western Digital heeft nog geen data gedeeld waaruit blijkt met welke exacte snelheid bits kunnen worden uitgelezen en beschreven. Het is ook nog niet duidelijk hoe energie-efficiënt de nieuwe geheugenmodule daadwerkelijk is.

Western Digital BiCS 2TB 3D QLC NAND

Door Jay Stout

Redacteur

16-06-2024 • 12:00

51

Reacties (51)

51
51
41
2
0
1
Wijzig sortering
Wat betekend dit nou? Dat er goedkope 8TB M2 schijven komen? En welke eindsnelheid kunnen deze modulles dan leveren als er 8 of 16 parallel geschakeld staan?
Zou deze WD ook een 'QLC-dip' hebben zoals de Samsung QLC-SSD's?
Er bestaat niet zoals een "QLC-dip*". Je hebt de native die write speed (bij TLC bijvoorbeeld zo'n 130 MB/s, vermenigvuldigd met het aantal kanalen waarnaar parallel geschreven wordt. Dat de snelheid bij QLC (en TLC) SSD's fljnk inkakt komt door de controller (dit artikel gaat enkel over NAND dies) een deel van de opslag inzet als pseudo SLC-cache (pSLC). Daarna moet het pSLC in QLC gevouwen worden door een aantal cellen te lezen en er dan eentje te herprogrameren met de precieze waarde (1 van de 2⁴ = 16 mogelijkheden, dus 0 t/m 15, iets tussen 0000 en 1111, want vier bits per cell) om de 2 Tb te bereiken met je 500 Gb ik bedoel 2 Tb die.
Burst speed is eigenlijk niets meer dan een illusie, de "cache exhaustion speed" is waar je naar moet kijken.

* Naar mijn mening is het niet zozeer een dipje, maar eerder vergelijkbaar met een herseninfarct in combinatie met een hartaanval. Een dipje is niet zo erg, dat is immers maar kortdurend, bij QLC SSD's is het bij een beetje in gebruik genomen schijf gedaan na een gigabyte of zes.

[Reactie gewijzigd door DvanRaai89 op 22 juli 2024 16:48]

Helemaal correct.

Maar de foutgevoeligheid wordt steeds kritischer. Met TLC hadden ze al Reed Solomon ECC nodig en dit moet er nog overheen. Nu zullen alle SSD's dit vast wel goed op orde hebben, maar ze gaan steeds dichter bij de rand opereren en dit is prachtig voor AI toepassingen waar dataretentie minder belangrijk is. Nu zitten we al richting de één enkele electron per cel. Wat kun je dan? Stapelen en nog eens stapelen. Allemaal prima, maar als je naar echte caching doeleinden wilt blijft SLC nog steeds onverminderd de koning.
[...] al Reed Solomon ECC nodig [...]
Persoonlijk ben ik van mening dat alle vormen van ECC zo veel mogelijk/overal toegepast moeten worden. DDR, GDDR, SSD, overal. Het is gewoon een no-brainer om voor, pak 'm beet, 10% extra data, de dataveiligheid exponetieel te kunnen verhogen.
In de sectoren van harde schijven wordt het trouwens ook al lang toegepast, en zijn (op het mechanische gedeelte na (en in de buurt van extreem sterke magnetische velden)) ook veilig, dus dat is niet is waar ik mij druk over maak.

[Reactie gewijzigd door DvanRaai89 op 22 juli 2024 16:48]

Zo waar.

Daar maak ik me ook wel eens zorgen over. 10% staat in schril contrast wat betreft betrouwbaarheid. Bit rot kan desastreus zijn en zeker als het op celniveau plaatsvind (stille datacorruptie) en waar het filesystem van niets weet. Dit is te ondervangen met CRC hash code over de data te voeren.

Vandaar dat foutcorrectie ook serieus moet worden genomen. Het bestandssysteem kan hier ook wat in betekenen zoals CRC code nevenopslag.
Daar maak ik me ook wel eens zorgen over. 10% staat in schril contrast wat betreft betrouwbaarheid.
Ik vind het eigenlijk bijna criminele nalatigheid dat de moderne bestandssystemen van Windows, Android e.d. zo weinig doen om data integriteit te waarborgen. Dingen als chdsk kunnen wel het bestandssysteem in stand houden, maar de data die er in staat...


Triple(+) parity oplossingen zoals multipar/snapraid+btrfs/openZFS raid-z3 zijn onmisbaar!
Ik kan nog steeds niet begrijpen dat DSM nog geen SHR-3 o.i.d. geeft. Heeft iets minder met data integriteit te maken, en meer met catastrofaal verlies van hele TB's, maar alsnog; voor 1 extra HDD aan pariteits informatie (dus bij 24 schijven "maar" 21 HDD's aan data i.p.v. 22) ben je beschermt tegen drie disk failures i.p.v. twee, zeker tijdens rebuilden kan dat belangrijk zijn.

[Reactie gewijzigd door DvanRaai89 op 22 juli 2024 16:48]

Heeft iets minder met data integriteit te maken, en meer met catastrofaal verlies van hele TB's,
RAID is geen backup..
Nee maar helpt wel met je data integriteit. Door de extra informatie vanwege je raid heb je meer kans dat een eventuele data reconstructie correct is. Een fatsoenlijk RAID systeem doet ok regelmatig een integriteits test en hersteld dan bits die niet kloppen.
Je kan natuurlijk zelf gewoon zelf je data regelmatig kopiëren , met bv robocopy en daarbij de source vergelijken met de kopie. Of natuurlijk een backup maken.

Maar ik heb nog wel tapes van 20 jaar geleden en diskettes van 30 jaar geleden. Maar daar heb je weinig aan, als je de belangrijke data niet migreert.

En het zou een vermogen kosten om daar als particulier nog iets af te halen.

Ik heb nog wel een pc van twintig jaar geleden in de schuur staan, maar daar mee zou ik hooguit de diskettes kunnen uitlezen als ze nog leesbaar zijn.
Voor de sony tapes heb ik vast nog wel ergens een drive liggen, maar zou niet meer weten met welk programma die beschreven zijn.
Ja en nee. Als de pSLC cache groot genoeg is dan kan een SSD voor een heel groot deel van de workloads razendsnel zijn omdat de meest voorkomende schrijfacties binnen de cache passen. Het is pas als je langdurig schrijft en/of als de schijf bijna vol is dat je problemen krijgt.
Als de pSLC cache groot genoeg is [...]
Daar wringt de schoen; de SLC cache is enkel groot genoeg als de schijf zo goed als leeg is (lees: wanneer 'ie gereviewed wordt). De grootte is dynamisch, het statische gedeelte is zo'n 6 GB bij de Samsung 870 QVO.
Het is onnodig om dit te zeggen; maar zes gig is niet bijster veel.
Het is onnodig om dit te zeggen; maar zes gig is niet bijster veel.
Sorry, maar ik ben oud genoeg om hier om te lachen. Een paar honderd MB was al groot voor een disk toen ik begon, laat staan voor een cache.
Alles is relatief zullen we maar zeggen.
Je merkt dit echt heel goed bij game updates hoor. Het downloaden van spellen van honderden gigabytes kakt ineens in na X gig aan update als je goede netwerklijn en processor hebt.

Het schrijven van de uitgepakte updatefiles duurt dan gewoon veel langer en je SSD zit op 100% utilisatie. Voor lezen heb je nog bandbreedte genoeg dus je merkt er weinig van met de rest van het systeem, maar dat is dus de reden dat een update vaak na zoveel gig inkakt als je een goedkopere SSD hebt.

De sequentiele snelheid kan echt hard onder de 100MB/s uitkomen.

Een gigiabit lijntje wat goed gezipte data overpompt kan prima op 200MB/s data willen wegschrijven. Bottleneck je daarna dus keihard en gaat de downloadsnelheid omlaag.
Volgens mij heb jij niets van mijn comment begrepen.... Want je reactie is totaal irrelevant. Ik had het over hoe wat ooit een grote capaciteit was, nu als klein word gezien. Een beetje nostalgie. En jij gaat dan los over performance?
Kwestie van wat meer ram geheugen in je PC of een tragere internet verbinding nemen 🤪
Ik vermoed dat deze reactie naar @Admiral Freebee gericht was.
Eens van de cache. Het is maar hoe je (de controller) er mee omgaat.
Maar de sustained-write is dan toch van belang (de schrijfsnelheid na de dip, zeg maar).
Ik was gewoon benieuwd hoe snel/traag die is.
Ik haal hier (met die Samsung's, N=2) zo rond de 150MB/s (Windows verkenner).
Dat is domweg traag voor SSD opslag.

[Reactie gewijzigd door LooneyTunes op 22 juli 2024 16:48]

Kwestie is ook de combinatie van korte levensduur van QLC en dat de snelheid verder inzakt naar mate het flashgeheugen slijt. 150MB/s nu kan dus rustig nog verder doorzakken tot snelheden waarbij een harde schijf er rondjes omheen rent.
De afkorting in de titel lijkt 2 Terabit (= 250GB) aan te geven, het bericht op tweakers roept vervolgens 2TB. De bron heeft het ook over Tb. Dus wat is het nou :+

edit: ondertussen is er een ninja-edit in de titel geweest. Nu spreken beiden de bron tegen...

[Reactie gewijzigd door spone op 22 juli 2024 16:48]

Men moet gewoon stoppen met bit af te korten als b. Volgens IEC regels is er geen afkorting voor bit hoewel de IEEE wel de b gebruikt, maar dit dus voor verwarring zorgt met de byte, exact de reden waarom de IEC dus geen afkorting voorziet.
Ach, er zijn zoveel manieren om je uit te drukken. Soms zie ik nog steeds Gibibyte, Kibibyte etc in software. Tevens gebruikt elke internetprovider M/Gbps, het is redelijk ingeburgerd.

De strijd tussen natuurlijk verloop van taal en de uitdrukkingen gebruikt in standaarden zal nooit gestreden zijn, het lijkt me rustgevend je er gewoon bij neer te leggen. En Tweakers mag gezien haar vakgebied inderdaad iéts beter opletten in dit geval. Dit soort fouten komen echter overal op zijn tijd wel voor, in vrijwel alle media. Tjah.

@JayStout, in dit geval maakt de edit het erger :+ Tb moet het zijn, per die, zoals in het screenshot.

edit:
En nu staat het er goed, nice

[Reactie gewijzigd door TV_NERD op 22 juli 2024 16:48]

Tevens gebruikt elke internetprovider M/Gbps
Wacht maar tot ze door hebben dat er foutcorrectie en encoding op de glasvezel lijn zit, dan krijg je advertenties met nietszeggende ruwe transfer rates.
In vakgebieden waar bits de norm zijn, zoals deze, zie ik geen enkel probleem met het gebruik van afgekorte bits. In de opslagchipindustrie en geheugenindustrie praat met meestal alleen maar over bits, net als in de communicatieindustrie. De verwarring vindt pas plaats op het moment dat journalisten vaktermen naar de algemene bevolking proberen te vertalen.

Ik beschouw dit als menselijke fouten van de journalisten die deze informatie interpreteren. Kan voorkomen, natuurlijk, maar dat lijkt me geen reden om binnen de opslagwereld ineens alles naar bytes om te gaan rekenen. Als je dingen als parity mee gaat nemen, kom je dan opeens in situaties waar je het hebt over ⅞ of 1⅛ bytes.

Hetzelfde verhaal geldt met HDR, dat gebruik maakt van 1¼ byte kleur: het lijkt me dat 10 bits daar een stuk toepasselijker en makkelijker beschrijft hoe de vork in de steel zit.

Veel ergerlijker vind ik het gebruik van SI-eenheden in besturingssystemen die delen door 1024. GB neerzetten (een miljard bytes) waar je GiB bedoelt (1024³) leidt tot verwarring over waarom een terabyte schijf tien procent "mist". De fabrikant gebruikt gewoon SI-afkortingen, ook omdat die groter lijken, maar besturingssystemen gebruiken om de een of andere reden nog steeds maten versimpeld om floppies makkelijk te kunnen indexeren.
maar dat lijkt me geen reden om binnen de opslagwereld ineens alles naar bytes om te gaan rekenen.
De suggestie was om "bit" te gebruiken in plaats van "b", niet om om te rekenen naar bytes.
De fabrikant gebruikt gewoon SI-afkortingen, ook omdat die groter lijken,
Ook? Of alleen daarom?
Is een sector 0,5 of 0,512 KB? 4 of 4,096 KB?
om floppies makkelijk te kunnen indexeren.
Wat heeft het precies met floppies te maken?

[Reactie gewijzigd door Olaf van der Spek op 22 juli 2024 16:48]

Staat ook overal Tb op de fotos en in de brontext. Iemand zit hier te slapen.
De bron heeft het ook over Tb. Dus wat is het nou :+
Het is 2 Tbit / 256 GByte, met 4 van deze dies heb je dus 1 TByte.
Het betreft inderdaad 2Tb, dus niet 2TB.
Bij Tomshardware zijn ze wel wakker.
https://www.tomshardware....heaper-high-capacity-ssds
Aangepast! Excuses voor de fout!
Waarom wordt er ook gesproken over Tb... geen enkele consument spreekt in die eenheid, die spreken allemaal over GB's. Als je het hebt over een auto spreek je toch ook niet dat hij maximaal x m/s kan rijden 8)7
Individuele chips zijn uitgedrukt in totaal aantal bits (1 en 0), niet het mogelijk resultaat nadat de controller, architectuur etc beslist hebben hoeveel bits in een byte zitten (technisch gezien hoeft dit niet 8 te zijn) en/of hoeveel bits elke byte fysiek nodig heeft (een budget SSD misschien 8 tov een datacenter SSD dichter bij 10 of zelfs 12).

[Reactie gewijzigd door Guru Evi op 22 juli 2024 16:48]

Maar wat is de levensduur van data in zulke chips. Het word steeds dichter, maar wat met de betrouwbaarheid. Magnetische harddisks zijn nog steeds een ding, betrouwbaarder op lange termijn terwijl de disc in de kast ligt. Wat is de bitrot in dit soort chips.
Ik lees er niet veel over maar over men adviseert al enige tijd om de SSDs met zekerheid 1 maal of 2 maal per jaar elektrisch aan te sluiten om de elektrische lading intakt te houden.
Betekend dit dan ook, dat als je een SSD NAS hebt, je hier dus geen last van hebt? Dan is er altijd stroom als je NAS 24/7 aan staat.
Hoe zit het ondertussen met de betrouwbaarheid van dat QLC Nand flashgeheugen? Vroeger moest je dat mijden als de pest.
Goede vraag, net als de snelheid trouwens. Nog niet zo lang geleden was het eigenlijk alleen geschikt voor bulk-opslag voor consumenten, meer niet.
Geheugen (DDR) of opslag? Ik snap het artikel even niet zo goed. Of is dit mixed?
Geheugen (DDR) of opslag? Ik snap het artikel even niet zo goed. Of is dit mixed?
Opslag
Ik noem dat vaak niet een geheugen module, maar dan echt opslag of storage. Kan mij niet echt herinneringen dat ze het hier ook geheugen noemen?

Verder leuk die AI buzzwords, maar je kunt het ook doen met de huidige opslagtech. Het doet mij denken aan opslag en andere tech. voor de Cloud en Kubernetes.
Wikipedia: Flashgeheugen

Geheugen is de standaard term hiervoor.
Het is allebei geheugen. De ene korte termijn en ander lange termijn.
Verkeerde post gereplied.

[Reactie gewijzigd door Dekar op 22 juli 2024 16:48]

Ach, voor een ZX Spectrum of Commodore 64 is dat net zo snel als geheugen ;)
NOR-flash kan als (ROM)-geheugen voor een Spectrum of C64-gebruikt worden, maar NAND-flash niet.
(QLC) Nand flash is gewoon een geheugentechniek gemaakt voor de SSD en bv. SD kaartjes in je camera.

DDR RAM is iets heel anders. Random Access Memory. Daar is flashgeheugen veel te traag voor.
DDR is een vorm van volatiel opsalggeheugen, maar er zijn ook andere vormen van volatiel geheugen. Hier gaat het om non-volatiel geheugen, waarbij de data dus bewaard blijft als je de spanning eraf haalt.
Ik ben dus niet de enige die die verwarring had, en twee keer moest lezen.
Gericht op AI, je wordt er onderhand moedeloos van die hype. Noem het gewoon machine learning ofzo hoor.
Ik ben daar helemaal met je eens Ik word ook zelf helemaal gek van dat Hype.

iedereen wil het overal inproppen zoals Microsoft met Windows 11. :/
Wat WD hier doet is natuurlijk de scheppen en pikhouwelen verkopen voor de AI goldrush. Iedereen probeert een graantje mee te pikken van de huidige hype.

Ben benieuwd wat de volgende hype gaat worden.

Op dit item kan niet meer gereageerd worden.