Micron ontwikkelt eerste PCIe 6.0-datacenter-ssd en claimt snelheden tot 26GB/s

Micron heeft als eerste bedrijf een PCIe 6.0-ssd voor datacenters ontwikkeld. Het bedrijf claimt daarbij dat de drive in kwestie snelheden tot 26GB/s haalt. De geheugenmaker deelt verder weinig details over de ssd.

Micron bevestigt de ontwikkeling van zijn PCIe 6.0-drive in een persbericht. De fabrikant noemt geen willekeurige lees- en schrijfsnelheden. Micron zal naar eigen zeggen meer details over de ssd delen tijdens de Flash Memory Summit 2024, die deze week plaatsvindt.

De PCIe 6.0-drive wordt bij release vooral gericht op enterprisedoeleinden. Micron benoemt bijvoorbeeld het trainen van AI-modellen, waarvoor grote datasets nodig zijn. Momenteel biedt Micron daarvoor zijn 9550-ssd, die beschikbaar is in capaciteiten tot 30TB en sequentiële leessnelheden tot 14GB/s haalt. Micron deelt geen details over de beschikbaarheid van zijn PCIe 6.0-drive.

De PCIe 6.0-standaard werd in 2022 al afgerond. De interconnectstandaard verdubbelt de snelheden ten opzichte van PCIe 5.0. Op een interface met vier lanes, zoals gebruikelijk is bij ssd's, bedraagt de theoretische snelheid van PCIe 6.0 daarmee maximaal 32GB/s.

Door Daan van Monsjou

Nieuwsredacteur

06-08-2024 • 17:46

24

Lees meer

Reacties (24)

Sorteer op:

Weergave:

Pcie 6.0 x4 haalt inderdaad snelheden waar we als gewone gebruiker niet zoveel mee zijn. Maar zou het niet interessant zijn om een Pcie 6.0 x1 ssd slot te hebben? Als ik het goed heb haalt dit dezelfde snelheden als een pcie 4.0 x4 waar nu het gros van de nvmz ssd's op werken.
Ja en nee. In theorie heb je natuurlijk gelijk, maar waar gaat de gemiddelde pc gebruiker in de praktijk de 3 PCIe 6.0 lanes voor gebruiken die je hiermee vrij speelt? Wij tweakers hebben daar misschien wel ideeën over, maar juist voor deze doelgroep zijn er al high-end CPU's en moederborden die ons meer PCIe lanes geven en die wil men ook graag blijven verkopen.

Daarom is dit nu nog bedoeld voor in het datacenter. PCIe 6.0 komt uiteindelijk vast wel naar de desktop, maar daar zal nog wel een paar jaar overheen gaan.
een 10 gbit netwerkpoort die geen x4 slot nodig heeft. het is godgeklaagd dat netwerk of usb kaarten meerendeels nog pcie 2.0 gebruiken.
Ik ben het er volledig mee eens dat het bizar is dat dit soort kaarten nog PCIe 2.0 gebruiken, maar een paar lanes PCIe 4.0 is al voldoende voor 10Gbps ethernet of USB4.

Als we dan toch aan het klagen zijn, laten we eerst maar eens zorgen dat 10Gbps ethernet (of fiber) de standaard wordt in thuisnetwerken. We zitten al bijna 20 jaar vast op 1Gbps als je het betaalbaar wilt houden!
Een 10G netwerkkaart is relatief oud en gebruikt daardoor PCIe2 of 3 alhoewel dezelfde kaart vaak 1, 2 of 4 poorten kan ondersteunen, dus de interface is ontworpen voor alle SKU van de kaart. Daarnaast is het ook mogelijk dat de kaart op een hogere versie minder lanes nodig heeft maar ze er puur zijn om als de kaart in een lagere versie ingestoken wordt, ze nog steeds volledig gebruikt worden. De Intel X810 heeft een x8 slot maar werkt op volle snelheid in een PCIe4 x4, enkel op PCIe3 heb je x8 nodig.

Als je een “nieuwe” Ethernet kaart koopt met PCIe4 krijg je wel tenminste een 25/40G en de PCIe5 gaan minimum 100-400G aankunnen op de chip (als je geen 100G nodig hebt moet de fabrikant enkel de optische poort vervangen met een goedkopere 25/40G versie, maar de chip blijft identiek). Ik heb geen 10G kaarten meer gezien voor nieuwe systemen in een paar jaar nu.

[Reactie gewijzigd door Guru Evi op 7 augustus 2024 15:41]

Sequentieel 26 GB/s is wel echt heel snel, in de praktijk niet veel gebruikt. Ik zou geen voorbeeld kunnen noemen, simulatie data en dergelijke komen omhoog. Echter heb ik er geen beeld bij hoe groot bestanden daarvan kunnen zijn. Iets als het editen van RED camera raw footage komt omhoog bijvoorbeeld.

Ben wel heel benieuwd naar de prestatie met meerdere loads en veel kleine bestanden, ook al zal ik het in mijn geval niet gebruiken of nodig hebben.
Voor de consument vermijden ze die mogelijkheid wel. Softwarematig de hele PCIe dichttrekken met een soft RAID van 20 verschillende m.2 repen zou geen enkel probleem moeten zijn maar dat is concurrentie voor dit soort produkten.
Ze hebben nog steeds grote moeite met accepteren dat een m.2 SSD in een USB 3 behuizing een snelle USB-stick is die ook die afmetingen zou kunnen hebben en geen kabel. Het moet een 'opslag-station" blijven.

[Reactie gewijzigd door blorf op 6 augustus 2024 18:33]

Mooie ontwikkelingen, maar komende jaren zijn PCie 3.0 en 4.0 SSD's nog meer dan voldoende voor de gemiddelde gebruiker. Misschien dat datacenters of andere grootverbruikers hier wat aan hebben.
Dit model is dan ook niet bepaald bedoeld voor een gemiddelde gebruiker, maar is juist voor datacenters bedoeld.

Daar heb je altijd behoefte aan snel, sneller, snelst.

De prijs zal daar ongetwijfeld ook een indicatie van geven, dit soort devices vind je meestal niet voor een tientje in een grabbelton.

Nog afgezien van het feit dat er weinig consumenten moederborden zijn die PCIe 6.0 gleuven heeft.
Hier ben ik het niet mee eens, zelfs voor data centers hebben deze gigantische “Top speeds” zeer weinig effect want het grotere probleem is vaak random read/writes. En naast random is het ook sustained, want ja er zij SSD’s die op de snelheid van de bus kunnen draaien.. tot de cache vol is en dan is het opeens veel langzamer. Ik heb de post bekeken en kon geen informatie vinden over wat voor soort data dit gaat, dus denk dat we maar moeten kijken wat het in de realiteit gaat zijn.
Ik denk dat bij een gemiddelde streamingdienst men toch best blij wordt van hogere sequential speeds?
Daarom dat er in de titel het woord “datacenter” staat.
Dat roep je nu wel maar serieus vr gamen op hoge resolutie vereist enorm grote textures als jet het goed er uit wilt laten zien en dan wil je geen laad tijden van minuten.
Ik denk dat FOV, pixel density, contrast en refresh rate op dit moment vooral dingen zijn waar VR baat bij heeft. (Grafisch gezien).

Textures zijn toch een beetje een side dingetje.

[Reactie gewijzigd door Marctraider op 7 augustus 2024 16:51]

Klinkt leuk maar kopieer nou eens met 15 devices tegelijk vanaf deze drives, hoe presteren ze dan?

Dat is immers wat er toe doet aangezien niemand buiten die data centers die snelheid heeft en dus heeft het alleen nut als simultanious read goed is. Een single read only is irrelevant. En laat veel drives en ssd's nou net daar inkakken.

Mijn ssd doet in een benchmark 3200 MB/ps maar ga ik een bestand uitpakken (lezen en schrijven) dan is dat ineens nog maar 300 MB/ps.

Kopieer ik eenzelfde bestand naar 2 andere ssd's (2x lezen) haal ik de 400 ook niet eens en bij 3 bestanden kom ik niet eens aan 300.

Deze 26Gbit is dus niets zeggend wat mij betreft.

[Reactie gewijzigd door computerjunky op 6 augustus 2024 18:25]

Het is 26Gbyte aldus het artikel.

Daarbuiten zal deze drive vast wel 15 clients aankunnen, maar dat zal niet op de manier gebeuren die je voor je ziet omdat je in een datacenter normaliter raid sets gebruikt.

Voor je eigen snelheidsissues kan ik je aanraden eens te kijken waar de bottleneck zit of een iets duurdere nvme ssd te kopen. Waarschijnlijk performt die bij jou alleen sequential met een bepaalde blocksize op de manier zoals je het wilt.

Uitpakken van files kan al snel blijven hangen op gebrekkige cpu, copy van ssd 1 naar 2 hetzelfde en sowieso zouden voor een goede test beide ssds gelijk moeten zijn.

Ik kopieer hier gewoon files van de c naar de d drive met knappe snelheden en mijn steam downloads gaan ook rapper als wat jij nu ervaart. Dus kijk vooral eens naar het type ssd wat je hebt en de rest van je set up voordat je een ontwikkeling die echt zijn toepassing heeft afkeurd op basis van je eigen bubbel.
Och, ik zou bijvoorbeeld best een supersnelle SSD kunnen gebruiken om hash & rainbow tables in op te slaan hoor, ook in mijn thuis PC. Ja, da's behoorlijk specifiek maar nee, dat is geen datacenter toepassing.

Buiten dat is sneller altijd fijner natuurlijk, zelfs als je er niet zo veel van merkt of het daadwerkelijk nodig hebt.
Deze 26Gbit is dus niets zeggend wat mij betreft.
net als heel jouw uitleg, want een 30 jaar oude volvo vergelijken met een 2025 concept F1 is al even belachelijk

wendel van L1 techs heeft net een video over een Gen5 gereleased waar je misschien wat meer redenen kan vinden om zulke drives in je datacenter te steken:
YouTube: Solidigm's New D7-PS1010 and D7-PS1030 PCIe 5.0 SSDs are SUPER SPEEDY!

[Reactie gewijzigd door dasiro op 6 augustus 2024 18:21]

Klinkt leuk maar kopieer nou eens met 15 devices tegelijk vanaf deze drives, hoe presteren ze dan?
SSD's zijn inherent parallelle apparaten; in tegenstelling tot een hardeschijf heeft een SSD niet echt limiet hoeveel je tegelijkertijd kunt schrijven (of lezen).
Dit houd in dat álle SSD's goed presteren in multithreaded workloads, dát is hoe je de geadverteerde snelheden haalt. De singlethreaded random read (en eigenlijk ook writes, al dan minder) is waar de schoen wringt. Wel ironisch dat dit van iemand met de naam "computerjunky" komt...
Mijn ssd doet in een benchmark 3200 MB/ps maar ga ik een bestand uitpakken (lezen en schrijven) dan is dat ineens nog maar 300 MB/ps.
Deze 26Gbit is dus niets zeggend wat mij betreft.
26GBit is een hoeveelheid informatie, heeft niks met snelheid te maken. Zonder te vertellen hoe snel de data zich verplaats kun je daar weinig mee, Ik ga er vanuit dat je per seconde bedoeld? Misschien kun kun je dan een "/" uit
3200 MB/ps
halen? Per seconde per seconde is een beetje dubbelop, vindt je niet? tenzij je het over acceleratie/versnelling hebt, maar dan zou je het over per seconden² hebben
Verder moet het natuurlijk 26GByte/s zijn. Ach, je zat er maar een factor acht naast, klein verschil.

Dat terzijde, het betekent dat, wanneer je met veel threads de SSD benaderd, een random workload met hoge queue depth of 'm sequentieel belast, ongeacht queue depth, je dat soort snelheden kunt verwachten, een singlethreaded file copy valt daar natuurlijk niet onder.
De standaard kopieerprogramma's zijn singlethreaded, maar probeer eens robocopy met 128 threads op Windows, of rclone, en kijk eens hoe snel dat gaat.
Dat is immers wat er toe doet aangezien niemand buiten die data centers die snelheid heeft en dus heeft het alleen nut als simultanious read goed is. Een single read only is irrelevant. En laat veel drives en ssd's nou net daar inkakken.
Wat je hier duidelijk probeert te maken is mij een raadsel, maar volgens mij klopt het niet helemaal...
[...] en dus heeft het alleen nut als simultanious read goed is.
Zoals ik eerder zei: SSD shinen als het om multithreaded workloads gaat.
Een single read only is irrelevant. En laat veel drives en ssd's nou net daar inkakken.
Wut? Bedoel je singlethreaded sequential? Random met queue depth van 128? Singlethreaded reads zijn juist veel moeilijker, daarom presteren ze daarom slechter. Uiterst relevant, lijkt mij?

Zou ik mogen vragen welke SSD jij hebt?

Probeer dit commando te runnen in PowerShell:
robocopy C:/bronmap C:/KopieerTestBestemming /e /mt:128
/e kopieert alle subditectories, ook lege, en /mt bepaald met hoeveel threads je kopieert.
In ieder geval geen /purge /mir /backup gebruiken als je maar een map kopieert die NIET leeg is. Voor de zekerheid die opties gewoon niet gebruiken, enkel /e en /mt:128. (Of minder, 128 is de max, 8 kan ook prima zijn, hangth af van de bestandsgrootte. Als 'n paar KiB zijn moet je eigenlijk wel een stuk op honderd threads gebruiken.

[Reactie gewijzigd door DvanRaai89 op 7 augustus 2024 11:52]

Eerst zien dan geloven, Micron stuur maar een test setje.
Leuk dat het kan maar zo'n ssd zal ook gekoeld moeten worden en dat toch weer extra energie vergt. En dat alleen maar met als doel voor AI, ook weer zoiets tja....
Dan hebben die waterkoeling opties misschien toch wel nut :P
Dit soort hoge sequentiële throughput is in veel toepassingen niet relevant.

Random I/O performance bij een bepaalde latency is vaak veel relevanter, en een betere indicatie voor real-life performance. Zeker met mixed (random) read-write workloads.

Leuke stats voor een nieuws artikel, maar wees kritisch en vraag je af of de geteste queue depth van 32,64,128 wel zo representatief is voor jouw toepassing. Kijk ook eens of QD=1 nog een acceptabele prestatie oplevert.

Storage performance wordt vaak makkelijk over gedaan (want ssd dus goed) maar je kunt soms een aardige deksel op je snuit krijgen, en zeker in de cloud.

Op dit item kan niet meer gereageerd worden.