SK hynix introduceert PCIe 5.0-ssd met leessnelheid van 14GB/s

SK hynix heeft een nieuwe PCIe 5.0-ssd aangekondigd: de SK hynix PCB01. Het opslagmedium heeft een sequentiële leessnelheid van 14GB/s en sequentiële schrijfsnelheid van 12GB/s. De fabrikant zet het product in de markt als een ssd voor AI-computers.

Uit de persmededeling blijkt dat de PCB01 over een achtkanaalscontroller beschikt, slc-caching en een aparte hardwarematige enclave om gevoelige data van gebruikers te beschermen tegen cyberaanvallen: de Root of Trust. Het is niet helemaal duidelijk of SK hynix voor deze ssd gebruikmaakt van het 3d-nandgeheugen met 238 lagen dat vorig jaar bij het Zuid-Koreaanse bedrijf in productie is gegaan.

SK hynix schrijft dat de PCB01 ongeveer 30 procent minder energie gebruikt in vergelijking met de vorige generatie ssd’s. Het is niet duidelijk op welke manier de fabrikant het energiegebruik van het nieuwe product heeft getest en heeft vergeleken.

De PCB01 zal in drie varianten op de markt verschijnen: een editie met een capaciteit van 512GB, een variant met 1TB aan opslagruimte en een versie met 2TB aan geheugencapaciteit. Het is niet duidelijk hoeveel elk van deze varianten moet kosten.

SK Hynix PCB01
SK Hynix PCB01

Door Jay Stout

Redacteur

28-06-2024 • 19:39

41

Reacties (41)

41
41
24
2
0
12
Wijzig sortering
Beginnen SSD's nu langzaam aan geheugen snelheden in te halen?
Lijkt mij een bijzondere ontwikkeling.
Niet te vergelijken, DDR is meerkanaals, en vermenigvuldigt daarmee zijn snelheid.

Een beetje snel latje DDR5 doet 60GB/s, dus 120GB/s in dual channel. En mocht je denken, en raid dan? Dual channel heeft geen inherente nadelen zoals raid 0 dat wel heeft, als je überhaupt al een controller kunt vinden die raid 0 aankan op de pci5 snelheden.

En zoals aangegeven, random access is even snel als sequentieel bij geheugen.

Kortom, dus toch nog een duidelijk bestaansrecht van geheugen.

[Reactie gewijzigd door A Lurker op 23 juli 2024 02:10]

Toch maar weer eens naar RAM drives kijken :D
Database op RAM drive, dat was in de jaren '90 al rete snel.
Je snap dat het nu dat een DDR5 gebaseerde server sneller kan zijn dan je internet verbinding. ;)

Maar de meeste databases hebben tegenwoordig hun data gewoon in memory. Sommige databases zijn maximaal enkele tientallen gigabytes, de meesten vele malen kleiner.

Zo kon een van m'n oude sites die een MySQL database had, over op gerealiseerde JSON files, die in geheugen staan. Vele malen sneller dan voorheen. Bij updates een paar PrestoDB queries draaien om de nieuwe JSON files te maken en deploy package.

[Reactie gewijzigd door djwice op 23 juli 2024 02:10]

Worden die dan om de paar seconden naar de harde schijf geschreven om te voorkomen dat er data loss is bij een crash?

Stroomvoorziening is nog wel te fixen met ups, maar een hardware failure, kabeltje wat wat los zit etc komt altijd ongelegen.
Read-only data. Bij start wordt de data in memory gezet. Tegenwoordig is dat is 5 tot 20ms klaar.
Data staat ook op s3 [object storage] (onprem is dat min.io).

[Reactie gewijzigd door djwice op 23 juli 2024 02:10]

Ohja natuurlijk. Dank :)
Terechte opmerking, latency is ordegrootte een factor 1000 beter van geheugen tov ssd.

Terwijl de bandbreedte "maar" zo'n tien keer beter is.
Er is al een tijdtje servers met nvme-tjes.
Gaat retesnel, maar is ook pokkeduur :)
Het artikel spreekt toch ook over een 8 channel controller? En als je die drives in raid plaatst heb je ook meerdere kanalen, dus ik terwijl je wel gelijk hebt denk ik niet dat je uitleg klopt.
Het artikel spreekt toch ook over een 8 channel controller?
Dat ze bij een controller ook over kanalen spreken zegt niks over hoe die functie werkt.
Onfortuinlijke overlading van de term dual en quad channel (wat ik idd meerkanaals noemde) tov channels op een pci ssd controller.

De praktijk is dat praktisch elke pc geschikt is voor dual channel memory omdat dat in letterlijk elke moderne cpu/moederbord ondersteund wordt en het enige wat je hoeft te doen is kiezen voor 2 (of 4) latjes en niet 1 (of 3).

Andersom nodig ik je uit om een controller te vinden die je 28GB/s geeft met twee van deze snelle SSDs in raid.

[Reactie gewijzigd door A Lurker op 23 juli 2024 02:10]

De R in RAM staat voor Random.
14GB/s sequentieel is niet echt indrukwekkend als je beseft dat hedendaags 'snel' geheugen 3x zo snel is... maar dan random i.p.v. sequentieel. 8-)

[Reactie gewijzigd door Ayporos op 23 juli 2024 02:10]

De fabrikant zet het product in de markt als een ssd voor AI-computers.
Dit vind ik weer van die typische verkoperspraat die dan mee liften met de AI hype. Als het werkelijk zo zou zijn dat je dit soort hoge snelheden nodig hebt, tja, dan moet er nog flink aan AI gesleuteld worden.

Daarnaast, ik ben ermee gestopt met die hele snelheidsoorlog op SSD gebied want in de praktijk ga je het bij gewoon gebruik toch niet echt merken. Ja in theorie wel dan maar in de praktijk zijn het vaak maar milisecondes en soms dan secondes. Plus een ander nadeel is en blijft ook dat dit soort snelle ssd's weer extra koeling nodig hebben omdat ze anders gewoonweg te heet worden. En als ze dan te warm worden dan gaat de snelheid drastisch omlaag dus uiteindelijk kan je dan net zo goed een langzamere maar koelere ssd gebruiken.
Deze SSD'S zijn juist zuiniger dan die van de vorige generatie ( dus zullen minder heet worden), staat gewoon in het artikel.

En het is niet AI hoge snelheden nodig heeft omdat '' er nog flink aan gesleuteld moet worden'' Het is omdat het om bergen aan data gaat, dan is snellere opslag altijd welkom.
Deze SSD'S zijn juist zuiniger dan die van de vorige generatie ( dus zullen minder heet worden), staat gewoon in het artikel.
Het is niet duidelijk op welke manier de fabrikant het energiegebruik van het nieuwe product heeft getest en heeft vergeleken.
Dus ja, het is maar net de vraag hoe ze dat dan gemeten hebben en dus op welk moment de ssd's 30% zuiniger zijn. Maar het is wel gewoon bekend dat deze snelle ssd's warm worden en deze zullen geen uitzondering daarop zijn.

En tja wat AI betreft, ik vraag niet op AI en zeker al niet wanneer het de pc nog eens extra gaat belasten. Of anders gezegd ben ik niet van plan om voor AI dan een snelere ssd in mijn systeem te gaan zetten.
30% minder energie, passief gekoeld?
30% minder dan wat vraag ik me dan af. Ik zie verbruik van 4-10W bij gen5 SSDs in de vorige roundup/staat van 5.0 SSDs... 30% minder dan 10W is 7W en nog steeds meer dan 4W. En dat is nog steeds veel meer dan Gen3 en dat is dan ook de reden waarom ik nog steeds voor Gen 3 SSDs ga... Je gaat in de richting komen dat de SSD net zoveel gebruikt als je zuinige CPU in Idle... |:(
Knap dat jij dan nog Gen 3 ssd vind.
Kijk in de pricewatch van tweakers.net en zie helaas niet echt heel veel aanbod meer.
Markt lijkt te zijn te verschoven naar Gen 4 SSDs lijkt het wel.

Ja ik snap dat je een Samsung evo 970 kan kopen. Maar vele andere alternatieven vind ik helaas niet.
Of ze zijn de moeite niet waard omdat de prijs (die hoger ligt dan Gen 4) ze al heeft ingehaald.
En dat is dan exact wat ik nog in de machines heb zitten evo 970 plus, 2TB versies en zelfs die wordt al vrij snel warm.
Uh, ja, maar niet in idle neem ik aan :P En dat is beetje het punt... Dat ding gaat goed zijn in idlen.
Ligt eraan of je vaker grote bestanden overzet of installeerd, zo niet dan kan je net zo goed bij je Gen 3 SSD blijven inderdaad.
De 10W is toch bij actief lezen/schrijven met 100% utilization? Het lijkt mij normaal dat het meer warmte afgeeft als het evenveel data sneller wegschrijft dan een tragere SSD.
Ik denk dat we nu bijna zover zijn om de SSD power efficiëntie te beschrijven als energieverbruik per gelezen/geschreven bit volgens een bepaalde tijdseenheid.
Dat zou een betere duiding geven dan enkel het maximale verbruik van de SSD opnoemen, maar wat mij veel belangrijker lijkt is het verbruik bij idle.

Een beetje analoog is het FPS per Watt wanneer je grafische kaarten benchmarkt: een RTX 4090 verbruikt veel meer dan een 4060 maar tegelijk is er ook een hogere FPS/Watt. Anderzijds heeft de 4090 wel een hogere idle verbruik dan een 4060.
Daarbij maakt de fabrikant ook nog eens uit: de ene zal duurdere MOSFETs installeren, terwijl een andere fabrikant goedkopere MOSFETs zal gebruiken om een paar euro goedkoper uit te komen en dus hoger in de lijst te staan bij de prijsvergelijkers, waar elke euro telt door de hoevelheid concurrentie met soortgelijke modellen. Het nadeel is wel dat de goedkopere MOSFETs een grotere weerstand kunnen hebben waardoor het verbruik stijgt (ook bij idle).
Ik vraag me dat ook af, want die enorme koel blokken is wel een ding.
Een iso rip in 4 seconde?! Holy moly
Dat lijkt me ideaal voor mijn foto beweking.
Maar ik durf niet te kijken naar de prijs
Daar zat ik ook aan te denken (8K video bestanden grootte 400GB) vraag me dan af hoe snel het inkakt bij grote bestanden....
Antwoord: te snel

Dit soort snelheden haal je maar voor korte tijd. Totdat de SLC cache op is. En daarna is het echt HEUL traag.
Prachtig, super gaaf, maar….intussen produceert onze lab apparatuur TB’s per week. (Klein labje overigens)
Volgend jaar is dat TB’s per dag.
Het wordt steeds lastiger om door al die data heen te ploegen

Hopelijk schaalt de computational power ook mee

[Reactie gewijzigd door fenrirs op 23 juli 2024 02:10]

Zijn dat tijdelijke data van kleinere chunks of grote data? wellicht is het handig om een server te regelen en dan geheugen te gebruiken als temp storage. Maar dat ligt natuurlijk er wel aan of dat bij je past. Hoeft niet super duur te kosten als je een beetje oudere server neemt, en geheugen.
Don’t worry, zo’n vaart loopt het niet. Op dit moment kijken we eerst heel goed óf we wel data gaan produceren. Na analyse van de eerste data blijft er ongeveer een honderdste van de datasize over. Lukt best met een A100

De post was meer om aan te geven dat we al jaren rond de 1-4TB zitten, maar eigenlijk nu al het tienvoudige kunnen gebruiken (niet bewaren)

Effectief zitten we in dezelfde verhouding als een 80286 met 20 MB harddisk uit 1987

[Reactie gewijzigd door fenrirs op 23 juli 2024 02:10]

Gelukkig bestaan er write intensive enterprise SSD's. Dan worden je SSD's tenminste niet opgegeten door al dat AI spul.
Poah die zijn prijzig hee. Maarja terecht wel. Heel andere ordegrote dan consumenten ssds
Volgens mij moet je de workflow eens nakijken vermits er bedrijven zijn TB's per uur verwerken. Ja er kan nog een bottleneck zijn tussen opslag en de verwerking, maar met het juiste os (nee niet windows) kom je er wel.
Het moet naar een enkel apparaat? Volgens mij haal je dit ook wel met goedkope SSD's aan een aantal SATA controllerkaarten
Dit is consumenten meuk. Je bent of op zoek naar Enterprise apparatuur of je heb niet dergelijke snelle storage nodig. Voor storage gooi je het op NAS storage, HDD of SSD array.

Wat ik me dan afvraag, heb je die data allemaal nodig? Als je uit een dataset A t/m Z hebt per meet resultaat en je bent alleen zoekende binnen T, dan maak je een aparte dataset uit alleen T. Dat neemt uiteindelijk meer ruimte in beslag, maar dat kan je storen op goedkopere storage en wat je nodig hebt laad je in op snelle storage.

En je kan je wellicht afvragen of al dat geld uitgeven aan alleen betere lab apparatuur die steeds meer meuk registreert, je ook niet wat geld apart moet leggen voor de data (verwerking)... Dit klinkt als het paard voor de wagen spannen...

Ik kan je namelijk nu al vertellen dat de computational power niet mee schaalt op 7x meer data in een jaar...
Dat roep ik dus al een tijdje naar ‘boven’. Daarnaast zijn we kritisch wanneer en waarvoor we data produceren, soort van hollen of stilstaan. Voor continu draaien is geen (humane) capaciteit
Het wordt steeds lastiger om door al die data heen te ploegen
Daar heb je dan weer ai voor :)
Eventueel is er ook nog een optie om een RAM-drive aan te maken. Zitten natuurlijk ook wat haken en ogen aan, maar is wellicht het onderzoeken waard.
Ik snap het ook niet meer. Hoeveel jaar zitten we nu al vast aan die 2GB nvme's... ik wil die klassieke harddisks uit mijn systeem, maar met de huidige SSD's lukt dat nog steeds niet. Het enige waar ze ontwikkelen is de snelheid imho.
De industrie is de opslag voor consumenten aan het klein houden omdat anders de prijzen te snel zakken doordat iedereen 2 dezelfde apparaten naast elkaar kan zetten, en dat dan ook significant sneller wordt, en de adviesprijs van een enkel apparaat een trap geeft.
In feite zitten we al lang aan de bussnelheid. Het monolitische aan opslagapparaten is tecnisch onnodig sinds ze parallel kunnen functioneren.

Op dit item kan niet meer gereageerd worden.