Kioxia introduceert PCIe 5.0-ssd's met capaciteiten tot 30TB voor datacenters

Kioxia introduceert nieuwe PCIe 5.0-ssd's voor datacenters. De CD8P-ssd's halen volgens de fabrikant leessnelheden tot 12GB/s en komen beschikbaar in capaciteiten tot 30,72TB. De Japanse geheugenmaker noemt geen adviesprijzen.

Kioxia CD8P
Bron: Kioxia

De Kioxia CD8P-serie haalt sequentiële lees- en schrijfsnelheden tot respectievelijk 12.000 en 5500MB/s, schrijft Kioxia in een persbericht. De willekeurige lees- en schrijfsnelheden bedragen 2.000.000 en 400.000 iops bij 4kB-bestanden. Er komen volgens Kioxia varianten beschikbaar van 1,60 tot 30,72TB in U.2- en E3.S-formaten. De ssd's zijn vooral bedoeld voor grote datacenters en hyperscalers, en bieden verschillende opties voor databescherming en beveiliging tegen dataverlies bij stroomuitval.

De CD8P-serie beschikt verder over Kioxia's eigen controller, firmware en BiCS5-tlc-nandgeheugen met 112-lagen. De ssd's komen beschikbaar als CD8P-V- en CD8P-R-varianten, die respectievelijk geoptimaliseerd zijn voor gemengde workloads en leesintensieve applicaties. De CD8P-V-serie komt overigens maximaal beschikbaar in capaciteiten van 12,8TB.

Kioxia demonstreerde de datacenter-ssd's voor het eerst tijdens de Flash Memory Summit in Californië. De fabrikant deelt echter geen concrete releasedata voor de ssd's, hoewel de chipmaker zegt al samples te leveren aan grote klanten. De chipmaker noemt geen adviesprijzen.

Kioxia CD8P
Bron: Kioxia

Door Daan van Monsjou

Nieuwsredacteur

07-08-2023 • 15:41

33

Lees meer

Reacties (33)

Sorteer op:

Weergave:

Met dit soort bandbreedtes en hoeveelheden komen we toch echt op een punt waar we eens moeten gaan nadenken over herziening van bepaalde architectuur.

Dit soort zaken in een SAN bied al geen enkele meerwaarde meer t.o.v. normale SSD storage. Puur omdat je deze bandbreedte gewoon niet meer over glas de deur uit krijgt als je over meerdere disks kunt lezen.

Lijkt er op dat we weer terug moeten naar dedicated storage per server om hier echt goed gebruik van te kunnen maken. En dan niet meer via RAM, maar gewoon direct access voor grote datasets.

Zeker met al het ML geweld geen gekke gedachte denk ik zo.
Dit soort zaken in een SAN bied al geen enkele meerwaarde meer t.o.v. normale SSD storage. Puur omdat je deze bandbreedte gewoon niet meer over glas de deur uit krijgt als je over meerdere disks kunt lezen.
Redundantie lijkt me nu toch wel al een redelijk pluspunt ten voordele van SAN. Voor de snelheid moet je het dan inderdaad niet doen.

Maar volgens mij zie je het veel te kleinschalig voor dit type SSD's. Deze horen thuis in een datacenter, rechtstreeks op de PCI bus van de CPU, niet over een Thunderboltlijn aan je thuiscomputer.
Maar volgens mij zie je het veel te kleinschalig voor dit type SSD's. Deze horen thuis in een datacenter, rechtstreeks op de PCI bus van de CPU, niet over een Thunderboltlijn aan je thuiscomputer.
Ik heb ook niet over desktop/workstation. Een SAN is juist normaliter wat je in een DC neerzet voor redundante bulk storage op hoge snelheid om rechtstreeks vanaf te werken.

Een beetje wat Linus iedere keer doet met dat “editten over netwerk”, maar dan goed.
Fiberchannel (glas) gaat tot 128 Gb/s en ze zijn bezig met 256 Gb/s en 512 Gb/s. Om beter met SSD's om te gaan is er ook FC-nvme.
Dedicated per server moet je weer raid kaarten lokaal zetten (of software raid via het OS), kun je je capaciteit moeilijk herverdelen en heb je geen technieken beschikbaar om replicatie, snapshots en dergelijke te doen.

zo levert IBM al een hele tijd SAN systemen met flashcore modules (zoals de A9000, FS9200 en FS7300), en bestaat het product gamma van Pure Storage enkel uit flashstorage units zoals de X series en E series
Dat klopt, maar een SAN gebruik je natuurlijk niet alleen. Voor ML racks (je weet wel. Die dingen die afneemt bij een AWS of Google) geldt natuurlijk dat ze meerdere sets tegelijk moeten lezen omdat er gewoon meerdere mensen tegelijk in zo’n rack bezig zijn.

Uiteindelijk is het dan ws gunstiger om wel degelijk eens een paar drives dedicated te hebben in de machines zelf.
Hoezo gebruik je een SAN niet alleen? Alles onder mijn beheer is van SAN geboot, of heeft zijn bootimage op een shared (SAN) disk staan in vmware. Enkel de vmware hosts zelf hebben lokale disk/sd voor de eigen software.

Geen idee wat ML racks zijn, bij mijn weten kun je bij Google of AWS enkel virtuele hosts afnemen (of niveaus daarboven via containerization). Snap ook niet wat met "meerdere sets tegelijk lezen" precies bedoelt, maar lezen van SAN kan ook prima met meerdere tegelijk (of bedoel je object based storage?). Enkel voor omgevingen die zelf redundantie regelen kan lokale disks interessant zijn, zoals Hbase clusters of filebased/objectbased storage oplossingen.

edit: ah: ML = Machine Learning

[Reactie gewijzigd door Aragnut op 25 juli 2024 12:44]

Een DC is niet altijd alleen van jou. In het geval van cloud platformen huur je alleen een stukje compute en het kan best zijn dat er op dezelfde hardware nog andere partijen zitten die ook gebruik maken van dezelfde bulk aan storage en compute. Dat is wat ik probeerde aan te geven met dat je het niet alleen gebruikt.

En zoals je zelf al aangeeft. Alles wat bij jou van SAN boot heeft daar dus een read en write “claim” nodig en dus een bepaalde hoeveelheid bandbreedte.

Een ML set is rustig enkele terabytes. Je hebt dus serieuze bandbreedte nodig als er op zo’n SAN meerdere van die sets staan waar meerdere gebruikers op dat moment mee bezig zijn. Het is namelijk niet zo dat je dat sequentieel kunt uitlezen en met 5 seconden klaar bent. Nee dat kan uren tot dagen in beschikking nemen.

Ja je kunt bij cloud providers alleen instances afnemen, maar die staan fysiek vaak wel in hetzelfde rack. Gewoon om maintenance makkelijk te maken. Voor ML is dit vaak specifieke hardware in de vorm van GPU accelerator bakken.
Snap ook niet wat met "meerdere sets tegelijk lezen" precies bedoelt, maar lezen van SAN kan ook prima met meerdere tegelijk
lezen van SAN is juist per definitie ook bedoelt voor meerdere tegelijk, want anders heeft het niet zoveel zin (is immers gigantisch dure hardware en dito software), maar het is dus niet onredelijk om te zeggen dat er op een gegeven moment gewoon gigantisch veel data van disks wordt binnengetrokken op een sustained rate. Want ML modellen bevatten gewoon enorm veel data.

Local redundancy in de vorm van een simpele raid 1 of raid 5 is dan in veel gevallen ook al wel voldoende. Het fungeert puur als een read cache voor die specifieke instance.
Met dit soort bandbreedtes en hoeveelheden komen we toch echt op een punt waar we eens moeten gaan nadenken over herziening van bepaalde architectuur.
Maar dat gebeurt toch al jaren? De homogene server architectuur met trage peripherals (al dan niet met DMA or RDMA) wordt steeds meer vervangen door heterogene architecturen.

Waarom denk je dat Intel Altera heeft overgenomen, en AMD de laatste jaren Xilinx heeft overgenomen?

Accelerators achter een NVMe interface.
Network Attached Processors.
Tenstorrent.com
...
Ethernet gaat tegenwoordig ook gewoon tot 400Gbps per link. Gooi daar FCoE of iSCSI over heen, en deze bandbreedte is best nuttig te gebruiken. In de praktijk zal je zelden alle SSDs tegelijkertijd uit willen lezen, maar zo'n hoge burstsnelheid is alsnog fijn om te hebben als je gewoon snel data van één SSD nodig hebt.
Tussen sommige datacenters ligt al 100Gbit glas ... dus de performance zou best kunnen, maar het heeft een prijskaartje ...
Ja maar je gaat geen enterprise SSDs in een DC hangen om je ML dataset vervolgens over te pompen naar een ander DC om daar de berekeningen te doen.

En als het co-locatie is zit je met een bandbreedte limiet van een paar gig.

DCs intern kan al prima tot 800gbit per link overigens, maar een SAN met een disk of 60 en een hele sloot CPUS trekt dat met gemak dicht.
Als ze al SSD's kunnen maken met dergelijke capaciteiten lijkt het lot van gewone harddisks me echt wel bezegeld. Ok, ze zijn momenteel nog wel goedkoper, maar ook de klassieke harde schijven worden niet meer goedkoper. Ze kosten al jaren hetzelfde, al wat je ervan kan zeggen is dat er steeds grotere versies bijkomen die dan weer nóg duurder zijn die die er al waren.

Ik zie de SSD's eerlijk gezegd nog eerder in prijs dalen dan de klassieke harde schijven. Tot er een punt komt waarop het niet meer uitmaakt en dan is het goodbye spinning disks...
Klassieke harde schijven zijn al jaren aan het uitsterven. SSDs zijn al flinke tijd meer dan groot genoeg voor de meeste gebruikers, en ze zijn inmiddels goedkoop genoeg dat je eigenlijk niks bespaart door een harde schijf te nemen.

Harde schijven zijn eigenlijk alleen nog maar voor bulk storage bij bedrijven of de zeldzame data hoarder. Als reguliere thuisgebruiker is een standaard 16TB schijf gewoon compleet nutteloos. Een 2TB SSD is al meer dan genoeg, en ook nog eens vele malen sneller.
total mensen erachter komen dat de cloud niet goedkoop is.
Elke cloud provider is ook de duimschroeven aan het aandraaien en ik ken genoeg lui die hun stash op Gdrive hebben staan en dat gaat allemaal stoppen daar is Google en consorten al een tijdje mee bezig.
En ja velen hebben ook niet een grote hdd nodig dat klopt maar genoeg lui die volledig de cloud in zijn gegaan die nu de restricties gaan zien.

[Reactie gewijzigd door Hakker op 25 juli 2024 12:44]

Och, een aantal 8MP ip cameras met een maand opslag en dan pomp je die 16TB zo vol 😂.

(en nee, h265 is niet handig met bewaking camera's...)
De klassieke HDD is voor de consument niet uitgestorven maar de markt is enorm ervoor geschonken. De enterprise markt is het toch een ander verhaal.

Er wordt nog stevig op doorontwikkeld voor de enterprise markt. Om de densiteit van een HDD te verhogen. HDD heeft nog steeds een grote applicatie in de archiving/cold storage (net zoals data tapes), video surveillance, etc....
De HD's zijn nu bijna op hun bodem-prijs uitgekomen. De modellen met kleinere capaciteiten worden tegen materiaal- plus productie-kosten en een winst marge tussen de 10 en 20% in de markt gezet. Een winstmarge onder de 20% is in de computer elektronica erg laag.
Dat de HDD's gaan verdwijnen is inderdaad een kwestie van tijd.
Tape is ook nooit verdwenen
En hdd zal ook niet verdwijnen. Band is namelijk gewoon veel gevoeliger voor herschrijven. In DC omgevingen waar gewoon veel data geschreven word kun je dan wekelijks ssds gaan swappen met dit soort stacking van nand waar hdds jaren mee gaan. Het is niet alleen kosten per GB. Een server down halen en opslag vervangen + rebuild kost ook tijd en dus geld.

Niet voor niets doen we lang termijn backup nog steeds gewoon op tape
Echt bijna niks hiervan klopt. Je kunt een SSD niet kapot schrijven in een paar weken. Daarvoor zijn ze te langzaam versus hoe vaak een cel overschreven kan worden. Je berekent gewoon hoeveel je schrijft, dus hoe lang de SSD mee gaat. Als je zoveel schrijft dat een SSD kapot gaat, is een HDD waarschijnlijk te langzaam. Ook is het vervangen van opslag sowieso dagelijks werk in een datacenter. Een server hoeft niet offline om een schijf te vervangen. Sterker nog, voor alles behalve de grote storage bakken hoeft ie niet eens naar voren. Een raid rebuilden kan gewoon terwijl de array toegankelijk blijft.
In een datacentrum werden HD's meestal standaard na twee jaar vervangen omdat de kans op een mechanisch defect dan groter werd. Een SSD kan mechanisch niet defect raken, wel hebben die het probleem dat cellen maar een beperkt aantal keer beschreven kunnen worden. Het aantal keer lezen is onbeperkt. In een datacenter worden de SSD's niet zo heel vaak beschreven. Het grootste deel van de data is statisch. Elke SSD's worden ook niet gelijk voor de volle 100% van de capaciteit gebruikt, maar er wordt een reserve achter de hand gehouden om kapotte cellen te vervangen.
De servers in een datacentrum zijn zo gemaakt dat die niet offline gehaald hoeven te worden om een HD of SSD te vervangen. Je kan er gewoon een HD of SSD uittrekken en vervangen door een nieuwe. De rebuild vindt dan automatisch plaats. Het systeem is dan iets kwetsbaarder, maar kan wel gewoon gebruikt worden.
Tape is een backup medium, maar men moet er wel rekening mee houden dat een tape in de loop der tijd degradeert. De kans dat na 10 jaar niet alle data terug gelezen kan worden is aanwezig.
Wat ik zie is dat tapes nu snel verdwijnen en dat lange termijn backups steeds vaker op HD's worden gezet.
Ik zou graag mijn totale capaciteit omzetten naar SSD, maar dat gaat nog wel enkele jaren duren vrees ik.
Met de grootte van games op Steam zou ik er ook wel een thuis willen hebben :)
same, zowel voor gaming als voor mkv hoarding
Volgens mij hadden ze al een 30.7TB model, maar dat was dan waarschijnlijk nog geen PCIe 5.0?

Na de aankondiging van 61TB SSDs door Solidigm (voorheen een divisie van Intel, overgenomen door SK Hynix) recentelijk had ik eigenlijk van Kioxia ook wel een aankondiging op dat formaat verwacht.
Ze krijgen niet meer TB in het 2.5" formaat dus dan is 30TB het meeste, kan zijn met de nieuwe nand flash dat ze hoger kunnen maar dan zakt wrs de snelheid hard in.
Mmmh ik zien op de Kioxia pagina de meeste ssd series tot 15TB gaan
https://europe.kioxia.com.../ssd/data-center-ssd.html

[Reactie gewijzigd door Damic op 25 juli 2024 12:44]

wat is het punt van dit, als een consument dit niet eens ken kopen / betalen , een standaard 8tb nvme ssd is al over de 1000 euro
Niet alle producten worden voor consumenten gemaakt. Dit is een SSD voor de enterprise markt. €1000 voor opslag is dan geen enkel probleem.
Je kan dit als consument wel degelijk kopen, maar je moet je wel beseffen dat deze drives voor de enterprise/server markt zijn gemaaktben daar dus ook voor geprijst zijn.

Nu dat deze uit zijn en 60TB drives ook op de roadmap staan, is een Petabyte in 1U niet meer ver van ons verwijderd.

Nu kun je afvragen waarom een enterprise klant zoveel ervoor wilt betalen... Stroom en fysieke ruimte. Door de densiteit van een drive te verhogen, heb je uiteindelijk minder drives nodig om het zelfde te kunnen bereiken... Dus minder stroom verbruik en minder fysieke ruimte nodig om het zelfde of meer storage capaciteit te krijgen.
Veel Tweakers werken ook in de IT en vinden dit soort innovatie in ieder geval mooi om te zien. Bovendien is dit soort spul over een paar jaar in ieder geval 2e hands beschikbaar voor homelabs enzo.
dit is voor datacenters, waar elke cm aan ruimte veel geld waard is
als je hiermee de hoeveelheid ruimte die je nodig hebt omlaag kan brengen voor de zelfde hoeveelheid data dan is het voor het datacenter goud waard
Dat krijg je als je op enterprise bleeding edge hardware zit. Die lui betalen graag een premium voor hogere dichtheid (meer GB per m³) en lager verbruik want ruimte en stroom (+hitte) in een datacenter is gewoon duur. Als jij ipv 4U (rackmount units: hoe hoog je server is) nu 2U voor dezelfde hoeveelheid capaciteit nodig hebt, dan gaan je per maand kosten gewoon flink omlaag.

En nadat de technologie zich heeft bewezen in het data center en de productiecapaciteit er is, dan worden deze dingen voor consumenten ook beschikbaar en betaalbaar.

Een OCZ Octane 1TB SSD was 12 jaar geleden 2-3000 dollar, een paar jaar erna voor minder dan 1000, nu koop je een consumer Samsung 1TB NVMe voor 5-7 tientjes.

Het punt is dat zonder de innovatie en scale-up voor enterprise, het simpelweg niet rendabel is om dit voor consumenten te doen en zal het veel langer duren/duurder zijn.
Het bedrijf Solidigm Launches 61.44TB PCIe SSD: Up to 7,000 MB/s Dit zijn de grootste in de wereld.
61,44TB "coming soon". Paper launches doen wat mij betreft niet mee bij "wie heeft de grootste".

Op dit item kan niet meer gereageerd worden.