MSI toont PCIe 5.0-ssd's in Spatium M570-serie met leessnelheden tot 12GB/s

MSI kondigt tijdens de CES in Las Vegas zijn eerste twee PCIe 5.0-ssd's aan. De Spatium M570 en M570 Pro halen volgens MSI sequentiële leessnelheden van respectievelijk 10 en 12GB/s. De ssd's verschijnen in het tweede kwartaal van dit jaar.

De Spatium M570 en M570 Pro zijn beide gebaseerd op de E26-controller van Phison, schrijft Tom's Hardware. De Pro-variant beschikt over nieuwer 232-laagsnandgeheugen van Micron, waardoor deze hogere snelheden moet halen. MSI stelt dat deze ssd lees- en schrijfsnelheden van 12 en 10GB/s kan halen. De 'gewone' Spatium M570 beschikt over ouder tlc-nand en haalt daarmee leessnelheden van maximaal 10GB/s, naast dezelfde 10GB/s-schrijfsnelheid van de Pro-variant.

Tijdens een demo op de CES haalt de M570 Pro sequentiële lees- en schrijfsnelheden van respectievelijk 12.342 en 11.814MB/s. De ssd werd getest in combinatie met een AMD Ryzen 9 7950X-cpu en een MSI X670E Carbon-moederbord. De drive werd ook getoond in een MSI Raider GE78HX-laptop, waarbij de schrijfsnelheden lager uitvielen, op 8972MB/s. MSI deelt op dit moment nog geen details over de willekeurige lees- en schrijfsnelheden. MSI deed geen demo van de Spatium M570.

De twee ssd's komen allebei beschikbaar in varianten met 1TB, 2TB en 4TB opslagcapaciteit. Volgens MSI gebeurt dat in het tweede kwartaal van 2023. De fabrikant deelt geen concretere releasedatum en noemt ook nog geen adviesprijzen.

MSI PCIe 5.0-ssd Spatium M570 CES 2023
Bron: MSI Gaming, via Twitter

Door Daan van Monsjou

Nieuwsredacteur

06-01-2023 • 11:13

22

Reacties (22)

22
20
13
0
0
5
Wijzig sortering
Ik durf het bijna niet te vragen maar worden er ook nog sprongen gemaakt in verbeterde latency met gen.5 SSD's?
Ja en nee,

Niet in de consumenten producten, daar gaat de sequentiële snelheid omhoog, maar latency blijft plakken. De snelheid vasthouden is ook een ding waar consumenten drives door de mand vallen, ofwel omdat ze gebruik maken van buffers of omdat ze geen overhead hebben om te blijven gaan als ze bijna vol zitten.

Ik neem aan dat de consumenten drives ooit wel een inhaalslag gaan maken maar daar hoef je echt niet voor naar PCIe 5, een Intel Optane 905P PCIe 3.0 maakt nog altijd gehakt van gelijk welke gewone consumenten drive als het op latency aankomt. (en die zal hoogst waarschijnlijk ook al je games nog altijd sneller laten starten in de praktijk)

Als je het hedendaagse beste wilt in latency dan moet je naar een optane persistent memory 2000 series, ook wel PMEM genoemd maar dat kost je +/- 2000 euro voor 256GB ofwel naar een DC P5801X Series wat ergens op +/- 4000 euro komt voor een 1.6TB model.

Ik durf wel niet zeggen in welke mate die dingen daadwerkelijk ondersteund worden op een niet server versie van Windows, vooral bij de PMEM heb ik er schrik voor.
Ik was ergens al bang voor een antwoord als dit, maar toch bedankt. :)

Ik zit de laatste tijd inderdaad naar Optane te gluren maar die prijzen zijn schrikbarend hoog. Misschien overweeg ik nog wel zo'n 128 of 256GB drive maar die zijn tegenwoordig met een paar games al vol. Daarnaast weet ik natuurlijk ook niet of de oudere Optane drives snel genoeg zullen zijn voor wanneer er games uitkomen met DirectStorage ondersteuning.

Het zou in ieder geval super vet zijn als er meer focus op latency komt.
Het probleem wat directstorage wilt oplossen is dat de latency dusdanig laag is dat de CPU een bottleneck word. Een probleem wat nog véél harder speelt in de server wereld, een P5801X kopen is 1 ding, die dingen daadwerkelijk op hun laagste latency aanspreken is iets helemaal anders.

Een consumenten CPU zal niet in staat zijn die drive op zijn laagste latency aan te spreken, een Epic waarschijnlijk ook niet, het zal een Xeon moeten zijn waar Intel een aparte storage controller heeft zitten die geoptimaliseerd is om hun eigen drives daadwerkelijk aan de laagste latency te kunnen gebruiken.

Als je dan een storage cluster wilt bouwen, net zoals directstorage de CPU buiten spel wilt zetten voor games krijg je RDMA om het OS/CPU te bypassen alsook RoC om de NIC/IP stack te bypassen. Een alternatief is nog ethernet volledig buiten gooien en infiniband gebruiken. Als je die latency omlaag wilt terwijl je storage over netwerk aanspreekt als NAS of SAN heb je NVMe-oF.

Waar ik eigenlijk toe wil komen, en dat is mogelijk een van de redenen waarom consumenten drives zich niet echt focussen op die latency, storage is altijd gigantisch hoog geweest in latency en bijgevolg hebben we altijd storage benaderd als iets wat heel veel latency heeft. Nu die latency omlaag gaat moeten we storage totaal anders gaan benaderen, heel het concept van hoe spreken we storage aan is hier niet op voorzien. DirectStorage is maar een eerste poging om bij consumenten die storage echt anders te gaan benaderen, om effectief gebruik te maken van die lage latency.

Mogelijks zal met DirectStorage dus ook bij fabrikanten van consumenten drives een verandering brengen want DirectStorage gaat tussen 2 drives niet sneller gaan omdat drive A meer sequentieel kan doen dan drive B, het gaat sneller gaan op drive B omdat de latency daar lager is dan op drive A.
Ik kan niet wachten om te zien wat die dingen kunnen doen in combinatie met DirectStorage.
Jemming, dit trekt mijn 2x 25Gbps netwerk niet eens.
De snelheid zakt flink in bij kleinere bestanden, dus je netwerk voldoet nog steeds, behalve als je grote bestanden gaat overpompen.

Tip voor de kleine bestanden: PrimoCache van Romex
Ik vermoed dat je netwerk snelheid nog verder zal inzakken bij kleine bestanden. Die latency gaat je daar nog harder raken.
Ik wacht nog steeds op betaalbare >1gbps netwerk apparatuur voor thuis.

Zelfs mijn cheapo NAS met harde schijven trekt die gigabit zo vol.
heb je dan jumbo packets aan staan? Zo niet, dan zijn ethernetpackets ca 1.5kB en zou je eerdere reactie over kleine bestanden i.c.m. netwerk m.i. niet opgaan (zolang je bestanden niet kleiner zijn dan 1.5kB).

En het hangt er nog vanaf hoe je over het netwerk verstuurd. Slimmere protocollen streamen gewoon byte streams en dan vallen files niet samen met ethernet packets (maar wordt alles achter elkaar geplakt).
Zoals wat voor apparatuur ? En wat is betaalbaar ? Mijn moederbord had het standaard, mijn NAS had er één, mijn laptop met een simpel dongletje van 3 tientjes, dus dan heb je alleen een switch nodig van 130 euro oid.
Eigenlijk best veel. Ik beheer een storage cluster waar we dit soort dingen inzetten.
Waar voorheen de disks de limiterende factor waren, begint nu het netwerk het te worden.
Deze disk tikt bijna de 100Gbps aan, dus 2 maal de snelheid van mijn netwerk.

Met 8 van deze in 1 systeem... Moeten we toch eens gaan kijken naar een ander netwerk :)
Beetje offtopic, maar kan een netwerk nog sneller dan 50Gbps?
Er zijn 400 Gbps netwerk omgevingen, dus ja?
800 gbps is er ook al in 1 fiber.
Ben benieuwd naar de requirements… Weet niet alles, maar met mijn beperkte kennis zie ik voor support van wat business applicaties weinig nut. Voor een beetje (v)SAN is dit ook al een overkill (kosten en NSD). Dus zware media bestanden voor de editors? Paar seconden sneller en de kosten overwegen om de users iets efficiënter te laten werken (geen idee)? Dan middleware/database/SAP, snellere transacties? Wel zien ik een voordeel sneller wegschrijven en restored van backups.
Nice. Heb het het laatste jaar niet echt meer gevolgd.
Op zich wel, we binden nu al 2 netwerkkaarten aan elkaar via bonding en paar extra moet geen probleem zijn. Maar er zijn ook al 100Gbps kaarten, maar hiervoor moet echt het netwerk geupgrade worden.

[Reactie gewijzigd door wica op 23 juli 2024 22:11]

Je schijf zit niet direct aan je netwerk gekoppeld, zitten nog wat lagen tussen dus niet per se dat je die 100 Gbps vol slurpt met 8 van deze units aangezien er nog een presentatielaag tussen zit (bijvoorbeeld NVMe over RoCE).
Ja 10 mbit ook wel. Maar er is meer in de wereld als nu.nl

Op dit item kan niet meer gereageerd worden.