Preview van eerste PCIe 5.0-ssd toont snelheden tegen 10GB/s

Er is een preview verschenen van een 2TB NVMe-drive op basis van de Phisons Gen5-controller, de PS5026-E26. Het betreft de eerste preview van een PCIe 5.0-ssd en volgens de bevindingen wordt bij een bepaalde benchmark een snelheid van bijna 10GB/s gehaald.

De genoemde snelheid werd door The SSD Review gemeten tijdens een Crystal Disk Mark-benchmark, waar het grotendeels om oncomprimeerbare data gaat. Daarbij werden een lees- en schrijfsnelheid van respectievelijk 10098,8MB/s en 10225,7MB/s behaald. Deze snelheden liggen wel iets lager bij de AS SSD-benchmark die geheel op basis van oncomprimeerbare data werkt en in die zin de zwaarste test voor een ssd is. Bij deze benchmark werd een leessnelheid van 7747,8MB/s gemeten en een schrijfsnelheid van 8990,7MB/s.

Naast de gemeten snelheden valt op dat dit referentiemodel is geleverd met actieve koeling. The SSD Review verwijst naar eerdere uitlatingen van Phison op basis waarvan de verwachting was dat Gen5-ssd's wellicht actief gekoeld zouden moeten worden, omdat de data zoveel sneller heen en weer gaat. Dit blijkt echter mee te vallen op basis van de eerste test.

In het gebruikte ASRock Z690 Velocita-moederbord met geïntegreerd M.2-slot voor Gen5-ssd's werd een vrij hoge temperatuur van 82 graden Celsius gemeten, maar de ssd draaide toch heel goed in combinatie met de meegeleverde actieve heatsink. Vermoedelijk werd 82 graden Celsius bereikt doordat de hitte slechts aan één kant van de ssd weg kon. Daarnaast werd de ssd getest in een ASUS Maximus Z790 Hero-moederbord met de daarbij horende Rog Hyper M.2 Card en hierbij werd slechts 43 graden Celsius gemeten.

Vermoedelijk zullen deze week op de CES-beurs veel producten getoond worden op basis van dit referentiemodel die vervolgens later dit jaar daadwerkelijk verkrijgbaar worden. Vorig had al het jaar van Gen5-ssd's kunnen worden, maar fabrikanten bleken veelal de kat uit de boom te kijken. De nieuwe platformen van AMD (AM5) en Intel (LGA1700-socket) hielpen ook niet echt mee. Alder Lake, de eerste generatie Intel-cpu's voor de LGA1700-socket, bleek niet echt geschikt voor Gen5-ssd's en het AM5-platform zorgde voor meer moederborden met Gen5-ondersteuning voor de M.2-slots, maar dit platform verscheen pas eind september vorig jaar. Het totale aantal moederborden met ondersteuning voor de nieuwe generatie zit momenteel op zo'n 85 stuks en dat is nog niet veel.

Controllerfabrikant Phison demonstreerde de PS5026-E26-controller al in mei vorig jaar; met een prototype-ssd op basis van deze controller werden lees- en schrijfsnelheden van zo'n 12,5 en 10GB/s gehaald. Deze controller maakt een maximale doorvoersnelheid van 15,8GB/s mogelijk, wat twee keer zoveel is als de snelheden die ssd's met een PCIe 4.0 x4-controller halen.

Phison PS5026

Door Joris Jansen

Redacteur

02-01-2023 • 11:17

58

Lees meer

Reacties (58)

58
58
32
1
0
23
Wijzig sortering
Nog even en we hebben geen RAM meer nodig. Hoewel DDR5 uiteraard een stuk sneller is.

[Reactie gewijzigd door Dylan_R op 23 juli 2024 01:17]

Ik begrijp waar de opmerking vandaan komt, maar ik denk dat we toch nog een hele tijd met RAM geheugen te maken gaan blijven hebben, en om goede reden.

Als de SSD zou worden gebruikt als RAM, zou deze heel snel stuk gaan. Hoewel SSD's een veel lagere latentie en hogere snelheid hebben dan harde schijven, zijn ze nog steeds veel langzamer dan RAM. De meeste SSD's zijn niet random access, maar blok-gestructureerd zoals schijven. Je kunt niet één byte lezen of schrijven, je moet een heel blok gebruiken.

Dat gezegd zijnde, denk ik niet dat een SSD, of eender welk type van opslag ooit de functie van RAM geheugen gaat kunnen overnemen. Ook denk ik niet dat het een heel praktische oplossing zou zijn :)
Hoe zit het ookalweer met de Intel Optane memory? Is dit vergelijkbare technologie?
Optane is discontinued. Maar inderdaad, Optane is een middenweg tussen SSD en normaal RAM. Zie het als 'Persistent memory', al gebruikte Intel de naamgeving voor verschillende features.

Persistent Memory functioneert als langzamer werkgeheugen (maar met een enorme capaciteit van 3 TB) of als snelle (niet-vluchtige) geheugenopslag.
Echt jammer dat het discontinued is. Technisch superieur in veel opzichten, maar het moet wel bedrijfs-economisch goed uitpakken en dat deed het blijkbaar niet.
Ik heb het idee dat Intel gewoon niet helemaal er voor gaat met dit soort innovaties, maar dat ze het aan de verkoop van hun processors willen knopen.
Wat het dan weer tot een niche-dingetje maakt. Zelfs al werken de grotere modellen als gewone SSD, het is op een verkeerde manier een single source product.
Eens, ik had het sowieso over de grotere modellen en de enterprise ram modules maar inderdaad, veel te veel gekoppeld aan alleen het eigen platform en dan soms ook alleen specifieke platforms, en soms ook nogal arbitrair. Bijv wel Optane persistent working memory op de server xeon icelake SPs, maar niet op de icelake workstation xeon w-3300 series (zijn dezelfde cpus…)

Dat hele consumer caching idee eerder met kleine optanes op core platforms was sowieso vrij snel achterhaald.

Op zich zijn de grotere optanes het nog steeds wel waard om 2e hands te kopen voor bepaalde usecases.
Inderdaad maar ik verwacht dat het wel terugkomt.
De vraag is er momenteel gewoon niet naar. Maar met het sneller worden van NAND flash (SSD's) en steeds groter wordende DRAM (geheugen) modules, is het simpelweg een kwestie van tijd. Fabrikanten kennende zullen we wel eerst een combo van beide zien zoals we dat ook met 'hybride HDD's' zagen.
RAM is gemaakt om constant naar toe te schrijven / van te lezen, en hebben dus geen tbw-rating. Je SSD zal dus relatief snel slijten als je deze als RAM gaat gebruiken.
Precies,

NVME is Non-Volatile Memory Express (Non-Volatile Memory) simpel uitgelegd je gegevens gaan niet weg/verloren als er geen stroom meer naar je hardware gaat. Bij RAM (Random-Access Memory) is dit volatile dat wil zeggen na stroomonderbreking zijn alle gegevens weg.

Tevens zou je SSD enorm slijten als het gebruikt gaat worden als RAM, want dus niet kan. Soms kan er wel een memory pool beschikbaar gesteld worden op je NVME of SATA drive als er niet genoeg RAM is, maar dit is nog steeds beduidend langzamer dan DDR4 laat staan DDR5.

Zoek op en gij zult vinden. (google it.) dit is een verwijzing voor degene waar jij op reageert ;)

Later.

[Reactie gewijzigd door GreasyAce op 23 juli 2024 01:17]

Een ram drive zou voor sommige applicaties best handig zijn, met 128GB capaciteit bv. Gekoppeld aan een 16x pcie5. Aangezien high speed ram in 4 slots met ddr5 momenteel wat problematisch is zou t best handig kunnen zijn. Een swap partitie voor windows of voor 8k raw video bewerking previews bijvoorbeeld.
Ze zijn bezig met "MemoryExpress" in servers, dan kun je een kaart geheugen bij in prikken, maar is nog altijd trager dan naar geheugen lezen/schrijven, dit moet je dan zien als geheugen cache. Het is sneller dan van een SSD array te lezen/schrijven maar trager den direct geheugen.
Kun je toch gewoon in software doen? Imdisk bv. Moet je natuurlijk wel flink wat RAM hebben. En anders had je vroeger nog de I-ram van gigabyte.
Er zijn wel technologieën zoals MRAM die zowel persistent, snel en random beschrijfbaar zijn en die geen maximum aantal writes hebben. Het probleem is dat ze vaak niet zo goed schalen als DRAM qua productieproces, hoe klein de elementen gemaakt worden en gebruik van energie.

Hetzelfde geld voor XPoint geheugen. Dat kwam in de buurt, maar ik geloof dat ze op 4 lagen XPoint geheugen bleven steken, terwijl flash op dat moment al meer dan 200 laagjes gebruikte. Op dat punt wordt het lastig concurreren met flash - en meer on topic, het was al niet zo snel als RAM.

Maar het is geen fundamentele beperking, en misschien kunnen we wel alleen met SRAM cache + SSD gaan werken in de toekomst. RAM is goedkoop maar flash is per GB zeker goedkoper. Ik bedoel, om een variabele in een loopje te updaten hoef je geen DRAM te gebruiken, die update blijft lekker in de cache tot de cache weer teruggeschreven moet worden na gebruik.

[Reactie gewijzigd door uiltje op 23 juli 2024 01:17]

Ik denk dat de RAM-functie wellicht gedeeltelijk kan worden overgenomen, specifiek dat bijvoorbeeld grote game-assets direct kunnen worden gebruikt zonder eerst in te laden in RAM.

Échte RAM zal nooit worden vervangen, maar bulk data migreert volgens mij wel uit RAM naar snelle solid state (als read-only medium tijdens gebruik dus)
...
Dat gezegd zijnde, denk ik niet dat een SSD, of eender welk type van opslag ooit de functie van RAM geheugen gaat kunnen overnemen. Ook denk ik niet dat het een heel praktische oplossing zou zijn :)
Wel een interessante gedachte: een computer met persistent ram (als performance even geen rol speelt). Bepaalde dingen zouden misschien eenvoudiger worden. De hardware is simpeler, omdat je geen onderscheid ram/ssd meer hebt. Ook krijg je hibernate functionaliteit ongeveer cadeau. Vanuit security oogpunt moet je misschien nog beter opletten wat er in het geheugen staat. En er zijn vast nog veel meer punten.
Helaas zij de 4k blokken nog steeds erg slecht.
Ik zou de voorkeur geven aan een SSD die op alle blokken 500 of zelfs maar 400 Mbyte/s scoort.
De native page size van x86 en ARM is 4K. Het is geen toeval dat diezelfde grootte is gekozen voor disks.
Het probleem is niet zozeer de blocksize, maar de readahead die oa drivers en file-systemen doen. In veel gevallen doe je nog steeds een read van 64k ipv 512 of 4k bijvoorbeeld. Dus blocksize speeds zijn leuk totdat je alle werkende onderdelen erbij zet, want bijna niemand gebruikt SSDs als alleen een block device.
Een 64K read-ahead is een overblijfsel uit de HDD tijd, waar je sequential speed zoveel hoger was dat de 60kB extra lezen een goede investering was, want later teruggaan was duur (mechanische seek). Dat is met SSD's niet meet nodig.
Dat is natuurlijk marketing @ work. Veel merken pronken met hun hoge snelheden in zeer specifieke benchmarks maar zodra SSD’s met het echte werk beginnen storten de prestaties in elkaar.

Dat kan je testen met een 4K random read/write test. Dan zakt de snelheid plots tot enkele honderden MB’s per seconde. Dit soort van workloads komen voor bij het laden van games, openen apps, installeren programma’s, starten van uw pc etc.

RAM = random access memory. Ik gok dat bij die random workloads RAM toch 10 tot 100x sneller als uw SSD.
Precies. Zolang ze nog beschikbaar zijn beperk ik me tot multi (als in dual) level call nmve SSDs in m2 (970 pro) of U2 formaat, maar de keuze wordt steeds minder.

Ik zou graag iets meer betalen voor nieuwere schijven die MLC zijn.
Deze snelheden zijn inderdaad in dezelfde ballpark als DDR3. Hoewel latency natuurlijk een ander verhaal is, is het gaaf om te zien hoe ver we gekomen zijn!

https://www.transcend-info.com/Support/FAQ-292
Met een latency in de orde van 50 microseconden is je latency trouwens zomaar een factor 5000 hoger dan bij RAM, dus dan zal je CPU bij elke cache miss vrolijk een kloktik of 200.000 moeten wachten. Verwacht dus de performance van een pentium 2, als het niet nog erger is. Nog los van het feit dat je continu 100% write speed naar je SSD hebt en dat je die in een bestek van maanden versleten hebt. Een uurtje een spelletje spelen? Hop, 1TB weggeschreven (gokje, niemand monitort ooit hoeveel geheugen een programma over tijd schrijft, het zou ook nog veel meer kunnen zijn).

Zolang RAM voor enkele tientjes te krijgen is blijf ik daar voorlopig nog even bij, als je het niet erg vindt. :+

[Reactie gewijzigd door bwerg op 23 juli 2024 01:17]

RAM gaat om meer dan alleen bandbreedte, ook de nabijheid op de CPU is een factor, latency in nanoseconden ipv milliseconden. Tevens de hoeveelheid read/writes.

Maar je hebt gelijk, het idee is geweldig. Een soort RAM wat persistent kan zijn. Bij voorkeur zelfs op het niveau van cache! De hele reden dat we momenteel applicaties moeten starten, en uberhaupt programmeren op de manier dat we doen, is omdat zaken als data/instructie cache zó absurd klein zijn, dat we juist in lagen moeten werken! Een van de belangrijkste niet-CPU-load gebaseerde performance indicatoren die we kunnen hebben om de performance van een applicatie die "gek" doet te diagnosticeren is cache miss, zeker bij de wat meer lowlvl programmeertalen. Veel cache-miss? Misschien moet je je execution order wat anders doen.

Intel optane/3D Xpoint was zo'n poging. Het kon zowel in RAM slots (in servers) als op de PCIe bus (zoals in de vorm van een NVME disk).

Helaas liep dat af, vanwege twee redenen:

- De DIMM-vorm was té anders om mee te werken, dat het buiten een paar machine learning/database systemen waarbij absurde hoeveelheden in-memory data een factor was geen succes was in datacenter-land, en al helemaal niet in thuis-PC land. De praktijk is immers dat je in theorie een PC van 0W naar full use kan brengen zonder powercycle.
- De NVME/storage vorm was voor servers een niche omdat NAND een factor was, en voor thuisgebruik een mega mismarketing. Intel gokte in een tijd dat SSD's mainstream zouden gaan worden op een methode om multi-tiered opslag te gaan laten werken, een kleine SSD náást je HDD, die dan via software "slim" gevuld zal worden. Zoals we van Intel wel vaker zien was de software een nét-nietje, en de prijs was het niet waard in vergelijking met de enorme voordelen van een NAND-only aanpak (wat zowel zuiniger, goedkoper, en het bijkomende voordeel, voor een laptop van géén bewegende delen had, wat de hybride HDD + Optane wél had).

Persoonlijk vindt ik het erg jammer, want NAND is véél trager dan XPoint, en ik ben nog steeds overtuigd dat een paradigma-wisseling in hoe we tiered memory/cache bekijken zien een aankomende noodzaak is. Alleen als je ziet hoe we met dual (eigenlijk quad, want DDR5 = 32bit ipv 64) channel DDR5 nu al over de 100GB/s zitten in het high-end landschap, dan heb je het echt over leuke opties als je dat óók nog eens persistent zou maken!
Niet om enorm te wijsneuzen, maar wel om een idee te geven wat de verschillen zijn. Hier een overzichtelijk vergelijk. Is van een poos geleden, maar geeft nog steeds een goede indicatie in verschil in latency: https://blog.morizyun.com...y-comparison-numbers.html Het origineel staat hier : https://gist.github.com/jboner/2841832
Ik denk dat het toch wel een beveiligingrisico zou zijn. Als er zaken die normaal in het RAM geheugen zitten, ook op de schijf zouden staan denk ik dat dit gevaarlijk kan zijn. Want RAM geheugen is weg na een poweroff, maar als er op de ssd ram zaken geschreven zouden zijn, worden ze niet meteen gewist wanneer ze niet langer nodig zijn zou ik denken enkel uit het register. De technische kanten ken ik uiteraard niet, maar denk toch dat dit geen goede zet zou zijn.
Windows Pagefile dat precies dat en is op ongeveer elke PC aanwezig.
Ze hebben er overigens wel over nagedacht om bepaalde zaken hier niet in weg te laten schrijven zoals encryptie sleutels, wachtwoorden en nog veel meer zaken.
Er is meer dan snelheid.... Latency bijvoorbeeld, (non)volatiliteit (wat anderen hier ook al zeggen).

Daarbij: dit soort tests zeggen weinig/niets over random lees/schrijfsnelheden van kleine blokken. Ook de snelste SSD is bij < 4kB blokken veel trager dan de hier genoemde snelheden.

Overigens zag Intel wel iets in Optane. Dat juist lagere latencies heeft dan normale SSD, echter, uit die techniek heeft Intel de stekker getrokken en Micron (die ook rechten had c.q. overnam van Intel) doet er volgens mij niets meer mee. Volgens mij was de oorzaak: (veel) te duur, te weinig adoptie.
ik denk dat, als we die kant op willen gaan, we een hybride gaan krijgen. lees bandbreedte is nu zeker hoog genoeg, schrijven, vooral in kleine chunks, lijkt me nog wat minder toerijkend. Mensen zeggen al dat latency nu nog te hoog ligt, maar dat is op te lossen als we de controller op de CPU zetten/door de cpu laten doen en de storage modules zo dichtbij plaatsen dat er geen latency meer is. Maar at that point heb je eigenlijk weer gewoon RAM...
Vind 82 graden wel veel voor zoiets als storage. En wat is het voordeel tegenover pcie 4.0 storage, behalve de snelheid? Storage hoeft toch niet per se nog sneller te zijn? Voor videokaarten snap ik het nog, maar voor storage vind ik het wel onzin.
Windows opstarten en updaten, games en bijbehorende updates draaien, 4K/8K beeldbewerking in real-time en zo gaat het nog wel even door. Ja, deze dingen kun je ook doen met een PCI-E 4.0 SSD of zelfs 3.0. Het gaat vooral om de grote "sprong" die je voelde toen je voor het eerst naar een SSD ging, werd je omvergeblazen door hoe veel sneller SATA SSDs waren ten opzichte van je harde schijf. Heb hetzelfde gevoel gehad bij NVME drives, voelt in vergelijking de SATA SSD zelfs traag aan! Dit zal wel ongeveer hetzelfde effect hebben.
De grootste verandering die je voelde van hdd naar ssd waren de accesstimes.
Met daartussenin de 15k rpm scsi drives die iets van 5ms accestimes hadden.
Games profiteren op termijn van het direct van de SSD kunnen plukken van models en textures - als je daarin een hoge bandbreedte kan realiseren kan je veel meer op het scherm tonen.
Helaas geloof ik dat niet.
Als SSD mainstream is, en lekker snel, dan zal er minder tijd gestoken worden in de game sneller te maken.
"10 sec laden is te traag dat moeten we verlagen naar 5 sec"
"Deze gare code doet het in 5 sec op een SSD. Kan best 2 sec maar dat kost geld"
DirectStorage in Windows belooft echter al veel te doen om games sneller te maken. Makkelijk te gebruiken APIs zoals DirectStorage moeten dit soort fine tuning praktijken die normaal gezien teveel tijd kosten overbodig maken. Nu ook je GPU direct textures kan decomprimeren vanaf je SSD zullen ontwikkelaars daar meer in gaan investeren. Een einde aan laadschermen als je een nieuwe dungeon binnengaat, een echte open wereld dus :+

Ik denk dat optimalisatie echter alleen nog maar beter gaat worden. Het zal mij niks verbazen als Windows 12 een SSD voor je C: schijf gaat afdwingen. Vanaf dat moment zal het pas echt hard gaan!
"een SSD" kan ook een 120GB goedkoop ding zonder cache zijn. Vaak alsnog wel beter dan een draaiende schijf, maar nog merkbaar trager dan zelfs 5 jaar oude midrange SSDs en in een hele andere wereld dan deze performance producten.
Anoniem: 58485 @field33P2 januari 2023 12:48
Een normale SSD op S-ata met amper 500MB p/s doet niet af tegen een 2000MB p/s SSD om eerlijk te zijn. Het verschil in load times is gewoon gelijk. Dat zal met een SSD die 8GB per seconde doet ook niet anders zijn.

Dit soort SSD's zijn in extreme cases zinvol, anders is het verspilling van geld als je het louter voor games in gaat zetten. Dit is meer interessant voor enterprise doeleinden.
Voor het opstarten van Windows en laadtijden van eerdere games ga je het verschil niet echt merken nee (de veel lagere vertraging en zoektijd is daarvoor het grote voordeel). Maar als je game DirectStorage gebruikt hoeft de data niet eerst via de CPU geleid te worden, dus dat is al een bron van vertraging minder. Daarnaast hoef je ook je textures in mindere mate vooraf te laden maar kan je ze ook on the fly laden. Dat scheelt VRAM en je kan als developer ook veel hogere resoluties gebruiken.

Natuurlijk kan je ook lui worden als ontwikkelaar maar dat kan je ook als argument gebruiken tegen het uitbrengen van nieuwe processors na de Pentium MMX.

[Reactie gewijzigd door field33P op 23 juli 2024 01:17]

Ik denk dat de meest eenvoudig uit te leggen reden die het makkelijkst te visualiseren valt, te maken heeft met hetgeen je wel snapt, namelijk videokaarten.
Videokaarten worden sneller, kunnen meer frames per seconde afbeelden op een gelijkblijvende resolutie, of, en hier gaat het om, ze kunnen eenzelfde framerate aanhouden op schermen met een hogere resolutie.
Stel je streamt een video met 30 frames per seconden vanaf je storage medium op 2k resolutie.
Je wilt vervolgens met je nieuwe PC/videokaart/scherm een video met 30 frames per seconden op een 4k resolutie streamen.
De dat betekend dat de hoeveelheid af te beelden data met een factor 4 toeneemt.
Gezien die data van je storage medium moet komen, betekend dat ook dat je storage medium een factor 4 sneller moet zijn om ervoor te zorgen dat je videokaart voldoende data heeft om die video af te beelden met diezelfde 30 frames per seconde.
Dit is slechts één mogelijke omschrijving van de reden waarom storage per se wel steeds sneller moet worden.

[Reactie gewijzigd door Alfa1970 op 23 juli 2024 01:17]

Dit is inderdaad voor mij een duidelijke uitleg. Dank. Maar denk wel dat het voor de meeste use-cases nog wel even duurt voordat pcie5 echt voor iedereen iets toevoegt.
Wat is - voor games - het voordeel tegenover SATA ssd's?
Dit soort lees/schrijf snelheden zijn wel leuk voor VM's denk ik, binnen 2 seconden een 16GB VM hibernaten van/naar disk alsof het een suspend is :9~
Is de latency ook nog verbeterd of blijft dit hetzelfde als met PCIe 4.0? Een snelle doorvoer is heerlijk als je veel data leest en schrijft maar een snelle toegangstijd is bijvoorbeeld weer erg fijn bij database toepassingen.

[Reactie gewijzigd door 3raser op 23 juli 2024 01:17]

Mooi dat soort snelheden, maar ik vraag me af of er op dit moment een praktische use-case is, die niet gedekt wordt door de eerdere PCIe versies? Zelfs 8k editten schijnt "maar" 20GB/minuut nodig te hebben.

Uiteraard zegt dat helemaal niets over de toekomst, maar ben juist benieuwd over het nu.
Weinig usecase voor de gemiddelde thuisgebruiker denk ik. Voor gaming directstorage, ja, maar die developers moeten ook voor een common denominator blijven gaan voor enkele jaren.

Net zoals velen geen extra CPU-kracht meer nodig hebben, nog steeds genoeg hebben aan 8GB RAM en een internetsnelheid sneller dan 50Mbps 99% van de tijd nauwelijks opmerken... lijkt me dat de goedkoopste storage in enige tijd ook gewoon meer dan snel genoeg is voor 95% van de usecases.

Meer en meer mensen gaan in principe gewoon heel lang voortkunnen met een computer met de grootte van een kredietkaart, geen kast nodig. Net zoals niet-fanaten nu gewoon nog doorkunnen met een 8 jaar oude tablet.
Dan rest er nog duurzaamheid van het kastje eromheen en software-updates. Genre smartphone en een dock.

En voor zij die het wél kunnen gebruiken, des te beter. Lekker 6 4K RAW streams editen op een enkele SSD ofzo.
Zelfs 8k editten schijnt "maar" 20GB/minuut nodig te hebben.
Gaat niet om editten of nodig hebben, maar dat 1 minuut 8K 24frames, ongeveer 20GB is.
the resulting files range in size from 10 GB per minute to 20 GB per minute, but that’s if frame rate is set to 24p.
En ja, er zijn ook niet zoveel praktische use-cases, zeker niet voor de consument, maar zo beginnen vaak nieuwe technieken/perfomance. En over 20 jaar lachen, vragen we ons weer af, hoe we we het kunnen overleven met GB/s. Netzoals vroeger met KB/s, MB/s etc.
Mwah nee. Zelfs ondanks feature creep enzo blijven de basisnoden maar op een bepaald niveau hangen.
In 2001 kon je je niet inbeelden om nog met een 10 jaar oude PC te werken. Je kon met een AMD Athlon zitten die sneller was dan de Pentium 3. 128-256MB RAM. 3D-kaart en MPEG decoding erbovenop.
In 1991 had je *misschien* een 386 met 2-4MB RAM.

Windows 95 draaien op die oudere computer had al een upgrade nodig. Laat staan Windows 98? Me? XP!? Multitasken was nauwelijks iets. 320x240 DOS games en een beetje windows 3. Het opkomende internet? Met moeite. 3D games? vergeet het.
Dingen aansluiten? Geen USB. Het had nog geen PCI. Geen AGP. De grafische output was waarschijnlijk hooguit beperkt tot 640x480 met 16 kleuren of 320x240 met 256 kleuren. Specifieke macs van de jaren 80 waren daar waarschijnlijk beter in (en duurder?).
Netwerk? Je kon waarschijnlijk wel een non-coaxial ISA ethernet kaart scoren die compatibel was.

In 2023 kan je perfect héél wat doen met eentje van 2013, zelfs een budgetmodel. Zeker als die al een SSD had. Zelfs al is het oude SATA, da's meer dan genoeg.
Windows 10 draaien? Sure. 3D? Kan, maar traag. Simpele upgrade, want nog steeds PCI-E dat backwards compatible is.
USB? check. SATA? check. PCI-E? check. ethernet? check. Wifi? Zelfs dat misschien. Display? HDMI / DP werken beide nog.

Zeker wel iets trager dan een nieuwe, maar de voorbije 10 jaar zijn echt heel anders dan enkele decennia ervoor.
Ik zie wel use cases voor b.v. hele grote databases waarop je aan het dataminen bent. In mijn ervaring is disk snelheid meestal de bottleneck.
Volgens mij heb je daar juist veel ram voor nodig, misschien dat dit met deze snelheden minder veel nodig hebt!
Wat dacht je van 32K editten. Want dan heb je 320GB/min nodig :o
Als het een keuze is tussen een actief gekoelde SSD die wat hogere maximumsnelheden haalt en een passief gekoelde SSD die wat lagere maximumsnelheden haalt, dan kies ik de passief gekoelde. Je hebt momenteel toch niks aan deze snelheden
Snelheden zijn leuk, maar de IOPS vind ik veel boeiender.

Zijn die al bekend?
Die zeggen ook weinig als je de blok grootte van de read/write niet weet. Zal vast een 6 cijferig getal zijn.
De nieuwe platformen van AMD (AM5) en Intel (LGA1700-socket) hielpen ook niet echt mee.
...
het AM5-platform zorgde voor meer moederborden met Gen5-ondersteuning voor de M.2-slots, maar dit platform verscheen pas eind september vorig jaar
dus dan hielp het juist wél mee. Het zou pas vreemd zijn dat een mobo gen5 sloten zou hebben terwijl de CPU max gen4 ondersteund :?
Ja schattig, maar wanneer komen mensen er nou achter dat de seq read performance niet het hele verhaal is, en dat je in je dagelijkse leven nooit de volledige seq bandbreedte gebruikt (tenzij bij specifieke applicaties en usecases)?

De enige reden voor mij om PCIe Gen5 te nemen, is de hoeveelheid IOPS die er overheen kan. Dat is écht gekkenwerk namelijk.

[Reactie gewijzigd door SilentDecode op 23 juli 2024 01:17]

Wat ik mij afvraag, in hoeverre ga je dergelijke snelheden merken? Het verschil van 2.5" hdd naar NVMe in mijn desktop pc was hier zo'n beetje jaw-dropping (W10 cold boot sneller dan POST :o ), maar van NVMe naar snellere NVMe?

[Reactie gewijzigd door Raven op 23 juli 2024 01:17]

Op dit item kan niet meer gereageerd worden.