Door Willem de Moor

Redacteur

Eerste PCIe 5.0-ssd breekt limieten

Gigabyte Aorus 10000 op vers testplatform

08-03-2023 • 06:00

131

Multipage-opmaak

Inleiding

Samengevat

De allereerste Gen5-ssd die we testen, is afkomstig van Gigabyte en die Aorus Gen5 10000 SSD, zoals de drive voluit heet, doet zijn naam eer aan. Tenminste, als we naar een subset van benchmarks kijken. Met grote, sequentiële overdrachten haalt de drive inderdaad snelheden waar geen andere drive aan kan tippen. We doorbreken de barrière van 10.000MB/s, of 10GB/s. Ook in sommige praktijktests laat de drive een duidelijke voorsprong zien, maar het is niet allemaal goud dat blinkt. Vooral in random-read- en writeacties, met hele kleine bestandjes dus, overtuigt de nieuwe Phison E26-controller nog niet. Hopelijk is dat met toekomstige firmware-updates te tweaken. Vooralsnog krijgt de drive een Innovation-award, maar vinden we het geen aanrader voor iedereen om er een te kopen. Dat doe je alleen als je echt de eerste wilt zijn en het allersnelste wilt hebben.

Na bijna een jaar wachten op de daadwerkelijke beschikbaarheid van ssd's met PCIe Gen5-interface ontvingen we van Gigabyte onze eerste ssd die de snelheid van alle voorgaande moet doen verbleken. De Gigabyte Aorus 10000 moet, zoals in de naam besloten is, de grens van 10.000 megabyte per seconde, ofwel 10GB/s, overschrijden. Even ter herinnering: een gemiddelde harde schijf doet niet veel meer dan 100MB/s, SATA-ssd's komen tot pakweg 500MB/s en de snelste ssd's tot dusver kwamen tot ongeveer 7000MB/s.

Gigabyte belooft dus een schepje van zo'n vijftig procent daarbovenop te doen en zo de 'psychologische' grens van 10.000MB/s te doorbreken. Dat wordt natuurlijk deels mogelijk gemaakt door de snellere controller en dito flash van de ssd zelf. Maar ook de platforms moeten er geschikt voor zijn en moederborden die de snelle PCIe Gen5-lanes van processors voor het M.2-slot beschikbaar stellen, zijn een vereiste. Daarmee heb je dus, uitzonderingen daargelaten, AMD-borden met B650- of X670-chipset of Intel-borden met Z790-chipset nodig. Afgelopen jaar leek een beetje een kip-ei-impasse, waarbij we moesten wachten op snellere ssd's tot er voldoende borden waren om ze in te prikken.

Terug naar Gigabytes supersnelle Aorus 10000. De ssd is gebaseerd op het Phison-referentieontwerp dat in januari tijdens de CES werd getoond. De E26-controller wordt gecombineerd met Micron-nand. We hebben het 2TB-model, inclusief grote heatsink, getest. Die uitvoering gaat ongeveer vierhonderd euro kosten. De ssd's die waarschijnlijk later deze maand in de winkel liggen, kunnen nog licht afwijken van ons testexemplaar. Gigabyte tweakt vooral de firmware nog. We hebben ons ssd-platform volledig opnieuw gebouwd om de snelle Gen5-drives te testen. In deze review stellen we dus ook het nieuwe platform aan je voor.

Aorus Gen5 10000 met testopstelling

De Aorus 10000

De Aorus 10000 is de eerste Gen5-ssd die voor consumenten op de markt komt. We hebben lang moeten wachten, maar eindelijk kunnen we zien hoeveel sneller de nieuwe generatie op dit moment is.

De drive wordt vooralsnog enkel met heatsink leverbaar. Mocht je die eraf halen, dan is het zaak de drive alsnog goed te koelen, bijvoorbeeld onder de M.2-heatsink van je moederbord. De heatsink die Gigabyte meelevert, is een verhaal apart. Het is allesbehalve een subtiele verschijning en een flink verschil met de platte stukjes aluminium met wat ribbeltjes die we gewend zijn. Nee, de heatsink van de Aorus 10000 is een apparaat van bijna 45mm hoog met twee heatpipes en koelribben, zoals we die bij processorkoelers gewend zijn. De koeler is de heatsink die ook met de Aorus Gen4 7000s Premium wordt meegeleverd. Dat moet thermal throttling voorkomen, maar heeft wel veel meer ruimte nodig dan de ssd onder je moederbord-heatsinks verstoppen. De heatsink heeft boven en onder de ssd thermal pads voor een goed contact met de heatpipes boven en de aluminium behuizing onder.

Gigabyte Aorus Gen5 10000 SSD
Gigabyte Aorus Gen5 10000 SSDGigabyte Aorus Gen5 10000 SSDGigabyte Aorus Gen5 10000 SSD

De Aorus Gen5 10000 is opgebouwd rond de E26-controller van Phison, voluit de Phison PS5026-E26. TSMC produceert die, net als de andere Phison-controllers, op zijn 12nm-procedé. De E26 beschikt over 8 flashkanalen met ieder 4 chip-enables, goed voor in totaal 32 chip-enables dus, hetzelfde aantal als de E18-controller. Dankzij ondersteuning voor veel hogere nand-snelheden, van 1600MT/s voor de E18 naar 2400MT/s voor de E26, kan die laatste veel hogere snelheden halen. Ook de capaciteit van ssd's kan dankzij de E26-controller flink verhoogd worden, tot maximaal 32TB.

De E26 is anders opgebouwd dan de E18, want met twee Arm Cortex R5-cores heeft hij er één minder dan de E18, maar de E26 compenseert dat, and then some, volgens Phison met zijn drie CoX-processors. Die moeten de taken van de R5-cores niet alleen zuiniger, maar ook sneller uitvoeren dan bij de E18-controller. Dat alles moet leiden tot snelheden die boven de 10GB/s uitkomen. De mapping table wordt opgeslagen in twee chips 2GB Lpddr4-dram, wat de cache op 4GB brengt. Dat is twee keer de gebruikelijke hoeveelheid; meestal is het 1GB cache per 1TB ssd-capaciteit.

ZNS-uitlegGigabyte combineert de E26-controller met nand van Micron. Daarbij gaat het om tlc-geheugen, maar wel het nieuwste nand uit de Micron-stal, met 232 laagjes. Dat B58R-nand zou snelheden tot 2400MT/s moeten halen en dat maakt de hoge snelheden van de ssd mogelijk. Het lijkt er echter op dat het huidige NV066-nand die maximale snelheid niet haalt: waarop het nand wel draait, is onduidelijk. Mogelijk wordt het nand iets lager geklokt het stabiel te laten werken én de temperaturen onder controle te houden. Eerder werd het Micron-nand met 232 lagen op snelheden tot 1600MT/s ingezet. De 2TB-drive is dubbellaags: aan de onderkant zit één nand-package van 4Tbit en één dram-package. Onder de sticker bovenop, die we niet konden verwijderen, zitten de overige packages.

Het nand wordt via zogeheten Zoned Namespaces, of ZNS, aangestuurd. Dat is een uitbreiding op het NVMe-protocol, die medio 2020 werd toegevoegd aan de specificatie. Daarbij wordt het flashgeheguen niet in bulk, maar in zones aangesproken. Zo kan data bijvoorbeeld op applicatieniveau gegroepeerd worden en hoeven schrijfacties niet te wachten op de wisverzoeken of garbage collection-subroutines van andere processen. Dat moet enerzijds het fenomeen write amplification (waarbij grote blokken data gewist moeten worden om slechts enkele cellen leeg te maken) reduceren. Bovendien maakt dat de noodzaak voor veel overprovisioning-capaciteit kleiner. Overprovisioning moet de slijtage door write amplification beperken, maar met minder write amplification is minder overprovisioning nodig. Dat zou ook nog lagere latency's en hogere doorvoersnelheden mogelijk maken, en drives zouden minder dram nodig hebben en met minder overprovisioning is ook nog eens minder nand nodig, wat weer lagere kosten met zich meebrengt.

Specificaties

We vergelijken de drives met enkele van de snelste Gen4-drives die we hebben. De specificaties van de Gen5 10000-drive en het vergelijkingsmateriaal hebben we in onderstaande tabel samengevat.

Drive Controller Nand Interface NVMe Cache Garantie Actuele prijs
Gigabyte Aorus Gen5 10000 Phison PS5026-E26 Micron 232l tlc PCIe Gen5 x4 v2.0 4GB 1400TBW / 5 jaar Onbekend
Gigabyte Aorus 7000s Phison PS5018-E18 Micron 176l tlc PCIe Gen4 x4 v1.4 2GB ddr4-2666 2550TBW / 5 jaar Onbekend
Corsair MP600 Pro Phison PS5018-E18 Micron 96l tlc PCIe Gen4 x4 v1.4 2GB ddr4-2666 1400TBW / 5 jaar € 184,90
Samsung 990 Pro Samsung Pascal Samsung 176l tlc PCIe Gen4 x4 v2.0 2GB lpddr4-4266 1200TBW / 5 jaar € 139,99
Seagate Firecuda 530 Phison PS5018-E18 Micron 176l tlc PCIe Gen4 x4 v1.4 2GB ddr4-2666 2550TBW / 5 jaar € 189,99
WD Black SN850 WD Black G2 Toshiba 112l tlc PCIe Gen4 x4 v1.4 2GB ddr4-3200 1200TBW / 5 jaar € 147,90

Het nieuwe testplatform: testmethode

Om de nieuwe generatie Gen5-ssd's te kunnen testen, hebben we onze ssd-testsystemen vernieuwd. We kunnen uiteraard geen Gen4-drives die op ons AMD-systeem zijn getest, gaan vergelijken met Gen5-drives die op een Intel-systeem zijn getest. Daarmee keren we na enkele jaren AMD en het X570-platform gebruikt te hebben terug naar Intel.

Een van de testsystemen voor Gen5-ssd's

Testconfiguratie

Moederbord Asrock Z790 Taichi
Processor Intel Core i7-13700K
Geheugen 4x Kingston Fury Beast 32GB DDR5 @3600MT/s
Systeemdrive Corsair MP600 500GB
Videokaart geen (igp)
Koeler Scythe Mugen 5 rev C
Voeding Seasonic Prime Titanium 650W
Windows-versie Windows 11
Gebruikte software AS SSD 2.0.7316.34247
ATTO 4.01.0f1
CDM 8.0.4
PCMark 10 2.1.2177 64
3DMark

Ons testsysteem bestaat uit een Core i7-13700K die we in een Asrock Z790 Taichi-moederbord prikken. Dat combineren we met 128GB DDR5-werkgeheugen, bestaande uit twee kitjes Kingston Fury Beast van 64GB. Dat geheugen hebben we nodig om een ramdisk te maken om alle tests mee te draaien, zodat we geen bottleneck hebben van een systeemschijf. Omdat we alle geheugenslots bezetten met dual-rank-modules kan het geheugen niet harder dan 3600MT/s halen. Om te booten hebben we een Corsair MP600-drive in gebruik, waarop we Windows 11 Pro geïnstalleerd hebben. Het geheel wordt van prik voorzien door een Seasonic 650W-voeding.

Wat benchmarks betreft, hebben we een paar wijzigingen aangebracht. We draaien nog steeds enkele synthetische benchmarks als AS SSD en ATTO, en hebben daar CrystalDiskMark aan toegevoegd, met de standaardinstellingen en de tests van de NVMe-benchmark.

De praktijkbenchmarks bestaan uit PCMark 10, waarvan we de complete Storage-test draaien en ook de zware Consistency-test is gebleven. Speciaal om de gamingprestaties in kaart te brengen, heeft UL Benchmarks een Storage Benchmark aan 3DMark toegevoegd; die draaien we voortaan ook. We hebben onze eigen traces, opgenomen en afgespeeld met NasPT, geschrapt. Die kregen een baard en de software wordt al te lang niet bijgewerkt om relevante resultaten te kunnen geven.

Wel hebben we onze USB-test naar ssd-benchmarks geport, zodat we een realworldtest toevoegen waarmee je kunt zien hoe snel een drive kleinere en grotere bestanden kopieert. Daarnaast testen we hoe snel de (pseudo)slc-cache van een ssd is en hoelang die bruikbaar is door sequentiële data in blokken van 500MB ernaartoe te schrijven en de snelheid te loggen. Veel van jullie vroegen in het verleden of we kunnen testen hoe ssd's presteren als ze niet volledig leeg zijn. Dat doen we met deze test door niet alleen op een lege drive, maar ook op een halfvolle drive en een ssd die voor driekwart vol is te testen. We schrijven in die drie gevallen naar de drive vanaf een ramdisk.

Die laatste testmethode gebruiken we ook om de warmtehuishouding in kaart te brengen. Een te hete ssd gaat immers throttlen, waardoor de prestaties teruglopen. We testen daarom ssd's hetzij met hun eigen heatsink als ze daarmee geleverd worden, hetzij onder de heatsink van ons Taichi-moederbord, om te zien hoe de temperaturen en bijbehorende snelheden van de drive zich ontwikkelen bij belasting. De overige tests worden met actieve koeling op de ssd's uitgevoerd om de effecten van die throttling op de ruwe prestaties te minimaliseren. Uiteraard testen we de drives met de op het moment van testen nieuwste firmware.

Synthetische tests: ATTO en CrystalDiskMark

Met ATTO testen we comprimeerbare data in steeds oplopende transfersizes. We lichten de 4kB-, 64kB- en 1MB-transfersizes eruit. De kleinere groottes zijn relevant voor de random-read- en writeprestaties, terwijl de 1MB-bestanden een beeld van sequentiële overdrachten geeft. ATTO gaat tot transfersizes van 64MB, maar in de regel lopen de snelheden na 1MB niet meer op.

De random-readsnelheid valt een beetje tegen, maar zodra de bestanden groter worden, loopt de Aorus Gen5 10000-ssd flink uit. We noteren een ruim vijftig procent hogere score bij 1MB-transfers. Het schrijven is in alle gevallen het snelst op de Gen5-ssd, al is de voorsprong bij kleinere bestanden niet zo groot. Pas in het sequentiële bereik loopt de ssd echt uit.

  • ATTO - Read - QD 4 - 1MB
  • Read - QD 4 - 64 kB
  • Read - QD 4 - 4 kB
  • Write - QD 4 - 1MB
  • Write - QD 4 - 64 kB
  • Write - QD 4 - 4 kB
ATTO - Read - QD 4 - 1MB - Gem. snelheid
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
8.100
Gigabyte AORUS 7000s 2TB
6.160
Seagate Firecuda 530 2TB
6.130
WD Black SN850X 2TB
6.060
Samsung 990 Pro 2TB
6.020
Corsair MP600 PRO 2TB
6.020
ATTO - Read - QD 4 - 64 kB - Gem. snelheid
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
WD Black SN850X 2TB
5.880
Gigabyte AORUS Gen5 10000 2TB
5.720
Samsung 990 Pro 2TB
5.690
Seagate Firecuda 530 2TB
5.470
Corsair MP600 PRO 2TB
5.420
Gigabyte AORUS 7000s 2TB
5.370
ATTO - Read - QD 4 - 4 kB - Gem. snelheid
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
888
WD Black SN850X 2TB
808
Samsung 990 Pro 2TB
748
Seagate Firecuda 530 2TB
658
Corsair MP600 PRO 2TB
644
Gigabyte AORUS 7000s 2TB
627
ATTO - Write - QD 4 - 1MB - Gem. snelheid
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
9.540
Samsung 990 Pro 2TB
6.670
Gigabyte AORUS 7000s 2TB
6.590
Seagate Firecuda 530 2TB
6.590
Corsair MP600 PRO 2TB
6.590
WD Black SN850X 2TB
6.500
ATTO - Write - QD 4 - 64 kB - Gem. snelheid
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
8.660
Seagate Firecuda 530 2TB
5.440
Gigabyte AORUS 7000s 2TB
5.310
Corsair MP600 PRO 2TB
5.240
Samsung 990 Pro 2TB
3.480
WD Black SN850X 2TB
3.350
ATTO - Write - QD 4 - 4 kB - Gem. snelheid
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Samsung 990 Pro 2TB
841
Seagate Firecuda 530 2TB
759
Gigabyte AORUS Gen5 10000 2TB
751
Corsair MP600 PRO 2TB
746
Gigabyte AORUS 7000s 2TB
732
WD Black SN850X 2TB
629

CrystalDiskMark

We splitsen de resultaten van CDM op in sequentiële en random groepen. We draaien CDM twee keer: één keer met de defaultinstellingen en de tweede keer met het NVMe-profiel. Tussen beide tests zit wat overlap, maar we hebben de NVMe-specifieke tests als zodanig aangegeven.

Bij een lage queue depth en maar één thread halen de ssd's hun maximale snelheid nog niet, maar de Gen5-ssd bouwt dan al een grote voorsprong op vergeleken met de Gen4-drives. Met hogere queue depths loopt de snelheid direct op tot boven de geadverteerde 10000MB/s, met zowel kleinere als grotere sequentiële bestandsgroottes.

  • Sequential 1MB - Q8T1 - Read
  • 1MB - Q8T1 - Write
  • 1MB - Q1T1 - Read
  • 1MB - Q1T1 - Write
  • 128kB - Q32T1 - Read
  • 128kB - Q32T1 - Write
Sequential 1MB - Q8T1 - Read
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
10.079
Samsung 990 Pro 2TB
7.149
Seagate Firecuda 530 2TB
7.046
Gigabyte AORUS 7000s 2TB
6.988
WD Black SN850X 2TB
6.976
Corsair MP600 PRO 2TB
6.972
Sequential 1MB - Q8T1 - Write
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
10.228
Gigabyte AORUS 7000s 2TB
6.586
Seagate Firecuda 530 2TB
6.542
WD Black SN850X 2TB
6.482
Corsair MP600 PRO 2TB
6.462
Samsung 990 Pro 2TB
6.433
Sequential 1MB - Q1T1 - Read
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
8.540
WD Black SN850X 2TB
5.216
Samsung 990 Pro 2TB
4.377
Gigabyte AORUS 7000s 2TB
3.866
Seagate Firecuda 530 2TB
3.696
Corsair MP600 PRO 2TB
3.157
Sequential 1MB - Q1T1 - Write
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
9.323
Gigabyte AORUS 7000s 2TB
5.898
Seagate Firecuda 530 2TB
5.858
WD Black SN850X 2TB
5.789
Corsair MP600 PRO 2TB
5.775
Samsung 990 Pro 2TB
5.675
Sequential 128kB - Q32T1 (NVMe) - Read
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
10.019
Samsung 990 Pro 2TB
7.143
Gigabyte AORUS 7000s 2TB
7.074
Seagate Firecuda 530 2TB
7.070
Corsair MP600 PRO 2TB
7.023
WD Black SN850X 2TB
6.974
Sequential 128kB - Q32T1 (NVMe) - Write
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
10.224
Gigabyte AORUS 7000s 2TB
6.499
WD Black SN850X 2TB
6.478
Seagate Firecuda 530 2TB
6.445
Samsung 990 Pro 2TB
6.425
Corsair MP600 PRO 2TB
6.419

De random-lees- en schrijfprestaties van de Gen5 10000 blijven wat achter bij die van de overige drives. Pas bij veel threads kan de ssd zijn snelheid laten zien; bij zestien threads is de Aorus sneller dan de rest. Het lijkt erop dat er nog wat firmwareoptimalisaties nodig zijn om het maximale uit de drive te halen.

  • Random 4KB - Q32T1 - Read
  • 4KB - Q32T1 - Write
  • 4KB - Q1T1 - Read
  • 4KB - Q1T1 - Write
  • 4KB - Q32T16 - Read
  • 4KB - Q32T16 - Write
Random 4KB - Q32T1 - Read
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Seagate Firecuda 530 2TB
1.379
WD Black SN850X 2TB
1.347
Gigabyte AORUS 7000s 2TB
1.342
Corsair MP600 PRO 2TB
1.339
Gigabyte AORUS Gen5 10000 2TB
1.090
Samsung 990 Pro 2TB
1.086
Random 4KB - Q32T1 - Write
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
WD Black SN850X 2TB
1.201
Corsair MP600 PRO 2TB
1.148
Seagate Firecuda 530 2TB
1.128
Gigabyte AORUS 7000s 2TB
1.115
Samsung 990 Pro 2TB
803
Gigabyte AORUS Gen5 10000 2TB
800
Random 4KB - Q1T1 - Read
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
98
WD Black SN850X 2TB
95
Seagate Firecuda 530 2TB
94
Samsung 990 Pro 2TB
92
Gigabyte AORUS 7000s 2TB
79
Corsair MP600 PRO 2TB
78
Random 4KB - Q1T1 - Write
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Gigabyte AORUS 7000s 2TB
421
Seagate Firecuda 530 2TB
420
Corsair MP600 PRO 2TB
404
WD Black SN850X 2TB
387
Gigabyte AORUS Gen5 10000 2TB
379
Samsung 990 Pro 2TB
354
Random 4KB - Q32T16 (NVMe) - Read
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
6.128
Samsung 990 Pro 2TB
5.735
WD Black SN850X 2TB
4.969
Seagate Firecuda 530 2TB
4.207
Gigabyte AORUS 7000s 2TB
2.699
Corsair MP600 PRO 2TB
2.699
Random 4KB - Q32T16 (NVMe) - Write
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
6.984
Gigabyte AORUS 7000s 2TB
6.346
Seagate Firecuda 530 2TB
6.328
Corsair MP600 PRO 2TB
6.277
Samsung 990 Pro 2TB
6.155
WD Black SN850X 2TB
4.865

Synthetische tests: AS SSD

AS SSD maakt gebruik van niet-comprimeerbare data, waardoor snelheden meestal wat lager uitvallen dan bij CDM of ATTO. Dat is ook het geval bij de Aorus-drive, die weliswaar dik dertig procent sneller dan de rest is, maar niet aan de 10GB/s komt. Met random 4k-prestaties zien we weer wat mindere resultaten dan we hoopten, net als bij de eerdere synthetische tests.

  • AS SSD - Read - Sequential
  • Write - Sequential
  • Read - 4K blokken
  • Write - 4K blokken
  • Read - 4K blokken - 64 Threads
  • Write - 4K blokken - 64 Threads
AS SSD - Read - Sequential
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
7.595,49
WD Black SN850X 2TB
5.898,95
Seagate Firecuda 530 2TB
5.830,85
Samsung 990 Pro 2TB
5.805,30
Gigabyte AORUS 7000s 2TB
5.741,97
Corsair MP600 PRO 2TB
5.695,79
AS SSD - Write - Sequential
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
8.688,50
Gigabyte AORUS 7000s 2TB
5.834,30
Seagate Firecuda 530 2TB
5.752,50
Corsair MP600 PRO 2TB
5.599,41
WD Black SN850X 2TB
5.545,87
Samsung 990 Pro 2TB
5.216,54
AS SSD - Read - 4K blokken
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Seagate Firecuda 530 2TB
113,58
Gigabyte AORUS 7000s 2TB
104,25
Corsair MP600 PRO 2TB
100,24
WD Black SN850X 2TB
89,25
Gigabyte AORUS Gen5 10000 2TB
87,87
Samsung 990 Pro 2TB
85,68
AS SSD - Write - 4K blokken
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Corsair MP600 PRO 2TB
380,13
WD Black SN850X 2TB
374,06
Seagate Firecuda 530 2TB
353,03
Gigabyte AORUS Gen5 10000 2TB
340,01
Samsung 990 Pro 2TB
332,79
Gigabyte AORUS 7000s 2TB
300,22
AS SSD - Read - 4K blokken - 64 Threads
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Seagate Firecuda 530 2TB
3.840,78
Samsung 990 Pro 2TB
3.650,86
Gigabyte AORUS Gen5 10000 2TB
3.604,01
Gigabyte AORUS 7000s 2TB
3.056,26
Corsair MP600 PRO 2TB
3.005,97
WD Black SN850X 2TB
2.805,13
AS SSD - Write - 4K blokken - 64 Threads
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
6.121,93
Gigabyte AORUS 7000s 2TB
5.832,43
Seagate Firecuda 530 2TB
5.344,52
Corsair MP600 PRO 2TB
3.939,76
WD Black SN850X 2TB
3.787,16
Samsung 990 Pro 2TB
3.754,85

Iops

Hoge iops zijn natuurlijk een direct gevolg van hoge doorvoersnelheden, maar voor het gemak voegen we ze voortaan aan de benchmarkresultaten toe. We zagen al dat de random lees- en schrijfprestaties nog wel een verbeterslag kunnen gebruiken. Daar mag echt nog wel wat gebeuren om ook op dat vlak een voorsprong op Gen4-drives te nemen.

  • Read - 512B
  • Write - 512B
  • Read - 4K
  • Write - 4K
  • Read - 4K-64 Threads
  • Write - 4K-64 Threads
  • Read - 16MB
  • Write - 16MB
AS SSD - Read - 512B
Interne SSD Gemiddelde doorvoersnelheid in iops (hoger is beter)
Corsair MP600 PRO 2TB
86.951
Seagate Firecuda 530 2TB
84.165
Gigabyte AORUS Gen5 10000 2TB
82.902
Gigabyte AORUS 7000s 2TB
81.019
WD Black SN850X 2TB
79.356
Samsung 990 Pro 2TB
38.842
AS SSD - Write - 512B
Interne SSD Gemiddelde doorvoersnelheid in iops (hoger is beter)
Gigabyte AORUS 7000s 2TB
109.512
Corsair MP600 PRO 2TB
104.945
Seagate Firecuda 530 2TB
99.824
Samsung 990 Pro 2TB
86.654
WD Black SN850X 2TB
85.895
Gigabyte AORUS Gen5 10000 2TB
36.852
AS SSD - Read - 4K
Interne SSD Gemiddelde doorvoersnelheid in iops (hoger is beter)
Seagate Firecuda 530 2TB
29.075
Gigabyte AORUS 7000s 2TB
26.687
Corsair MP600 PRO 2TB
25.661
WD Black SN850X 2TB
22.849
Gigabyte AORUS Gen5 10000 2TB
22.474
Samsung 990 Pro 2TB
21.935
AS SSD - Write - 4K
Interne SSD Gemiddelde doorvoersnelheid in iops (hoger is beter)
Corsair MP600 PRO 2TB
97.314
WD Black SN850X 2TB
95.759
Seagate Firecuda 530 2TB
90.376
Gigabyte AORUS Gen5 10000 2TB
87.041
Samsung 990 Pro 2TB
85.195
Gigabyte AORUS 7000s 2TB
76.855
AS SSD - Read - 4K-64 Threads
Interne SSD Gemiddelde doorvoersnelheid in iops (hoger is beter)
Seagate Firecuda 530 2TB
983.240
Samsung 990 Pro 2TB
934.620
Gigabyte AORUS Gen5 10000 2TB
922.627
Gigabyte AORUS 7000s 2TB
782.401
Corsair MP600 PRO 2TB
769.528
WD Black SN850X 2TB
718.114
AS SSD - Write - 4K-64 Threads
Interne SSD Gemiddelde doorvoersnelheid in iops (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
1.567.213
Gigabyte AORUS 7000s 2TB
1.493.101
Seagate Firecuda 530 2TB
1.368.197
Corsair MP600 PRO 2TB
1.008.580
WD Black SN850X 2TB
969.512
Samsung 990 Pro 2TB
961.241
AS SSD - Read - 16MB
Interne SSD Gemiddelde doorvoersnelheid in iops (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
475
WD Black SN850X 2TB
369
Seagate Firecuda 530 2TB
364
Samsung 990 Pro 2TB
363
Gigabyte AORUS 7000s 2TB
359
Corsair MP600 PRO 2TB
356
AS SSD - Write - 16MB
Interne SSD Gemiddelde doorvoersnelheid in iops (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
543
Gigabyte AORUS 7000s 2TB
365
Seagate Firecuda 530 2TB
360
Corsair MP600 PRO 2TB
350
WD Black SN850X 2TB
347
Samsung 990 Pro 2TB
326

Praktijktests: filecopy en duurtest

In deze kopieertest lezen en schrijven we kleine en grote bestanden van en naar de ssd. Om een bottleneck met de systeemopslag te voorkomen, draaien we de test vanaf een ramdisk.

Bij het kopiëren van kleinere bestanden is de Aorus Gen5 10000 niet bijster imposant vergeleken met de concurrentie, maar met grotere bestanden is de drive rapper. Vooral de 50GB-bestanden worden sneller weggeschreven, hoewel er tussen de 8 seconden voor de Gen5-drive en 10,6 seconden voor de twee 'traagste' Gen4-drives ook geen wereld van verschil zit.

  • 1000x 5MB-bestand lezen
  • 1000x 5MB-bestand schrijven
  • 10GB-bestand lezen
  • 10GB-bestand schrijven
  • 50GB-bestand lezen
  • 50GB-bestand schrijven
1000x 5MB-bestand lezen
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Samsung 990 Pro 2TB
2.984,3
Gigabyte AORUS Gen5 10000 2TB
2.497,5
WD Black SN850X 2TB
1.429,3
Gigabyte AORUS 7000s 2TB
1.250,0
Seagate Firecuda 530 2TB
1.153,1
Corsair MP600 PRO 2TB
1.000,0
1000x 5MB-bestand schrijven
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
5.000,0
Samsung 990 Pro 2TB
3.793,1
Gigabyte AORUS 7000s 2TB
1.666,7
Corsair MP600 PRO 2TB
1.666,7
Seagate Firecuda 530 2TB
1.424,0
WD Black SN850X 2TB
1.218,5
10GB-bestand lezen
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Samsung 990 Pro 2TB
5.782,4
Gigabyte AORUS Gen5 10000 2TB
5.114,9
Gigabyte AORUS 7000s 2TB
3.413,3
WD Black SN850X 2TB
2.764,7
Seagate Firecuda 530 2TB
2.761,3
Corsair MP600 PRO 2TB
2.560,0
10GB-bestand schrijven
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Gigabyte AORUS 7000s 2TB
5.120,0
Corsair MP600 PRO 2TB
5.120,0
Gigabyte AORUS Gen5 10000 2TB
5.114,9
Samsung 990 Pro 2TB
5.019,7
WD Black SN850X 2TB
4.174,6
Seagate Firecuda 530 2TB
4.049,6
50GB-bestand lezen
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Samsung 990 Pro 2TB
6.348,9
Gigabyte AORUS Gen5 10000 2TB
5.114,9
Corsair MP600 PRO 2TB
3.011,6
Gigabyte AORUS 7000s 2TB
2.694,6
Seagate Firecuda 530 2TB
1.900,6
WD Black SN850X 2TB
1.568,9
50GB-bestand schrijven
Interne SSD Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
6.319,4
Corsair MP600 PRO 2TB
5.690,2
Gigabyte AORUS 7000s 2TB
5.121,5
Samsung 990 Pro 2TB
5.032,9
WD Black SN850X 2TB
3.410,1
Seagate Firecuda 530 2TB
3.337,2

Cachetest

We testen de snelheid van de cache (met actieve koeling op de drives om throttling te voorkomen) door op een lege drive, een halfvolle drive en een driekwart volle ssd een testbestand te schrijven. De lege drive is uiteraard een bestcasescenario, maar de halfvolle en driekwart volle drives zul je vaker in de praktijk tegenkomen. We meten de overdrachtssnelheid van elk bestand, een bestand van 500MB dat in een 329MB grote zip verpakt is, en geven in de grafiek die snelheid weer. We schrijven tot de helft van de vrije ruimte gevuld is.

Cache-snelheden Gigabyte Aorus 10000 2TBCache-snelheden Gigabyte Aorus 7000s 2TBCache-snelheden Corsair MP600 Pro 2TBCache-snelheden Samsung 990 Pro 2TBCache-snelheden Seagate Firecuda 530 2TBCache-snelheden WD Black SN850X 2TB

Op een lege drive is de Aorus Gen5 10000 enorm snel en kun je veel data snel wegschrijven, maar zodra de drive voor de helft of verder gevuld is, zakken de prestaties al heel snel in. We schrijven nog maar 55GB op volle snelheid. Een kleine geruststelling: met driekwart vol blijft de cache ongeveer 50GB. Bij andere drives zoals de MP600 Pro zien we dat niet alleen de hoeveelheid cache afneemt, maar dat ook de snelheid nadat die is volgeschreven, lager wordt naarmate de drive verder gevuld is. Dat is ook het geval bij de 9990 Pro van Samsung, maar niet bij de andere drives.

PCMark Storage

De Storage-test van PCMark geeft een totaalbeeld van een combinatie van allerlei activiteiten die van je opslag gebruikmaken. De totaalscore en -bandbreedte geven een algemene indruk, terwijl de deelresultaten inzoomen op specifieke toepassingen.

De Aorus Gen 10000 komt als winnaar uit de bus als we naar de totalen kijken. Dat is uiteraard voor een groot deel te danken aan de hogere doorvoersnelheden, maar ook de toegangstijden zijn aanzienlijk lager dan bij de overige drives. In de deelresultaten is de Gen5-drive op alle vlakken overtuigend de snelste drive. Alleen bij het starten van Adobe After Effects en Premiere heeft de 990 Pro van Samsung nog een streepje voor.

  • PCMark 10 - Storage - Totaalscore - Bandbreedte
  • PCMark 10 - Storage - Totaalscore
  • PCMark 10 - Storage - Totaalscore - Toegangstijd
PCMark 10 - Storage - Totaalscore - Bandbreedte
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
887
Samsung 990 Pro 2TB
715
WD Black SN850X 2TB
604
Seagate Firecuda 530 2TB
570
Corsair MP600 PRO 2TB
454
Gigabyte AORUS 7000s 2TB
453
PCMark 10 - Storage - Totaalscore
Interne SSD Gemiddelde score in punten (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
5.662
Samsung 990 Pro 2TB
4.500
WD Black SN850X 2TB
3.752
Seagate Firecuda 530 2TB
3.491
Corsair MP600 PRO 2TB
2.772
Gigabyte AORUS 7000s 2TB
2.746
PCMark 10 - Storage - Totaalscore - Toegangstijd
Interne SSD Gemiddelde latency in µs (lager is beter)
Gigabyte AORUS Gen5 10000 2TB
29
Samsung 990 Pro 2TB
37
WD Black SN850X 2TB
45
Seagate Firecuda 530 2TB
49
Corsair MP600 PRO 2TB
62
Gigabyte AORUS 7000s 2TB
63

PCMark 10 deelresultaten: starten en gebruik software

  • PCMark 10 - Starten Adobe Acrobat
  • Starten Adobe Photoshop
  • Starten Adobe Lightroom
  • Starten Adobe Premiere_Pro
  • Starten Adobe Illustrator
  • Starten Adobe After Effects
PCMark 10 - Starten Adobe Acrobat
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
371
Samsung 990 Pro 2TB
332
WD Black SN850X 2TB
329
Seagate Firecuda 530 2TB
304
Corsair MP600 PRO 2TB
230
Gigabyte AORUS 7000s 2TB
229
PCMark 10 - Starten Adobe Photoshop
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
333
Samsung 990 Pro 2TB
310
WD Black SN850X 2TB
283
Seagate Firecuda 530 2TB
252
Gigabyte AORUS 7000s 2TB
196
Corsair MP600 PRO 2TB
192
PCMark 10 - Starten Adobe Lightroom
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
297
Samsung 990 Pro 2TB
256
Seagate Firecuda 530 2TB
250
WD Black SN850X 2TB
221
Gigabyte AORUS 7000s 2TB
199
Corsair MP600 PRO 2TB
196
PCMark 10 - Starten Adobe Premiere_Pro
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Samsung 990 Pro 2TB
495
Gigabyte AORUS Gen5 10000 2TB
453
WD Black SN850X 2TB
359
Seagate Firecuda 530 2TB
297
Gigabyte AORUS 7000s 2TB
229
Corsair MP600 PRO 2TB
227
PCMark 10 - Starten Adobe Illustrator
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
380
Samsung 990 Pro 2TB
346
Seagate Firecuda 530 2TB
254
WD Black SN850X 2TB
242
Gigabyte AORUS 7000s 2TB
213
Corsair MP600 PRO 2TB
213
PCMark 10 - Starten Adobe After Effects
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Samsung 990 Pro 2TB
440
Gigabyte AORUS Gen5 10000 2TB
414
WD Black SN850X 2TB
320
Seagate Firecuda 530 2TB
268
Gigabyte AORUS 7000s 2TB
212
Corsair MP600 PRO 2TB
209
  • PCMark 10 - Starten Windows 10
  • Gebruiken PowerPoint
  • Gebruiken Excel
  • Gebruiken Photoshop Heavy
  • Gebruiken InDesign
  • Gebruiken Illustrator
  • Gebruiken After Effects
PCMark 10 - Starten Windows 10
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
582
Samsung 990 Pro 2TB
560
WD Black SN850X 2TB
521
Seagate Firecuda 530 2TB
322
Gigabyte AORUS 7000s 2TB
233
Corsair MP600 PRO 2TB
232
PCMark 10 - Gebruiken Microsoft PowerPoint
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
377
Seagate Firecuda 530 2TB
361
Corsair MP600 PRO 2TB
321
Gigabyte AORUS 7000s 2TB
316
WD Black SN850X 2TB
222
Samsung 990 Pro 2TB
206
PCMark 10 - Gebruiken Microsoft Excel
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
339
Samsung 990 Pro 2TB
289
WD Black SN850X 2TB
220
Seagate Firecuda 530 2TB
193
Corsair MP600 PRO 2TB
139
Gigabyte AORUS 7000s 2TB
134
PCMark 10 - Gebruiken Adobe Photoshop Heavy
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
1.629
Samsung 990 Pro 2TB
1.421
Seagate Firecuda 530 2TB
1.317
WD Black SN850X 2TB
1.303
Gigabyte AORUS 7000s 2TB
1.077
Corsair MP600 PRO 2TB
1.068
PCMark 10 - Gebruiken Adobe InDesign
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
456
WD Black SN850X 2TB
335
Seagate Firecuda 530 2TB
306
Samsung 990 Pro 2TB
297
Gigabyte AORUS 7000s 2TB
249
Corsair MP600 PRO 2TB
243
PCMark 10 - Gebruiken Adobe Illustrator
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
502
Samsung 990 Pro 2TB
442
WD Black SN850X 2TB
339
Seagate Firecuda 530 2TB
331
Corsair MP600 PRO 2TB
246
Gigabyte AORUS 7000s 2TB
233
PCMark 10 - Gebruiken Adobe After Effects
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
823
Samsung 990 Pro 2TB
787
WD Black SN850X 2TB
625
Seagate Firecuda 530 2TB
531
Corsair MP600 PRO 2TB
401
Gigabyte AORUS 7000s 2TB
400

Gaming

  • PCMark 10 - Starten Overwatch
  • Starten Call of Duty: Black Ops 4
  • Starten Battlefield V
PCMark 10 - Starten Overwatch
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
744
Samsung 990 Pro 2TB
515
WD Black SN850X 2TB
515
Seagate Firecuda 530 2TB
431
Gigabyte AORUS 7000s 2TB
328
Corsair MP600 PRO 2TB
327
PCMark 10 - Starten Call of Duty: Black Ops 4
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
1.177
WD Black SN850X 2TB
1.140
Seagate Firecuda 530 2TB
912
Samsung 990 Pro 2TB
851
Corsair MP600 PRO 2TB
699
Gigabyte AORUS 7000s 2TB
697
PCMark 10 - Starten Battlefield V
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
1.491
WD Black SN850X 2TB
1.150
Samsung 990 Pro 2TB
1.106
Seagate Firecuda 530 2TB
855
Corsair MP600 PRO 2TB
630
Gigabyte AORUS 7000s 2TB
623

Bestandsmanipulatie

  • PCMark 10 - 2.37GB_(399_JPEGs)_leestest
  • 2.37GB_(399_JPEGs)_kopieertest
  • 2.37GB_(399_JPEGs)_schrijftest
  • 20GB_(4_ISOs)_leestest
  • 20GB_(4_ISOs)_kopieertest
  • 20GB_(4_ISOs)_schrijftest
PCMark 10 - 2.37GB_(399_JPEGs)_leestest
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
1.480
Samsung 990 Pro 2TB
1.210
WD Black SN850X 2TB
589
Seagate Firecuda 530 2TB
523
Gigabyte AORUS 7000s 2TB
426
Corsair MP600 PRO 2TB
418
PCMark 10 - 2.37GB_(399_JPEGs)_kopieertest
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
2.129
Samsung 990 Pro 2TB
1.705
Seagate Firecuda 530 2TB
1.143
Gigabyte AORUS 7000s 2TB
959
Corsair MP600 PRO 2TB
941
WD Black SN850X 2TB
926
PCMark 10 - 2.37GB_(399_JPEGs)_schrijftest
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
1.578
Samsung 990 Pro 2TB
1.309
Seagate Firecuda 530 2TB
854
Corsair MP600 PRO 2TB
779
Gigabyte AORUS 7000s 2TB
741
WD Black SN850X 2TB
562
PCMark 10 - 20GB_(4_ISOs)_leestest
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
4.576
WD Black SN850X 2TB
4.235
Samsung 990 Pro 2TB
3.924
Seagate Firecuda 530 2TB
3.845
Gigabyte AORUS 7000s 2TB
3.293
Corsair MP600 PRO 2TB
3.261
PCMark 10 - 20GB_(4_ISOs)_kopieertest
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
7.092
WD Black SN850X 2TB
4.060
Samsung 990 Pro 2TB
4.054
Seagate Firecuda 530 2TB
3.580
Gigabyte AORUS 7000s 2TB
3.159
Corsair MP600 PRO 2TB
3.145
PCMark 10 - 20GB_(4_ISOs)_schrijftest
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
7.497
Samsung 990 Pro 2TB
4.721
WD Black SN850X 2TB
4.694
Seagate Firecuda 530 2TB
4.394
Corsair MP600 PRO 2TB
4.264
Gigabyte AORUS 7000s 2TB
4.202

PCMark 10 Consistency

In de Consistency-test van PCMark 10 vallen de resultaten van de Gen5-drive een beetje tegen. Samsung is hier bizar snel, maar ook de Firecuda van Seagate is een stuk sneller. Aan de leeslatency zal dat niet liggen, maar de schrijflatency is een stuk hoger dan bij die concurrenten. Als we naar de bandbreedte in de verschillende stadia kijken, valt op dat die bij de 990 Pro nauwelijks lager wordt, terwijl de bandbreedte van de Aorus Gen5 behoorlijk inkakt.

  • PCMark 10 Consistency - Steady state bandwidth
  • Steady state read latency
  • Steady state write latency
PCMark 10 Consistency - Steady state bandwidth (Gemiddeld)
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Samsung 990 Pro 2TB
924,77
Seagate Firecuda 530 2TB
665,26
Gigabyte AORUS Gen5 10000 2TB
632,24
WD Black SN850X 2TB
340,48
Corsair MP600 PRO 2TB
304,55
Gigabyte AORUS 7000s 2TB
294,83
PCMark 10 Consistency - Steady state read latency (Gemiddeld)
Interne SSD Gemiddelde latency in µs (lager is beter)
Gigabyte AORUS Gen5 10000 2TB
36,11
Samsung 990 Pro 2TB
41,94
Seagate Firecuda 530 2TB
80,09
WD Black SN850X 2TB
80,11
Corsair MP600 PRO 2TB
113,16
Gigabyte AORUS 7000s 2TB
115,34
PCMark 10 Consistency - Steady state write latency (Gemiddeld)
Interne SSD Gemiddelde latency in µs (lager is beter)
Samsung 990 Pro 2TB
88,26
Seagate Firecuda 530 2TB
93,50
Gigabyte AORUS Gen5 10000 2TB
210,50
WD Black SN850X 2TB
401,51
Corsair MP600 PRO 2TB
402,40
Gigabyte AORUS 7000s 2TB
412,45

In onderstaande grafiek zie je het verloop van de bandbreedte tijdens de Consistency test. In de acht degradatiefases wordt de ssd eerst tweemaal volgeschreven met data en draait PCMark de Storage-test, met tussentijds steeds langer durende random-writeworkloads. Vervolgens wordt in de drie steady-statefases de Storage-test gedraaid, voorafgegaan door drie kwartier random write-workloads. De ssd zou tijdens die fase zijn 'slechtste' prestaties moeten geven. Tijdens de vijf recoveryfases kan de drive zich herstellen. Tussen de Storage-benchmarks door is de drive steeds vijf minuten idle om ruimte te bieden voor interne optimalisaties als garbage collection.

  • Degrade-fase
  • Steady-state en recovery

3DMark Storage

Met 3DMark Storage worden gamingspecifieke tests gedraaid. De benchmark wijkt af van de gametests van PCMark, maar heeft wel overlap. In beide tests wordt de bandbreedte gemeten bij het inladen van drie games: Battlefield V, Overwatch en CoD: Black Ops 4. 3DMark Storage test echter ook de installatie van een game (The Outer Worlds), het opslaan van savegames (opnieuw The Outer Worlds) en het verplaatsen van een Steam-library. Ten slotte test 3DMark Storage het opnemen van een speelsessie van Overwatch met behulp van OBS.

Met de beste wil van de wereld kunnen wij geen significante verschillen ontdekken in deze benchmark. In de deeltests en de totaalscores komen de drives op vrijwel identieke scores uit. Wanneer we meer ssd's, ook minder snelle modellen, op ons nieuwe testplatform getest hebben, moeten we beslissen of we deze test willen aanhouden. Ter illustratie: een 970 EVO Plus van 1TB haalde vrijwel identieke scores.

  • Gemiddelde bandbreedte - 3DMark Storage
  • Gemiddelde toegangstijd
  • Totaalscore
Gemiddelde bandbreedte - 3DMark Storage
Interne SSD Gemiddelde bandbreedte in MB/s (hoger is beter)
Corsair MP600 PRO 2TB
502,30
Gigabyte AORUS 7000s 2TB
500,29
Samsung 990 Pro 2TB
500,11
Gigabyte AORUS Gen5 10000 2TB
499,81
Seagate Firecuda 530 2TB
495,35
WD Black SN850X 2TB
486,84
Gemiddelde toegangstijd - 3DMark Storage
Interne SSD Gemiddelde tijd in μs (lager is beter)
Gigabyte AORUS 7000s 2TB
64
Samsung 990 Pro 2TB
64
Corsair MP600 PRO 2TB
64
Gigabyte AORUS Gen5 10000 2TB
64
Seagate Firecuda 530 2TB
65
WD Black SN850X 2TB
66
Totaalscore - 3DMark Storage
Interne SSD Gemiddelde score in punten (hoger is beter)
Corsair MP600 PRO 2TB
2.868,00
Gigabyte AORUS 7000s 2TB
2.862,00
Samsung 990 Pro 2TB
2.862,00
Gigabyte AORUS Gen5 10000 2TB
2.861,00
Seagate Firecuda 530 2TB
2.826,00
WD Black SN850X 2TB
2.781,00

Warmtetest en vermogen

We hadden hier graag de opgenomen vermogens van de ssd's getoond, maar helaas. We willen uiteraard onze Gen5-drives op hun maximale snelheid kunnen laten werken om hun daadwerkelijke maximale vermogen te meten. Onze nieuwe testopstelling bleek echter niet in staat de Gen5-drive betrouwbaar en op volle snelheid te laten werken. Dat konden we niet eerder testen dan in de afgelopen periode, omdat we toen pas daadwerkelijk een Gen5-drive in handen hadden om mee te testen. Die data hou je dus van ons te goed. Zodra we een werkende meetmethode hebben, vullen we dat hier aan en testen we toekomstige ssd's daarmee.

Warmtetest

Onze warmtetest konden we gelukkig wel uitvoeren. We laten de drive gedurende een kwartier volschrijven en meten daarbij de temperatuur van de ssd en de snelheid waarmee de drive volgeschreven wordt. Zo hebben we direct een indicatie van de afmetingen van de (pseudo-)slc-cache. In onderstaande grafieken zie je het verloop van de test en in de tabel hebben we enkele gemiddelden op een rijtje gezet. We kijken daarbij naar de gemiddelde snelheid die gehaald wordt bij het schrijven naar de cache en hoe groot die is, of in ieder geval hoeveel data je op volle snelheid kunt wegschrijven. Ook loggen we de maximale temperatuur en de gemiddelde ssd-temperatuur tijdens de test.

Temperaturen en snelheden ssd's - Gigabyte Aorus 10000 2TBTemperaturen en snelheden ssd's - Gigabyte Aorus 7000s 2TBTemperaturen en snelheden ssd's - Corsair MP600 Pro 2TBTemperaturen en snelheden ssd's - Samsung 990 Pro 2TBTemperaturen en snelheden ssd's - Seagate Firecuda 530 2TBTemperaturen en snelheden ssd's - WD Black SN850X 2TB

De Gen5-drive houdt zijn hoge snelheid het langst van alle geteste drives vol en die snelheid is ook nog eens ruimschoots hoger dan bij de rest. De temperatuur loopt daarbij dankzij de grote koeler niet schrikbarend op. Sterker, het is de koelste drive in deze test. De snelheid zonder gebruik te maken van de cache is echter de laagste in de test.

Drive Schrijfsnelheid naar cache Capaciteit cache Schrijfsnelheid zonder cache Maximale temperatuur Gemiddelde temperatuur
Gigabyte Aorus Gen5 10000 2TB 5,3GB/s 650GB 1,3GB/s 51ºC 48,7ºC
Gigabyte Aorus 7000s 2TB 4,1GB/s 220GB 1,5GB/s 78ºC 69,3ºC
Corsair MP600 PRO 2TB 3,9GB/s 216GB 1,6GB/s 55ºC 48,2ºC
Samsung 990 Pro 2TB 4,0GB/s 230GB 1,8GB/s 63ºC 58,7ºC
Seagate Firecuda 530 2TB 4,3GB/s 210GB 3,1GB/s 66ºC 60,2ºC
WD Black SN850X 2TB 4,4GB/s 565GB 1,4GB/s 66ºC 61,4ºC

Prestatie-index

Voor onze nieuwe testsuite hebben we opnieuw twee prestatie-indices gemaakt. Daarbij maken we weer onderscheid tussen een index voor licht en een voor zwaar gebruik, met de aanwezigheid van de zware Consistency-test van PCMark als onderscheidende test. De overige benchmarks tellen allemaal even zwaar mee.

In zowel de index voor zwaar als die voor licht gebruik is de nieuwe Gen5-ssd de allersnelste, met in beide gevallen een voorsprong van net geen negen procent. Voor iedereen die geen Gen5-slot beschikbaar heeft, is de WD Black SN850X een enorm snel alternatief. De overige drives volgen niet op acht of negen procent, maar zijn dik een kwart langzamer.

  • Prestatie-index licht gebruik
  • Prestatie-index zwaar gebruik
Prestatie-index licht gebruik (2023)
Interne SSD Gemiddelde indexcijfer in punten (hoger is beter)
Gigabyte AORUS Gen5 10000 2TB
297.843
Gigabyte AORUS 7000s 2TB
282.665
Seagate Firecuda 530 2TB
262.627
Corsair MP600 PRO 2TB
199.147
WD Black SN850X 2TB
191.832
Samsung 990 Pro 2TB
188.434

Conclusie

De potentie van de nieuwe generatie Gen5-ssd's is goed te zien. Op nog niet elk vlak blinkt de drive uit, maar in de meeste tests is de Aorus duidelijk sneller. In synthetische benchmarks als CrystalDiskMark laat de drive overduidelijk zijn snelheid zien, maar dat geldt vooral voor de sequentiële overdrachten. Bij random read en writes is de drive helemaal niet zo snel als de sequentiële benchmarks doen hopen. Dat zien we niet alleen bij CDM, maar ook bij AS SSD en ATTO terug.

Op het vlak van de praktijktests, waarbij je een indruk krijgt van de prestaties van je ssd in het dagelijks gebruik, is het opnieuw een gemengd beeld. Bij de kopieertests zijn het opnieuw de kleinere bestanden waarbij de leessnelheid niet imposant is, al is het schrijven wel vlot. Pas bij grotere sequentiële overdrachten wint de Gen5-ssd het overtuigend van de concurrentie. Ook in het uitgebreide PCMark Storage, dat op basis van traces werkt, heeft de Aorus 10000 een duidelijk voordeel. Op twee uitzonderingen na is de ssd daar op afstand de snelste.

Dat kunnen we niet zeggen van de andere PCMark-test, de Consistency-test. Daarin zijn de volwassenere modellen met Gen4-controllers beter. Met name de Samsung 990 Pro zet daar overtuigende cijfers neer. In de net aan onze testsuite toegevoegde 3DMark Storage-test kunnen we geen significante verschillen tussen de drives ontdekken. Het lijkt erop dat het niet echt uitmaakt welke drive je voor gaming gebruikt. Let wel dat de Aorus Gen5 10000 in de PCMark Gaming-deeltests een duidelijk voordeel had.

Het is een beetje lastig om een conclusie te trekken. De ssd is nog niet helemaal het eindproduct dat straks in de winkels ligt, getuige het Gen4-plaatje op de heatsink die van de 7000s Premium afkomstig is. Er wordt nog geschaafd aan de firmware bij Gigabyte en dat is zeker voor de random-read- en writeprestaties nodig ook. We zien echter, zeker in de synthetische en dan vooral de sequentiële benchmarks, vlagen van de snelheidswinst die door de nieuwe interface mogelijk wordt gemaakt. Dat vertaalt zich een beetje naar de praktijk, maar nog niet genoeg om de overstap te maken. Hopelijk is dat met de echte, getweakte retailversie beter.

Het lijkt er echter op dat je een Gen5-drive vooralsnog koopt voor de bragging rights en de sequentiële CDM-resultaten. Zoals vaak met bleeding edge-technologie zou het echter zomaar verstandiger kunnen zijn om nog even te wachten tot alle kinderziektes aangepakt zijn. We zagen immers bij de eerste Gen4-ssd's ook dat er nog behoorlijk wat groei zat in de prestaties ten opzichte van de eerste drives, om van prijzen maar te zwijgen. Bovendien zouden er later dit jaar drives verschijnen met sneller nand. Het nand in de 10000 zou de opgegeven 2400MT/s niet halen, maar latere modellen zouden wel over dat snellere nand gaan beschikken.

Lees meer

Reacties (131)

131
130
81
7
0
43
Wijzig sortering
Aardige review! Hopelijk krijgen we ook op termijn inderdaad meer software (zoals games) die deze enorme snelheden nog eens extra kunnen leveragen met streaming technieken.

Ik had het op zich nog wel interessant gevonden als de drive ook met een 2-bit mlc drive zoals een 970 pro was vergeleken.

De 980 pro en 990 pro (tlc) zijn namelijk op bepaalde onderdelen namelijk nog steeds langzamer dan die jaren oude drive. Uiteraard niet in de grotere sequentiele tests.

Persoonlijk zou ik heel graag een nieuwe pro-sumer 2-bit mlc drive met dit soort moderne specs zoals PCIE gen 5 zien. Ook als dat iets minder opslag en wat hogere kosten betekent. 2-bit mlc heeft namelijk naast snelheid ook beter data-retentie eigenschappen (niet te verwarren met write cycle durability, dat is weer iets anders).
Ik ben het compleet met je eens.
Samsung heeft de technische lijn tussen pro en evo compleet laten varen.
Helaas lijkt het erop dat Samsung heeft gedacht dat mensen liever een goedkope drive hebben met “pro” in de naamgeving.

Persoonlijk zou ik ook meer geld over hebben voor een schijf met snel geheugen, Cache en controller.
Het liefste zou ik puur om toekomst bestendig te zijn een PCI-e5 met SLC geheugen hebben, dat ik dan misschien €1 per giganten betaal is dan maar het geval.
(Dat deed ik ooit zelfs met €2 per GB voor mijn eerste Sata-SSD)

Maar met zo’n schijf ben je in elk geval zeker van een goed ontworpen product die ontworpen is om lang mee te gaan.
Helemaal eens.

Het is jammer dat we in Nederland niet mee konden doen met de firesale aan Intel Optanev SSD. Er gingen 1gb u.2 optane SSDs weg voor 400 dollar.

Die schijven hebben een non-seq performance en duurzaamheid waar flash niet aan kan tippen
Wel Optane / 3DXpoint zijn niet voor niets geflopt. Velen (ongergetekende inclusief) waren zeer enthousiast met een non-volatile opslag medium in het vooruitzicht dat zich kon meten qua latency, snelheid, robuustheid en degelijkheid van DRAM. Op alle vlakken moesten tijdens de ontwikkeling de verwachtingen echter naar beneden worden bijgeteld. Dit werd voor de lancering al in een aantal zeer kritische artikelen door Charlie Demerjian op semiaccurate.com pijnlijk verwoord.

Nog steeds zou een non-volatile opslag medium met de beloofde specs een gewenste revolutie betekenen binnen het computerlandschap. Voorlopig kunnen we er alleen maar van blijven dromen.
Zou het echt een revolutie worden?
Kijk eens naar de laatste echte revolutie binnen de computer wereld... dan moeten we terug naar de dagen van 3dfx en andere vroege 3d accelerators. Sinds die tijd is er geen echt radicaal andere hardware meer geintroduceert die echt een nieuwe product catogorie toe voegde. Je zou kunnen claimen dat SSD's een soort gelijk iets waren maar het is uiteindelijk gewoon opslag die alleen op een iets andere manier opslaat maar niet echt iets fundamenteels anders doet dan de vorige generatie opslag.

Een nieuwe schakel toevoegen die tussen DRAM en de CPU wil leven en die ook de SSD wil doen vergeten is vrijwel onmogelijk om een aantal redenen. De belangrijkste is dat het voor veel mensen kapitaal vernietiging zou zijn om al die bestaande hardware gewoon maar aan de straat te zetten. Ook is het lastig uitleggen aan de leek dat geheugen en een schijf nu niet meer tellen maar dat je nu alles in een hebt of zo...
Ik denk dat als Intel had ingezet op veel snellere SSD's die bijna net zo snel waren als je DRAM geheugen dat ze een heel eind verder hadden kunnen komen met dit product dan ze nu deden met een DRAM en SSD vervanging in een. Het probleem is en blijft de prijs maar de extra snelheid die Optane kon bieden als pure SSD zou veel van die bezwaren kunnen overkomen voor de hardcore gebruiker die de snelste SSD nodig heeft of wil hebben.

Intel heeft de plan ernstig mis geslagen met een product dat alleen zij konden maken en dat ook nog eens een geheel nieuwe categorie was waar veel mensen weinig van snapte. Ik denk dat als ze met een zeer snelle SSD oplossing waren begonnen en daarna de vervanging van DRAM zouden pushen dat ze een heleboel minder weerstand zouden hebben gehad. Ook had het ze gesierd als ze andere bedrijven de kans hadden gegeven te concurreren met Intel door het geheel een stuk meer open te maken.
Denk aan een setup zo als AMD en NVidia met hun GPU's doen. Iedereen en z'n moeder mag met het reference design aan de slag en kan er een eigen draai aan geven terwijl de chips gewoon door AMD en NVidia worden gemaakt. Dat had de kans dat dit meer acceptatie zou vinden zeker niet verkleind.
Het moment dat opslag net zo snel wordt als RAM, en we dus over stappen naar 1 'geheugen' zal dit 1 van de grootste revoluties zijn binnen de IT sinds we van buizen naar transistors zijn overgestapt.
Dat is overdreven, als dit het geval was dan had een ieder standaard een RAM disk in de PC. Ook met enorm snel non volatile geheugen zijn er nog steeds beperkingen als de Von Neumann bottleneck die er voor zorgen dat we niet van een echte revolutie kunnen spreken.
Ik heb weinig zin om meerdere tb's aan ramdisk op te zetten, ook nog op een manier dat stroomverlies of een crash geen dataloss veroorzaakt. Daarnaast heeft een ramdisk het nadeel.. de data moet nog steeds geladen worden.

Zodra een OS, programma, game of asset niet meer geladen hoeft te worden, maar gewoon net zo instant beschikbaar of schrijfbaar is als RAM geheugen op de vaste opslag zoals een SSD. Dan gaat de complete huidige structuur van computers, besturingssystemen en ook de software radicaal veranderen.

Alles, maar dan ook alles is instant beschikbaar, geen laadtijden meer. De efficientie van computers zal een grote sprong vooruitzetten, er gaan belachelijk veel resources verloren aan het laden en opslaan van data van opslag naar geheugen of vice versa.
Een RAM disk heeft inderdaad een hoop nadelen wat verklaart dat dit toch weinig gebruikt wordt.
De efficientie van computers zal een grote sprong vooruitzetten, er gaan belachelijk veel resources verloren aan het laden en opslaan van data van opslag naar geheugen of vice versa.
Waar, maar nog steeds jammer genoeg niet zo snel als jij schetst vermoed ik. Niet voor niets zijn er L1, L2 en L3 caches op CPU's en zoals ik eerder aangaf er is dan nog steeds de Von Neumann flessenhals. Het eerste laden van applicaties en opstarten van een PC zal inderdaad stukken sneller zijn, maar instant beschikbaar. Nee, zo snel is RAM niet.
Kijk eens naar de laatste echte revolutie binnen de computer wereld... dan moeten we terug naar de dagen van 3dfx en andere vroege 3d accelerators.
Klopt maar hoewel er sindsdien veel innovaties zijn geweest, zoals de introductie van solid-state drives (SSD's) en snellere processors. Al zijn dit zoals jij ook aangeeft meer evoluties en verbeteringen op bestaande technologieën dan echt revolutionaire nieuwe productcategorieën.

Echter, de vooruitgang in technologie is vaak iteratief en geleidelijk is en niet altijd een volledig nieuwe productcategorie vereist om significant te zijn. Bijvoorbeeld, de vooruitgang in kunstmatige intelligentie en machine learning, die wordt aangedreven door snellere en efficiëntere processors en geavanceerde algoritmen, heeft geleid tot enorme sprongen in de mogelijkheden van computers in de afgelopen jaren.

Bovendien is de vooruitgang in technologie niet alleen beperkt tot hardware, maar omvat het ook software en andere innovaties, zoals blockchain-technologie en de opkomst van de deeleconomie.

Hoewel er misschien geen volledig nieuwe productcategorieën zijn geïntroduceerd sinds de vroege 3D-accelerators, heeft de vooruitgang in technologie nog steeds een enorme impact op de manier waarop we werken, communiceren en leven.
Absoluut ik probeerde alleen aan te geven dat we helaas al tijden niet meer echt niets nieuws hebben gezien in de consumenten markt. En daar naast dat Intel mijns inziens een fout heeft gemaakt door te claimen dat een technologie die daar nog niet klaar voor was de hdd/sdd en het geheugen kon vervangen.
Als ze de tijd hadden genomen en eerst de SSD markt op z'n kop hadden gezet met steeds mar snellere SSD's tot het punt waarop ze daadwerkelijk RAM throughput, access times en zo voort zouden kunnen evenaren dan had Optane nog wel eens een echte revolutie kunnen worden.

Denk aan direct access waarbij het geheugen direct de SSD aanspreekt om data op te halen zo als de GPU dat nu ook doet. En naarmate de SSD sneller en sneller wordt is het steeds minder zinnig om van het ene naar het andere geheugen te kopieren en kun je simpel weg RAM op de Optane drive plakken als buffer tussen SSD en CPU om vervolgens een paar generaties later de RAM geheel weg te laten omdat Optane SSD's nu zo snel zijn dat het niet langer meer nodig is om RAM te gebruiken.

Ik vermoed dat wat hier gebeurt is een simpel geval is geweest van een marketing/sales team dat meer beloofde dan de engineers waar konden maken met de eerste generaties. Met als resultaat teleurgestelde klanten en een tegenvallende verkoop, dus de stekker er uit. Het had zo mooi kunnen zijn en ik denk dat anders dan Intel er eigenlijk niemand is die dit echt waar had kunnen maken.
AMD maakt GPU's en CPU's en lijken daar meer dan genoeg werk aan te hebben om uit te breiden naar een nieuw te definieren product category. Nvidia doet weinig tot niets met CPU's en mist daardoor de macht in de markt om een nieuwe standaard te creeren in een markt segment waar ze tot op heden niet vertegenwoordigd zijn. ARM leuk maar dat gaat hem niet worden voor de PC niet in de komende jaren en dan houd het eigenlijk op de rest is gewoon te klein om een deuk in een pakje boter te slaan wat dat betreft.
Dus ik denk dat we voorlopig nog vast zullen blijven zitten aan de CPU/GPU RAM/SSD computers zo als we ze nu kennen. Er is simpel weg geen bedrijf meer over dat groot genoeg is om hier verandering in aan te brengen.
Optane is m.i. technisch nog steeds superieur aan flash. Voor bepaalde enterprise storage doeleinden boeit dat niet omdat je scaled redudancy oplossingen hebt en ook een groot snelheids potentiaal etc. Daar is flash logischer. Maar juist in bepaalde workstation situaties waar je dat niet of maar beperkt hebt is er er een duidelijk voordeel voor optane. Ik heb het dan ever storage doeleinden. Non-volatile ram is weer een andere kwestie.
Nou het is niet geflopt omdat slecht is. Het is geflopt omdat het commercieel niet houdbaar was. Het is duur en in tijd dat veel ram in servers toch goedkoper was en dus Optane duur was. OS in consumer markt deze nonvolatile mem nog steed als volatile werd bestempeld write data in nvme dram cache als weggeschreven werd beschouwen. Vervult het een niche waar data transactie in de financiële wereld waar bij uitval een transactie gegarandeerd opgeslagen moet zijn ook bij uitval hardware stroom storing.
In de consumenten wereld speelde prijs ook zeer grote rol. En laat staan dat wear voordeel al algemeen bekend was. Kiest men toch al gauw voor beter GB per Euro/dollar. Dat non volatile is ook op te lossen door Enterprise SSD te ontwikkelen waar er super capacitors op stick zitten die bij stroom uitval de d-ram cache write data als nog wegschrijven. Zou fijn zijn als ook consumenten ssd die optie hadden en als feature kon kiezen.
Games zullen voor dit soort dingen nooit geoptimaliseerd worden, totdat het redelijk mainstream is.

Hetzelfde zie je bij videokaarten, de absolute top end wint het op brute kracht, maar games worden niet specifiek voor die videokaarten getweakt / gedev'd. Waarom denk je dat SLI een stille dood is gestorven?
Xbox x en PS5 games kunnen wel geoptimaliseerd zijn voor 5GB/s opslag.
PC port kan config setting hebben Directstorage enabled. Maar ja vaak hebben port last van budget en gaan ze voor de meest gemene deler en er zijn veel sub 5GB/s nvme ssd in omloop die het net niet halen. Laat staan voldoen vram naast PCE-3.0 nvme
Games worden wel voor gpu architecturen getweaked dat is omdat nv daar voor lobbied sowieso volgen dev de architectuur guide lines van nv en AMD en recent komt daar intel dgpu bij . Maar alles wat optioneel is of zelf moeten doen zoals moderne SLI XF dat laten ze links liggen omdat bet geen mainstream target is maar zeer kleine target markt.
Ik vind het vooral jammer dat de Q1-4K prestaties tegenvallen. Als een SSD net wat langer in dienst is zal de data versnipperen door het gedrag en de werking van de SSD (vooral wear-leveling telt hard) en dan kan het zomaar zijn dat de prestaties toch echt gaan afnemen.

Ga je een film kopiëren dan zal het heel hard gaan en dan is deze SSD bloed- en bloedsnel. Dit is een SSD voor creatievelingen en voor degene die met grote assets werken zoals videobewerking. Is dit jouw usercase dan zit je met dit exemplaar gebakken. Voor gamers en huis-, tuin en keukengebruik behaal je amper een meerwaarde. Games laden er niet sneller door (mits de CPU al geen bottleneck is) en Windows zal er amper sneller van gaan opstarten; mits je direct IO gaat gebruiken.

Sowieso een prachtige vooruitgang geboekt in SSD land. Alleen raakt de gemiddelde consument al vaak in de war met deze getalletjes, maar mij zeggen die niet zoveel. Je werkt vaker met 4K reads dan synchrone reads.

Nu zou ik wel lekker worden van 3D-X-point geheugen (Optane) en dit is een dure techniek die ook veel goed doet in 4K reads/writes welke dan weer juist in het voordeel werken van normale gebruikers.

De heatsink die deze SSD nodig heeft laat me schrikken. Dit moet wel een echt heethoofd zijn. Mijn SSD heeft maar slechts 0,075 watt vermogen (WD sn530 NVMe 1TB) en die word niet eens warm. Toch start Windows 11 zeer snel op (zonder fastboot) en laden games snel in. Pas bij het kopiëren van grotere bestanden kom je zijn limits tegen en blijft hij steken op 700-1200 MB/s. Dit is langzaam, maar de 4K prestaties zijn dan wel weer dik in orde. Echter is dit géén SSD voor videobewerking, dan zit je met die snelle jongen juist weer goed. :)
Ja het is uiteraard use case afhankelijk. Ik heb liever een 2-bit MLC die veel robuustere data-retentie heeft (nogmaals dat is niet hetzelfde als wear leveling) en wat koeler draait en wellicht minder snel sequential schrijft maar nog steeds bij andere metrics sneller is dan deze nieuwe generatie drives met 3 bit TLC. Voor mij is 3,5 gigabyte per seconde sequential echt zat.

Ik hou ook mijn ogen voor als de prijzen van u.2 optane drives gaan zaken in NL desnoods 2e hands. (400 euro voor 1gb vind ik echt prima, ik heb zat pcie lanes) Echt super balen dat die intel firesale via newegg niet voor NL beschikbaar was..

[Reactie gewijzigd door PjotterP op 23 juli 2024 06:08]

MLC is echt helemaal weg hoor, zelfs in de dure datacenter/enterprise ssd’s zit tegenwoordig gewoon TLC.
Grotendeels wel ja (buiten wat specieke industriele toepassingen). Dat komt omdat in datacenters scaled redudancy oplossingen zowel de snelheid als data retentie voordelen (niet te verwarren met wear leveling voordelen) van 2-bit MLC overbodig maken. TLC is prima daarvoor.

Juist als consument kan je meer gebaat bij betere data retentie van 2 bit MLC.
Ik hoop geen game te zien die deze snelheden nodig heeft, tenzij ze de levensduur van zo'n drive enorm weten te verhogen.
Een schijf lezen (data streamen) is niet zo'n issue
We testen daarom ssd's hetzij met hun eigen heatsink als ze daarmee geleverd worden, hetzij onder de heatsink van ons Taichi-moederbord, om te zien hoe de temperaturen en bijbehorende snelheden van de drive zich ontwikkelen bij belasting.
als referentie zou het handig zijn om ze allemaal onder de Taichi-heatsink te steken en eventueel hun eigen heatsink nog eens apart te testen, zo krijgen mensen een mooi beeld van hoeveel die bijdraagt aan de prestaties, want soms heb je geen andere mogelijkheid dan die van je mobo te gebruiken als je M.2 slot bvb bijna onder je grafische kaart zit. In zo'n geval kan je performance zo hard in storten dat je helemaal geen meerwaarde meer hebt en misschien beter voor een goedkopere SSD had gekozen.
rsnubje Testlabcoördinator @dasiro8 maart 2023 08:50
Mee eens. Sluit niet uit dat we dat nog toe gaan voegen. Nu maar hopen dat de meeste heatsinks makkelijk te verwijderen zijn, maar dat denk ik wel.
Ter referentie: DDR3-1333 heeft een peak transfer rate van 10667 MB/s. Daar zit deze peak read speed toch aardig dichtbij in de buurt.

https://www.crucial.com/support/memory-speeds-compatability
Er is bij mijn weten geen systeem wat DDR3 combineert met pcie-gen4, laat staan pcie-gen5.
Dus ik vind het niet echt een logische vergelijking.
Niet om te flamen hoor, maar er zijn genoeg oudere stukken techniek (DRAM, Cache) uit het verleden
die langzamer zijn dan dit stukje nieuwe techniek.
Vind het een leuke vergelijking, was het niet in de DDR3 tijden dat er sommige mensen een RAMdrive maakte voor snelle tijdelijke opslag? Omdat je van dergelijke snelheden alleen maar kon dromen. Nu weet je hoever je in de tijd aan het dromen was :D
Ok, ok, touché...

Prima om een nieuwe SSD te vergelijken met een RAMDISK of een vroegere solid-state disk.
Ik zit ook op een RAMDISK dingen te doen door genoeg geheugen.
Ik mis een beetje de uitleg wat het voordeel kan zijn van een snelle SSD? Als je één Gen5 SSD in je systeem hebt is bijna alles daaromheen een bottleneck. Zelfs twee van deze snelle Gen5nSSD’s heeft weinig praktische waarde, omdat ook het kopieëren van bestanden van de één naar de ander weinig sneller gaat en doe je ook niet elke dag. Misschien dat het opstarten iets sneller gaat van programma’s, maar ook dat merk je in de praktijk nauwelijks.

Kortom, het is leuk, zeker als je een benchmark draait. Maar, hoe moet je het benutten?

Ik heb zelf een nieuw systeem en alle SATA SSD’s vervangen voor de WD SN850X of FireCuda 530. Ik merk maar weinig verschil. Ik heb zelfs verschillende benchmarks gedraaid omdat ik twijfelde of ze het wel goed deden, maar de hoge getallen werden toen inderdaad wel getoond. Voor de rest merk ik dat Windows 11 of wat anders de SSD’s in de praktijk vaak afremmen. Dat zal met een Gen5 niet veel anders zijn denk ik.
Ik mis een beetje de uitleg wat het voordeel kan zijn van een snelle SSD? Als je één Gen5 SSD in je systeem hebt is bijna alles daaromheen een bottleneck
<knip>
Kortom, het is leuk, zeker als je een benchmark draait. Maar, hoe moet je het benutten?
Terechte vraag. IMHO is het antwoord dat we onze computerarchitectuur moeten/mogen veranderen.

50 jaar lang zijn computers gebouwd rond het idee dat storage langzaam is en je CPU snel. De hele architectuur is opgezet om dat verschil te verbergen voor de CPU (door snelle caches in te zetten) en een enkele CPU kan vele harde schijven aansturen. Bij iedere beslissing waar je moest kiezen tussen de CPU belasten of de disk belasten was het altijd de juiste keuze om de CPU wat extra werk te laten doen als je de disk daarmee een heel klein beetje kan sparen.

Daarom is het tegenwoordig aantrekkelijk om (bv) texture-data direct van je storage naar je GPU te sturen zonder dat de CPU er tussen in hoeft te zitten. Nu is dat op zich niet echt nieuw maar meer een makkelijk te begrijpen voorbeeld.

Een onzichtbaar voordeel van snelle storage is dat je minder RAM nodig hebt, de voordelen van een grote RAM cache worden immers steeds kleiner als de storage zelf snel genoeg is. Nog zo'n stap en je hebt eigenlijk al geen RAM meer nodig. Dat zou heel gaaf zijn want zouden onze computers veel beter omgaan met het uitvallen van de stroom (bv omdat je accu leeg is). Zonder stroom kun je dan niet meer werken maar zodra je weer stroom hebt kun je verder waar je gebleven was. Ok, dat hebben we nu ook al min of meer met suspend-to-disk, maar dan automatisch en nog sneller.

Het is allemaal een beetje kip-ei. De techniek rond storage maakt momenteel grote stappen (na jaren van vooruit schuifelen) maar de rest van onze computers kan daar nog niet echt goed mee overweg. We hebben wel een idee, zoals hierboven aangegeven, maar geen duidelijke roadmap.

[Reactie gewijzigd door CAPSLOCK2000 op 23 juli 2024 06:08]

Nog zo'n stap en je hebt eigenlijk al geen RAM meer nodig.
Nou, nee, want werkgeheugen heeft een heel andere functie dan opslag. RAM is veel meer dan enkel cache van je opslag. Dat is ook waar programma's worden ingelezen en uitgevoerd. Als je een applicatie opstart en in het geheugen wordt geladen komt slechts een deel daarvan van direct uit opslag (ruwe data, gebufferde bestandsinhoud) maar een groot deel is ook gewoon geheugen dat verwerkt en getransformeerd is door de CPU en dat nooit zo op een SSD zal staan. En daarvan is een weer een deel daadwerkelijk data, en een deel is de toestand van je programma-uitvoer (je call stack).

De enige manier dat je het RAM in theorie zou kunnen weglaten is als dit alles in je CPU-cache past, al is dat een beetje flauw want dat is gewoon een 1-op-1 weergave van een deel van je geheugen. Maar een enigszins serieus programma gaat nooit in je CPU-cache passen, daar is het ook niet voor bedoeld.

In theorie zou je ook je programmatoestand continu naar je SSD kunnen schrijven, maar vergelijk de bandbreedte, latency en maximale read/writes van een SSD maar eens met die van een geheugensetje om te zien hoe dat gaat aflopen. Dat is wel dè manier om je moderne PC aan te laten voelen als een pentium 2. :P In de benchmarks van de 3D-cache-CPU's zie je al dat cache misses een heftige invloed kunnen hebben op je performance, als je CPU voor elke cache miss op je SSD moet gaan staan wachten is je PC niet meer vooruit te branden. En dan is CPU-cache ook nog eens niet te redden na stroomuitval dus als je dat laatste wil moet je letterlijk elke variabele die je leest of schrijft via de SSD doen, dat gaat onvoorstelbaar traag zijn.

Geheugen dat direct naar de GPU kan worden ingelezen is een geval apart, omdat een GPU tegenwoordig ook gewoon de hardware aan boord heeft om ruwe data te kunnen verwerken, dus daarmee is er geen reden meer om eerst langs de CPU te gaan.

[Reactie gewijzigd door bwerg op 23 juli 2024 06:08]

Nou, nee, want RAM is veel meer dan enkel cache van je opslag. Dat is ook waar programma's worden ingelezen en uitgevoerd. Als je een applicatie opstart en in het geheugen wordt geladen komt slechts een deel daarvan van de opslag (ruwe data, gebufferde bestandsinhoud) maar een groot deel is ook gewoon geheugen dat verwerkt en getransformeerd is door de CPU en die nooit zo op een SSD zal staan.
Waarom zou dat nooit op een SSD staan?

RAM is gewoon storage en voor de computer niet fundamenteel anders dan een SSD of een floppy disk.
In praktijk is ons RAM anders dan andere storage omdat het z'n inhoud kwijt raakt als de stroom uit gaat, maar dat is niet nodig voor de correcte werking of zo iets. Het klinkt zelfs volkomen belachelijk, storage die data niet onthoudt, maar dat is een pijnlijk compromis dat we moesten maken omdat permanente storage niet snel genoeg was.
Voor cache geldt hetzelfde. Cache is optioneel. Je CPU kan werken zonder "cache" als er maar /een/ vorm van storage is*. Heel langzaam, die cache is er met een reden, maar het kan wel.

Daar moet ik wel bij zeggen dat ik niet verwacht dat een hedendaagse computer echt zou werken. Waarschijnlijk zijn er wat aanpassingen aan de hardware en het OS nodig maar niks fundamenteels.
In de theoretische ontwerpen voor de eerste computers zat helemaal geen RAM alleen maar algemene "storage".
Niettemin is het verschil tussen cache, ram, ssd en andere vormen van storage vooral een pragmatisch compromis om met de beperkingen van onze techniek om te gaan, geen fundamentel noodzaak.

* pesterij uit de oude doos: schakel in de bios de L2-cache van de computer van je collega uit. Alles werkt nog maar onbegrijpelijk traag, alleen de slimste nerds ontdekken wat er aan de hand is.

** voor de duidelijkheid, dit was een theoretisch ontwerp. Om precies te zijn ging het zelfs uit van een oneindig lange rol papier. Al onze moderne computers zijn technisch gezien onvolledig omdat ze geen oneindig grote hoeveelheid storage hebben. ;)
Waarom zou dat nooit op een SSD staan?
Waarom wel?

Voorbeeld van data: als ik een jpg-plaatje of zipje op mijn SSD heb staan en die laad ik in is het eerste wat een programma zal doen die data decomprimeren. Die gedecomprimeerde data staat in je RAM, en die zal niet op je SSD staan (tenzij je die daar weer expliciet opslaat, wat in het geval van een zipje nog wel redelijk is maar in geval van een jpg echt niet). Zelfs een duf plain-text bestandje zal worden getransformeerd aan de hand van text-encoding zodat je programma met een voor het programma gestandardiseerd formaat kan werken (een C-string, java-string, haskell-lijstje, whatever je programma leuk vindt). En dat is dan nog data die redelijk 1-op-1 overeenkomt, de data van hoe ver je naar beneden gescrolled bent in je UI of de data van de state van berekeningen van de AI in een game zijn echt niet interessant om op te slaan.

Van een call-stack lijkt het me compleet overduidelijk dat dat nooit op opslag terecht komt, tenzij je het leuk vindt om geheugendumps te maken. Waarom zou je op je SSD opslaan dat je programma een print-statement aan aan het roepen is, of dat je het tellertje van een for-loopje in een programma duizend keer opgehoogd hebt? Zelfs als je een programma in detail wil debuggen doe je dat dan in een menselijk leesbaar formaat in plaats van een CPU-readable call stack.

Dus:
RAM is gewoon storage en voor de computer niet fundamenteel anders dan een SSD of een floppy disk.
...
Niettemin is het verschil tussen cache, ram, ssd en andere vormen van storage vooral een pragmatisch compromis om met de beperkingen van onze techniek om te gaan, geen fundamentel noodzaak.
Nee.

Tenzij je als alternatief noemt dat je hele programma, inclusief elke functie-call en het tellertje van je for-loop, in je opslag leeft, met 250µs latency bij elke read/write naar een programmavariabele. Dat is 25000 keer trager dan de 10ns van een RAM-read, en nog een orde van grote trager dan dat dan een CPU-cache-read/write. Zo krijg je een hello-world-programma bij wijze van spreken nog onbruikbaar traag. Aangezien read/writes naar het geheugen nu soms al een bottleneck zijn (zie de prestatiewinst van de 3D-cache-CPU's) wordt je programma daarmee mogelijk ook gewoon een factor 25000 trager.

Maar dat is volledig hypothetisch want een CPU heeft geen instructies om operaties direct op opslag uit te voeren. De hierarchie CPU-register <-> RAM <-> extern device is ook in dat opzicht fundamenteel.

[Reactie gewijzigd door bwerg op 23 juli 2024 06:08]

Waarom wel?
Omdat meer onderdelen meer geld kost en extra complexiteit toevoegen.
Voorbeeld van data: als ik een jpg-plaatje of zipje op mijn SSD heb staan en die laad ik in is het eerste wat een programma zal doen die data decomprimeren. Die gedecomprimeerde data staat in je RAM, en die zal niet op je SSD staan (tenzij je die daar weer expliciet opslaat, wat in het geval van een zipje nog wel redelijk is maar in geval van een jpg echt niet).
Maar waarom is dat zo? Toch alleen omdat je SSD te langzaam is om de data daar direct vandaan te halen?
Zelfs een duf plain-text bestandje zal worden getransformeerd aan de hand van text-encoding zodat je programma met een voor het programma gestandardiseerd formaat kan werken (een C-string, java-string, haskell-lijstje, whatever je programma leuk vindt).
Ik zie niet in waarom je daar RAM geheugen voor nodig hebt.
Van een call-stack lijkt het me compleet overduidelijk dat dat nooit op opslag terecht komt, tenzij je het leuk vindt om geheugendumps te maken.
RAM is ook opslag. Ze staan nu dus ook al op opslaag, het blijft er alleen niet lang.
Waarom zou je op je SSD opslaan dat je programma een print-statement aan aan het roepen is, of dat je het tellertje van een for-loopje in een programma duizend keer opgehoogd hebt?
Verkeerde vraag. Waarom voeg je extra onderdelen (RAM) nodig alleen om een simpel tellertje bij te houden?
Tenzij je als alternatief noemt dat je hele programma, inclusief elke functie-call en het tellertje van je for-loop, in je opslag leeft, met 250µs latency bij elke read/write naar een programmavariabele. Dat is 25000 keer trager dan de 10ns van een RAM-read, en nog een orde van grote trager dan dat dan een CPU-cache-read/write.
Ja, dat is precies wat ik bedoel. Al die lagen van cache en RAM zijn toegevoegd omdat onze draaischijven zo langzaam waren. Nu onze storage significant sneller is geworden hebben we dat minder nodig.
Maar dat is volledig hypothetisch want een CPU heeft geen instructies om operaties direct op opslag uit te voeren.
Een cpu heeft ook geen instructies om operaties direct op ram of cache uit te voeren. Een cpu werkt op data in registers. Die registers moeten gevuld (en geleegd) worden maar of dat nu uit RAM of een SSD komt maakt de CPU niet uit, die weet niet eens dat er een verschil is.

[Reactie gewijzigd door CAPSLOCK2000 op 23 juli 2024 06:08]

Uit je opmerking
de voordelen van een grote RAM cache worden immers steeds kleiner als de storage zelf snel genoeg is. Nog zo'n stap en je hebt eigenlijk al geen RAM meer nodig.
maakte ik op dat je beeld was dat het je ging om opslag van data die nu op opslag staat, niet om call stacks en dergelijke. Dat is wat ik versta onder "storage" omdat je dat nu gewoon niet permanent opslaat, dat je een keuze maakt of je data permanent wil opslaan of niet vind ik toch een redelijk fundamenteel onderdeel van je architectuur.

Als je het een goed idee vindt om dat op een SSD op te slaan, zo gewoon permanent 100% read/write load op je SSD te zetten om die zo in een maand om zeep te helpen en al je programma's een factor 25000 trager te maken, ja oke, dan kun je het zien als fundamenteel hetzelfde. :P Volledig hypothetisch en je stelling dat de prestaties van SSDs in de buurt komen van geheugen zijn absoluut niet waar (latency is minstens net zo belangrijk als bandbreedte), maar oke, ja, in theorie kan het.

Direct op opslag werken wordt ook wel gedaan in smart cards en dergelijke, maar dan heb je het dus over hardware die vergeleken met desktop-hardware poeptraag is, een zeer beperkte hoeveelheid geheugen/opslag heeft en op een dag misschien 1 seconde iets te doen heeft. Is dat fundamenteel hetzelfde als een desktop met RAM, tja, als je het zo wil noemen. Maar dat we in een richting gaan waarin die opzet weg zou kunnen: nou, nee. Niet zolang we nog geen crysis kunnen draaien op een smart card.

[Reactie gewijzigd door bwerg op 23 juli 2024 06:08]

Mijn punt is niet dat we vandaag de dag zonder RAM kunnen. Mijn punt is vooral dat het steeds minder nodig is om onze computer helemaal te bouwen rond het idee van lagen van cache en storage.
De laatste jaren gaat het hard en worden er grote stappen genomen.

Dat SSD's nu nog te veel latency hebben en te snel slijten klopt maar er is wel enorm veel vooruitgang geboekt ten opzichte van de decennia voor SSD.

Overigens denk ik ook niet dat zo'n verandering zou beginnen bij high-end game PCs die snel RAM nodig hebben. Het zal juist aan de onderkant van de markt beginnen waar performance minder belangrijk is dan prijs en de software stack eenvoudig is aan te passen. (Strict genomen is er geen harde grens tussen eenvoudige elektronica en computers.

In dit soort dingen is "goed genoeg" vaak belangrijker dan "beter". Het is ook maar waar je het mee vergelijkt. Deze SSD is op alle punten (inclusief latency) sneller dan de computers waarmee we op de maan zijn geland. Dat is een beetje een flauwe vergelijking maar het laat zien dat je niet altijd de hoogst mogelijke snelheid nodig hebt.
Mijn punt is vooral dat het steeds minder nodig is om onze computer helemaal te bouwen rond het idee van lagen van cache en storage.
De laatste jaren gaat het hard en worden er grote stappen genomen.
Daar ben ik het dus niet mee eens. "Steeds minder nodig", vanuit wie? De hardware-producent en de gebruiker willen prestaties en efficientie, dat krijg je niet als je die hierarchie weghaalt. De software-wereld heeft ook helemaal geen behoefte om die lagen weg te krijgen want caching is toch weggeabstraheerd en gebeurt automatisch. Het enige wat je als programmeur moet kiezen is welke data je 'permanent' wil opslaan en wat je in je geheugen wil houden. Die keuze maak je toch, je gaat geen geheugendumps op je opslagapparaten gooien (hoi unencrypted wachtwoorddumps), dat wil je in een bewust gekozen, bruikbaar en uitwisselbaar formaat dat je daar toch voor zal moeten schrijven.

Call stacks opslaan om na stroomuitval weer verder te kunnen is ook volledig hypothetisch, applicaties zitten vaak toch vol met netwerkverbindingen en toestand van externe devices waar je iets mee zal moeten, en na een software-update is een eerder opgeslagen toestand betekenisloos. Ja, het is hypothetisch mogelijk maar niet op een generieke die zo praktisch en gemakkelijk is dat de software-wereld ooit die kant op zou willen.

Samengevat: als programmeur zie ik al helemaal geen lagen. Ik schrijf gewoon mijn programma en de compiler en de CPU zoeken maar uit waar mijn programma terecht komt. Het enige wat ik zelf kies is wat ik zelf op de lange termijn wil opslaan, en no way dat ik dat aan de compiler of CPU overlaat, behalve misschien een page file hier en daar.

[Reactie gewijzigd door bwerg op 23 juli 2024 06:08]

Daar ben ik het dus niet mee eens. "Steeds minder nodig", vanuit wie? De hardware-producent en de gebruiker willen prestaties en efficientie, dat krijg je niet als je die hierarchie weghaalt.
Vergeet prijs niet.
Minder onderdelen is in principe geodkoper.
De software-wereld heeft ook helemaal geen behoefte om die lagen weg te krijgen want caching is toch weggeabstraheerd en gebeurt automatisch.
De software-wereld heeft ook geen behoefte om die lagen in stand te houden. Zoals je zegt is het helemaal weggeabstraheerd. Je gaat het ontbreken van die lagen dus ook niet missen (als de performance van de vervanging goed genoeg is).
Het enige wat je als programmeur moet kiezen is welke data je 'permanent' wil opslaan en wat je in je geheugen wil houden.
Die keuze is er niet omdat we dat zo graag willen maar omdat we gedwongen worden om te kiezen wat er bewaard moet worden als de stroom uitvalt. Zolang de computer aan staat is je RAM net zo permanent als je SSD. Als programmeur zal je nog steeds moeten kiezen hoeveel geheugen je alloceert en wanneer je het weer vrij geeft. Dat is exact hetzelfde als het managen van storage op een permanente schijf.
Die keuze maak je toch, je gaat geen geheugendumps op je opslagapparaten gooien, dat wil je in een bewust gekozen, bruikbaar en uitwisselbaar formaat dat je daar toch voor zal moeten schrijven.
Het hele concept geheugendump verandert sowieso als je geen onderscheid hebt tussen RAM en andere storage. Als je RAM permanent is (of je SSD snel genoeg) dan hoef je geen "dump" te maken. Je kan gewoon dat stuk geheugen omheinen en markeren als "afblijven".
Als je het voor langere tijd wil bewaren of met anderen wil uitwisselen kan het inderdaad wel nuttig zijn om dat via een gedocumenteerd standaardformaat te doen maar dat heeft verder niks te maken met de eigenschappen van de onderliggende storage.
Call stacks opslaan om na stroomuitval weer verder te kunnen is ook volledig hypothetisch, applicaties zitten vaak toch vol met netwerkverbindingen en toestand van externe devices waar je iets mee zal moeten. Ja, het is hypothetisch mogelijk maar niet op een generieke die zo praktisch en gemakkelijk is dat de software-wereld ooit die kant op zou willen.
Hoe is het anders dan je computer in "suspend" te zetten? Dan heb je al die problemen met netwerkverbindingen en externe devices ook. Daar dealen we al mee sinds de eerste laptop.
Samengevat: als programmeur zie ik al helemaal geen lagen. Ik schrijf gewoon mijn programma en de compiler en de CPU zoeken maar uit waar mijn programma terecht komt. Het enige wat ik zelf kies is wat ik zelf op de lange termijn wil opslaan, en no way dat ik dat aan de compiler of CPU overlaat, behalve misschien een page file hier en daar.
Helemaal mee eens, als programmeur kan je het geen fluit schelen hoe het werkt zolang de performance maar goed genoeg is voor je doel. Als je (bv) zonneweringen bouwt dan heb je niet veel performance nodig. Zelfs als het een kwartier kost om te beslissen of je de zonnwering open of dicht doet dan is dat nog snel genoeg.
Dat je moet kiezen welke data niet verloren mag gaan als de stroom uitvalt is een bug, geen feature.
Die keuze is er niet omdat we dat zo graag willen maar omdat we gedwongen worden om te kiezen wat er bewaard moet worden als de stroom uitvalt.
Je blijft de hele tijd hameren op stroomuitval, die scheiding zorgt er ook voor dat hardwarebakkers zich kunnen richten op eigenschappen waarvoor die hardware (geheugen en opslagmedia) bedoeld zijn. Een SSD permanent op 100% load zetten gaat niet best zijn voor de levensduur, en is totaal onzinnig: als ik een dag ga number crunchen hoeft niet elk tussenresultaat naar een SSD om een milliseconde later weer weggegooid te worden.

Voor het gebruik in operaties die je normaal op geheugen doet (enorm veel databewerking) is een opslagmedium niet optimaal en voor permanente opslag is geheugen niet optimaal. En dan heb je nog latencies, die wel een sprong hebben gemaakt bij opslagmedia bij de overgang van HDDs naar SSDs maar waarin verder in decennia geen fundamentele verbeteringen zijn geweest (DDR1 heeft gewoon dezelfde latencies als DDR5). Ook over 30 jaar is een opslagmedium fundamenteel te traag in termen van latency om geheugen/CPU caches te vervangen.

Ja, het zou heel mooi zijn als we 1 soort opslag hadden die de positieve kenmerken van zowel intern geheugen als SSDs zou hebben (en waarom niet van CPU-caches?) maar dat is gewoon fantasie. Ja, in een smart card misschien, en daar doen we dit al tijden, maar bij de eisen die we aan gemiddeld desktop-gebruik stellen is die opzet gewoon structureel inferieur aan een gelaagde opzet.
Ik kijk vooruit, naar de toekomst, naar de trends die lopen en hoe zich die verder zullen ontwikkelen.

De vraag waar alles mee begon is hoe je goed gebruik moet maken van deze snelle SSD en mijn antwoord was dat het met de huidige computers niet goed gaat en dat we onze architectuur moeten/mogen gaan aanpassen aan de nieuwe eigenschappen.

Dat onze huidige generatie SSDs (te snel) slijt bij intensief gebruik klopt maar dat kan ook weer veranderen.
Alles slijt. Ook je RAM en je CPU. De slijtage daarvan gaat echter zo langzaam dat je je er de eerste 10 jaar geen zorgen over hoeft te maken.

Dat het slijt is dus niet zo interessant als het maar langzaam genoeg slijt. SSDs hebben ook wat slijtage betreft enorme stappen vooruit gemaakt. Overigens hebben de meeste moderne SSDs ook een stukje RAM aan boord om de SSD zelf een beetje te sparen. Voor de rest van het systeem is dat echt transparant. Het is niet echt wat ik bedoelde maar je zou ook kunnen zeggen dat je geen /los/ RAM meer nodig hebt omdat het al in je SSD zit.
Ja, het zou heel mooi zijn als we 1 soort opslag hadden die de positieve kenmerken van zowel intern geheugen als SSDs zou hebben (en waarom niet van CPU-caches?)
Het hoeft niet net zo goed te zijn als alles wat we al hebben. Het moet goed genoeg zijn.
Ja, in een smart card misschien, en daar doen we dit al tijden, maar bij de eisen die we aan gemiddeld desktop-gebruik stellen is die opzet gewoon structureel inferieur aan een gelaagde opzet.
Dat is precies wat ik bedoel: goed genoeg.
Hoe sneller de SSD's hoe meer toepassingen er zijn waarvoor het goed genoeg is.
Ik denk dat dit in de bredere zin steeds meer het geval is. Waar je vroegah met je PI 120 Mhz een upgrade naar 166 Mhz echt impact had op zelfs iets basaals als je kladbok openen is dit nu niet meer het geval. Bij veel dagelijkse toepassingen voor de gewone gebruiker zijn er zeker wel snelheidswinsten maar als gebruiker merk je die gewoon niet meer op.

Dus dan de vraag waar ga je dit dan wel merken, grote files zoals video editing, grote excel sheets, PSD files daar zul je vermoedelijk wel een stukje winst zien. En juist daar is het ook interessant om dit soort investeringen te doen. Waar voor een gewone gebruiker 100 euro meer letterlijk niks toevoegd, is het in het zakelijk segment een stukje tijdswinst die keer op keer terugkeert en dat zich makkelijk vertaald naar zoveel uur minder verlies in tijd. Maar dit zijn wel uiteindelijk heel specifieke toepassingen.

Neemt niet weg zoals je ook terecht opmerkt en zoals we ook gisteren terug zagen met top grafische kaarten in matige systemen, dat je deze winst enkel weet te behalen wanneer er niet elders bottlenecks in je omgeving zitten.
Mensen noemen tegenwoordig 5% winst al een significante winst.

Op zulk soort momenten begin ik me echt oud te voelen. :X

Een ding is wel duidelijk, aan alle kanten beginnen er plafonds geraakt te worden. De praktische snelheidswinst tov de vorige generatie is uiterst minimaal. Terwijl de kosten en (soms) ook energieverbruik wel significant groter zijn.

Ook dat is relatief. Het feit dat het er allemaal maar fancy uit moet zien kan in sommige gevallen behoorlijk wat overhead creëren.

Wat dat betreft zijn de kosten tegenwoordig ook weer net als vroeger. :+
Wellicht kennen ze de term sweet spot in die regio nog niet. Zit je nu in een tijd waar het als maar sneller moet. Een ssd hoeft van mij geen ventilator, scheelt bijvoorbeeld 3 GB / sec. In een datacenter wil je dat wellicht wel. Keuzes...
Als ik heel eerlijk ben merk ik geeneens het snelheidsverschil tussen mijn Sata SSD's en mijn M2 NVME SSD's
Dat verschil ga je wel merken als je constant files van 4+ GB moet laden, opslaan, en verplaatsen.
Hoeveel verschil ga je merken van een supercar vs. een Fiat Twingo als je door een 30km/uur gebied rijd?

Zo gaat het ook met SSDs, de snelheid is al veel langer over een drempel heen waarbij we bij het gros van de activiteiten het verschil niet meer bemerken. Dat merk je natuurlijk wel bij specifieke workloads (mits de rest van de hardware het kan bijbenen)...

Waarbij ik vroeger als een van de eerste bv. Raptors, RAM disks en SSDs gebruikte, werk ik nu prima met SSDs van een generatie geleden (of ouder). Er zit bv. nog steeds een 840 EVO 1TB in een van mijn machines. De afgelopen twee jaar eigenlijk alleen maar Samsung SSDs uit de 870 en 970 serie gekocht ook al waren er 980 en 990 versies beschikbaar (gedeeltelijk was dat ook het beschikbare formaat van de SSDs).
Legendarische Fiat Twingo. De fiat zal in deze vergelijking beter over drempels heen kunnen dan de gemiddelde super car. Dat is met SSD's eigenlijk ook het geval want een Sata SSD zal veel minder CPU resources vragen voor een gemiddelde IO operatie.
Dat klopt niet. Tenzij je een dedicateed HBA voor je SATA storage hebt, vraagt een (onboard) SATA controller meer resources van de CPU dan een NVMe controller.

NVMe gebruikt een effcientere commandoset om I/O-requests te verwerken, waarvoor minder dan de helft van het aantal CPU-instructies nodig is dan die van SATA of SAS.

SATA en SAS ondersteunen elk slechts één I/O-queue tegelijk. De SATA-queue kan maximaal 32 openstaande requests aan en de SAS maximaal 256. NVMe ondersteunt tot 65.535. Als de queue vol is, moet je het in het werkgeheugen laden, wat je load op je systeem verder verhoogt. Dus SAS en SATA hebben ook een negatievere impact op je RAM.
Dat van die drempels wel. Of een SATA SSD per IO letterlijk minder CPU resources vraagt? Dat betwijfel ik. Misschien hebben ze lagere impact in totaal omdat die NVME SSD verscheidene malen sneller is ja.

NVME is specifiek net ontwikkeld om vooruit te gaan. Tests tonen net dat deze 3x minder impact hebben per IO-op.
Dat behoort niet echt tot mijn dagelijkse werkzaamheden op mijn computer, maar ik snap inderdaad het punt. Maar laatst werkte ik met een laptop waar nog een mechanische schijf in zat en dat merkte ik wel. Uiteraard heb ik die inmiddels van een SSD voorzien.
Nee hoor meerder youtube videos laten ze naast elkaar dezelfde games bv laden. In de meeste gevallen is het bij 20-30 seconden laden vaak minder dan een halve seconde verschil. Niet echt iets dat je gaat merken in je dagelijks gebruik.
Bij LTT hebben ze ook eens een blinde test gedaan tussen SATA/nvme. Velen konden het ook niet correct zeggen :)
komt omdat sequential speeds eigenlijk niet zo n belangrijke factor zijn en dit gewoon puur het marketing nummer geworden is.
een sata ssd kan beter zijn als een nvme ssd zelfs.
Onze huidige pc's, hoewel erg snel door SSD's, zijn nog niet instant. Je hebt regelmatig laadtijden, installeren van zaken heeft tijd nodig en niet alle programma's starten even snel op.

Nu ligt dit niet alleen aan de SSD, maar aan meerdere aspecten binnen je gehele systeem, maar snellere ssd's, sneller ram en in algemeen meer compute power zorgt er uiteindelijk voor dat de (betere) software ook steeds sneller zijn ding kan doen. Nu zijn er nog weinig praktische redenen voor een PCI gen5 ssd, maar dit opent nieuwe mogelijkheden in de toekomst (net zoals >10Gbit internet).
We zien ook wel dat met krachtigere hardware vaak ook meer (logge) abstractie komt, waardoor uiteindelijk de snelheid niet verbetert en soms zelfs verslechtert.
Dan kan je zeggen dat er vaak meer features bij zitten en da's soms ook zo. Soms evengoed niet, of die features zijn er wel maar zodanig matig uitgevoerd dat je je kan afvragen of het wel nuttig was.
Dat is natuurlijk makkelijk te roepen maar heb je er voorbeelden van?

Ik zie bijv met C# dat het ze lukt mooiere abstracties toe te voegen die ook nog eens sneller zijn dus dat gaat recht tegen in wat jij beweert.
Zie alle Electron apps. Voor elk echt goed uitgewerkt voorbeeld zijn er veel meer matige.

Of een heleboel frameworks voor web-development. Het is heel gemakkelijk om een hele boom aan onbekende libraries in te laden, maar waren die écht nodig?

De snellere hardware kan niet altijd op tegen de tools die development versnellen.
Zeker, daarom benoemde ik ook nog "betere" software ;D De bottleneck zit altijd ergens in de software, overige hardware, interface of infrastructuur. Deze dienen allemaal te innoveren op gebied van snelheid en efficiëntie om een toekomstige applicatie voor een PCI5 SSD te realiseren.
Onze huidige pc's, hoewel erg snel door SSD's, zijn nog niet instant.
Instant zal het ook nooit worden, maar wellicht wel heel dicht bij instant. Deze nieuwe generatie van SSDs mogen op papier sneller zijn dan de vorige generaties en er zijn vast momenten waarbij men wel het verschil zou merken. Die zijn echter voor de doorsnee gebruiker zo zeldzaam en zo significant dat ze niet het geld/tijd er voor over hebben om die overstap te maken als dat niet noodzakelijk is.

Daarnaast moet je hardware er wel correct mee overweg kunnen. Toen PCie 4.0 op kwam ben ik eens gaan kijken naar een nieuw werkstation build. Dat ziet er allemaal heel mooi uit op PW dat je drie of vier M2 sloten hebt, en dat PCie 4.0 wordt ondersteund. Maar als je dan de handleiding er op naslaat (wat meestal wel handig is met nieuwe technologie) dan zaten daar allerlei haken en ogen aan. Als je PCie 4.0 wilde gebruiken, dan werkte dat slot weer op halve kracht, kon je zus niet gebruiken in combinatie met xyz, etc.

Eigenlijk net als het hele 10Gbit netwerk verhaal, toen ik de laatste keer m'n netwerk op de schop nam waren 10Gbit switches gewoon bijzonder powerhungry, waardoor veel warmte en veel herrie om het te koelen. 10Gbit netwerkkaarten waren bijzonder pittig qua prijs, etc. Dan ga je jezelf op het hoofd krabben, van "Heb ik dit eigenlijk wel nodig?" en dan blijkt het antwoord eigenlijk 'nee' te zijn...
Absoluut, maar dat is vooral nu aan de orde. De consument heeft nu geen sneller internet nodig en heeft nu geen snellere computer nodig. Echter staat techniek nooit stil en uiteindelijk komt er een toepassing voor meer snelheid/bandbreedte.

Internet in zijn huidige vorm heeft het wellicht nog niet nodig, maar hoe ziet internet er over 50 jaar uit? Wat voor soort data pompen we dan over en weer waar zelfs 10Gbit te weinig voor is?

Idem voor computing. Nu zijn er nog teveel bottlenecks (zowel in hardware, software als infrastructuur) waardoor snellere hardware nog niet relevant en interessant is voor de consument. Ontwikkelingen zoals quantum computing openen echter een breed scala aan mogelijkheden die deze snelheid wel nodig hebben. Voor de doorsnee consument is het dus (nog) niet interessant, maar voor innovatie is dit een logische stap.
Voor de doorsnee consument is het dus (nog) niet interessant, maar voor innovatie is dit een logische stap.
Ik weet niet of innovatie het juiste woord is in deze context, maar zeker onderzoek en dan vraag ik me af of een consumenten product direct nodig is...

PCI-E historie:
1.0 2003
2.0 2007
3.0 2010
4.0 2017
5.0 2019
6.0 2022
7.0 2025

Eigenlijk lopen deze consumenten producten al een generatie achter... Maar de overstap van PCI-E 4.0 naar 5.0 na twee jaar is ongelooflijk vlot! Ik zou zelfs willen stellen dat in 2023 het gros van de PCs die nu in gebruik zijn geen PCI-E 4.0 SSD aan boord heeft. Laat staan 5.0/6.0...

Het voelt een beetje aan als die jaarlijkse CPU upgrades waarbij je misschien een 5% verbetering hebt in prestaties (als je geluk hebt) of je wel een significante verbetering hebt, maar opeens 2x zoveel stroom verbruikt...

Kan ik me voorstellen dat je het nodig kan hebben (of zelfs noodzakelijk kan zijn), sure, maar dan denk ik voornamelijk aan professionele situaties (met professionele prijzen) en geen consumenten producten. Dit is voornamelijk gericht op die consumenten die zodra iets (een beetje) sneller uitkomt, ze het direct moeten hebben of ze het daadwerkelijk nodig hebben of niet.

Bron:
https://en.wikipedia.org/wiki/PCI_Express
Dus dan de vraag waar ga je dit dan wel merken,
Het vereist een gedegen performance analyse om te bepalen of er een bottleneck is en zo ja, of deze daadwerkelijk opgelost wordt met het kopen van snellere hardware. De meeste eindgebruikers hebben
dat inzicht niet en gooien een hoop geld weg (of kopen om andere redenen zoals 'de snelste willen hebben' - iets met compensatie voor de kleine auto denk ik ;) )

Je voorbeeld van bv een Excel sheet suggereert dat SSD performance daar een bottleneck is, terwijl het ook een CPU issue kan zijn (de datastructuur in het geheugen moet omgebouwd worden naar die op schijf, goede kans dat dat nooit met 10Gb/sec gaat lukken)
Simdjson zou dat wellicht kunnen
Office gebruikt een XML representatie dus denk niet dat JSON optimalisaties daar veel gaan helpen.
Tegelijkertijd mag je zakelijk vaak lekker doorploeteren op een middle-of-the-road laptopje of een virtueel systeem van de klant wat nog te langzaam is om Teams fatsoenlijk te draaien.

Veiligheid en flexibiliteit staan terecht voorop, maar als je thuis een fantastische PC hebt staan voor de lol en voorzien van hardware als in deze review, is het wrang met lede ogen aan te moeten zien hoe snel een professionele PC ervaring eigenlijk zou kunnen zijn terwijl je zelf toch vooral de prestaties van een 15 jaar oud systeem ondervindt.
Direct Storage maakt PCi-e 5.0 storage pas interessant. En voordat dat mainstream is zitten we waarschijnlijk al op PCI-e 6.0 ssd's
Dan heb je het wel over heel specifieke toepassingen (i.e. games en misschien enkele professionele toepassingen), in het overgrote deel van gebruik heb je er geen baat bij.
Op de PS5 werd ook gesproken van zo'n technieken. En als je dan toch voor een console ontwikkelt kan je specifiek alle ondersteunde trucjes eruithalen. Meerdere tests hebben inmiddels aangetoond dat veel tragere drives nauwelijks meetbare/merkbare verschillen opleveren.

Één specifieke game zag blijkbaar trouwens wel verschillen tot 15%. https://twitter.com/fitzymj/status/1420825603784122371

Dus als het met vanaf meer dan 3,2GBps al geen merkbaar verschil meer oplevert betwijfel ik dat je echt 10+GBps nodig hebt om het "interessant" te maken. Misschien in nog meer next-gen-y games.

Dan hebben die dingen nog ingebouwde HW-decompressie ook. Je gaat naar 2-3x de compressed datarate, dus ze zitten effectief al op 10+GBps. Dat zou je natuurlijk weer verdubbelen met een dubbel zo snelle SSD, afhankelijk van hoe snel die HW-decompressie kan.

In ieder geval, da's al meer dan 15x zo snel als een SATA SSD. Me dunkt dat het wel even genoeg speedboost is.
Wel, ik wil met jou wedden dat er met directstorage geen waarneembaar verschil in game load times zal te noteren vallen tussen pci 3.0 vs 4.0 vs 5.0 ;)
Maar wellicht wel een definitief einde aan texture pop e.d.
Wil ik best aannemen. Het gaat me hierboven om het feit dat we de komende jaren tussen die drie types nvme's geen verschil in effecten zullen zien, zelfs niet met directstorage.
Eerste Direct Storage game is er volgens mij al.
Jup. Forspoken. Lees de reviews maar eens over de performance nvme vs sata.
Als we zo gaan denken komt er nooit vooruitgang.
Ik herinner mij een Linus Tech Tips video waar het verschil tussen SATA en NVMe blind werd getest. Dit waren natuurlijk techliefhebbers en mediaproductiepersoneel, niet bepaald een goede doorsnee van de bevolking, maar daar kwam eigenlijk uit dat je voor browsen en gamen niet heel veel merkt zolang je SSD maar DRAM-cache heeft.

Doe je aan softwareontwikkeling of andere taken die heel veel random I/O nodig hebben, dan zul je het verschil misschien merken, maar ik kan me niet voorstellen waar je tegenwoordig precies 10GBPS aan data voor nodig zou hebben.

Ik vind het gaaf dat het kan en met direct storage zal dit in de toekomst een verschil gaan maken in laadtijden/performance, maar op dit moment zou ik zelf geen reden kunnen bedenken om specifiek deze drives te kopen eigenlijk. In de meeste gevallen doet de concurrentie die de helft van de snelheid haalt het eigenlijk net zo goed.

Steeds snellere hardware verplaatst de bottleneck en ik denk dat we eerst een generatie of twee aan CPU's nodig hebben voor storage weer een bottleneck wordt, wat natuurlijk prachtig is om te zien voor iedere techenthusiasteling!
Zoals ik het begrepen heb van LTT videos, zij hebben een supersnelle centrale data-opslag en een supersnel netwerk. Data wordt praktisch sneller door het netwerk gepompt dan dat deze nieuwe NVMe drives voor elkaar kunnen boksen.

En als dat het geval is, waarom dan nog aan lokale opslag beginnen?

Maar dat is de situatie bij LTT en bij een normale gebruiker zal dit soort drives wel nut kunnen hebben. Echter, als je veel met grote bestanden werkt dan zijn een snel netwerk en een heleboel terabytes aan centrale opslag al gauw een betere keuze dan lokale opslag capaciteit.
Het ging in de video om "het OS opstarten" en "laadschermen tijdens het gamen". Ik denk dat get gros van de computergebruikers niet eens veel last zullen hebben van gamelaadtijden met hoeveel er in Office en webapplicaties gebeurt tegenwoordig.

Als je professioneel video bewerkt of iets dergelijks, zul je verschillen gaan merken tussen SATA en NVMe, maar door de vele andere bottlenecks in de meeste applicaties ('t is niet alsof Word van 32 CPU cores gebruik kan maken) zullen de meeste mensen die computers gebruiken er niet zoveel van merken. Zelfs voor professionele toepassingen kan een extra 64GiB aan RAM voor bestandscache al snel de verschillen overbruggen.

Sommige moderne spellen (en al helemaal software) zijn nog steeds beperkt doordat alles van harde schijven moet werken, en met zo'n setup wordt een SSD al snel niks meer dan een "snelle harde schijf".

Binnenkort zal dit door ontwikkelingen in DMA veranderen, verwacht ik, vooral in games. Professionele renderingapplicaties zullen hier wellicht ook gebruik van (kunnen) maken maar verder verwacht ik dat de impact op dagelijks computergebruik de komende tijd wel mee zal vallen.
Ik doe veel met grote data bestanden. Als ik nu bijvoorbeeld eventjes 8 GB in het geheugen wilt zetten, duurt dat toch eventjes, als dat korter kan, is dat zeer welkom.

Dat een paar hippe tieners het verschil niet merken in een simpel spelletje, dat is iets heel anders.

Maar uw punt is dat we eigenlijk nog steeds bit serial data interfaces moeten gebruiken, want wie merkt dat nou echt?
Mijn punt is dat in praktijktest mensen het meestal niet doorhebben. We hebben decennia lang de opslaglaag als bottleneck gehad en software is er dan ook op gebouwd om zo min mogelijk de schijf te raadplegen als dat voorkomen kan worden. Alle software zit vol RAM caches en zelfs met een supersnelle SSD vult je besturingssysteem je vrije RAM gewoon met bestanden die je misschien nodig zal hebben. Die optimalisaties kunnen we nog steeds niet kwijt omdat er nog steeds mensen vanaf harde schijven werken.

Die "hippe tieners" zijn wel mooi de drijvende kracht achter innovaties als het verspreiden van betaalbare moederborden met resizable BAR en direct storage. Deze technieken zijn niet bepaald nieuw, maar door ze naar consumenten te brengen zijn de prijzen voor moederborden en chips met ondersteuning hiervoor een ordegrootte goedkoper geworden.

En daarnaast zijn gamers, helemaal op de PC, bij uitstek een goed publiek om performancetests bij te doen. Een game zet stress op CPU, GPU en RAM, dingen die bij andere benchmarks doorgaans buiten beschouwing worden gelaten. De hardware is duurder dan wat je in de meeste normale PC's en laptops terugvindt. De storage traces van Tweakers zijn natuurlijk betrouwbaarder vanuit een wetenschappelijk oogpunt, maar eerlijk gezegd zou ik niks merken als mijn PC tien seconden sneller een compile draait of als Windows vijftien seconden sneller updatet. Ik houd dan liever de vijftig euro verschil in mijn zak.

Het gevolg van vijftig jaar trage opslag is dat voor de meestgebruikte dingen op een computer het verschil tussen 500MB/s en 5000MB/s gewoon amper merkbaar is. Voor bepaalde mensen en bepaalde workloads zijn snellere SSD's essentieel en daar zijn deze 10GB/s misschien nog niet eens genoeg; sommige mensen zullen deze schijven nog steeds in RAID0 draaien om die reden. Ik ergerde me zelf ook kapot toen ik nog NodeJS-builds deed vanaf een SATA-SSD, de beperkingen waren daar wel echt duidelijk. Aan de andere kant zijn mensen die code compilen maar een klein percentage van de mensen die wereldwijd voor werk of plezier een PC gebruiken.

Laten we niet de illusie hebben dat je de gemiddelde kantoor-PC nuttig sneller maakt door de 1000mbps (of zelfs 500mbps) SSD te vervangen door een exemplaar dat 10GB/s doet. Windows Defender of wat je ook voor antivirus gebruikt zit al lang en breed in de weg voor je dat verschil gaat merken.

En ja, als mijn computer even snel opstart, updatet, browsers laadt en bestanden opslaat, maakt het me niet uit of de boel werkt vanaf een floppy of een NVMe-schijf.
Niet per se, het is toch een terechte vraag wat je vandaag als consument aan dit product hebt.

Nu, de vraag van @honey is ook niet echt terecht want de conclusie van dit artikel is toch duidelijk: vandaag heb je er eigenlijk niks aan.
Wij gebruiken vaak 4 of 8x PCIe in RAID0 om grote hoeveelheden data te processen. Daarbij is de disk throughput meestal de limiterende factor, al is CPU soms ook de bottleneck (AMD 3990X).

Meer snelheid is uiteraard altijd welkom, als je daarmee de processing tijd bijvoorbeeld tientallen procensen kunt verkleinen is dat enorme winst.
Ik denk het zelfde inderdaad. Heb thuis een 4th i7 met SATA SSD, op werk een 11th gen met NVME. De NVME PC is wel wat 'snappier', maar dat moet je er echt specifiek op letten. Het heeft ongetwijfeld een voordeel dat mijn COMSOL en SolidWorks modellen sneller geopend worden, maar in dat soort situaties gaat het om ordergrootte. In beide gevallen duurt het in de orde van enkele minuten, of het nou 2 of 4 is maakt in de praktijk eigenlijk niks uit.
Maar als je die sata ssd in die 11th gen stak zou hij ook snappier zijn, niet? :)
Er is een use-case waar zelfs deze SSD nog een de trage kant is: RAM vervanger. B.v. gaming, waar je de volgende room in komt: nu moet vaak nog even ingeladen worden met echt snelle SSDs kan je het hele spel in "pseudo RAM hebben" Wisselen van scene gaat dan vrijwel onmiddellijk.
Zie ook @Vibonacci reactie hieronder, waarin hij stelt dat deze drive in de buurt komt van DDR3 geheugen.

[Reactie gewijzigd door batteries4ever op 23 juli 2024 06:08]

Voor de dagelijkse gebruiker is het denk meer een leuk hebbendingetje dan echt iets nuttigs, de grote verschillen merk je denk nergens (correct me if I'm wrong), maar ik neem aan dat we nu een beetje een limiet hebben bereikt met hoe snel iets kan laden etc. voor de dagelijkse gebruiker
Over 15 jaar krijgen we allemaal een neuralink die je bestaan gewoon stopt als je iets uit de pas denkt. Alleen verplicht voor het volk natuurlijk.
Vind de term en de award innovatief nogal kort door de bocht, ja het is grensverleggend, maar het is storage, de minpunten wegen niet op tegen voorgaande SSD's van Gen 4.

Dit is zo'n Tesla oplossing, 1000PK in een auto rammen en in de praktijk heb je er geen hol aan, heb je meer wear and tear.

Tuurlijk is het leuk en zal er met firmware updates wat te winnen, maar ik betwijfel of het van zulke slagen zijn dat het daadwerkelijk zichtbaar is voor jan met de pet met dag dagelijks gebruik.
Als we ooit games hebben die direct storage gaan ondersteunen en goed gebruiken wel.
Tot die dag zou ik me er niet druk om maken en zelfs niet de moeite doen om hoger dan sata te kopen tenzij de prijs gelijk is.
Je ziet het verschil enkel in benchmarks tenzij je dagelijks veel grote bestanden versleurt.
Enig idee hoe cyberpunk en atomic hearts dit doen op PC? Ik haal bij die games laadtijden van 5 a 6 seconden, daar moet toch iets van een directstorage implementatie aan ten grondslag liggen, maar ik kan er niet echt iets over vinden.
In het geval van cyberpunk is het eerder de assets beperken.
Zo zie je constant dezelfde mensen en autos voorbij komen.
Ik verwacht in de praktijk niets van directstorage: de CPU in huidige systemen is zo snel dat data van de SSD via de CPU de GPU inpompen ongeveer op datarate van de SSD kan. Als je CPU starved bent (consoles) dan helpt het meer. Maar je gaat geen celeron in je PCI-e 5 systeem met een RTX4090 stoppen om dan te klagen dat je laadtijden te hoog zijn en je directstorage nodig hebt.
Meer PK in een auto rammen snap ik nog enigszins, de meeste hardware vindt het niet fijn als je contant op 100 % draait. Dan zorg je voor extra overhead zodat je max op 80 % zit o.i.d.
Nu de getallen zo groot worden, hoe gaat tweakers eigenlijk om met GB's en GiB? Windows gebruikt namelijk GiB, dus het lijkt me handig als tweakers dat ook zal doen. Maar in het artikel lijkt GB gebruikt te worden?
Ik vermoed dat ook bij Tweakers gewoon GB gebruikt wordt voor GiB gezien die meestal ook gewoon op Windows getest worden.
Ik zou me er niet druk om maken.

[Reactie gewijzigd door System op 23 juli 2024 06:08]

Dat lijkt me sterk, capaciteiten van SSD's worden ook al jaren - eigenlijk vanaf het begin van de grotere SSD's - in 1000-machten gerekend. En terecht, alleen het geheugen wordt helaas nog in de idiote GB=GiB aangegeven.
De 2,4% telt iedere orde van grootte opnieuw, nu we het over terrabytes hebben, scheelt het al 10%.

Ik voel me al jaren iedere keer als ik explorer open en de daadwerkelijke grootte van mijn schijven zie, toch een beetje genaaid.
Ik snap wat je bedoelt, maar ik zie er niet echt graten in.
Sowieso zal het ook dan nog niet 100% kloppen gezien bestandsgrootte niet hetzelfde is als wat het in neemt op een schijf.
Uiteindelijk is het maar een nummer en zal het weinig of geen impact hebben uiteindelijk.
Je bedoelt als dan ook de bestandsgrootte nog eens niet klopt, wordt je dubbel genaaid? ;)

Het nummer is waar het je aankoop op baseert, dat moet gewoon zo nauwkeurig/duidelijk mogelijk zijn. >10% is veel. Je wil toch ook niet 10% minder salaris, of een auto die 10% minder zuinig rijdt?

Als je er op let kun je het vantevoren weten, maar dat zou niet moeten hoeven en is voor mij gewoon misleiding van de consument.
De bestandsgrootte klopt wel, alleen is dat nooit exact hetzelfde als de plaats die het in neemt op de schijf.
Net zoals je meestal ook geen 10 gevulde kratten van 50 liter in een koffer van 500 liter zal krijgen ;)
Wat maakt het uit wat Windows gebruikt? Zolang we maar een duidelijke eenheid gebruiken is dat gewoon goed. Als je niet kan omrekenen tussen eenheden denk ik dat iedere vergelijking al te hoog gegrepen is.
Ik vraag mij af waarvoor je dergelijke snelheden nuttig kunt gebruiken.

Dit zal wel weer bedoeld zijn voor de gamers.

Ik heb een Samsung EVO 970 in mijn computer zitten. Alleen met een benchmark programma zie je deze snelheden. Bij normaal gebruik niet merkbaar.

[Reactie gewijzigd door LEX63 op 23 juli 2024 06:08]

Gamers?

Er is nauwelijks verschil te merken in games t.o.v een S-ata SSD vs een NVME SSD. Dit soort SSD's zijn bij bepaalde workloads in te zetten, grote bestanden te slepen maar ook video's te editten of juist snel dingen te compileren. Anders dan dat voegt het weinig toe t.o.v een normale PCI-e 3.0 / 4.0 SSD om eerlijk te zijn.
Games zijn dan in de basis ook nog gebouwd op HDD-technologie, je weet wel, die spinnende schijven met een access tijd die je in gezette bakkies koffie meet in plaats van nanoseconden. Vrijwel alles is nog cross-gen en moet op de PS4/Xbone uitkomen.

Forspoken was zo ongeveer de eerste game die SSD-only is.
Heb zelf een paar van m'n games vergeleken op een SATA SSD en een NVME drive, kon eerlijk gezegd niet zeggen dat het een duidelijke verbetering was. Alleen met een stopwatch er bij kon ik het verschil zien, maar zelfs dan praten we over minder dan een seconde, in mijn optiek niet echt reden om van de ene naar de andere te upgraden. (Tenzij je een low-tier SATA SSD hebt, daar merk je het nog wel af en toe)

Heb het gevoel dat games gewoon geen voordeel nemen van snelle drives, mogelijk nog oude code of architectuur die de hele boel afremt. Daarbij komt ook dat veel games online verificatie/services hebben waarvan het laden niet afhankelijk is van je storage.

Kortom: leuke techniek, maar op content creation of andere niche toepassingen na ga je er niks van merken.
rsnubje Testlabcoördinator @LEX638 maart 2023 08:52
Nou, ook niet voor de gamers als je het stukje over de 3DMark scores goed leest.
Waarom is de forse koeler / heatsink niet benoemd als minpunt? Die leek me namelijk nogal overduidelijk.
Is maar net of je het als minpunt ervaart, kan net zo goed een groot pluspunt zijn. Valt me wel erg tegen dat ze er bijna niks mee doen bij de warmtetest. Het wordt even benoemd en that's it, terwijl het een kritisch detail is waardoor de vergelijking niet (helemaal) eerlijk is.
Als ik op de eerste pagina het kopje lees lijkt 10GB/s gelijk te worden gesteld aan 10.000MB/s. Ik snap dat fabrikanten dit doen. Jammer dat het hier ook in 1 adem genoemd lijkt te worden. Of begrijp ik die verkeerd?

[Reactie gewijzigd door Sparks.nl op 23 juli 2024 06:08]

Als je de vertaling op en neer met dezelfde factor 1000 (en dus niet 1024 / 2^10) doet, dan is dat verder geen probleem. Het gaat pas scheef als je de 2 methodes door elkaar gaat gebruiken. We zijn nu in een tijd gekomen waar MB de 'basis' is (of Mbit bij internet), ga je omhoog kan dat in de 2^10 of 1000 methode, zolang je dat consequent doet, is het slechts een principe van definitie.
Iedereen zijn dremel tevoorschijn gehaald om een gat in je shroud te maken?
Idd toch iets om rekening mee te houden met die creator/designer borden

Op dit item kan niet meer gereageerd worden.