Door Willem de Moor

Redacteur

Zijn Gen5-ssd's het wachten nog waard?

Nieuwe controllers moeten Gen5 laten opleven

09-06-2024 • 09:00

129

Singlepage-opmaak

Tot slot

Het aanbod aan Gen5-drives is nog altijd niet heel groot, en de variatie erin is - afgezien van koeling - al helemaal minimaal. Alle drives die daadwerkelijk momenteel verkrijgbaar zijn, worden met een Phison E26-controller en Micron-nand gemaakt. Dat maakt je onderscheiden knap lastig voor fabrikanten: het verschil zit momenteel nog vooral in de geboden koeling om de heethoofden onder controle te houden. Drives met de E26 verstoken immers al snel tussen de 10 en 11 watt, waar passieve koeling flink moeite mee heeft, met thermal throttling tot gevolg.

Aan het gebrek aan variatie zou in de loop van dit jaar verandering kunnen komen. Drives met onder meer controllers van Innogrit en Maxiotek beloven al komend kwartaal hun opwachting te maken en modellen met Silicon Motion-controllers en SK hynix moeten volgen. Ook ouwe rot op Gen5-vlak Phison heeft vernieuwing in de vorm van een zuinigere revisie van de E26, een uitgeklede E31T én een nieuwe controller in de vorm van de E28 ligt in het verschiet.

Misschien nog wel interessanter is echter het sentiment onder fabrikanten rondom Gen5-drives. Ze worden weliswaar braaf meegenomen naar Computex en tentoongesteld, vaak dus nog als prototype, maar bij navraag geven diverse fabrikanten aan dat ze geen enorme haast hebben ze uit te brengen. De verwachte markt is maar klein, deels omdat de drives een aanzienlijke meerprijs ten opzichte van snelle Gen4-drives hebben, en deels omdat ze denken dat opslag niet per se de bottleneck bij consumenten is. Voor de enterprisemarkt ligt dat natuurlijk heel anders, maar het daadwerkelijke nut in de praktijk wordt een beetje in twijfel getrokken.

Misschien is het ontbreken van Gen5-ssd's uit de stal van grote fabrikanten als WD en Samsung (afgezien van de op dat vlak wat kreupele 990 EVO met zijn twee in plaats van vier PCIe Gen5-lanes) wel een goede kanarie in de kolenmijn: zij vinden de tijd blijkbaar nog niet rijp. Wellicht komt de echte doorbraak van Gen5-ssd's als er meer te kiezen valt dankzij de beschikbaarheid van controllers van meerdere fabrikanten én als de prijzen als gevolg van meer concurrentie wat meer richting die van snelle Gen4-drives bewegen. Tot die tijd kun je misschien het best de kat uit de boom kijken.

Reacties (129)

129
128
48
3
0
71
Wijzig sortering
De stap van HDD naar de veel snellere SSD was een enorme stap in performance winst, die je heel duidelijk merkte. Computers waar je de HDD uithaalde en een SSD inzette kregen een grote boost en konden weer een tijd langer mee.
Maar hoeveel performance winst merk je eigenlijk als je van de huidige generatie naar Gen 5 gaat overstappen? Ik kan me wat voorstellen bij servers, maar daar zit sowieso een RAID in. Wat gebruik je op een desktop dat je werkelijk merkt dat de Gen5 SSD nog sneller is?
Swappen? Dan is meer geheugen toch een betere investering.
Mijn buikgevoel zegt me dat het op papier leuk is, en de benchmarks vast wat laten zien, maar dat er maar heel weinig toepassingen zijn waarbij je het echt merkt.
Maar hoeveel performance winst merk je eigenlijk als je van de huidige generatie naar Gen 5 gaat overstappen?
Hangt er natuurlijk ook vanaf op welke generatie SSD je nu zit. Als je nu op een Gen3 of Gen4 SSD zit zal 99+ procent van de mensen in de praktijk weinig tot niets merken van een overstap naar Gen5 voor normaal dagelijks gebruik.

Kom je echter van een Gen1- of een SATA-SSD zal je de performanceboost vermoedelijk aanzienlijk beter merken, dat verschil is namelijk een stuk groter.
Toch voelde voor mij de overstap van sata ssd naar de snellere m2 ssd nauwelijks als winst terwijl dat iets van 550 Mb/s naar 3000 Mb/s betekende. Nu denk ik bij de zoveelste snellere generatie ach ja het zal wel.
Die winst is er inderdaad ook niet of nauwelijks, bijvoorbeeld in laadtijden bij gaming: YouTube: M.2 NVME vs SSD SATA vs HDD - Loading Times in Games

Dat is hooguit 1 seconde laadtijd verschil, praktisch onmerkbaar dus.

Voor de consument is de SSD qua snelheid praktisch uitontwikkeld en ik vind dat Tweakers daar ook wel wat aandacht aan mag besteden.
Kan me nog herinneren dat een lange tijd terug men ging vergelijken met RAMdisks en SSD qua laadtijden, ondanks dat de RAMdisk zoveel sneller is, was het verschil gelijk aan SSD.

Het zit hem waarschijnlijk vooral in het feit dat het spel gebonden is aan de CPU kracht om de data over te leveren aan de GPU vanuit de storage, daarom is ook DirectStorage API in het leven geroepen om de CPU te omzeilen en direct vanuit de storage de gegevens over te hevelen.

Bijvoorbeeld lees dit artikel:
https://www.pcmag.com/how...dows-load-pc-games-faster

Uiteindelijk kan dit er dus toe leiden dat een snellere SSD dus weldegelijk zijn snelheid kan maximaliseren, uiteraard zodra ontwikkelaars dan hiervoor ook ondersteuning hebben en je videokaart dit ondersteund.

Je hebt daarvoor minimaal Windows 10 en een DirectX12 capable GPU met Shader Model 6.0+ voor nodig.

Een lijst van spellen die dit ondersteunen:
https://steamdb.info/tech/SDK/DirectStorage/

Geen enkel spel in je gelinkte video heeft ondersteuning voor deze DirectStorage API, dus wellicht dat dit een verkeerd beeld schetst.
Er beginnen nu toch echt spellen te komen die een NVMe SSD verwachten voor de DirectStorage API , net zoals in de PS5, waar je geen zone overgang laadschermen/pauzes meer hebt, als je aan spelen bent.

Heeft Gen5 NVMe echt nut, nou nog niet echt bijzonder, daar toegangstijd voor NAND, niet echt beter is geworden, zolang de premium voor Gen5 nog steeds meer is dan 10%, zou ik iig voor gamen niet overstappen.

Heb zelf 1x 1TB en 2x 2TB (Raid0) WD SN850X OS en game, die raid was uit noodzaak, omdat ik een aparte schijf wou hebben voor mijn games, en 4TB NVMe was toen nog heel duur.

Maar de snelheidswinst van 7.300MB/s vs 14.600MB/s is er wel, maar het is maar marginaal.
Wat is daar sneu aan? Filmpje laat precies zien hoe het qua performance in elkaar zit. Een Gen5 SSD zal niet veel beter presteren in deze tests dan de SSD die daar weergegeven wordt
De tijd lijkt stil te staan.

Een volle seconde.

Het filmpje diende / dient om aan te geven hoe belangrijk/belachelijk het verschil is in de praktijk, tussen de verschillende storage oplossingen (destijds, drie jaar geleden). En waar we nu staan, heeft 't filmpje noch immer bestaansrecht. Als je een nieuw systeem bouwt, is een Gen 5 het overwegen waard. Maar als je een Gen3 of 4 hebt: Don't bother, in de praktijk zal vooral je banksaldo wat sneller (richting de 0) gaan.

Alles natuurlijk gegeneraliseerd, voor/door een gemiddelde tweaker.
Ik ben van Samsung 840/860 Pro 256GB/2TB gegaan naar 2x 990 Pro 4TB (i.c.m. 13900K), ik merk wel verschil en dat zaken nu snappier zijn dan voorheen, maar ook weer niet zo'n enorm verschil inderdaad.

Keuze op PCI-E Gen 4 x4 was ook meer omdat hoewel het moederbord PCI-E 5.0 ondersteund dit betekent dat dit in het heatsink van het moederbord onder een hete GPU komt te zitten en die PCI-E 5.0 SSDs zijn bepaald niet koel van zichzelf.

Moederbord heeft een DIMM-slot om twee M.2 Gen 4 SSDs te plaatsen naast de reguliere DDR5 sloten, zit dit meteen netjes in de airflow en het helpt wel degelijk. Het geluk hierbij was dat dit DIMM slot met Gen 4 operatie geen gevolgen heeft voor de PCI-E 5.0 sloten van het moederbord en dus gewoon op 16x kan blijven werken in het eerste PCI-E 5.0 slot.

Als ik in het PCI-E 5.0 slot een M.2 SSD zou steken dan zou sowieso het 2e PCI-E 5.0 slot worden gedeactiveerd en het eerste slot komt maximaal op 8x bandbreedte te staan, niet echt optimaal, en met een PCI-E Gen 4 SSD wordt dat mogelijk zelfs een downgrade naar PCI-E 4.0 8x voor het eerste PCI-E slot maar dat kan ik mis hebben. Maar dit wil ik niet als de toekomstige RTX 5090 een PCI-E 5.0 kaart wordt.

Gen 5 is op dit moment ook nergens voor nodig voor SSDs, tegen de tijd dat dit wel zo is, is dit systeem wel uitgerangeerd. De huidige Gen 4 SSDs halen gewoon 7GB/s.

Overigens is Ratchet & Clank Rifts Apart wellicht het enige spel tot nu toe dat van M.2 SSDs groter profijt kan hebben, ik heb daar I/O pieken gezien van 1GB/s wat dus zowat het dubbele is wat SATA-600 zou aankunnen, en dus voor stotters zou kunnen zorgen die je niet wilt.

Zal in de toekomst wel toenemen naarmate er grotere textures in spellen worden gebruikt denk ik zo, laat staan dat de spelgroottes inmiddels richting 200GB gaan, natuurlijk wordt niet alles ingeladen bij het starten maar de bandbreedte voor het dynamisch inladen van gedeeltes neemt zo wel toe.

[Reactie gewijzigd door CriticalHit_NL op 23 juli 2024 01:06]

Rift Apart is inderdaad het enige spel waarbij ik me kan voorstellen dat zo’n gen 5-drive enig verschil maakt in de manier waarop je het spel beleeft. Het switchen van dimensies vraagt enorm veel van je ssd en je wil eigenlijk dat dit zonder laadtijd gaat. Dat lukt op pc zelfs met een gen4 ssd net niet als ik Digital Foundry mag geloven.
Klopt, al denk ik dat het niet perse een Gen 5 daarvoor benodigd, hier ging het helemaal vlotjes op een Gen 4 SSD, de pieken kwamen vaak niet echt boven de 1GB/s, wellicht soms 1.5GB/s, uit vanuit de storage als ik weer een andere dimensie o.i.d. inging. (die van mij doet ~7GB/s sequentieel)

Dit heb ik gemonitord via het volgende tooltje:
https://systeminformer.sourceforge.io/

Natuurlijk kan het zijn dat de polling rate van de tool te laag is om dit ook accuraat te bevestigen, want intern werkt de hardware natuurlijk veel en veel vlotter, maar snel pollen kost veel resources, heb in ieder geval niet echt grote vertragingen opgemerkt.

Als je een link hebt naar de betreffende video en/of tijdstip ben ik wel benieuwd, kleine framepacing hikjes zullen er wellicht altijd wel min of meer zijn en dat merk je met een snelle GPU op hoge framerates net wat meer.

Speelde op 1080Ti 1440P met FSR en G-sync ultra instellingen op een framerate veelal tussen 60-80s, soms 40s of 100fps beetje afhankelijk van de situatie.

Enkele oude screenshots:
https://imgur.com/a/454E0fO

Wat me wel opviel in willekeurige momenten is dat bij de GPU de Compute node ineens werk ging verzetten, op dat moment ging het spel dus haperen bij het bewegen van de camera, zodra ik had gefikst dat deze geen verbruik meer had, dan was het vloeiend.

Dit kon volgens mij gedaan worden door te wisselen tussen windowed en fullscreen en door FSR uit/aan te zetten o.i.d, werkte niet iedere keer volgens mij, bleef een vaag probleem.
YouTube: Ratchet and Clank: Rift Apart - PC Review - Cutting Edge Tech But La...
Je hebt gelijk: een Gen 3-drive is kennelijk al genoeg, dus Gen 5 gaat niet helpen.
Bedankt voor het zoeken, inderdaad bevestigd dat al een beetje mijn vermoeden.

In de toekomst zullen die vereisten wel gaan oplopen, maar als je nu een NVMe drive bezit met Gen3/4 denk ik dat het voor games vooralsnog niet een grote impact gaat hebben de komende paar jaar. Als je nu nog een SATA-600 SSD hebt is het wellicht upgraden waard, zeker als het budget-SSDs betreffen die vaak ook wat langzamer zijn, maar ook dan enkel als je de problemen ervaart.
Ik had mijn SATA SSD puur vervangen door een Gen4 omdat ik de SATA SSD ergens anders nuttig kon gebruiken, niet omdat ik me ergerde aan de snelheid. Voor de overgrote meerderheid die het als systeem-/applicatiedrive gebruikt zijn alleen de access times echt belangrijk en dan is het alleen zaak dat je een SSD hebt ongeacht het type.
Ach jah, van 3500 naar +7000 MBs merkte ik dus wel. Geen mega grote stap maar alles werkte gewoon toch lekkerder en strakker.

2 notities wel:
Van 1 tb naar 4tb maakt ook alles sneller, want hoe minder op je ssd staat (percentueel) hoe sneller die is.
En het was ook tijd voor een fresh windows install dat kan ook wonderen doen :p.

[Reactie gewijzigd door SactoriuS op 23 juli 2024 01:06]

Fresh install en lege ssd tov een volle heeft wss meer impact dan je upgrade van ssd. Hoe veel sneller is de nieuwe ssd tov de oude in 4k random r/w. Dat is namelijk wat die in dagdagelijks gebruik van werk voorgeschoteld krijgt.
De fresh windows 11 installatie, Ik weet dus niet hoeveel impact dat heeft op SSD. Op hdds was dat altijd wel echt een verschil.

Mijn SSD zaten altijd onder de 60% dus hij is zeker trager dan leeg, maar de grote performance drop komt meestal bij de laatste 30%. Dus ook hiervan is de impact niet mega groot.

Dus wss komt het door alle 3 de factoren.
Kan je niet zeggen als je geen antwoord hebt op je eerste alinea.
Kun je nog steeds beter een gen 4 erin prikken. Goedkoper en veel meer keus zonder idioot grote koelers.
volgens mij zit ik op een gen2 of gen 3 maar het ding is nog snel genoeg voor mijn beleving en zal er nog lang inzitten.
Dat is dus onzin. Onmerkbaar klein tenzij je aan video editing doet.
En dan nog. Heb soms het gevoel dat er heel veel video editors met weinig tijd op tweakers.net zitten :+

[Reactie gewijzigd door BlaDeKke op 23 juli 2024 01:06]

Ik zie heel vaak 50 procent (ik noem maar een getal) sneller dan vorige generatie.

En mijn brein zegt meteen "wat toen 2 seconden duurde, duurt nu iets meer dan 1 seconde"? Conclusie ik ga dat dus niet merken.
Het probleem is dat het niet echt sneller is, omdat in vrijwel alle toepassingen iets anders de bottleneck is. Uitpakken van bestanden? Je CPU moet dan decompressie doen. Een bestand inladen? Bestanden zijn meestal geen geheugendumps dus ze moeten eerst nog omgezet worden naar het in-memory formaat.

Plekken waar snellere R/W nog echt baat heeft zijn vrij beperkt. Bestanden kopiëren, ongecomprimeerde archieven uitpakken, etc. Ik kan alleen voor mezelf spreken maar dat zijn dingen waar ik misschien eens in de maand op zit te wachten. Dan heb ik niet echt de behoefte om dat sneller te laten gaan - al helemaal niet als ik daardoor veel meer geld per gigabyte betaal.
Ik begrijp wat je bedoelt, maar die redenering klopt niet helemaal. De grote bottleneck ligt 99% van de tijd wel degelijk bij de SSD zelf. Random read/write is bijvoorbeeld nog steeds erg traag.

Een echte next-gen SSD is er dus eentje die snel is bij het starten van games, programma's en Windows. En dat zou je effectief elke dag voelen!

[Reactie gewijzigd door Coolstart op 23 juli 2024 01:06]

Praat je nu over IOPS? Je hebt geen PCI-e 5.0 nodig om 1500000 IOPS te halen.
Maar dat haal je niet met consumenten drives. De Samsung Pro hebben na de cache te vullen een random IOPS (read/write) rond de 20k, sommige budget versies draaien rond de 1k. Een datacenter SSD kan echt wel 100k-1M volhouden maar daar betaal je dan wel voor, de duurste Kioxia is nog steeds honderden euro per TB.
Ik heb niet gezegd dat ik het heb. Ik heb Lexar NM790 (zonder heatsink) 4TB Maar om uit te leggen wat ik bedoelde is IOPS staat los van of een SSD pci-e gen 4 of 5 moet hebben. Heeft niks met interface snelheid te maken.
Dat is niet echt waar, de PCIe5 heeft meer transactiecapaciteit (32GT/s) en elke transactie kan ook meer data versturen dan zijn voorgangers dus in principe zou de IOPS nog steeds sneller kunnen.

Er zijn wel degelijk systemen die de bus kunnen vullen met IO. In de consumentengroep kun je inderdaad zelfs nog op PCIe3 het verschil niet merken.
Voor zover ik weet IOPS is hoeveel transacties per seconde wordt behaald maar de grootte van iedere transactie is het andere gedeelte van het verhaal. IOPS maal de block grootte is transfer snelheid. Ook moeten we rekening mee houden met hoe de SSD’s die hoge snelheden behalen. Durf te wedden dat die door cache geholpen wordt, geen enkele NAND haalt die hoge snelheden tenzij je natuurlijk RAID gebruik. Maar zodra de cache vol is dan kakt de snelheid behoorlijk. Ik zou liever de snelheid van NAND drastisch zien omhooggaan en meer IOPS op random acties en dan PCIe-5 nuttig. Probleem is hoe halen we die zeer hoge snelheden op nand zonder nog grotere koelblokken?

[Reactie gewijzigd door WildWilly op 23 juli 2024 01:06]

Inderdaad, de IOPS is in het algemeen berekend op 4kB transacties tegenwoordig.

Maar datacenter NAND kan die snelheden wel halen zonder cache zoals ik eerder zei, de cache op een consumer is snel maar de NAND kun je nog bijhouden met PCIe3, voor datacenter SSD zijn er alle soorten dingen die de controller doet alsook de layout van de NAND, ze gebruiken meer maar kleinere chips, de controllers hebben meer parallelle verbindingen etc. Een 2TB SSD kan gemakkelijk met 1 chip gedaan worden, echter de server SSD hebben er 8 of 16.
Datacenter nand :+

In elk geval ging de discussie hier over consumenten hardware waardoor je volledige rant verspreid over meerdere reactie in het water valt. Leuk dat het bestaat voor Google of Meta. Maar daar hebben we hier helemaal niets aan.
Je kunt het wel degelijk zelf kopen. Mensen klagen graag dat een upgrade by Apple of Dell of HP een paar honderd meer per TB kost, maar als je ze eruit haalt zie je wel iets beter dan een Samsung Pro, de Precision reeks bij Dell komt momenteel met een Kioxia CM6. Ik reageerde origineel op de claim dat je PCIe4 niet nodig hebt of geen verbetering brengt echter dezelfde chips/controllers met een duurder design zitten wel degelijk in betere producten. Als je een pro-systeem zelf bouwt zou ik het wel aanraden over een Samsung “Pro”

[Reactie gewijzigd door Guru Evi op 23 juli 2024 01:06]

En dat zou je effectief elke dag voelen!
De praktijk laat echter zien dat dat niet het geval is.
En de reden is o.a. wat Wolfos al aangaf.
Als je veel met grote bestanden werkt, zoals met video verwerking, dan kan het je wat tijdwinst opleveren. Voor 'regulier' gebruik zal de impact 0 zijn.
Bij video zijn denk ik de bottlenecks eerder renderen en coderen.
Ik ben onlangs van een samsung 950 pro (pcie 3.0, 2500MB/s seq) overgestapt naar de WD Black SN850X en merk een significant verschil in laadtijden en reactiesnelheid. Is het net zo veel als de overstap van SATA SSD naar NVME? Nee, en al helemaal niet zo dramatisch als de overstap van draaiend ijzer, maar weldegelijk merkbaar.

Het is wel een beetje een dooddoener om te zeggen dat de bottleneck niet meer bij de storage ligt omdat er weinig huidige toepassingen zijn die er tegenaan lopen. Als je als fabrikant een beetje vooruitkijkt dan ga je toepassingen bedenken die er gebruik van kunnen maken. Bij mij leest het vooral als 'we hebben nog geen deugdelijk product waarmee je gegarandeerd een constante max snelheid haalt' en dat laat zich ook wel een beetje zien met die idiote heatsinks. Toen ik die 950 in mijn pc lepelde was het schandàlig dat een SSD ooit een heatsink nodig zou hebben om constant te kunnen performen, tegenwoordig haal je belabberde snelheden als je niet iets aan je warmemanagement doet.
Natuurlijk is dit ook ooit zo geweest voor processoren en videokaarten, maar builds worden zo steeds complexer en je moet steeds meer ruimte maken voor koelingsoplossingen om die performance maar te blijven houden. Ik vind het zelf een beperkende richting waar we naartoe drijven.
Veel verschil was er ook al niet tussen sata en nvme. Je loopt heel de tijd tegen de chipset aan die moeite heeft om 4k random r/w aan 100MB/s te doen. Het enige waar deze echt sneller in zijn is sequentieel data rondpompen. Wat je bijna niet doet, toch niet in normaal gebruik.

Wat je wss hebt gedaan bij het vervangen van je ssd is je OS herinstalleren. Dat heeft meer impact dan eender welke ssd upgrade in consumer grade ssd space.
Random R/W io zijn net deze upgrade meer dan verdubbeld met exact hetzelfde systeem. SATA > NVME was een gigantisch verschil. ik heb alle smaken gehad vanaf het moment dat het uitkwam, met of zonder OS herinstallatie, inmiddels ben ik zo'n 30 jaar met hardware aan het hobbyen, zowel thuis als (20 jaar) professioneel. Wat je zegt houdt in mijn ogen geen stand.
Vrij weinig, volgens mij. Er is een gigantische sprong in ervaring tussen een SATA-HDD en een SATA-SSD, maar van SATA-SSD naar PCIe - ja, er is verschil, maar je moet wel wat tools erbij pakken of in zo'n scenario zitten waar het uit maakt, en voor 99% van de dag zit ik niet in zo'n situatie met normaal computergebruik.

Deze snelheidsontwikkelingen zijn leuk, maar voordeligere grote en snelle opslag zou voor meer mensen nut hebben, en ook duidelijk zichtbaar zijn. Boven de 2TB nemen mensen nog steeds HDDs (en lopen dan aan tegen traag startende games), voor die mensen zouden toegankelijke SSDs meer betekenen dan de zoveelste generatie snelle SSDs.
Die grens is inmiddels al min of meer richting 4 TB opgeschoven, die SSDs zijn nu ook erg goedkoop. Daarboven zijn HDDs nog wel zinnig.
Voor normaal consumentengebruik (gamen, office, hier en daar wat videoediting) is het verschil niet of nauwelijks waarneembaar. Het is dus echt voor de toekomst
Als je met grote hoeveelheden data bezig bent kan het zinvol zijn. Zoals streaming van super gedetailleerde assets in games of video bewerking. Voor eenvoudig kantoorwerk is het vrij zinloos.
En vermoedelijk loop je bij je voorbeelden ook tegen andere bottlenecks aan.
Ook voor reguliere gebruikers kan je al snelheidsverschil merken tussen verschillende Gen 4 SSDs. Ik heb zelf een Kingston NV2 1 TB en een Lexar NM790 2 TB, je merkt duidelijk een verschil bij grote bestanden zoals games installeren of grote files verplaatsen vanuit een oude HDD. Alleen bij het gamen merk je weinig tot geen verschil, hooguit een paar seconde sneller laden.
En juist bij die "grote files verplaatsen vanuit een oude HDD" is de beperkende factor toch echt die oude HDD.

Alle SSD's lopen er qua snelheid een rondje omheen!
Precies op dit punt leunt Apple met zijn "8GB interne geheugen is genoeg" verhaal. Ze gebruiken de snelste SSD mogelijk, En ze 'hopen' dat de gemiddelde gebruiker niets merkt van langzamer cache, etc etc

[Reactie gewijzigd door EdwinHamers op 23 juli 2024 01:06]

De aloude discussie over het nut van snellere hardware...
Aangezien ik me een groot deel van mijn tijd bezig houdt met performance en efficiency heb ik hier wel zicht op.
Benchmark resultaten zijn leuk maar niet representatief voor gewone applicaties omdat een benchmark alleen maar data verplaatst maar er verder niets mee doet. Applicaties moeten die data ook nog processen en daar gaat vaak de meeste tijd naar toe.
De grootste winst boek je over het algemeen niet met snellere hardware maar slimmere software en processen. Ik haal soms wel een factor 10 of meer, of het nu software betreft, processen of sales.

De hoge snelheden bij sequential read/write worden voornamelijk gerealiseerd doordat in een SSD heel veel parallel wordt gedaan.
Maar de onderliggende snelheid van 1 enkele read is de afgelopen jaren niet veel veranderd.
Een MX500 1TB van begin 2018 haalt 44MB/s bij singlethreaded 4k read.
In een review van Tweakers van 9-5-2024 haalden diverse v5 SSD's 95MB/s.
Een Firecuda 530 (v4) haalt 100MB/s, die heb ik dus vorig jaar een aantal gekocht.
Voor veel software is dit de belangrijkste parameter.
Daarom is het jammer dat de Optane technologie gecancelled is, de snelste haalden ~550MB/s.

Er zijn niet veel toepassingen die iets aan die hoge sequentiele snelheden hebben.
Een voorbeeld van zo'n toepassing is 7-Zip. Dat schaalt heel goed over meer cores.
Een AMD 7900X (12 core) haalt bijna 2,5GB/s bij uitpakken maar slechts 170MB/s bij inpakken.
Dat kun je nog steeds met een v3 SSD aan.
Een MX500 is een sata ding, die worden ook zo aangestuurd en zijn dan traag door al die lagen. NVMe wordt anders aangestuurd. Bij 1 enkele read is daar weinig voordeel. Ik denk niet dat je daar omheen kan.
De tijd nodig voor het aansturen, processen en versturen van de data is wel sneller geworden maar het lezen en schrijven van de cellen niet. Dat is fundamenteel.
Een Mx500 doet ongeveer 11.000 IOPS bij 4k single-threaded read. Dit is een TLC drive.
Dat betekent 91 micro-seconden per 4k blok.
Daarvan is de processingtijd minder dan 2 micro-seconden en dat is het deel dat veel sneller wordt...
Het lezen van de cellen is ongeveer 2x sneller geworden.

MLC is sneller, ik heb 15 jaar oude drives met MLC geheugen die sneller zijn met 4k single-threaded read.
QLC is juist veel langzamer.
De processingtijd is bij alle ongeveer gelijk. Het verschil komt door het type cellen.
Als je wil snappen hoe het precies werkt moet je eens kijken bij cactus-tech.com
Ik maak mij ernstige zorgen over de praktische kant van PCI Express. Bij PCI gen5 moest de SFF-8654-connector die voor het 2.5-inch SSD's gebruikt wordt vervangen worden door een MCIO-connector. De verschillen tussen beide connectoren zijn minimaal, dus ik dacht dat het nergens op sloeg, totdat iemand van Kioxia mij vertelde dat de pinnetjes in de 2.5"-connector te dicht bij elkaar zitten om PCI gen5 over de SAS-lanes te sturen (wat bij U.3 het geval is). Een Kioxia U.3 SSD schakelt daarom terug naar gen4 als je PCI-E via de SAS-lanes aanbiedt, via de U.2-lanes, die gemaakt zijn voor PCI-E wordt nog wel gen5 aangeboden.

Het blijft daar niet bij, want bij PCI-E gen6 zal de SFF-8639-connector die op iedere 2.5" SSD zit niet meer voldoen. Er zal dan ook overgestapt worden naar een printplaatrandconnector, net als M2.2 SSD's.

Kortom, de verbinding is zo gammel aan het worden dat alles begint te falen. Vraag is wat dit voor M.2 betekent, dat is al een randconnector, maar de kans op connectiviteitsproblemen zal wel enorm gaan toenemen. Waarschijnlijjk gaan allerlei PCI-naar-M.2-kaartjes falen, andere verloopjes falen en de kans dat bepaalde SSD's niet met betaalde moederborden werken gaat flink toenemen.
Hoezo 'Kortom'?

Je conclusie heeft helemaal niets met je verhaal je maken. En je verhaal is niets anders dan een rant dat nieuwe technieken met nieuwe connecties komen. Dat is noch bijzonder noch een probleem, of haal jij je SSD iedere week uit je kast ofzo?
Nieuwe m.2 connector met extra shielding rond zal al een hoop doen.
Zou het logisch zijn om voor SSDs een CAMM2-achtige connector te hebben? Misschien heel andere koek, maar dan heb je een stuk meer oppervlak om de pinnetjes over te verspreiden (en zou je het oppervlak sowieso misschien wat groter of minder langwerpig kunnen maken, wat handig zou zijn als er dan toch een grote heatsink nodig is).
Op zich is dat een logische evolutie, maar opslag moet flexibeler zijn dan intern geheugen, de hoeveelheid SSD's in een computer varieert van eentje tot tientallen. Ik kan me voorstellen dat de toekomst is dat er een aantal CAMM2-achtige SSD's dichtbij de processor en het geheugen komen, maar we voor SSD's die verder af zitten de grenzen van de natuurkunde de snelheid zullen beperken. Ik denk dat het minder vanzelfsprekend zal zijn dat je 2.5" SSD net zo snel zal zijn als degene die op het moederbord zit.

Verder denk ik dat we steeds meer actieve componenten zullen krijgen: Retimers, repeaters e.d. om de signaalintegriteit op peil te houden.
Nee, ik verwacht het niet.

Het belangrijkste voordeel van CAMM2 is dat je van een point-to-multipoint naar een point-to-pointverbinding gaat. De "afslag" voor je tweede DIMM-slot zorgde voor enorm veel storing, en met CAMM2 is die hele afslag verdwenen. Dat maakt een hogere snelheid mogelijk. Daarnaast zijn CAMM2-modules fysiek kleiner, waardoor je veel minder moeite hoeft te doen om de lengte van de signalen naar het linker-einde, midden, en rechter-einde precies gelijk te houden. Geheugen is ontworpen als een supersnelle korte-afstandsverbinding waar 64 parallele signalen precies tegelijkertijd én supersnel aan moeten komen, en dat zorgt voor een hoop problemen.

PCI Express zit aan het andere uiteinde, omdat het een bus is waar latency eigenlijk irrelevant is. Zie het als een vrachtwagen ipv een F1-auto. Het is momenteel al een point-to-pointverbinding, en het is ontworpen voor relatief lange signalen door bijvoorbeeld differential signalling te gebruiken. En als je een 4-lane SSD hebt, dan is het compleet acceptabel als de signalen van lane 1 significant vroeger aankomen dan de signalen van lane 2 - de hardware houd daar al rekening mee!

Specifiek voor SSDs zijn er wel wat verbetermogelijkheden, want de standaard M.2 Key M heeft nou niet echt een ideale pinout. Maar dat zou ook op te lossen zijn door een nieuwe "Key X"-variant uit te brengen: weliswaar een compatibility break, maar alsnog een stuk goedkoper en eenvoudiger dan een compleet nieuw principe als CAMM2.
Tsja, zodra je op PCI-E Gen5 snelheden komt maken alle kleine details uit. Als het ontwerp niet perfect is, dan krijg je signaalreflecties en storingen. Dat is nou eenmaal hoe de natuurwetten werken. Geen probleem als je connectoren gebruikt die daarvoor ontworpen zijn (zoals een M.2 slot), maar wel een probleem als je ineens 3938MBps probeert te pompen over in essentie een uit de hand gelopen SATA-connector uit 2000 die is ontworpen voor 150 MBps. Het is alsof je 10GB Ethernet over een telefoonkabel wil gooien: wellicht lukt het voor een meter of twee, maar daarna loop je toch echt tegen de beperkingen van de kabel aan.

Signalen als PCI Express zijn helemaal niet ontworpen om door allemaal random connectors, kabels, en verloopjes te gaan. In de praktijk zorgde het tot nu toe zelden voor problemen omdat PCI Express heel veel kan weerstaan, maar dat was nooit de bedoeling. Het maakte misbruik van de enorme veiligheidsmarge die in het ontwerp zat, maar met iedere snelheidsverhoging zijn deze marges kleiner geworden. Zolang je producten gebruikt die daadwerkelijk zijn ontworpen en gecertificeerd voor deze snelheden is er niks aan de hand.

En ja, het logische gevolg is dan inderdaad dat je niet meer een PCIE-naar-M.2 adapter voor €5 van AliExpress kan halen - je hebt er eentje nodig waar daadwerkelijk engineering-tijd in is gaan zitten.
Jammer dat SSD's tegenwoordig allemaal gigantische koelers nodig lijken te hebben. Is dat omdat het om prototypes gaat die op een beurs worden getoond en nog niet helemaal af zijn? Ik heb alleszins geen ruimte in mijn kast om tussen mijn gigantische GPU, CPU en Wi-Fi kaart nog een extra koelblok te monteren.
Ja de drives worden sneller en de controllers worden heter, dan moeten ze gewoon gekoeld worden. Het is wat het is, en ik monteer die grotere koeler maar.

Latere revisies/versies zullen zuiniger zijn maar ik verwacht alsnog dat ze gewoon een koeler moeten hebben. Dat zal met PCIe 6.0 en zeker 7.0 alleen maar erger worden.

Tegen die tijd zal denk ik (hoop ik) wat meer dan 1-2 NVMe drives de norm zijn, en zit je met de koelers voor 3 of 4 misschien 5 stuks in je maag/behuizing.
Het ding is dat die snelheid niet merkbaar is. Pro en cons raken zo nogal uit balans. Voor reguliere gebruikers, gamers, kunnen prima af met een gen 4.
Voor gamers is een 'ouderwetse' sata 2,5" ssd nog steeds voldoende. Daar is geen snellere voor nodig. Het zijn veelal kleinere bestanden die ingelezen worden, daarbij zijn acces times en i/o per seconde wat doorslaggevender.
Draai maar eens 2 TB backup, dan scheelt het wel in tijd geldt ook voor een 10 Gb lan aan sluiting. Ookniet nodig voor je internet verbing om te gamen
Daar zijn incrementals voor uitgevonden... Als je dagelijks 2TB nieuwe data genereert dan val je niet meer onder de doorsnee consument/gamer.
Ook maken die na 7 incrementals een full back up
Jup, lekker in het weekeinde of buiten openingsuren... een backup hoeft echt niet perse snel klaar te zijn. Daarnaast, je SSD mag dan misschien een hele hoop snelheid voorzien in de backup, maar het backup doel zal dan ook die snelheid aan moeten kunnen....
Er zijn genoeg U.2 of U.3 opties :+
Mijn server (i3-8350k) haalt bijna 900MB/s bij de backup van een Raid5 array van HDD's naar zo'n zelfde array op een andere server. Dat komt neer op 3TB/uur.
En de data gaat door een encrypted SSH tunnel op mijn 10Gbit netwerk.

Die snelheid haal ik omdat het sequentieel is, niet random.
En dan zijn een paar HDD's in een array ook al snel.

SSD's maken het verschil bij random I/O.
Een van de snelste HDD's van jaren geleden (Raptor met 10k toeren) haalt maar 0,68MB/s bij 4K random read. Dat zijn 170 IOPS.
Een Intel X25-V van 40GB uit die tijd haalde al 55MB/s (13.750 IOPS). Gekocht in 2010 voor ~100 euro, 2,5 euro/GB.
Een snelle TLC drive van nu (Firecuda 530) haalt 100MB/s (25.000 IOPS). Vorig jaar gekocht voor 0,06 euro/GB.
Het lezen of schrijven van een blok data is niet veel sneller geworden maar de prijs/GB is wel veel gedaald.
Doordat er veel parallel kan gebeuren in een SSD zijn de sequentiele en multi-threaded snelheden wel fors opgelopen.

[Reactie gewijzigd door Dutchtraveller op 23 juli 2024 01:06]

Precies dit. Voor benchmark enthousiastelingen is het meetbaar. Merkbaar is het zeer zeker niet in dagelijks gebruik voor consumenten. Zeker gezien een van de beoogde 'killer features' voor deze extra sneller SSD's namelijk DirectStorage nogal door de mand valt.

Snap ook niet echt waarom deze techniek doorgezet wordt in de niet-server markt. Zo lang de boel niet zonder exotische koeloplossing kan draaien is het mijn inziens geen aanschaf waard. In tegendeel, zo'n heethoofdje vlakbij je CPU, RAM en GPU vind ik zelf onwenselijk.
Het past niet eens. Mijn eerste drive zit onder mijn videokaart, de 2e onder mijn 10gbit netwerkkaart. Hooguit millimeters speling. Er zal iets moeten veranderen aan het moederbord layout.
In plaats van de M2 sloten op het MB zouden ze beter gewone x4 sloten kunnen plaatsen. Neemt minder ruimte in dus plaats is er genoeg voor.
Dan plaats je je M2 op een klein kaartje en plugt het in.
Een Icydock met een forse koelplaat kost ~20 euro maar levert een veel betere koeling dan die blikjes op je SSD of MB. Is geschikt voor v4.
De meerprijs van een SSD met ingebouwde koeling t.o.v. zonder koeling is vaak veel hoger voor veel minder resultaat.
Je M2's zijn zo ook veel makkelijker te wisselen en je kunt die sloten ook voor andere toepassingen gebruiken.
Ik zag ergens in een artikel over een nieuw MB dat het met 6 M2 sloten komt en maar een x16 + een x4 slot. Er zijn vrijwel geen consumenten MB's te krijgen met zelfs maar 4 PCIe sloten (ik ken er 1).

[Reactie gewijzigd door Dutchtraveller op 23 juli 2024 01:06]

En dan zit je met een reeks sloten, terug naar de grote kasten en borden terwijl de trend juist is naar kleiner en compacter met meer mATX en mini-ITX. Puur en alleen om ssd's te kunnen plaatsen en dan heb je traces die te lang zijn en moet je retimers plaatsen.

Gebruik gewoon een beter bord, DTX heeft 2 sloten onderaan, prima, en je heb een breder bord, NVMe sloten recht naast de cpu zoveel je kan, 4-5 prima. Geen enorm lange traces, geen extra retimers, gewoon simpel.

[Reactie gewijzigd door lezzmeister op 23 juli 2024 01:06]

Een x4 slot neemt een stuk minder ruimte in dan een M2 slot.
Dan zit je toch nog steeds met veel langere banen op je PCB met de bijbehorende problemen of niet? En groter bord? Of wil je die recht naast je cpu plaatsen recht naast elkaar?
De CPU kan maar 1-2 NVMe drives aansturen, de rest hangt aan de chipset.
Als je 4-5 M2 sloten vlak bij de CPU zou plaatsen krijg je juist hele lange traces voor de meesten want de chipset zit dichter bij de PCIe sloten dan bij de CPU.

De M2 sloten zitten tussen de PCIe sloten in dus dat zal niet veel uitmaken qua retimers.
Daarom zei ik: beter bord. DTX als voorbeeld biedt meer ruimte. Verandering. Dan moet een nieuwe chip meer lanes hebben ja.

De cpu tegenwoordig heeft al 2-4 usb 2 aan boord, de io die bij AMD had 2 sata die er recent uit zijn gesloopt en naar de chipset zijn verhuist die je dan gewoon terug zet. De chipset tegenwoordig is toch al meer een usb controller, doe dat dan goed. Is nu een beetje half-half. En heel veel extra lanes hoeft niet per se, als je de ssd's met 6.0 of 7.0 gewoon 2× maakt.
Ik denk wat we in de richting gaan van dies waarbij de processoren, geheugen en sed op de die zitten en daar een koelblok op. Binnen nu en een paar jaar zal dat gemeengoed zijn voor OEM laptops en PC's
Dat vind ik juist iets wat je niet zou moeten willen. Upgraden van onderdelen zou mogelijk moeten blijven. Daarom ben ik ook verheugd op de CAMM2 geheugen modules. Dat zijn stappen waarbij je vooruitgang hebt en toch kunt upgraden/repareren
Het heeft voor producenten gewoon veel voordelen, en qua optimalisatie ook.
Nog niet zo lang geleden waren auto’s ook helemaal gebruiker reparabel, maar met de moderne is dat ook nauwelijks tot niet meer het geval. Daarvoor hebben ze ook veel minder onderhoud nodig en zijn zuiniger.
Voordelen en nadelen.
Maar als bij sommige auto's je koplamp stuk is, moet je soms je wiel of accu verwijderen of naar de garage. Hoezo is dat vooruitgang?

Zijn auto's echt zuiniger en duurzamer geworden door optimalisatie? Ik zou t niet weten.
Met als grootste voordeel dat ze jou een geheel nieuw apparaat kunnen verkopen als één aspect van je PC niet meer voldoet inderdaad. Dus in plaats van je geheugen of opslag voor een euro of 150 te kunnen upgraden als je daar over een jaar of 3 te weinig aan hebt maar je CPU nog voldoet moet je 1500 euro stuk slaan straks.

In een apparaat waarin ruimte een dingetje is zoals telefoons, tablets en tot op zekere hoogte laptops kan ik het begrijpen, maar in een PC alsjeblieft niet.
Of jij of ik daar nu blij mee moeten zijn wat repareer of upgradebaarheid is wat anders dan wat ik verwacht wat er gaat gebeuren.
Het is planned obsolesence. Hoe moeten ze de winst anders opvoeren nu onderdelen steeds langer meegaan.

En overal abonnementen op zodat je blijft betalen.
Kwestie van tijd voor je dat ook bij je telefoon en pc terug gaat zien.
Dat je een SSD koelertje die 10W moet koelen in een adem noemt met je cpu en gpu-koelers die honderden Watts verbruiken vind ik al vreemd, maar wat voor wifikaart heb jij dat ie gekoeld moet worden?

En wat voor behuizing waar geen 10CC vrije ruimte in zit?
De hallucinante snelheden van Gen 5 boeien me eerlijk gezegd niet zo voor een enekel SSD: zelf zit ik nog op een PCIe gen3 platform, met erin een gen4 SSD, en ik heb totaal niet het gevoel dat ik iets mis.

Met deze snelheden is het toch prima om een SSD op 2 lanes of zelfs 1 lane aan te sluiten? Tenslotte is 1 PCIe gen5 lane even snel als 4 PCIe gen3 lanes. Dat zou ook helpen wat meer lanes vrij te houden op consumenten CPUs, zodat je of meer SSDs kan aansluiten, of meer bandbreedte vrij hebt voor extra PCIe slots die op hogere snelheid kunnen werken.

Heck: 8 PCIe gen5 lanes zijn meer dan snel genoeg voor eender welke GPU op dit moment.
Het grootste probleem met jouw voorstel is dat één Gen 5 lane weliswaar een vergelijkbare bandbreedte oplevert als 4 Gen 3 lanes maar dat dat alleen opgaat als beide apparaten 'Gen 5' spreken.

Stel moederborden zouden inderdaad kiezen om enkele sloten als Gen 5 x1 aan te sluiten en daarmee wat lanes uit te sparen. Sluit je daar een oudere Gen 3 of Gen 4 SSD op aan dan val je dus terug op Gen 3 x1 of Gen 4 x1, ofwel ~900MB/s resp ~1.8GB/s.


@kiang Het is nog prima werkbaar inderdaad, maar wel erg lastig te verkopen dat een SSD welke in iemand zijn/haar oude PC zit 3.5 of 7GB/s doet maar in een nieuwe computer ineens 'slechts' 900MB/s of 1.8GB/s :P

[Reactie gewijzigd door !mark op 23 juli 2024 01:06]

Goed punt!

Kanttekening is wel dat je 900Mbps noemt als 'heel laag', maar sat is alsnog anderhalf keer meer dan een sata aansluiting, en het is niet alsof een pc met sata ssd tegenwoordig te traag is of zo.
De Tenslotte is 1 PCIe gen5 lane even snel als 4 PCIe gen3 lanes.
2x sneller toch? Niet 4x sneller? Dus de snelheid van 4 pcie4 lanes zou met 2 lanes kunnen op pcie5 niet met 1.
Kiang heeft het over 3 tov 5, niet 4.
Voor hen 4 klopt dat ja! Maar ik had het over gen3, omdat ikzelf nog op die snelheid zit, en dat lijkt me echt wel voldoende voor de meeste scenarios (3.5 GBps)
Meestal komt er een "south bridge" achtige component bij.

Dus de CPU heeft dan een berg gen5 lanes, en dan komt er een PCIe switch op het moederbord die van een handvol gen5 lanes een hele berg gen2 .. gen5 lanes maakt. PLus nog wat andere zooi vaak (USB oid)
Anoniem: 454358 9 juni 2024 09:24
Ik wil niet nog een (kleine) fan, of groot koelblok, dan maar wat langzamer. Persoonlijk heb ik sinds de sata ssd nooit echt het idee gehad dat het echt sneller moest.
Met Gen4 kun je de komende 10 jaar vooruit, waarschijnlijk wel langer ook.

Zo lang Gen5 active koeling nodig heeft blijf ik bij Gen4.
De verwachte markt is maar klein, deels omdat de drives een aanzienlijke meerprijs ten opzichte van snelle Gen4-drives hebben, en deels omdat ze denken dat opslag niet per sé de bottleneck bij consumenten is.
Klopt als een zwerende vinger. In dagelijks gebruik of gaming ga je absoluut 0 verschil merken.

Zelfs tussen SATA SSD's en NMVe zit slechts een marginaal verschil in bijvoorbeeld laadtijden van games.

En bij kopiëren van bestanden wordt je CPU de bottleneck.
Evenredig wordt software steeds groter en complexer. Het laden van MSFS plus GSX en FStraffic op een M.2 980 pro SSD duurt inmiddels net zo lang als FSX destijds op een HD.
Ik wordt moe van incrementele verbeteringen. Net als videokaarten, 10% sneller, 20% sneller, bah.
Waarom niet in 1x 200% sneller. I.p.v. die kleine babystapjes.

Er was mij ooit beloofd instant boot: Eén druk op de knop en de pc is volledig opgestart.
Zo ook met games
Control 47 seconden
Rise of the Tomb Raider 23 seconden
Dishonored 35 seconden
Met mijn Gen4 drive. Niet echt instant. Gaat Gen5 dit reduceren tot 0?? Neen.

En belofte maakt schuld!! Ik wacht dus wel op de echte doorbraak.
Dat lange laden heeft voornamelijk met shader compiling te maken.
Elk OS, elke game, elk 'ding' brengt meteen weer extra processen, features, tools, software mee, dat elke seconde sneller ook weer door die zaken terug wordt gezet. Kan je dat finetunen? Zeker. Elimineren? Absoluut niet. Zeker games met hun verplichte 'powered by' intro's (nee, de mythe dat de game dan laad is al jaren achterhaald), uiteindelijk is de optimalisatie ook niet aan de kant van opstarten maar in het draaien zelf. Normale situatie start jij je PC 1x op, een game voor jouw speelsessie maar 1x, dan is de focus meer aan de kant 'wanneer het draait' zaken sneller kunnen laden.

Uiteindelijk kom je op het 1/1+x principe, jouw eerste '100%' halveert, maar jouw tweede nog maar 1/3de, vierde nog maar een kwart, je kan een systeem maken dat 100x sneller is, het haalt nooit 'instant'. De grote stappen zijn gemaakt met IDE naar SATA, disk naar chips, SATA naar PCI-e, tot er weer 'iets' gevonden wordt voor de chips of de interface, zal je enkel babystapjes blijven zien.
Een beetje pc met goede hardware is tegenwoordig ook echt al wel in enkele seconden opgestart in Windows. Zomaar even een revolutionaire doorbraak zal heus niet elke keer komen, ook groeit de software ook weer mee met de specificaties. Vroegere games hoefden amper te laden vanaf een HDD, nu met een game soms zelfs lang laden vanaf een SSD. Windows 95 zou vermoedelijk bijna insta-boot zijn als je dat normaal zou kunnen draaien op een moderne pc.
Ze willen wel dat je meerdere keren iets nieuws koopt he.
Je zegt videokaarten 10 a 20% sneller, maar juist videokaarten worden bij een volgende generatie 2x zo snel.
Hoe kom je daarbij? De winst in fps is de afgelopen tenminste 10 jaar tussen twee opeenvolgende generaties behoorlijk triest geweest.
Hoe kom ik daarbij? Omdat het in alle reviews in de benchmarks overduidelijk is.

Waar jij waarschijnlijk de mist in gaat, is dat een 2x zo snelle videokaart niet automatisch betekent dat je ook 2x zo hoge fps haalt in een spel.
Meestal omdat je dan tegen een andere bottleneck aan loopt waardoor die videokaart niet volledig benut kan worden. Bv als de bottleneck de cpu is.

Vandaar dat reviewers vaak heel krachtige systemen gebruiken en de resolutie opschroeven zodat andere bottlenecks kleiner zijn en je het beste het verschil in de videokaart zelf kunt zien.

Vandaar dat je dan verschillen ziet van 10% waar iets anders de bottleneck is, tot 200% waar de videokaart de beperkende factor is.
Ik heb het over dezelfde spellen op dezelfde resolutie tussen 2 generaties videokaarten. Dan zie je steeds weer een vrij trieste prestatiewinst.

Voorbeeldje (random kaart kaart selectie op toms hardware):
Radeon RX 6900 XT $779 80.9% (124.6fps) 89.6% (175.3fps) 69.9% (102.1fps) 53.5% (61.2fps) Navi 21, 5120 shaders, 2250MHz, 16GB GDDR6@16Gbps, 512GB/s, 300W

Radeon RX 7900 XT $699 93.4% (143.9fps) 95.8% (187.6fps) 86.1% (125.9fps) 71.0% (81.2fps) Navi 31, 5376 shaders, 2400MHz, 20GB GDDR6@20Gbps, 800GB/s, 315W
Ja, je bevestigt precies wat ik al eerder zei. Je zit te kijken naar spellen waarin de videokaart niet de beperkende factor is. En dan kan de videokaart 100x zo snel zijn, maar dan zie je nog steeds dezelfde magere winst.

Je hebt dit van de volgende pagina:
https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html

De eerste kolom is bij 1080p resolutie. Dan ben je bij de meeste spellen voornamelijk cpu gelimiteerd.
Daarbij kun je de prestatie verschillen van videokaarten niet zien. En het is bovendien een gemilddelde over een aantal benchmarks. Dus de uitschieters waarbij een videokaart echt kan laten zien hoeveel sneller ie is, worden omlaag getrokken door de spellen dus zelfs op hoge resolutie een andere bottleneck hebben dan de gpu. Dus een verdubbeling zul je in die cijfers daardoor sowieso niet kunnen zien. Dan moet je de losse benchmarks per spel bekijken.

Als je dan naar de 4K resolutie kolom kijkt dan zie je 61 fps vs 81 fps.
Dus gemiddelde 33% beter in de spellen op 4K. Dat is wel even wat anders dan de 10 tot max 20% die jij claimed.
Maar als je bv hier kijkt:
https://www.techspot.com/...deon-7900-vs-radeon-6800/
dan zie je een gemiddelde van 35% voor de 7900xt vs 6800xt opgebouwd uit scores van 1% verbetering tot 64% verbetering.
Het hangt er gigantisch vanaf op die kaart al zijn kracht in een spel kan laten zien.

Heb je een 1080p beeldscherm dan ga je inderdaad niet veel van de extra kracht van een nieuwe generatie gpus merken
Je claimt hier wel weer rare dingen hoor. Ik zou zitten te kijken naar spellen waar de videokaart niet de beperkende factor is? Ik heb geen specifiek spel genoemd dus... Je mag gewoon elk spel dat je maar wilt op elke resolutie die je maar wilt invullen.

Maar jou argument is dus dat omdat er uitzonderingen zouden zijn, zijn videokaarten eigenlijk veel krachtiger dan waar het gemiddeld onder de streep op uitkomt? Daar hebben we natuurlijk niks aan in de praktijk.

Ik heb geen 10-20% geclaimd hoor. Dat was LordLuc en dat was ook maar een ongeveer getal. Of het nu 10, 20 of 30% is, is zo gek veel niet en ver van die 200% waar hij het over had.

Dus stel je hebt een gaming scherm die tenminste 120Hz aan kan, je videokaart produceert echter 60fps, je scherm (met FreeSync / G-Sync) zal dus niet volledig tot z'n recht komen. Zelfde spel, zelfde scherm, zelfde resolutie, zelfde settings, zelfde pc. Hoeveel generaties videokaarten passeren voordat je dit wel voor elkaar krijgt?
Wat blijkbaar voor jullie nog steeds niet duidelijk is, is dat er een verschil zit tussen hoeveel de videokaart sneller is geworden en hoeveel extra fps je krijgt.

Als één van de spellen in de benchmarks 60% meer fps toont, dan is de videokaart dus minstends 60% sneller geworden.
Als een ander spel 1% toont, dan is dat niet omdat de videokaart maar 1% sneller is geworden. Die is namelijk minstends 60% sneller geworden, maar in de spel kan ie daarmee maar 1% meer fps geven, omdat iets anders de bottleneck is.
Hoeveel generaties videokaarten passeren voordat je dit wel voor elkaar krijgt?
Als je spel cpu gelimiteerd is dan kunnen dat oneindig veel videokaart generaties zijn.
Maar dat komt dan dus niet omdat de videokaarten niet sneller zijn geworden. En dat is waar deze hele discussie over gaat.
Nope.

Heb je over de eerste alinea heen gelezen oid? Laat ik het anders stellen ipv dat we hier uit gaan van een high end videokaart die wellicht tegen de limitaties van het systeem op andere vlakken aan zit, pakken we er een low end kaart bij waarvoor dat natuurlijk niet het geval is en er bovenop de max prestaties nog genoeg ruimte over is. Ook hier zie je dat tussen opeenvolgende generaties de winst in fps maar mondjesmaat is. Een trend die over de gehele linie plaatsvindt.

Je kunt allerhande excuses maken maar het komt toch echt uiteindelijk gewoon erop neer dat fabrikanten er voor kiezen om steeds maar een beetje prestatiewinst toe te voegen aan nieuwe generaties ook al is er technisch veel meer mogelijk. Vroeger was dat anders maar tegenwoordig is het allemaal zo nep/kunstmatig/commercieel met het moedwillig uitschakelen van chip delen ed en dan net doen alsof er een hele reeks verschillende kaarten wordt uitgebracht maar ondertussen gewoon een en dezelfde is maar dan in meer of mindere maten moedwillig "verminkt".
(iets waar ik me persoonlijk al jaren aan erger en ook een groot deel van de lol die me oorspronkelijk in het pc bouw wereldje getrokken heeft verpest heeft, dat zie je over de gehele linie features die vroeger standaard waren zijn nu alleen terug te vinden op premium producten bv)

Dat er 1 spel is dat 60% beter presteert wil niet automatisch zeggen dat de kaart dan ook 60% sneller is, dit kan enkel spel/engine specifieke optimalisaties betreffen, met andere woorden als je die optimalisaties op de oude generatie kaart zou toepassen zou die met dezelfde rekenkracht ook een stuk betere prestaties kunnen laten zien bij dat spel/engine. Hoe dan ook nogmaals ligt het dan nog steeds ver weg van die 200% die genoemd werd.
*diepe zucht*
3090 vs 4090
10.496 CUDA cores vs 16.384
328 Tensor cores vs 512 tensor cores.

Ra ra ra, waar zou die 60% verbetering vandaan komen. Zal wel niet aan 60% extra cores liggen, dat zal wel komen omdat iemand een spel/engine specifieke optimalisatie heeft gedaan.
Kom op zeg, we zitten hier toch op tweakers????

RX 6950XT vs RX 7900 XTX
26,8 Miljard transistors vs 57,7 Miljard transistors
23,65 Tflops FP32 vs 61,6 Tflopts FP32

Maar al die veel krachtiger hardware word er allemaal voor de gein in gestopt. Dat doet niks volgens jou.
Toch wel erg dom van Nvidia en AMD dat ze die kaarten zoveel extra hardware kracht geven, terwijl die 60% volgens jullie niet door die krachtiger hardware behaald word, maar door een spel/engine specifieke optimalisatie.
Al die extra kosten voor die hardware voor niks...
|:( |:( |:(
Over dingen heen lezen... alweer.
Hoe dan ook nogmaals ligt het dan nog steeds ver weg van die 200% die genoemd werd.
Hier ga dit maar eens goed lezen (het is echt niet zo rooskleurig als jij het doet voorkomen):
https://www.reddit.com/r/..._of_nvidia_gpus_relative/

En ook:
Van de GK110B 2880 naar »
GM200 3072, +6.6%
GP102 3840, +25%
TU102 4608, +20%
GA 102 10752, +16.6%
AD102 18432 (of 9 216), +71%

Nog een lijstje:
960 to 1060 70% uplift
1060 to 2060 50% uplift
2060 to 3060 15% uplift
3060 to 4060 20% uplift
En natuurlijk verander je het onderwerp wanneer je niet meer kunt ontkennen dat ik gelijk heb en jij ongelijk.

We begonnen over top-end kaarten waar de verbeteringen in hardware goed naar boven komen.
Nu ga je ineens over naar de low-end waar de architectuur amper nog een rol speelt, maar waar de cripplehammer en kosten de toon voeren.
En zoals andere in die thread al hebben aangegevan zijn de kosten van wafers drastisch toegenomen en ook simpele gpus vergen nu dure onderdelen.
Daardoor zijn de goedkope low-end videokaarten minder aantrekkelijk geworden.
Want ipv een goedkope gpu op een goedkope pcb, heb je nu een goedkope gpu op een relatief dure pcb.
Je moet je eigen advies ter harte nemen en goed lezen! En dan niet de reacties negeren die laten zien dat de analyse van de op niet klopt.
Oh mijn god! Projecting much?
We hebben het al de hele tijd over videokaarten in het algemeen. Ik zeg dat de verbeteringen van generatie op generatie maar gering zijn toon dat ook aan maar nee meneer moet zich perse steeds door allerhande bochten wringen om te proberen er een ander verhaal van te maken.
Ik denk dat de hedendaagse slaapstand aardig in de buurt komt van die instant boot ;)
Ik bouw regelmatig systemen die in pakweg 5 seconden booten naar een grafische omgeving. Dat zijn doorgaans ARM processoren met embedded Linux. Die hoeven geen gigantische BIOS door met ACPI enzo, da's waar je PC doorgaans de eerste 10 a 20 seconden mee zoet is.

De wetmatigheid lijkt te zijn dat "iets" opstarten ongeveer 1 minuut moet duren. Dat het reageren op een "klik" altijd ruim een seconde moet duren. Waarschijnlijk omdat het dan pas "pijn" doet en de ontwikkelaar moeite gaat doen om 't sneller te krijgen.
> deels omdat ze denken dat opslag niet per sé de bottleneck bij consumenten is

Ok wat is de bottleneck wel dan? Het zou een interessant artikel zijn als Tweakers eens wat slome programma’s onder de loep nam.
Ik denk niet dat je één onderdeel aan kunt wijzen als bottleneck. Dat wisselt enorm tussen programma's. Een game kan tegen cpu-, gpu- of enginelimieten aanlopen. Idem voor andere programma's. Soms moet iets gewoon efficiënter geprogrammeerd worden en heeft snellere hardware er tegenaan gooien weinig nut.
Maar de opslag zal in vrijwel alle gevallen níet de bottleneck zijn.

Op dit item kan niet meer gereageerd worden.