Weinig hardware spreekt voor tweakers zo tot de verbeelding als videokaarten, en na ruim twee jaar sinds de komst van de RTX 40-serie is het nu eindelijk weer tijd voor een nieuwe generatie GeForce-gpu's. Nvidia's Blackwell-architectuur gaat hiermee zijn weg vinden naar pc-gamers, waarbij de focus nog meer komt te liggen op AI-features en het benutten van de toegenomen rekenkracht op dit gebied. Het genereren van meerdere frames op basis van informatie uit gerenderde frames die met slimme upscaling worden verbeterd, is een van de belangrijke nieuwe features. Ook is Nvidia van plan met RTX Neural Rendering de grafische pipeline grondig te herzien door vergaand gebruik van AI.
De GB202-gpu: Blackwell voor gamers
Het topmodel van de nieuwe generatie is de GeForce RTX 5090. Deze videokaart maakt als enige gebruik van de high-end GB202-gpu, die 21.760 ingeschakelde CUDA-cores telt, bijna een derde meer dan de RTX 4090. Voor het eerst sinds de GeForce GTX 285 uit 2008 past Nvidia een 512bit-geheugenbus toe, die de gpu verbindt met maar liefst 32GB GDDR7-geheugen met een snelheid van 28Gbit/s. Dat komt neer op een totale geheugenbandbreedte van 1,8TB/s, bijna 80 procent meer dan bij de RTX 4090 en ruim 90 procent meer dan bij de RTX 3090. Ook de total graphics power (tgp) van de RTX 5090 valt in vergelijking met zijn voorgangers hoger uit. Dat is nu 575W, net onder de limiet van 600W voor de 12Vhpwr-stroomconnector.
De RTX 3090 en 4090 gebruikten al behoorlijk grote chips, maar de gpu van de RTX 5090 doet er nog een flinke schep bovenop. De GB202 is namelijk 744mm² in oppervlak, wat maar liefst 23 procent meer is dan de AD102-gpu van de RTX 4090. Het aantal transistors is met een toename van 20,8 procent iets minder hard gestegen, maar ligt net als bij de 4090 nog altijd ver boven het aantal op de RTX 3090.
Vanaf volgende week is de RTX 5090 te koop. Nvidia's Founders Edition krijgt een adviesprijs van 2369 euro en zal primair via de webshop van de fabrikant zelf aangeboden worden. Adviesprijzen van de RTX 5090's vanboardpartners zijn vooralsnog onbekend, maar zullen naar alle waarschijnlijkheid hoger liggen dan wat Nvidia voor zijn eigen kaart vraagt.
RTX 5090 vs. 4090 vs. 3090
RTX 5090
RTX 4090
RTX 3090
Architectuur
Blackwell
Ada
Ampere
Procedé
TSMC 4N
TSMC 4N
Samsung 8nm
Gpu
GB202
AD102
GA102
Diesize
750mm²
608,5mm²
628,4mm²
Aantal transistors
92,2 miljard
76,3 miljard
28 miljard
Cores
21.760
16.384
10.496
Boostclock
2,41GHz
2,52GHz
1,69GHz
Geheugen
32GB GDDR7
24GB GDDR6X
24GB GDDR6X
Geheugenbus
512bit
384bit
384bit
Snelheid geheugen
28Gbit/s
21Gbit/s
19,5Gbit/s
Bandbreedte geheugen
1792GB/s
1008GB/s
936GB/s
Tgp
575W
450W
350W
Interface
PCIe 5.0 x16
PCIe 4.0 x16
PCIe 4.0 x16
Releasedatum
30-1-2025
12-10-2022
01-09-2020
Adviesprijs
2369 euro
1959 euro
1549 euro
De GB202-gpu: groter en meer cores
De RTX 5090 maakt gebruik van een nieuwe GB202-chip, die aan het hart van de videokaart staat. De gpu is gebaseerd op de nieuwe Blackwell-architectuur en beschikt over 92,2 miljard transistors, een toename van een kleine 21 procent ten opzichte van de voorgaande RTX 4090. Die toename is overigens afkomstig van een toename in de diesize; de GB202 heeft een chipoppervlak van 750mm², waar de AD102 uit de RTX 4090 nog een toch al vrij groot oppervlak van 608,5mm² besloeg.
Nvidia maakt opnieuw gebruik van 4nm
Daaruit valt op te maken dat Nvidia opnieuw gebruikmaakt van TSMC’s 4nm-procedé, zoals de chipmaker zelf ook bevestigt, hoewel daarover wel onduidelijkheid bestaat. Nvidia sprak eerder over het gebruik van een verbeterd N4P-procedé ten opzichte van de RTX 40-generatie. Tegelijkertijd noemt een document voor de media dat de nieuwe gpu is gebaseerd op dezelfde TSMC 4N-node als de vorige generatie.
Dit alles zal waarschijnlijk betekenen dat de GB202-gpu meer stroom zal gebruiken en bovendien lastiger zal zijn om te produceren; grotere chips betekenen, zeker op hetzelfde procedé, dat de yields lager zullen zijn. Daarmee zullen, in ieder geval op dit moment, minder geslaagde exemplaren van TSMC’s lopende band rollen.
Meer CUDA-cores en nieuwe SM-indeling
In de gpu-architectuur zelf heeft Nvidia enkele wijzigingen doorgebracht aan de streamingmultiprocessors. Deze SM’s zijn een kerncomponent van Nvidia’s gpu-architectuur, waarin bijvoorbeeld de CUDA- en Tensor-cores zijn ondergebracht. De volledige GB202-gpu heeft 192 van die SM's, hoewel in de RTX 5090 daarvan 'slechts' 170 bruikbaar zijn. Daarmee krijgt de videokaart 21.760 CUDA-cores, 680 Tensor-cores en 170 raytracingkernen.
De opbouw van de volledige Nvidia GB202-gpu
Ook aan die kernen zelf zijn de nodige wijzigingen doorgevoerd. Voortaan ondersteunen alle CUDA-cores bijvoorbeeld zowel fp32- als int32-instructies. Bij de voorgaande generatie kon de helft van de CUDA-cores binnen een SM die twee berekeningen allebei uitvoeren, terwijl de andere helft alleen fp32 ondersteunde. In de praktijk betekent dit dat het aantal int32-units wordt verdubbeld. Dat moet vooral voordelig zijn wanneer een workload ‘address-limited’ is.
Tegelijkertijd kunnen de cores, net als bij de voorgaande generaties, niet tegelijkertijd fp32- en int32-berekeningen uitvoeren binnen dezelfde kloktik. Eén int32-instructie zorgt ervoor dat alle 32 CUDA-cores binnen een cluster alleen maar int32-rekenwerk kunnen uitvoeren gedurende de kloktik.
Verder heeft Nvidia ook de hoeveelheid L1- en L2-cache opgehoogd ten opzichte van de RTX 4090. De nieuwe 5090 beschikt over 21.760kB aan L1-cache en een totaal aan 98.305kB aan L2-cache, in beide gevallen om een toename van ongeveer 33 procent. Dat is een minder grote stap dan die tussen de RTX 30- naar de RTX 40-serie, toen de hoeveelheid L2-cache bijvoorbeeld met ruim 10 keer werd opgehoogd, maar desalniettemin een flinke toevoeging die de prestaties moeten opkrikken.
GDDR7-vram: hogere bandbreedtes en efficiënter
Verder stapt Nvidia met de RTX 50-serie over op nieuw GDDR7-geheugen, waar de voorgaande generatie over GDDR6X-vram beschikte. Deze nieuwere geheugenstandaard leveren hogere bandbreedtes op, terwijl ook de efficiëntie moet toenemen ten opzichte van de voorgaande vram-generaties.
GDDR7 is de recentste vram-standaard van Jedec en is gericht op betere prestaties bij relatief gezien minder stroomgebruik. Het nieuwe vram-type gebruikt zogeheten pam3-codering voor de dataoverdracht, waarbij drie verschillende spanningsniveaus worden gebruikt voor de transmissie van het signaal. Volgens Nvidia levert dat een onder andere betere signaal-ruisverhouding en een hogere kanaaldichtheid op. Het geheugen in de RTX 5090 haalt 28Gbit/s per pin, wat in combinatie met de uitzonderlijk grote 512bit-geheugenbus neerkomt op een bandbreedte van 1792GB/s. Daarmee ligt de bandbreedte fors hoger dan bij de voorgaande RTX 4090, die 1002GB/s haalde.
Nieuwe displayfeatures: betere Nvenc-encoding en DisplayPort 2.1b
Ook nieuw in de Blackwell-gpu’s is betere encoding en decoding van videobeelden. Deze zesde generatie Nvenc is volgens de gpu-maker twee keer sneller bij het decoderen van H.264-beelden, waarmee dat even snel moet gebeuren als bij H.265- en AV1-footage. Nvidia introduceert ook een Ultra High Quality-modus voor AV1, die een betere beeldkwaliteit oplevert tegenover langere encodeertijden.
Bovendien ondersteunt de nieuwe Nvenc-encoder nu ook het encoderen en decoderen van H.264- en H.265-beelden met 4:2:2-chromasubsampling. Dat betreft een soort tussenstap tussen 4:2:0 en 4:4:4 qua kleurcompressie en bestandsgrootte. Nvidia zegt met 'alle grote' ontwikkelaars van videobewerkingssoftware te werken aan integratie daarvan, zoals Premiere Pro, DaVinci Resolve en CapCut.
Ook het aantal Nvenc-eenheden binnen een gpu wordt opgehoogd. De RTX 5090 krijgt er drie, waar het RTX 40-topmodel er twee had. Het aantal Nvenc-encoders neemt echter ook deze generatie af bij de lager gepositioneerde RTX 50-kaarten; de RTX 5080 heeft bijvoorbeeld twee Nvenc-encoders.
Verder krijgt de RTX 50-serie ondersteuning voor DisplayPort 2.1b. Dat levert een hogere bandbreedte op van maximaal 80Gbit/s bij gebruik van de UHBR 20-transmissiemodus in combinatie met een compatibele DP80LL-kabel. In de praktijk betekent dit dat de RTX 50-serie hogere resoluties en framerates ondersteunt. Zo ondersteunt deze gpu-generatie 4k-schermen op 240Hz, zonder dat daarvoor displaystreamcompressie nodig is. Voorheen was dsc wel nodig voor die combinatie van resolutie en refreshrate.
Ondersteuning voor 4:2:2-chromasubsampling in de RTX 50-serie.
Nieuwe Tensor- en RT-cores, en een RISC-V-cpu in je videokaart
Hoewel de veranderingen aan de shaderunits die voor ‘normale’ rendering worden gebruikt dus beperkt zijn, introduceert Nvidia op de RTX 50-serie wel volledig nieuwe generaties van zijn Tensor- en raytracingcores. Die worden gebruikt om dergelijke taken over te nemen van de shaders, zodat ze efficiënter en sneller kunnen worden uitgevoerd en de shaders zelf meer tijd overhouden voor hun reguliere taken.
Vijfde generatie Tensor-cores en vierde generatie RT-cores
De Tensor-cores zijn puur toegespitst op het uitvoeren van AI-rekenwerk, waaronder DLSS. De nieuwe Tensor-cores van de vijfde generatie bieden meer rekenkracht, van in totaal maximaal 4000Tops. Dat wordt deels bereikt door ondersteuning van nieuwe dataformaten, namelijk fp4 en fp6.
Dergelijke fp4-modellen zorgen onder andere voor sneller rekenwerk en lagere geheugenvereisten ten opzichte van andere formats, zoals fp16. Er wordt bij fp4 simpelweg de helft van het aantal bits gebruikt voor elk stukje data dan bij fp8, waardoor de verwerkingssnelheid wordt verdubbeld. Een AI-model kan hiervoor geschikt worden gemaakt door middel van quantization, een soort compressie. Desondanks claimt Nvidia dat er ‘vrijwel geen kwaliteitsverlies’ optreedt.
Ook de raytracingcores zijn van een nieuwe generatie, de vierde alweer, die volgens Nvidia dubbel zoveel throughput bieden als de voorgaande generatie bij ray-triangle intersection. Dit is het proces waarbij berekend wordt of een lichtstraal een object in de scène raakt. Een geheel nieuw onderdeel van de RT-core is de Triangle Cluster Intersection Engine, die wordt gebruikt om de raytracing verder te versnellen bij Mega Geometry. Daarover lees je meer op de pagina over RTX Neural Rendering.
Twee keer zo efficiënte Shader Execution Reordering
De Blackwell-architectuur introduceert ook een nieuwe versie van de Shader Execution Reordering. Die techniek zorgt ervoor dat applicaties efficiënter het aantal threads op een gpu kunnen herorganiseren. Dat is met name relevant voor raytracingtaken, omdat dit soort berekeningen de neiging heeft om inefficiënt te worden na de eerste bounce; ze moeten bijvoorbeeld per se in een bepaalde volgorde worden uitgevoerd. SER zorgt er door het opnieuw rangschikken van de berekeningen voor dat een groter deel van de gpu wordt benut, wat resulteert in betere prestaties.
SER is geen nieuwe feature; het zat ook al in de RTX 40-serie. Wel is de techniek in Blackwell verbeterd in de vorm van een 2.0-versie. Die is volgens Nvidia ‘twee keer zo efficiënt’ en heeft daarnaast minder overhead en een hogere precisie.
Dat laatste stelt ontwikkelaars in staat om hun applicaties beter te optimaliseren voor SER, wat dan weer zorgt voor betere prestaties in bijvoorbeeld games. SER kan met een api worden aangestuurd door ontwikkelaars, en volgens Nvidia kunnen developers gebruikmaken van de verbeterde SER 2.0-versie zonder dat er aan de code gesleuteld hoeft te worden.
AI Management Processor: een RISC-V-cpu in je videokaart
De Nvidia RTX 50-gpu’s zijn bovendien voorzien van een geheel nieuwe AI Management Processor, een programmeerbare hardwarescheduler die moet helpen om diverse AI-modellen gelijktijdig uit te voeren met de reguliere, grafische taken. Nvidia verwacht dat games en andere programma’s in de toekomst steeds meer verschillende AI-modellen zullen draaien, bijvoorbeeld voor spraak, tekstinterpretatie, animatie en gedrag van npc’s. Die moeten met de juiste prioriteiten worden uitgevoerd.
Deze AI Management Processor is een volledige RISC-V-processor die in de frontend van de gpu-pipeline is geplaatst. Hij wijst zogenaamde gpu-contexts, die alle informatie bevatten die de gpu nodig heeft om een of meerdere taken te volbrengen, toe aan verschillende onderdelen van de gpu. Deze contexts worden zo veel sneller gescheduled dan de cpu, die hier tot nu toe voor werd gebruikt, dat kan. Nvidia’s AI Management Processor voldoet aan Microsofts definitie van een Hardware-Accelerated GPU Scheduler, waarvoor sinds 2020 ondersteuning is ingebakken in Windows.
In de praktijk zal de AI Management Processor bij llm’s de scheduling zo prioriteren dat de time to first response wordt verkort, terwijl bij gameworkloads wordt geprobeerd om stuttering te voorkomen. Dat laatste moet sowieso makkelijker worden omdat er dus werk wordt weggenomen bij de cpu.
DLSS 4: beter op elke RTX-kaart
Het paradepaardje van de RTX 50-serie is bij introductie DLSS 4 met Multi Frame Generation. Daarover later meer, maar er zijn ook DLSS 4-features die op álle RTX-videokaarten zijn te gebruiken. De onderdelen DLSS Ray Reconstruction, Super Resolution en Deep Learning Anti-Aliasing bestonden al, maar worden dankzij het nieuwe DLSS-transformermodel verbeterd. Het nieuwe model is volgens Nvidia veertig procent sneller. Tot nu toe maakte DLSS gebruik van het zogenaamde convolutional neural network (cnn), wat nu wordt opgevolgd.
Bij een transformer worden gegevens omgezet in zogenaamde tokens en opgeslagen in een vector, een getallenmatrix met één kolom. Deze techniek staat ook aan de basis van llm's. Door het gebruik van visiontransformers kan er veel meer data en rekenkracht worden gebruikt voor het toepassen van bijvoorbeeld upscaling en Ray Reconstruction. Nvidia noemt een verdubbeling van het aantal parameters en zelfs een verviervoudiging van de effectieve rekenkracht.
Het nieuwe transformermodel kan voor Ray Reconstruction zorgen voor een verbeterde beeldkwaliteit, vooral bij beelden met complexere lichteffecten. Voor Super Resolution brengt Nvidia het nieuwe model eerst nog als bèta uit voordat deze officieel wordt uitgebracht. De fabrikant stelt dat het transformermodel het mogelijk maakt om continu verbeteringen door te voeren, wat bij cnn niet op hetzelfde niveau mogelijk was. Omdat het nieuwe model efficiënter werkt, zou het naast een hogere beeldkwaliteit tegelijkertijd ook voor snellere upscaling moeten zorgen, wat de prestaties in gemiddelde framerates ten goede komt.
Nog meer frames genereren
Waar de RTX 40-serie als belangrijke feature Frame Generation heeft, zet Nvidia met de RTX 50-serie dit concept in een hogere versnelling. Nu kan er per gerenderd frame niet één maar maximaal drie frames gegenereerd worden. Dit is mogelijk door enkele aanpassingen in zowel de hardware als het gebruikte AI-model. De hardwarematige berekening van het 'optical flow field', waarin de richting en snelheid van bewegende pixels zijn verwerkt, is bovendien vervangen door een AI-model dat volgens Nvidia veel efficiënter werkt.
Alle gebruikte algoritmes voor opschalen, Ray Reconstruction en Frame Generation worden op de RTX 50-serie uitgevoerd op de volgens Nvidia tweeënhalf keer zo snel geworden Tensor-cores. Het geheel werkt nu zoveel sneller dat het daarom meerdere keren per frame kan worden uitgevoerd, wat Multi Frame Generation mogelijk maakt.
RTX Neural Rendering: AI voor de hele pipeline
Waar bij DLSS AI-modellen worden ingezet als alternatief voor 'echte' rendering van frames, gaat het bij alle nieuwe hardwarematige mogelijkheden van de shaders op Blackwell-gpu's juist om het verbeteren van normale rendering met AI. Met neuralrendering zouden detailniveaus mogelijk worden die normaal gesproken niet haalbaar zijn, aldus Nvidia.
Omdat op Blackwell-gpu's de shaders direct toegang hebben tot de Tensor-cores, kunnen AI-modellen veelzijdiger worden ingezet. Voor nu zijn er drie mogelijke gebruiksdoelen. Het eerste is compressie van textures, waarmee tot zeven keer zoveel vram vrij zou kunnen worden gemaakt dan met traditionele, per 'block' gecomprimeerde textures. De tweede mogelijkheid is het comprimeren van complexe shadercode voor het renderen van materialen, zoals porselein en zijde. Hiermee zou rendering van 'filmkwaliteit' in real time mogelijk moeten worden. De derde en laatste optie is het oneindig laten heen en weer gaan van lichtstralen na het uitvoeren van pathtracing, wat zowel de kwaliteit van de belichting als de snelheid waarmee die berekend kan worden ten goede moet komen.
Een ander onderdeel van neuralrendering is RTX Neural Faces, waarbij een AI-model wordt gebruikt om een gerenderd gezicht een natuurlijkere uitstraling te geven. Dat kan worden aangevuld met de RTX Character Rendering SDK voor het raytracen van haar en huid. In plaats van driehoeken worden daarvoor bolvormige afgeleiden gebruikt, wat tot betere prestaties en een lager geheugengebruik moet leiden dan bij traditionele methoden om haar te renderen. Voor een natuurlijkere, minder plasticachtige uitstraling van huid kan subsurface scattering worden gebruikt, dat de deels doorzichtige eigenschappen van (de bovenste lagen van) de menselijke huid meeneemt.
Om de sterk toegenomen grafische complexiteit van games met raytracing in de toekomst nog realtime te kunnen berekenen, heeft Nvidia RTX Mega Geometry ontworpen. Door AI zou het opbouwen van het bounding volume hierarchy per frame flink kunnen worden versneld, omdat de hiervoor vereiste rekentaken geclusterd worden bijgewerkt op de gpu. Op die manier wordt de overhead voor de cpu lager, wat de prestaties ook weer ten goede kan komen. Bovendien geeft dit ruimte voor ontwikkelaars om hiermee veel complexere werelden te ontwerpen. Volgens Nvidia komt ondersteuning voor RTX Mega Geometry spoedig naar de Unreal Engine.
De onderdelen van RTX Neural Rendering hebben specifieke ondersteuning in een game of applicatie nodig om te werken. Ontwikkelaars moeten met de softwaredevelopmentkit van Nvidia aan de slag om een of meerdere van deze features te implementeren. Dat is bij DLSS niet anders, maar die upscalingtechnologie bestaat al een aantal jaar en heeft zijn weg gevonden in een inmiddels lange lijst van games met ondersteuning hiervoor. Bovendien zou de toevoeging van DLSS 4 hieraan relatief eenvoudig moeten zijn, aldus Nvidia. Bij RTX Neural Rendering gaat het om grote wijzigingen in hoe een game gerenderd wordt, of kan worden. In hoeverre deze technieken daadwerkelijk geïmplementeerd gaan worden, blijft voor nu afwachten, maar vermoedelijk doet Nvidia er alles aan om de features van RTX Neural Rendering als standaard gebruikte feature in het gamelandschap te krijgen.
Testmethode
Ons uitgangspunt bij gpu-tests is dat we de rest van het systeem zo min mogelijk een bottleneck willen laten vormen. Ons gpu-testsysteem hebben we begin 2025 vernieuwd en bestaat nu uit een watergekoelde AMD Ryzen 7 9800X3D-processor, overgeklokt naar 5,4GHz-allcore. Als werkgeheugen gebruiken we 32GB DDR5-6000-geheugen met relatief strakke timings, zodat de cpu en het ram zo min mogelijk de beperkende factor vormen voor het meten van gpu-prestaties. De exacte specificaties van het huidige en het vorige testsysteem zijn in de onderstaande tabel te vinden.
Voor onze gpu-tests gebruiken we referentiekaarten of Founders Editions, tenzij de betreffende gpu niet als een dergelijk model is uitgebracht of wij er geen beschikbaar hebben. In dat geval gebruiken we een custommodel dat wat kloksnelheden betreft zo dicht mogelijk bij de referentiespecificatie zit.
Drivers en meetmethode
We hebben alle videokaarten voor deze review getest met de nieuwste driver die beschikbaar was toen we met het testwerk begonnen. Voor alle Nvidia GeForce-kaarten was dat GeForce 566.36. Voor alle AMD Radeon-kaarten hebben we Adrenalin 24.12.1 gebruikt. Voor de RTX 5090 hebben we persdriver 571.86 gebruikt.
Met behulp van PresentMon meten we in elke geteste game de prestaties, waaruit we zowel de gemiddelde framerates, of fps, als de frametimes van het 99e en 99,9e percentiel berekenen en die laatste twee in milliseconden rapporteren.
Op de volgende pagina's vind je grafieken met samengestelde balkjes, bestaande uit het 99e percentiel, omgerekend naar frames per seconde, genoteerd als minimumframerate, gevolgd door de gemiddelde framerate per seconde. Op die tweede score, het gemiddelde aantal beelden per seconde dat een videokaart kan berekenen, wordt primair gesorteerd. De frametimes geven geen beeld van de gemiddelde framerate, maar van de uitschieters in negatieve zin. Die kunnen immers tot gevolg hebben dat een game ondanks een goed gemiddelde niet vloeiend aanvoelt.
De tijd die het kost om beelden binnen een 3d-game en dus binnen onze benchmark te renderen, varieert van frame tot frame. Bij onze frametimemeting worden de rendertijden van alle individuele frames opgeslagen. Daarna gooien we de 1 procent langzaamste frames weg. De hoogste rendertijd van de resterende 99 procent van de frames, oftewel het langzaamste frame, is het 99e percentiel frametime.
Op verzoek van enkele lezers hebben we ook de 99,9e-percentielwaarden toegevoegd. Hiervoor laten we dus slechts de 0,1 procent langzaamste frames buiten beschouwing. In theorie is dit nog preciezer, maar in de praktijk gooien incidentele oorzaken en meetfouten soms roet in het eten. Voor nu hebben we ze vermeld in de review, maar houd dat dus in het achterhoofd bij het bekijken van deze resultaten.
Gameselectie
Regelmatig houden we de reeks games tegen het licht en bij deze keuze houden we rekening met de api, de engine, het genre, de AMD/Nvidia-verhouding, de leeftijd en de technische benchmarkdetails van elke game om op een zo representatief mogelijke suite uit te komen.
Game
Verschijningsdatum
Api
Engine
Assassin's Creed: Mirage
Oktober 2023
DX12
Ubisoft Anvil
Assetto Corsa Competizione
September 2018
DX12
Unreal Engine 4
Avatar: Frontiers of Pandora
December 2023
DX12
Snowdrop Engine
Black Myth: Wukong
Augustus 2024
DX12
Unreal Engine 5
Call of Duty: Black Ops 6
Oktober 2024
DX12
IW 9.0
Cyberpunk 2077
December 2020
DX12
REDengine 4
Doom Eternal
Maart 2020
Vulkan
Id Tech 7
F1 24
Mei 2024
DX12
EGO Engine 4.0
Forza Motorsport
Oktober 2023
DX12
ForzaTech
Stalker 2: Heart of Chornobyl
November 2024
DX12
Unreal Engine 5
Stroomverbruik
Uiteraard meten we ook het stroomverbruik van de videokaarten. Daarvoor gebruiken we sinds dit najaar een nieuwe meetmethode, op basis van de door ElmorLabs en Open Benchtable ontwikkelde Benchlab. Dit is een dochterbord dat met afstandsbusjes onder het daadwerkelijke moederbord wordt geplaatst en in- en uitgangen heeft voor alle stroomkabels die naar het moederbord en de processor gaan.
Van de ATX-kabel met 24 pinnen, maximaal twee EPS-kabels met 8 pinnen, maximaal drie PEG-kabels met 8 pinnen en maximaal twee 12Vhpwr-kabels kunnen we live de spanning en stroomsterkte van verschillende componenten monitoren en loggen. De meters zijn aangesloten op een externe pc die de bijgeleverde software draait, zodat het rekenwerk dat hierdoor wordt verricht geen invloed heeft op het energiegebruik van het geteste systeem.
We hebben de stroommeters van elke poort geijkt met een instelbare belasting en de gemeten afwijkingen over een curve verwerkt in een script dat de van toepassing zijnde afwijkingen corrigeert. Voor de vergelijkbaarheid van de testresultaten binnen deze review maakt dat niet veel uit, maar vanzelfsprekend willen we het liefst zo nauwkeurig mogelijke resultaten kunnen rapporteren.
3DMark Time Spy, Speed Way en Steel Nomad
3DMark heeft een hele suite benchmarks, waarvan we Time Spy Extreme, Steel Nomad en Speed Way draaien. Deze benchmarks berekenen een totaalscore op basis van de gpu- en cpu-prestaties, waarbij de grafische score het zwaarst meeweegt. De graphicsscores staan zoveel mogelijk los van de prestaties van de andere componenten en deze scores kun je dus ook het best gebruiken als indicatie voor gpu-prestaties, onafhankelijk van de rest van het systeem.
De Steel Nomad-benchmark, waarin gpu-prestaties worden gemeten zonder gebruik te maken van raytracing, pakt gunstig uit voor Nvidia's nieuwe topmodel. De RTX 5090 is hier bijna 55 procent sneller dan de RTX 4090, en zelfs ruim twee keer zo snel als AMD's huidige vlaggenschip. Bij de raytracingbenchmark Speed Way is de voorsprong op de Radeon-kaarten nog groter, maar is de voorsprong van de RTX 5090 op zijn voorgangers net iets kleiner. In de oudere Time Spy-benchmark is het verschil vervolgens nog iets kleiner, waarbij de RTX 5090 zo'n 36 procent sneller is dan de RTX 4090.
Assassin's Creed Mirage maakt gebruik van een vernieuwde engine: de Ubisoft Anvil-engine, die iets minder voorkeur voor AMD heeft dan de Anvil Next 2.0-engine van Valhalla. AC Mirage is uiteraard nog steeds een thirdpersonadventuregame en draait op DirectX 12. Op 4k-Ultra haalt de RTX 5090 gemiddeld 144fps, wat 20 procent meer is dan waar de RTX 4090 op uitkomt. Op lagere resoluties zijn de verschillen uiteraard kleiner.
4k
4k Ultra
4k Ultra (99p)
4k Medium
4k Medium (99p)
Assassin's Creed Mirage - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Assetto Corsa Competizione is een simracer uit 2018 die in de Unreal Engine 4 draait met gebruik van DX12. Het spel heeft een voorkeur voor Nvidia-kaarten. De RTX 5090 is hier fors sneller dan de RTX 4090, met een gemiddelde framerate die richting de 300fps gaat, terwijl zijn voorganger op 200fps uitkomt. Daarmee is de RTX 5090 op 4k tot 40 procent sneller dan de RTX 4090.
Avatar: Frontiers of Pandora komt uit december 2023 en draait op de Snowdrop-engine, die de open wereld in veel detail kan renderen. Het spel maakt standaard gebruik van raytracing voor enkele effecten, en draait op Nvidia-hardware bovengemiddeld goed. De RTX 5090 haalt op 4k-Ultra 88fps, wat 26 procent sneller is dan de RTX 4090 en bijna twee keer zoveel is als de RX 7900 XTX.
4k
4k Ultra
4k Ultra (99p)
4k Medium
4k Medium (99p)
Avatar: Frontiers of Pandora - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Black Myth: Wukong draait op Unreal Engine 5 en is extreem zwaar, zelfs zonder raytracing ingeschakeld. Voor het testen van gpu's maken we gebruik van de ingebouwde benchmark van het spel en schakelen we upscaling uit door Temporal Super Resolution op '100' te zetten. In deze game is de RTX 5090 zonder raytracing gemiddeld tot 35 procent sneller dan de RTX 4090 op 4k-Ultra, en tot 85 procent sneller dan de RX 7900 XTX.
Schakelen we raytracing in, dan zakt voor alle kaarten de framerate flink in. Relatief gezien heeft de RTX 5090 daar minder last van en komt hij nu bijna 39 procent boven de RTX 4090 uit. Ook op andere RTX-kaarten neemt de voorsprong dan toe, en het hoge niveau van raytracing eist nog veel meer zijn tol bij de Radeon-kaarten.
4k
4k Very High
4k Very High (99p)
4k Medium
4k Medium (99p)
Black Myth: Wukong - 3840x2160 - Very High
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Call of Duty: Black Ops 6 is een firstpersonshooter uit 2024 van de bekende Call of Duty-reeks. Black Ops 6 maakt gebruik van de IW 9.0-engine, waaraan Infinity Ward aanzienlijke upgrades heeft toegevoegd, waaronder volumetric lighting, spectral rendering en verbeterde raytracing. Hoewel de engine dus ondersteuning heeft voor raytracing, is deze grafische functie in Modern Warfare II vooralsnog niet beschikbaar. Op AMD-hardware draait het spel bovengemiddeld goed. In Black Ops 6 is de RTX 5090 op 4k-Extreme gemiddeld 26 procent sneller dan de RTX 4090 en ruim 41 procent sneller dan de RX 7900 XTX.
4k
4k Extreme
4k Extreme (99p)
4k Balanced
4k Balanced (99p)
CoD: Black Ops 6 - 3840x2160 - Extreme
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Cyberpunk 2077 is een actie-rpg die in december 2020 is uitgebracht door CD Projekt. Het spel maakt gebruik van de REDengine 4 en draait op DirectX 12. De game is veeleisend, met name wanneer raytracing ingeschakeld is. De winst voor de RTX 5090 is in Cyberpunk groter dan we bij de tot nu toe besproken games hebben gezien. Nvidia's nieuwste vlaggenschip is maar liefst 48 procent sneller dan de RTX 4090 op 4k-Ultra, en bijna 75 procent sneller dan de RX 7900 XTX. Schakelen we raytracing in, dan is de RTX 5090 nog zo'n 36 procent sneller dan de 4090, en komt hij nagenoeg uit op gemiddeld 60fps.
4k
4k Ultra
4k Ultra (99p)
4k Medium
4k Medium (99p)
Cyberpunk 2077 - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Doom Eternal, onderdeel van de zeer bekende serie firstpersonshooters, draait in de Vulkan-api op de relatief nieuwe id Tech 7-engine en is in maart 2020 uitgekomen. De benchmark bestaat uit een zestig seconden durende vaste route door de Hell on Earth-map van het spel. Vanaf 2025 testen we Doom Eternal niet meer op Ultra-instellingen maar op Nightmare, wat nog een stap hoger is in de grafische presets. Hier is op 4k de RTX 5090 bijna 19 procent sneller dan de RTX 4090, en maar liefst 60 procent sneller dan de RX 7900 XTX. Met raytracing erbij komt de RTX 5090 uit op gemiddeld 297fps, wat ruim 18 procent meer is dan de RTX 4090.
4k
4k Nightmare
4k Nightmare (99p)
4k Medium
4k Medium (99p)
Doom Eternal - 3840x2160 - Nightmare
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
F1 24 draait net als veel van zijn voorgangers op de Ego Engine 4.0. In deze racegame is de RTX 5090 gemiddeld 30 procent sneller dan de RTX 4090 op 4k-Ultra, en de voorsprong op de RX 7900 XTX is ruim 41 procent. Met raytracing ingeschakeld zien we in F1 een winst van bijna 39 procent voor de RTX 5090 op zijn voorganger, wat gemiddeld een indrukwekkende 120fps betekent.
4k
4k Ultra
4k Ultra (99p)
4k Medium
4k Medium (99p)
F1 24 - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Forza Motorsport draait op de ForzaTech-engine in DirectX 12. Bij deze racegame is de RTX 5090 gemiddeld 32 procent sneller dan de RTX 4090 en bijna 76 procent sneller dan de RX 7900 XTX op 4k-Ultra.
4k
4k Ultra
4k Ultra (99p)
4k Medium
4k Medium (99p)
Forza Motorsport - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Stalker 2: Heart of Chornobyl is een firstpersonsurvivalshooter die op Unreal Engine 5 draait. In Stalker 2 is de RTX 5090 gemiddeld 25 procent sneller dan zijn voorganger op 4k en 65 procent sneller dan AMD's RX 7900 XTX. De RTX 5090 tikt hier bijna de 100fps aan op High-settings, terwijl de 99p's op het niveau van de gemiddelde framerate van de RTX 4090 uitkomt.
4k
4k High
4k High (99p)
4k Medium
4k Medium (99p)
Stalker 2: Heart of Chornobyl - 3840x2160 - High
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Om direct te zien hoe de verschillende gpu's zich tot elkaar verhouden, berekenen we gewogen gemiddelden vanuit de gebruikte en hiervoor besproken games op basis van de resultaten. Deze prestatiescores berekenen we met de geteste resoluties en kwaliteitsinstellingen. De prestatiescores voor rasterisation worden berekend aan de hand van de resultaten in de tien hiervoor geteste games. De prestatiescores voor raytracing worden berekend op basis van de vijf geteste games met DXR-resultaten: Avatar, Black Myth, Cyberpunk, Doom en F1.
Prestatiescores met rasterization
De GeForce RTX 5090 komt in onze lijst van tien games zonder raytracing gemiddeld uit op 135,7fps op 4k-Ultra. Dat is ruim 30 procent meer dan de RTX 4090 op deze resolutie, en ruim 68 procent meer dan de RX 7900 XTX en RTX 4080 Super. Bovendien is de RTX 5090 gemiddeld 130 procent sneller dan de RTX 3090. Op lagere resoluties is de winst zoals gebruikelijk kleiner en gezien het prestatieniveau van de RTX 5090 ook minder relevant.
4k Ultra
4k Medium
1440p Ultra
1440p Medium
1080p Ultra
1080p Medium
Tweakers GPU Prestatiescore 2025-1 - 4k ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Met raytracing ingeschakeld haalt de RTX 5090 in onze reeks games gemiddeld 72fps, wat ruim 31 procent sneller is dan de RTX 4090 en 145 procent meer is dan de RX 7900 XTX. Tegenover de RTX 3090 is de 5090 zelfs 170 procent sneller.
4k DXR
1440p DXR
1080p DXR
Tweakers GPU Prestatiescore 2025-1 - 4k DXR
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Nvidia belooft dat gebruikers met een RTX 50-serie videokaart vanaf de eerste dag gebruik kunnen maken van Multi Frame Generation in 75 games en applicaties door middel van de Override-functie. Native ondersteuning vanuit een game zelf moet de komende tijd nog verder op gang komen, maar voor reviewers is een aantal games middels een bètabuild alvast ondersteuning beschikbaar gemaakt. Deze games zijn Cyberpunk 2077, Alan Wake 2, Star Wars Outlaws en Hogwarts Legacy.
Om de prestaties en beeldkwaliteit van Multi Frame Generation te bekijken, gingen wij aan de slag met Cyberpunk. We draaiden het spel op de RTX 5090, 4090 en 3090 in 4k, zowel met raytracing op Ultra-instellingen als op het nog zwaardere pathtracing.
Cyberpunk DXR Ultra
De benchmark van Cyberpunk met raytracing, zoals we die gebruiken in onze vaste testsuite, hebben we gedraaid op de RTX 3090, 4090 en 5090 met DLSS Performance en met Frame Generation ingeschakeld op de kaarten die het ondersteunen. Videokaarten uit de RTX 30-serie ondersteunen geen Frame Generation. Kaarten uit de RTX 40-serie kunnen een enkel gegenereerd frame tussen gerenderde frames tonen, wat in de grafieken als MFG X2 genoteerd staat. Bij MFG X3 op de RTX 50-serie worden tussen gerenderde frames twee gegenereerde frames getoond en bij MFG X4 zijn dat drie frames.
Het aantal beelden dat de monitor aangeleverd krijgt door de videokaart ligt op de RTX 5090 tot drie keer zo hoog als zonder Frame Generation. Ten opzichte van native rendering is dat zelfs zes keer zoveel.
Cyberpunk 2077 - 3840x2160 - Ultra (DXR - Ultra)
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
De nog zwaardere benchmark met pathtracing laat vergelijkbare verhoudingen zien voor de RTX 5090 met Multi Frame Generation ten opzichte van DLSS Performance. Wel is de winst voor DLSS ten opzichte van native rendering een stuk groter, en dat geldt voor de RTX 4090 en 3090 overigens ook. Met deze test op pathtracing hebben we natuurlijk wel het ideale scenario voor Multi Frame Generation te pakken, maar het laat tegelijkertijd ook de potentie van deze techniek zien.
Cyberpunk 2077 - 3840x2160 - Ultra (DXR - Ultra)
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Omdat DLSS 4 met Multi Frame Generation meerdere opvolgende frames voorspelt en genereert op basis van beschikbare data uit een gerenderd frame, kunnen er bij een verkeerde voorspelling beeldfouten ontstaan. Tijdens onze eerste ervaringen met Multi Frame Generation in Cyberpunk vielen artefacten amper op. Ten opzichte van de pop-ins van schaduwen en textures waar het spel sowieso al last van heeft, vallen de artefacten door Frame Generation niet makkelijk te spotten. Hoe makkelijk de beeldfouten zijn te herkennen en hoe ergerlijk deze eventueel zijn, verschilt per persoon.
Met een videocapture van de benchmark in Cyberpunk konden we de eventuele foutjes per frame terugzien. De artefacten die wij tegenkwamen, zijn in onderstaande screenshots paars omlijnd. Per grafische instelling zijn telkens vier opvolgende frames uit de videocapture gehaald om te laten zien hoe de artefacten verschijnen en verdwijnen. Deze artefacten zijn eigenlijk maar minimaal als je nagaat dat het overgrote deel van het frame wél correct oogt.
Openschuivende deur
Tijdens de benchmark verplaatst de camera halverwege de test van een binnenruimte naar de buitenwereld. Hierbij gaat een schuifdeur open, en in de linkerhoek van het kozijn verschijnt tijdens het naar buiten bewegen bij één frame een fout bij Multi Frame Generration op X3 en X4.
Native rendering
DLSS Performance
MFG X2
MFG X3
MFG X4
Spontane schaduwen
Omdat Cyberpunk bij elke run van de benchmark alle npc's op een willekeurige manier plaatst, geven geen van de getoonde screenshots exact dezelfde setting als andere grafische instellingen. Met het bladeren door de opvolgende frames is te zien dat hier elke vorm van Frame Generation wel ergens spontane schaduwen geeft op de npc's. Opvallend is dat DLSS op Performance zelf ook een kleine schaduw toont op het hoofd van iemand die aan tafel zit.
Native rendering
DLSS Performance
MFG X2
MFG X3
MFG X4
Rendering: D5 Render
De GeForce RTX 5090 is met zijn sloot aan videogeheugen niet alleen een interessante gpu voor gamers, maar ook voor wie zijn videokaart semiprofessioneel wil inzetten. De 32GB aan videogeheugen betekent dat grotere AI-modellen kunnen worden gebruikt zonder dat er naar het werkgeheugen geswapt hoeft te worden. Ook voor rendering van 3d-beelden komen de extra cores, het grotere geheugen en de toevoeging van Multi Frame Generation van pas.
Tijdens het testen liepen we ertegenaan dat veel van dit soort software werkt met een 'allowlist' van hardware, waar de RTX 5090 nog niet op stond. We konden wel aan de slag met een door Nvidia verstrekte previewbuild van D5 Render, een realtime renderprogramma dat vooral voor interieur, architectuur en landschappen wordt gebruikt.
In de door ons gebenchmarkte live preview wordt per definitie upscaling toegepast, maar ook ondersteuning voor Frame Generation is ingebouwd. Die werkt altijd op de snelst mogelijke optie; bij de RTX 5090 is dat dus X4, bij de RTX 4090 maar X2. Via de DLSS Override-optie in de nieuwe Nvidia-driver kun je dit overigens wel anders forceren. Onze benchmark bestaat uit het verplaatsten van de camera tussen twee vaste punten, om het bewegen door de scène te simuleren. Hiervoor gebruiken we de voorbeeldrender 'Villa with a swimming pool', waarin zowel een gedetailleerd huis (inclusief interieur) als de nodige vegetatie worden gerenderd.
Zonder Multi Frame Generation haalt de RTX 5090 bijna 42fps in deze test. Dat is 42 procent meer dan de score van de RTX 4090, die nog geen 30fps wist te produceren. Ook in de 'native' modus, die bij deze renderer dus altijd DLSS-upscaling gebruikt, is het bekijken van de scène dus een stuk soepeler. Met Multi Frame Generation zijn de resultaten aanzienlijk beter. De RTX 4090 gaat met zijn X2 Frame Generation 60 procent omhoog. De RTX 5090 gebruikt X4 Frame Generation en wordt daarmee tweeënhalf keer zo snel als zonder het gebruik van Frame Generation.
We meten het stroomverbruik van videokaarten door middel van een riserkaart die verbonden is met een Benchlab-bord. We gebruiken de benchmark van Cyberpunk als test voor het stroomverbruik en gebruiken van de logs het gemiddelde stroomverbruik tijdens deze test.
Onder volle belasting verbruikt onze RTX 5090 Founders Edition 562W. Dat is gezien de opgegeven tgp van 575W geen verrassing. Wel is het fors meer dan zijn voorganger, de RTX 4090. In idle verbruikt de RTX 5090 nog maar 25W, hoewel andere kaarten hier ook lager uitkomen.
We zetten de behaalde prestaties in Cyberpunk op 4k ultra zonder raytracing af tegen het gemeten stroomverbruik tijdens deze benchmark. Omdat de RTX 5090 in Cyberpunk erg goed presteert tegenover zijn voorgangers, komen de prestaties per watt hier net iets gunstiger uit. Het verbruik van de RTX 5090 ligt flink hoger, zoals we hierboven zagen, maar in dit geval is de prestatietoename net voldoende om bovenaan te eindigen.
Efficiëntie Cyberpunk 2077 4K Ultra (2025) - fps per watt
Videokaart
Gemiddelde prestaties per watt in fps (hoger is beter)
De GeForce RTX 5090 is de eerste consumentenvideokaart die gebruikmaakt van PCI-Express 5.0. Er zullen nog de nodige tweakers zijn met een moederbord dat geen PCIe 5.0 ondersteunt, zoals de 300- en 400-serie chipsets van AMD. Maar zelfs in de nieuwste generaties zijn er nog borden zonder Gen5-support te koop, zoals alle A620-borden en een aantal B650-modellen. Voor wie zijn bestaande systeem wil upgraden naar een RTX 50-serie videokaart, of wellicht wat wil besparen bij de aanschaf van een nieuw systeem, rijst al gauw de vraag: heb je PCI Express 5.0 ook echt nodig?
Om dat te achterhalen hebben we alle tien de games uit ons testprotocol nog eens gedraaid met het PCie-slot beperkt tot PCIe 4.0. De rest van de specificaties en instellingen van het testsysteem bleven identiek. We hebben omwille van de beperkte beschikbare tijd alleen de meest intensieve kwaliteitsinstelling getest, namelijk 4k ultra. Als daarop geen verschil zichtbaar is, is het een veilige aanname dat dat op lagere instellingen en resoluties ook niet zo zal zijn.
We trappen af met enkele synthetische 3DMark-tests. In Speed Way, Steel Nomad en Time Spy Extreme zien we verwaarloosbare verschillen tussen PCIe 4.0 en PCIe 5.0.
Ook in games is het prestatieverschil tussen PCI-Express 4.0 en 5.0 zeer beperkt. Gemiddeld komen we uit op een winst van 0,9 procent voor PCIe 5.0. Dat is praktisch binnen de foutmarge en hoe dan ook onmerkbaar als gamer.
Hoe reviewen we gpu’s en hardware als de nadruk steeds meer op AI komt te liggen en de ene pixel niet meer met de ander te vergelijken valt? De rol van upscaling en Frame Generation begint steeds groter te worden in gaming, en als het aan Nvidia ligt, is dit de weg die ingeslagen moet worden om steeds snellere, slimmere en efficiëntere videokaarten mogelijk te maken. En voor een deel is dat noodgedwongen, want zelfs bijna tweeënhalf jaar na de RTX 40-serie had TSMC blijkbaar geen geschikte nieuwe node beschikbaar om de verkleining, inclusief prestatie- en efficiëntiewinst, daarvan te benutten. Voor ons als reviewers maakt dit het beoordelingsproces van videokaarten, en al helemaal een nieuwe generatie videokaarten op basis van een nieuwe architectuur, een stuk lastiger. Wat betekenen gpu-prestaties nog als meer dan 90 procent van wat er op je beeld verschijnt met DLSS 4 door AI gegenereerd wordt?
Zoals we al jaren gewend zijn, kunnen we de gebruikelijke prestatiewinst van het nieuwe topmodel ten opzichte van zijn voorganger noemen. De GeForce RTX 5090 is op 4k met Ultra-instellingen zonder raytracing gemiddeld ruim 30 procent sneller dan de RTX 4090. Bij gebruik van raytracing is dat nog een procent meer. Het stroomverbruik ligt echter 40 procent hoger, wat minder prestaties per watt tot gevolg heeft. Ook de adviesprijs van de RTX 5090 is met 2369 euro zo mogelijk nog astronomischer dan die van zijn voorganger.
De prijs-prestatieverhouding van de RTX 5090 ligt met bovenstaande punten echter niet zomaar vast. Puur kijken naar rasterization of raytracing vertelt niet het hele verhaal en laat niet de potentie van de nieuwe generatie zien. DLSS 4 met Multi Frame Generation ziet er bij de eerste indrukken aardig goed uit, en Nvidia zal het algoritme ongetwijfeld verder kunnen verbeteren om beeldfouten tot een minimum te beperken. Maar volledig afgaan op Multi Frame Generation en neuralrendering is vandaag de dag ook allesbehalve het complete plaatje, omdat ondersteuning nu nog op gang moet gaan komen. Voor Nvidia is het dan ook zaak om in zoveel mogelijk games en software hun technologie ondersteund te krijgen. Als er een fabrikant is aan wie dit is toe te vertrouwen, dan is het Nvidia wel; met RTX en DLSS heeft Nvidia bewezen over voldoende overtuigingskracht richting gameontwikkelaars te beschikken. Daarbij is het slim dat Nvidia ervoor kiest om de kwalitatieve verbeteringen van DLSS ook op de RTX 20-, 30- en 40-serie mogelijk te maken, zodat meer van zijn klanten hier gebruik van kunnen maken.
De enorme featureset van de RTX 50-serie maakt het nieuwe aanbod van Nvidia in zekere zin vergelijkbaar met hoe de fabrikant zijn RTX 20-serie in 2018 op de markt bracht. Ook toen konden de hardwaremogelijkheden pas goed worden benut naarmate ondersteuning vanuit software en games toenam. Volgens Nvidia is DLSS 4-ondersteuning erg makkelijk om te implementeren als een game reeds DLSS ondersteunt, dus de uitrol van Multi Frame Generation zal mogelijk vlotter verlopen. Voor grote nieuwe features die onderdeel uitmaken van RTX Neural Rendering zal dat vermoedelijk niet direct het geval zijn. Voor een RTX 5090 met 32GB geheugen is Neural Texture Compression vermoedelijk niet snel noodzakelijk, maar voor bijvoorbeeld een RTX 5070 met 12GB vram kan dat op termijn wel een groot verschil maken.
Omdat belangrijke en unieke features van de RTX 50-serie zich de komende jaren nog moeten gaan bewijzen, is de RTX 5090 vandaag de dag niet voor iedereen de gewenste grote stap vooruit, maar wel een videokaart die klaar is voor de toekomst. De ruim 30 procent hogere prestaties zijn min of meer in lijn met de toename die we in het verleden hebben gezien met de winst van de RTX 2080 Ti op de GTX 1080 Ti en ook de RTX 3090 op de RTX 2080 Ti. Dat sommigen misschien meer hadden verwacht van de RTX 5090, zit hem mede in de veel grotere sprong die de RTX 4090 ten opzichte van zijn voorgangers maakte.
Interessante review qua prijs-energieverbruik-prestaties!
Kleine persoonlijke opmerking: ik had in de benchmarks liever een recenter en veeleisender spel als Indiana Jones and the Great Circle in de plaats gezien van Doom Eternal.
Gek dat deze berekening niet in de overzichten staat. Wat mij betreft is het de meeste treffende meetwaarde als het gaat om het uitdrukken van innovatie in een getal.
[Reactie gewijzigd door Luit op 23 januari 2025 15:46]
Bij publicatie ontbrak die inderdaad nog, maar inmiddels staat de efficiëntie / prestatie-per-watt grafiek onderaan p22
Als je het puur berekent met de game waarin we ook stroom meten, komt het juist nipt in het voordeel van de 5090 uit - maar de conclusie uit beide methoden lijkt me vooral dat het verschil tussen 40- en 50-serie beperkt is.
[Reactie gewijzigd door Tomas Hochstenbach op 23 januari 2025 16:42]
Het verbaast mij dat aan het eind van het artikel niet de conclusie getrokken wordt dat de prijs/kwaliteit niet in verhouding staat:
Wanneer het verschil in frames/watt zo marginaal is vergeleken met de vorige generatie kun je wmb niet spreken van een vooruitgang. Zeker niet als je minimaal 20% meer transistors, cores, prijs en stroomverbruik nodig hebt om dat te bereiken.
Dat komt eerder over alsof ze de techniek van de 4090 verder opgeblazen hebben dan dat er enige vooruitgang wordt geboekt, wat niet verrassend is aangezien beide ook hetzelfde procedé gebruiken.
Op papier lijkt wat dat betreft de 5070ti mij bijvoorbeeld een stuk interessanter, er vanuit gaande dat die inderdaad de 4090 verslaat.
... Dat komt eerder over alsof ze de techniek van de 4090 verder opgeblazen hebben dan dat er enige vooruitgang wordt geboekt, ...
Vandaar ook dat Steve Walton (van Hardware Unboxed op YouTube en de TechSpot website) het de '4090 Ti' bleef noemen en dat Balin, (o.a. de editor) daarop telkens op de achtergrond bleef roepen "No Steve, it's the 5090!"
Een portie Australische humor/sarcasme, ieder mag er uiteraard het zijne van vinden, ik ben er wel van!
... Op papier lijkt wat dat betreft de 5070ti mij bijvoorbeeld een stuk interessanter, er vanuit gaande dat die inderdaad de 4090 verslaat.
Tuurlijk! De enige vraag is nog; met hoeveel 'AI-Powered Frame Generation' tegenover de 4090 zonder?
Maar nu even serieus, bij een eerlijk vergelijk tussen de 5070 Ti en de 4090 ga je 'van een koude kermis thuiskomen', zo ongeveer 'de winter van 1962–1963' koud...
Het verbaast mij dat aan het eind van het artikel niet de conclusie getrokken wordt dat de prijs/kwaliteit niet in verhouding staat:
Hoezo? Bij flagship videokaarten draait het niet om de prijs-prestatieverhouding, het is altijd het allersnelste model voor wie bereid is daar flink voor te betalen? Voor betere price/performance kijk je beter naar midrange kaarten.
Op papier lijkt wat dat betreft de 5070ti mij bijvoorbeeld een stuk interessanter, er vanuit gaande dat die inderdaad de 4090 verslaat.
Nvidia's marketing doet het goed zo te zien. De 5070 Ti gaat never nooit zo snel zijn als een 4090 in een eerlijke vergelijking, de rekenkracht zit er ver onder. Pas met de nieuwe truukjes van multi frame gen kun je grafiekjes maken waarmee die indruk wordt gewekt.
Het schokkende is dat er dus zo goed als geen generationele uplift is dankzij de architectuur: de upgrade van het N4 naar N4P procedé geeft je een uplift in efficiëntie van enkele procenten, en de 5090 is in performance/watt amper 5% beter dan de 4090. Dus wat zal het zijn: 2% dankzij N4P, 2% dankzij Blackwell vs Ada? Voor een nieuwe architectuur is zo een non-upgrade echt nooitgezien.
Misschien moeten we de 4080 en 4070 reviews afwachten, want misschien is de 5090 gewoon gepusht naar een absurd slecht punt op de efficientie-curve, maar voorlopig ziet het eruit alsof Blackwell op architecturaal niveau een dode mus is, tenminste voor gaming.
[Reactie gewijzigd door kiang op 24 januari 2025 09:21]
Voor een nieuwe architectuur is zo een non-upgrade echt nooitgezien.
De RX 7600 was ook niet efficiënter dan zijn voorganger, terwijl ook die op een efficiënter procedé staat dan de 6600. Prestaties per Watt verschillen altijd een beetje per kaart natuurlijk, maar met RDNA 3 hebben we al gezien dat de vooruitgang soms tegenvalt.
Klopt, ik doelde met mijn uitspraak vooral op nvidia. Ik denk dat zij enkel een dergelijk slechte archtiecturale sprong maakten bij de gefroce 500 serie. AMD heeft inderdaad al vaker de plank misgeslagen
Poeh, de 500-serie is al een poosje geleden! Ik heb die serie net niet bewust als tweaker meegemaakt, maar de 500-serie was toch de 400-serie maar dan wél goed? Die “Grillforce” GTX 480 was berucht, maar over de 580 heb ik nooit iemand gehoord.
Overigens hield precies die generatie Terascale 3 ook niet over. Architectureel was het een stap in de juiste richting en de HD 6900-kaarten waren goedkoper te produceren dan de HD 5800-serie, maar sneller en efficiënter waren ze niet zonder meer.
Wow, fantastisch om te lezen. Jouw reactie.
Ik was ooit fervent gamer, bouwde altijd mijn eigen systemen. Maar ben ooit afgehaakt bij nVidia bij de Geforce 7 7800GS AGP. De generatie die jij beschrijft als pre-historie, zou nog vele generaties duren tot hij geintroduceerd werd.
Daarvoor had ik Geforce 6, Geforce 4 Ti 4200, Geforce 2 GTS en daarvoor weer 3dFX. Na de laatste nVidia kaart, heb ik AMD kaarten in mijn systemen gehad. Tot ik uberhaupt geen tijd meer had om te gamen. Mijn laatste videokaart is inmiddels alweer uit 2015.
Al vind ik die grafiek een beetje misleidend, want jullie pakken er nou net een game uit waar de 5090 het goed doet, nl. Cyberpunk 2077. Als je het gemiddelde neemt (te zien op pagina 18 van de review) komt de 5090 er toch wat slechter vanaf. De 5090 verbruikt 2,5 keer de hoeveelheid van een 4070 Super. Maar qua prestaties is die op 4K slechts 2,34 keer sneller. Zelfde verhaal voor de gewone 4070. De 5090 verbruikt ruim 3 keer zoveel (verbruik van de 4070 is 180W) maar is slechts 2,77 keer sneller.
Conclusie: zowel de 4070 als de 4070 Super zijn efficiënter dan de 5090, maar jullie grafiek toont net het tegenovergestelde.
Energiegebruik zou de high-end gamer, die zon kaart daadwerkelijk koopt voor optimale prestaties, aan zijn welgevormde derrière oxideren. 30% meer prestaties, tot 40% meer stroomverbruik tijdens gamen kan door de beugel.
Je krijgt met deze 5090 30% meer cuda cores, 30% meer prestaties op 4K ultra of raytracing(dat is niet goed te vergelijken door nieuwe technieken) voor 20% meer geld. Dat is zeer acceptabel. Bij lagere resoluties en instellingen geeft de CPU doorslag, daarom haalt de 5090 daar geen 30%.
Sowieso zullen tweakers altijd gaan proberen wat de kaart gaat doen bij lagere voltages.
Hoe dan ook, dit is geen budgetgaming, en daarom niet relevant.
Overigens ben ik niet in de markt voor een videokaart als de 5090, ik ben geen high-end gamer, maar het kan mij eerlijk gezegd ook niets schelen wat mijn 4070Ti Super verbruikt tijdens het gamen. Dat is mijn hobby, energie verbruik ik nu eenmaal. Bij mijn koelkast is het wat anders, die staat dag en nacht aan, dus die is extra zuinig.
[Reactie gewijzigd door ABD op 23 januari 2025 16:51]
Ik word zo langzamerhand een beetje gek van dat gepiep over stroomgebruik. En al helemaal bij dit soort producten.
Iemand zei het al eerder in een andere draad, is een beetje als een lambo V12 kopen en dan huilen over het brandstofverbruik.
Wat betekent kwaliteit nou weer? Je had gewoon de verkeerde verwachtingen, het was allang bekend dat Blackwell niet op een nieuwe node gefabriceerd werd en nagenoeg dezelfde architectuur als Ada had (enige verschil van GB100 t.o.v GH100 was de toevoeging van int4/fp4 op de tensor cores en het was al bekend dat Compute en RTX weer samen gingen). Dan zal je meer cores op de die moeten gooien, en aangezien de 4090 wss al op de meest gunstige plek op de power/performance curve zit, zal je met je grotere chip ook een flink stuk meer verbruiken
Overigens had Nvidia de prijs wel hetzelfde moeten houden of wat minder fors omhoog en wat minder de hype machine moeten activeren. Zolang je zelf hier niet in mee gaat, dan is er weinig shockerends aan deze launch.
[Reactie gewijzigd door 24hourpartypal op 24 januari 2025 12:19]
Bij een nieuwe generatie (en nieuw prijspunt) verwacht je meer dan enkel een grotere chip met meer geheugen. Ook wel bekend als kwaliteit boven kwantiteit.
Ik heb het idee dat deze kaart niet gericht is op mensen die hem voor graphics willen gebruiken maar voor """"AI"""" (aka ML) taken. Daar heeft het allemaal wel zin (competutioneel gezien) en is het wel een generationele winst.
[Reactie gewijzigd door kaas-schaaf op 24 januari 2025 14:19]
Dat zijn aannames, in het verleden zijn er vaker nieuwe generaties op dezelfde node uitgekomen, en N4P is zeker niet een sterk verouderde node. Kwaliteit is dus niet het probleem (wat in het verleden op dezelfde node nog juist wel eens een probleem was)
Je kan alleen geen 60% prestatie winst verwachten. Ada had een gigantische winst op de vorige node, Ampere's 8nm op Samsung, wat een zeer inefficiënte node was. Dan was de sprong naar TSMC 4nm gigantisch, zeker omdat hier breeduit van EUV gebruikgemaakt wordt.
De winst op AI gebied vind ik overigens ook discutabel, de qualiteit van de resultaten gaat met quantized modellen soms best wel om laag. Al is door quantization het wel mogelijk om grotere modellen op relatief weinig VRAM te gebruiken, dus directe hardware support voor dit soort berekeningen is niet onwelkom. Ook voor gaming en DLSS, of RTX broadcast AI-gedoe (wat oprecht best cool is) is dit fijn, dus zeker wel een fundementeel architectuureel verschil met de vorige generatie, ook op RTX. [en of je nou wel of geen FG wil gebruiken, MFG is voor hen die interesse hebben in >500hz monitors vanwege persistence blur zeker wel een value add]
Blackwell is inderdaad vooral gemaakt voor AI/ML berekeningen, al zal iedereen winst hebben van de dual die GB200 gezien dat een gigantische chip is. Het is gewoon belangrijk om niet in de Nvidia-pr hype mee te gaan en te zien waar de prestatie winsten vandaan komen, maar ook belangrijk om niet met de mob mentaliteit mee te gaan en te begrijpen waarom dingen zo zijn. Uiteindelijk zijn het allemaal bedrijven met twijfelachtige business practices.
[Reactie gewijzigd door 24hourpartypal op 24 januari 2025 15:01]
Misschien even kijken hoeveel je max uit een stopcontact kunt trekken op 1 groep. Je haalt geen 4000 watt uit één groep. En dan moet de rest van de pc en al je toebehoren nog.
[Reactie gewijzigd door Kots op 24 januari 2025 08:03]
De standaard in Nederland is 3680 Watt per groep maar kan met gemak 4000 Watt aan. Het laten draaien van een wasmachine in combinatie met een droger verbruikt al snel meer dan 5000 Watt en heb nog nooit problemen gehad.
Stroomverbruik is nou eenmaal belangrijk. Energie is duur. Logisch dat mensen daarover praten. Bovendien moet je als koper een voeding hebben die de kaart kan dragen, dus relevant.
[Reactie gewijzigd door Is_ Y_ Serious? op 24 januari 2025 08:20]
Relevant, maar geen punt waarover je zou moeten klagen als je een "high-end" product koopt. Het enige wat wij kunnen doen is balen dat er nog steeds gekkies zijn die €2300,- uitgeven aan een computeronderdeel en daarmee de bizarre prijsstellingen van de inmiddels monopolist Nvidia in stand houden.
High-end is trouwens bewust tussen haakjes. Gevoelsmatig is de graphics-card business namelijk een side-business en easy cash grab waarvan Nvidia zo afscheid zou nemen als de concurrentie on-par was.
Ik heb een High-end koelkast gekocht. Deze heeft een heel gunstig energieverbruik. Ik vind dit soort stroomverbruiken erg jammer. En totaal niet praktisch.
Ik heb meer het idee dat het een beetje een papegaai kreet begint te worden vanwege 'het huidige politieke klimaat' of zo.
Hoeveel uur draait die kaart nou echt op volle toeren? 99% van de tijd staat ie gewoon te idlen en als je 1 uur per dag gamed per dag maakt 't aan 't eind van het jaar bijna geen drol uit.
Mensen doen net of die kaart 24 uur per day 600 watt ligt te lurken
Bij ons thuis gamen we vaak met z’n drieën. Drie videokaarten van elk 500 watt, verbruiken behoorlijk wat stroom. Dan heb ik het nog niet eens over de aanschafprijs van de RTX 5090. Mijn zoon kan echt uren achter elkaar gamen en zit daarmee ruimschoots boven 1 uur per dag. Dat zorgt voor een behoorlijk hoog energieverbruik. Als je een kaart van 500 watt slechts 1 uur per dag gebruikt, kost dat al snel €71,20 per jaar.
Dit is natuurlijk slechts een voorbeeld, maar de RTX 5090 komt hier sowieso niet in huis, vooral vanwege het hoge energieverbruik.
Als je nu al ziet wat voor powerstages er bij de cpu en de gpu zijn, word dan alleen maar erger naarmate er weer meer stroom nodig is. Wat natuurlijk ook de prijzen zal opdrijven.
een koelkast verbruikt ongeveer 200kwh per jaar, 550 wat per dag, dat is een uurtje gamen met een 5090... systeem verbruik niet meegeteld. Game je meer dan een uur per dag heb je echt wel een hoger verbruik dan je koelkast.Het is een keuze die iemand kan maken, maar het is wel handig je dat te realiseren.Mijn systeem dat ik veel voor zware rekenklussen gebruik en voor gamen (5950x en 3060ti ) is ongeveer 10% van onze jaarlijks verbruik...
Precies waar het hier over gaat, darom snap ik niet waarom je denkt dat ik dat niet weet. De één koopt een Lamborghini omdat hij het geld heeft. De ander heeft een superzuinige compacte Toyota Yaris, die hem ook van A naar B brengt. De Yaris is in dit voorbeeld een RTX4060 waar je prima mee kan gamen voor veel minder geld.
Iemand die €5000 of meer uitgeeft aan zijn gamesysteem met OLED monitors, eventueel met VR bril en highend joysticks, soms zelfs een vlieg- of racesimulator, maakt zich echt niet zo druk over het verbruik. Misschien staat zijn dak vol met zonnepanelen en heeft hij thuisaccus.
Deze kaart is een niche product en voor een enkeling weggelegd. Daarom snap ik mensen die kwampachtig watt per frame gaan berekenen of iets anders willen 'bewijzen' totaal niet. Een Lamborghini heeft niemand nodig, dat weet iedereen.
[Reactie gewijzigd door ABD op 24 januari 2025 10:20]
maakt zich echt niet zo druk over het verbruik. Misschien staat zijn dak vol met zonnepanelen en heeft hij thuisaccus.
Dit zijn alleen maar aannames.
Zou natuurlijk voor veel mensen ook zo zijn. Echter ga ik er ook vanuit dat er mensen bestaan die dure dingen kopen maar als nog druk kunnen maken over stroomverbruik, al was het alleen maar om het milieu
Overig zijn het vaak juist de rijkere mensen die op de centen letten
Ik snap echt niet dat hier mensen altijd denken dat als je 1 ding doet, het andere meteen niet meer uitmaakt.. vind ik echt een rare gedachte
[Reactie gewijzigd door Sinester op 24 januari 2025 11:47]
Ik snap echt niet dat hier mensen altijd denken dat als je 1 ding doet, het andere meteen niet meer uitmaakt.. vind ik echt een rare gedachte
Uit dezelfde tekst van slechts enkele zinnen:
Zou natuurlijk voor veel mensen ook zo zijn. Echter ga ik er ook vanuit dat er mensen bestaan die dure dingen kopen maar als nog druk kunnen maken over stroomverbruik, al was het alleen maar om het milieu
Overig zijn het vaak juist de rijkere mensen die op de centen letten
Dit zijn alleen maar aannames.
Ding ding ding ding!
(Je hebt duidelijk je eigen tekst niet nagelezen of je snapt niets van ironie)
Waar het om gaat is dat mensen die een 5090 kopen niet de mensen zijn die in dit topic klagen over de kostprijs, prijs/prestatie of de frames/watt van deze kaart.
[Reactie gewijzigd door ABD op 24 januari 2025 12:06]
ik kon uit je reacties natuurlijk niet zien wat jij weet, en het was niet de bedoeling daar iets te suggereren .De meeste mensen onderschatten hoeveel op jaarbasis een PC aan stroom verbruikt en houden zichzelf voor de gek. Een 'uurtje gamen' klinkt fijn. Jij dus niet blijkbaar, prima.
er is gewoon een discusdie over energie verbruik. Dat is terecht. Dat is niet 'krampachtig' of belerend. Dat maak jij ervan en is weer stemmingmakerij
[Reactie gewijzigd door tw_gotcha op 24 januari 2025 18:07]
Ja, heerst inderdaad een schaamcultuur, maar ik wil het niet persoonlijk maken en niemand mijn levensstijl opleggen. Ik ben er zeer actief mee bezig, geloof mij . Maar we dwalen te ver af, het onderwerp gaat om een videokaart, niet over schaamcultuur.
Lambo is vaak extra auto naast daily runner gehouden wordt. Dus 1 uurtje in de zomer of weekend.
Lan of gamen zijn regelmatig vele uren op dag.
Weekend gamen lijkt mij
6 uur 8uur 6 uur vr zat zo
Denk dat lambo voornamelijk in schuurstaat.
Maar 5090 gamer zal door jaar heen veel gamen en niet maar uurtje
Dat komt (denk ik) doordat het vermogen wat jij gebruikt het maximale vermogen onder load is, op 1 willekeurig moment. Die 135,7fps is de totaal score. Je kan deze twee moeilijk direct met elkaar vergelijken.
Als je frames/watt wil weten zou je het totaal opgenomen vermogen tijdens een test run moeten delen door het totaal aantal gerenderde frames in diezelfde test.
Neemt niet weg dat jouw deling waarschijnlijk een aardige indicatie geeft.
Ik zou ook wel willen zien hoe een spel speelt met native 10fps, maar door 4mfg eruit ziet als 40fps. Dat moet toch mega sluggy/laggy gaan voelen?
Ik krijg nu een beetje een onderbuikgevoel dat die mfg vooral in benchmarks er goed uit komt..
Gezien Tweakers het opgenomen vermogen alleen geeft op basis van Cyberpunk 2077 in 4K lijkt het me dan wel zo fair de frames/watt berekening ook op die game+resolutie te baseren. Het zou immers zomaar kunnen zijn dat in de andere spellen waar het prestatieverschil kleiner is het verschil in stroomverbruik óók kleiner is. Maar eigenlijk heb je stroommetingen nodig van meerdere games om een echt zinnige uitspraak te kunnen doen, vanavond maar eens bij de vele andere outlets kijken dan maar
Dat neemt natuurlijk niet weg dat een verbetering van slechts 5,8% voor een compleet nieuwe generatie en architectuur een behoorlijke tegenvaller is, en ook weinig goeds belooft voor de 5070(Ti) en 5080 waarbij het verschil in CUDA cores t.o.v. de Super varianten van de 4070(TI) en 4080 een stuk kleiner is als met de 90 serie.
Ik vind het een vertekenende statistiek. Het lijkt nu alsof de 7900XTX even efficient is als de 4090, wat echt wel ver van de waarheid afstaat. Ik zou het juist interessant vinden als een paar kaarten tegen dezelfde power limit getest worden, Computerbase heeft dat overigens gedaan.
Uit interesse, waar komt de 5,8% vandaan? Heb ik waarschijnlijk gemist in de review.
Hier gaan we weer maar had het bij de vorige 50-series post ook al vermeld: prestaties / watt bij de 90-reeks, daar is nu toch werkelijk niemand mee bezig?
''de meest treffende meetwaarde'' bij een 5090 kaart is hoe bruut snel is dat ding. Dat is het enige toch wat relevant is bij een topmodel.
Niemand kijkt bij de nieuwste versie van de GT3RS - hoeveel is het gemiddeld verbruik per PK tov de vorige generatie, dat bepaalt hoe innovatief het ding is. NEEN, hoe snel geraakt dat ding rond een bocht, dat is wat relevant is. Verbruik daar kijk je naar als je shopt voor een Prius, niet voor een GT3RS.
Is wat mij betreft net hetzelfde bij een xx90-reeks kaart.
"tijden zijn veranderd, stroomprijzen anders'' nou en?
De 90-kaarten van Nvidia hebben maar 1 doel: ze willen de snelst mogelijke consumentengpu op de markt zijn. Als dat moet door meer juice door de kaart te jagen, dan doen ze dat. Als je daar geen fan van bent, koop je toch gewoon een andere kaart? Ik veronderstel dat er weinig mensen zijn die een energiezuinige build willen gaan kijken naar de 90-reeks kaarten. Dus voor die 0,x% die dat toch doet, is dat een zeer irrelevant punt waar ze bij Nvidia geen rekening mee moeten houden. 99,X% koopt de 5090 omdat ze gewoon het snelste willen no matter what en dat heeft Nvidia gewoon opnieuw gedaan en afgeleverd.
Persoonlijk ben ik geen fan trouwens van die DLSS toestanden en frame gen. Denk de keren dat ik al eens DLSS heb gebruikt op 1 hand te tellen is. Ik vind dat een beetje 'boerenbedrog' maar we zullen ongetwijfeld steeds meer die richting uitgaan. Doe mij dan liever grote sprongen op vlak van raw performance ipv met artificiële trukjes.
[Reactie gewijzigd door JacobsT op 24 januari 2025 07:51]
Stroom word duurder. Punt aan de lijn. AI en elektrische auto's zijn verantwoordelijk hiervoor. En niet genoeg kerncentrales of andere alternatieven.
Rijke mensen zijn de gierigste mensen volgens 3 aannemers die ik voor m'n huis gebruikt heb (ze hebben dit onafhankelijk van elkaar gezegd). Dit will zeggen dat ze onderste uit kast halen... Waarom dan geen volt efficiency curve op 5090 toepassen? Je verliest nauwelijks maar je constant verbruik is lager, en dus je rijk loon word minder beïnvloed door 'onvoorzichtigheden'.
Het is toch eigenlijk altijd zo dat de efficiency curve niet linear is, als in: Voor 10% meer performance heb je vaak meer dan 10% energie nodig. Dat geldt ook voor je auto of als je gaat hardlopen.
Ik mis juist in veel reviews een genormaliseerde vergelijking tegen dezelfde power draw.
Dat je efficientie gaat verliezen bij een hoger wattage was wel te verwachten aangezien het chip bak procede niet anders is. Eerlijk gezegd vind ik het wat dat betreft wel meevallen.
Het wordt interessant of de 5600 nog zuiniger wordt dan de 4600, gezien deze getallen zou het me niet verbazen.
Vind het ook bijzonder dat deze 2400 euro kostende GPU "maar" 30 fps haalt zonder alle DLSS en frame generation/AI-kunstjes, puur power heeft deze kaart dus flink wat moeten inleveren ten opzichte van zijn voorganger.
Altijd leuk dat je met de nieuwste software 200+ fps kan halen, maar in werkelijkheid is het geen prestatie als zonder deze features de games amper speelbaar zijn. Zolang een kaart geen 60 fps haalt zonder alle snufjes lijkt mij dat een achteruit gang op techniek, en uiteraard ook optimalisatie van game development.
Jammer om te zien dat alles zo aan het instorten is om snel geld te harken links of rechtsom.
Kleine persoonlijke opmerking: ik had in de benchmarks liever een recenter en veeleisender spel als Indiana Jones and the Great Circle in de plaats gezien van Doom Eternal.
Mee eens! Sinds release hebben we Indiana Jones al op de shortlist staan. Omdat het spel grote updates heeft gekregen en nog zal krijgen, hebben we hem momenteel nog niet als vervanger voor Doom ingezet. Bij een volgende revisie van onze game suite gaat dat waarschijnlijk wel gebeuren
Indiana Jones staat wel op de lijst voor games die we gaan testen, maar omdat de game nog zo nieuw is(of was toen we begonnen) en vermoedelijk veel patches krijgt, hebben we besloten deze nog niet mee te nemen.
Ik onderschrijf jouw suggestie mbt Indiana Jones and the Great Circle. Het is een inmiddels geliefd spel met zeer goede reviews.
Maar het spel is vooral op technisch vlak interessant omdat het een van de eerste games is waar ray tracing niet uitgezet kan worden omdat het dat volledig in het spel verwerkt zit. De developers hebben hier vanaf vroeg in de ontwikkeling voor gekozen.
Bijzonder is ook dat het zo goed schaalt, het heeft in principe settings die geschikt zijn voor een RTX 20xx/RX6xxx kaart tot aan path tracing settings die het best tor hun recht komen op een RTX 5090.
Ze doen dit vaak met een bepaald soort spel om te zorgen dat je een vergelijking kunt maken op langere termijn, dat al helemaal geoptimaliseerd is en dus niet afhankelijk meer is dat de software goed werkt met de hardware of dat scores alleen van elkaar verschillen door fouten daarin die nog geoptimaliseerd gaan worden.
Aanvullend had het idd wel leuk geweest als indiana erbij zou kunnen worden genomen puur om een van de meest recente games te zien. Maar goed er zitten op zich ook genoeg titels bij die recent genoeg zijn, en daarmee een fatsoenlijk beeld geven van de prestaties.
Ik denk dat er ook eens nagedacht moet worden om GPU computing als benchmark op te nemen.
Je ziet dat men steeds meer "faking" technieken gaat inzetten om tot betere graphics of fps te komen. Dus de GPU werkt met minder data en laat alleen door upscaling het "betere plaatje" zien. Je meet dan steeds minder de echte mogelijkheden van een GPU.
Daarnaast wordt de GPU ook steeds meer gebruikt voor lokale LLM/AI. Hiermee is het een stuk moeilijker om van die fake optimalisaties te doen, dus lijkt mij een betere maat om de echte GPU limieten te testen.
Ik weet dat Tweakers (meestal?) geen geluidsmeting doet bij Founders Editions, maar bij deze 5090 FE die een zeer innovatieve dual slot-koeloplossing heeft was het wel leuk geweest om daarvan de geluidsresultaten te zien.
Ik heb al gezien dat die helaas erg tegenvallen met 40 dB. Ter vergelijk: de 4090 had 35 dB en was daarmee redelijk stil te noemen, 40 dB is dat allerminst helaas.
Oh ja, en o.a. aardig wat coil whine komt er ook nog bovenop, aldus computerbase.de (vertaald):
Qua volume zijn er echter ook twee negatieve punten op te merken. Ten eerste heeft de grafische kaart te maken met relatief veel elektronische ruis. Het ratelen van de spoel is behoorlijk uitgesproken vanaf framesnelheden van drie cijfers en merkbaar vanaf 200 FPS. Als de framerates dan behoorlijk fluctueren, is er een leuk "rammelaarconcert" - printplaat met hoge dichtheid met componenten van de hoogste kwaliteit of niet.
En ten tweede werkte de ventilatorstop vrijwel nooit op het testsysteem, ook al waren alle temperaturen laag. Het merkwaardige is dat het zelden werkte, alleen om te stoppen met werken de volgende keer dat je een spel startte. Dit is duidelijk nog steeds een bug, want op een tweede en een derde systeem werkte de ventilatorstop betrouwbaar en zoals verwacht.
Ik heb al gezien dat die helaas erg tegenvallen met 40 dB. Ter vergelijk: de 4090 had 35 dB en was daarmee redelijk stil te noemen, 40 dB is dat allerminst helaas.
Wellicht is hij luider met 2 fans met een hoger TBP maar ondanks dat lijkt de toonhoogte waarmee het gezoem van de fans hoorbaar is toch wel zeer zeker ten faveure van de 5090 FE te zijn, luister dit maar eens:
Ja, maar dat is met een vaste fansnelheid van 65% voor beide kaarten. De fans zullen in de praktijk van de 4090 minder snel draaien dan die van de 5090, puur omdat de 5090 veel warmer wordt. Dus dat is dan weer ten faveure voor de 4090 😉
[Reactie gewijzigd door Degrader op 23 januari 2025 19:48]
Ze hadden voor die prototype 4-slot moeten gaan met 3 fans.
Begrijp me niet verkeerd.. sub 80C is mega goed voor een 2-slot koeler, maar niemand wilt een luidruchtige kaart hebben... ik i.i.g. niet daarom deshroud ik die van mij ook altijd en plant er gewoone fans op.
Nee, vind ik niet, dat is te dik en onhandig. Ze hadden de innovaties moeten toepassen op een drie slots koelingoplossing, dus net zo dik als 4090 FE, en niet per se voor een SFF-compatible kaart moeten gaan. Dit was kennelijk toch nét te hoog gegrepen, gezien de geluidsproductie, hoe enorm ingenieus het ook is wat de engineers van Nvidia hebben weten te creëren met deze ongekend complexe kaart en koeling.
[Reactie gewijzigd door Degrader op 23 januari 2025 21:19]
De zuurpruimen van Hardware Unboxed zijn juist enorm onder de indruk van de koeling (maar niet van de rest van de performance). Je moet meenemen dat hij enorm veel meer stroom gebruikt dan de 4090.
Het stroomverbuik is idd bizar en lijkt de grootste reden voor een betere prestatie. Je kan dan wel 45% performance gain hebben in bijvoorbeeld cyberpunk op ultra, maar je gaat ook van 400W naar 560W wat 40% is dus hoeveel extra performance per watt krijg je dan echt kan je je afvragen.
Tegelijkertijd zit er maar een paar procent verschil bij de 4090 tussen 350w limiet en 450w. Dus het is inderdaad wat minder innovatief om met een hoop meer power te werken, maar ook zeker niet niks, vind ik.
Ik vind dat (flink!) "meevallen" aangezien je op hetzelfde procede zit is het te verwachten dat je efficentie slechter wordt als je er meer stroom door pompt. Er is dus wel degelijk wat gewonnen in de 5000 serie, al is het niet meer zoals 10 jaar geleden met de enorme sprongen.
Ik zeg toch ook dat het 'een zeer innovatieve dual slot-koeloplossing' is? Maar uiteindelijk is de geluidsproductie waar het om gaat, hoe goed de koeler ook de 575 W opgenomen vermogen mag weten af te voeren.
En ik had goede hoop door PcCentric die op CES met een 5090 FE mocht spelen en laat horen hoe stil de kaart wel niet was onder zware belasting: YouTube: Gaming On The RTX 5090 With DLSS 4!
Dit valt toch tegen volgens verschillende reviews.
Kan het woord raytracing niet meer aanhoren. Vroeger was er Tessellation en PhysX, iets wat naar mijn mening veel mooier was, en het werd veel minder gehyped dan RT. Een aparte gpu voor PhysX zelf, wie herinnert het zich nog.
RT wordt veel te veel aangekaart alsof het zo speciaal en mooi is maar persoonlijk vind ik het maar gebakken lucht.
Ik ben het niet met je eens, maar het ligt wel wat genuanceerder. We gaan naar steeds betere graphics, maar voor fotorealistische graphics is belichting extreem belangrijk. Wij mensen zijn heel goed in staat om echt en nep te onderscheiden. Raytracing heeft de potentie om graphics echt een paar niveau's omhoog te tillen. Kijk een paar demo's van hele oude spellen en ondanks de oude graphics zien ze er meteen 100 keer beter en realistischer uit, puur door de belichting. Alleen real-time raytracing is super demanding.
Ik ben het daarom wel met je eens dat de performance die het kost nog amper opweegt tot het resultaat. Zeker als spellen het allemaal gebruiken voor een effectje hier en daar. Maar ik denk wel dat je ergens moet beginnen, want ik denk wel dat RT een belangrijk onderdeel is van toekomstige graphics met de potentie tot game changer.
RTGI kost op mijn RTX 3060 amper twee milliseconden mits goed geoptimaliseert. Gewoon keurige 1080p60 in m'n eigen game.
Dat moet op de RTX 50 kaarten toch echt geen probleem meer zijn. Zelfs de ROG Ally presteert nog 40FPS met RTGI aan.
Ik heb het idee dat mensen qua ray tracing prestaties een beetje zijn blijven hangen bij de allereerste RTX 20 series en de inmiddels vijf jaar oude game consoles, en het vaak ook de schuld geven van games die over het algemeen slecht geoptimaliseert zijn.
Maar we zijn inmiddels een stuk verder en ray tracing an sich hoeft echt geen probleem meer te zijn voor de prestaties.
[Reactie gewijzigd door Wolfos op 23 januari 2025 16:14]
Dat is waar, ik ben groot fan van goede lichte RTGI implementaties zoals avatar frontiers of pandora. Maar veel games met RTX aan schroeven alles maar gewoon tot de max en lossen de rest op met lagere render resoluties in geïnterpoleerde frames. Zo wordt ook deze 5090 nog gehalveerd in FPS in cyberpunk met RTX aan zo lijkt het. Ik zie er niet bij staan of dat "gewone" rtx is of path tracing, maar ik vermoed het eerste. Ik vindt dat gewoon nog steeds een veeeeel te grote performance loss persoonlijk.
Ik kan niet wachten tot een krachtige raytracing videokaart, die alles volledig kan raytracen. Dan kan ik eindelijk weer eens vette 3D graphics maken. Tot nu toe is het gewoon veel te traag.
Nee. Voor grafisch rendering blijven de gaming kaarten de beste bang-for-your-buck. Quadro's zijn extreem duur in verhouding.
95% van rendering in de professionele grafische wereld wordt ook nog steeds op CPU's gedaan. Slow and steady wins the race t.o.v fast but unpredictable met GPU's.
Volgens mij is de afgelopen tien jaar zelfs de meest vastgeroeste studio inmiddels over op GPU rendering, Redshift, Octane, Cycles, Karma XPU is echt de hoofdmoot vd industrie. En je hebt heus geen snelle kaart nodig om mooie plaatjes te maken... het gaat alleen wat rapper.
Er zijn maar een paar studios die (soort van) op die manier werken - tijdens Corona hebben die allemaal servers geinstalleerd voor thuiswerkers, en alle machines binnen de studio, workstation of headless, worden allemaal ingezet voor distributed renderen via bijvoorbeeld (meestal) Deadline. Als er niet op wordt gewerkt, worden er wat batches met frames weggewerkt door Deadline. De grotere studios zullen wel meer remote workstations hebben dan artists, maar of je dan van een dedicated farm kan spreken, dat denk ik niet, die tijd is wel over sinds we op de GPU renderen.
Overigens bestaat er zeker wel professionele GPUs, maar die worden meestal ingezet op het moment dat je double precision nodig hebt (science) of als je echt iets 24/7 moet draaien op de GPU en het kosteneffectief is om de beste, sjiekste en duurste te halen.
Nogmaals "Sinds we op GPU Renderen". Er zijn niet veel studio's in mijn vaarwater die dat kunnen veroorloven. Je spreekt hier een beetje te veel voor je eigen situatie alsof dat voor de rest van de industrie zo is. Volgens mij ben je een motion designer die vooral bij reclame's werkt, of niet?
[Reactie gewijzigd door Inferno-Acid op 6 februari 2025 16:57]
Ik freelance zelf voor Framestore en The Mill en Electric Theatre Collective en nee. Die zitten nog allemaal op CPU. Ik doe vooral ook FX en VFX, dat is vaak veel gedoe met het geheugen van een GPU. De studios die vooral op GPU zitten zoals jij zegt zijn denk ik toch vaak reclamestudio's of iets kleinere boutique studios. Vaak ook lichter werk. Eenpitters. GPU's hebben nog steeds ERG Veel problemen met zware scenes.
That said: Ik heb net twee klussen op Karma XPU gedaan door budget restrictie redenen. Maar wat is dat kut zeg vergeleken met normale Karma of andere CPU renderers... Zo veel extra overhead om dat je op je geheugen moet letten, en veel features die niet werken.
Ik denk dat je een 3d motion designer bent? Vanuit die positie kan je de dingen wel zeggen die jij net zei. Vanuit een perspectief van VFX en VFX/zware motion Design absoluut niet. Misschien was mijn 95% overdreven, maar vanuit mijn perspectief klopt dat dan wel. Net zoals GPU's vanuit jouw perspectief.
[Reactie gewijzigd door Inferno-Acid op 6 februari 2025 17:00]
Haha jij weet donders goed wat ik allemaal doe Maar idd, vanuit VFX perspectief heb je gelijk, al is t mega interessant wat er allemaal op de GPU kan wat dat betreft tegenwoordig (Volg vooral even de jongens van JangaFX op linkedin en insta) en wat dat betekent voor je workflow, lekker snel versies er uit knallen ipv ellenlange simulatietijden...
Yep ik gebruik het ook waar het kan idd. Maar geheugenrestricties zijn echt real, ik werk echt vaak met scenes die 128+GB nodig hebben ( en kneiterhard geoptimized worden alsnog ).
Framestore/The Mill etc werken vaak aan zulke grote shots met veel artists tegelijk dat opletten op geheugen echt niet geprefereerd is. CPU is dan een soort bulldozer die langzaam maar zeker alles wel pakt.. GPU heeft dan veel meer haken en ogen.
Maar ja het komt er zeker aan! Helemaal met die apple unfied memory dingen..
[Reactie gewijzigd door Inferno-Acid op 12 februari 2025 13:54]
RT is wel echt fundamenteel anders en wordt steeds vaker geïmplementeerd.
Helaas zorgen matige implementaties en lage settings onterecht voor een slechte naam. Vooral op consoles is vaak het verschil tussen aan en uit nauwelijks te zie, maar de framerate zakt wel merkbaar in.
Ik durf te stellen dat RT, bij een goede implementatie, een game changer is. Zeker met path tracing beleef je het spel anders, er ontstaat een compleet andere atmosfeer. Het is het daarom vooral een hele gave techniek voor atmosferische singleplayer games
Als je geïnteresseerd bent heb ik wat voorbeelden van hoe goed het kan zijn bij een goede implementatie en hoge settings via Digital Foundry:
Kortom, dat RT weinig doet is wat mij betreft een misvatting.
Op dit moment heb je helaas wel een krachtige GPU nodig om van fatsoenlijke RT effect gebruik te kunnen maken. Ik heb hoge de hoop dag de 5070 path tracing mogelijk gaat maken in het hoger mid desegregation. Heb ook hoge verwachtingen van de RT verbeteringen die bij de AMD RX 9070 verwacht worden.
(Het helpt voor de perceptie trouwens ook niet mee dat de huidige generatie consoles hardwarematig eigenlijk nauwelijks geschikt is voor ray tracing. Als je cynisch bent zou je kunnen zeggen dat het er op lijkt dat ze vooral het vakje ‘ray tracing’ aan wilde kunnen vinken. Het had misschien eigenlijk pas de volgende generatie geïmplementeerd moeten worden)
[Reactie gewijzigd door DLSS op 23 januari 2025 16:43]
Is het niet zo dat de engines die er op dit moment zijn gewoonweg niet goed genoeg met raytracing als basis voor belichting zijn opgebouwd, maar eigenlijk aan is toegevoegd? (ben er verder niet in bekend maar boerenverstand idee)
Zodra er dan genoeg power is in de pc's om dit in de engine van de grond af te kunnen draaien voor alle/meeste belichting lijkt het me een stuk beter implementeerbaar?
Ik vond dit filmpje vorige week van LTT wat dat betreft wel verhelderend: YouTube: Ray Tracing is MANDATORY Now
Dat het verschil vaak nog niet heel duidelijk is omdat veel spellen natuurlijk van te voren gemaakte lightmaps hebben. Maar dat dit ook iets iets wat veel ontwikkeltijd bij spellen vergt en dat bij een spel wat raytracing vereist zoals de recente Indiana Jones titel dus een stap is die dan kan worden overgeslagen.
Met je eens. Raytracing is het nieuwe HDR. In veel situaties zodanig overtrokken qua gebruik en instellingen dat het niet meer realistisch is. Leuk voor een demo van 2 minuten, irritant als je er uren naar kijkt.
Je had zelfs dedicated PhysX kaarten die geen grafische dingen ondersteunde. Maar volgens mij was dat juist hoe PhysX begon voordat het in videokaarten terecht kwam.
Als we niet overgaan op Path/Ray Tracing komen visuals geen stap meer verder. En aangezien iedereen betere visuals wilt hebben zullen ze eraan moeten geloven dat Path/Ray Tracing de toekomst is.
Nee, mits goed geïmplementeerd voegt het veel toe vind ik. Vaak zie je het ingezet worden voor veel te scherpe reflecties en dat was het, dat schiet niet op. Kijk je naar bijvoorbeeld Cyberpunk dan zie je dat het echt goed is, ik speel dat niet meer zonder.
Mooi artikel, maar helaas geen goede test en analyse.
Er is ook bij mij en vele anderen genoeg discussie over de generated frames, DLSS en totale latency dat een gamer ervaart. Uiteindelijk is die latency voor gamers vele malen belangrijker dan wat meer frames. En op het moment dat jouw PC al niet eens fatsoenlijk een stabiele framerate eruit kan gooien, dan moet je zeker niet AI inzetten om meer FPS te hebben. Het enige resultaat is een behoorlijke toename in de latency. Ook zou het fijn zijn om de games te testen op raw performance en daarna met de AI truckendoos open. Bij de testmethodiek staat in ieder geval niet beschreven welke settings gebruikt zijn m.b.t. de AI rendering 4000 vs 5000 series.
Nvidia Reflex 2 zou dit flink moeten reduceren! maar dit is sowieso zonder frame gen. te gebruiken. Daarbij wat andere testen al laten zien, zorgt die Reflex 2 ook voor beeldcorruptie voor hen die daar weer gevoelig voor zijn.
Buiten het feit dat ik dus totaal niet overtuigd ben van DLSS4 met multi frame gen. vind ik RTX Neural Faces helemaal waardeloos. Ook hier heb ik op youtube meerdere renders van gezien en je creeert een gezicht dat totaal anders is dan de gamemaker bedacht heeft. Vaak veel te zachte gezichten. Niets voor mij dus...
En het verbruik, zowel Idle als onder load. Als je dan zoveel jaar verder kijkt, is de efficiency dus er niet beter op geworden (performance per watt).
Mijn uiteindelijk oordeel tot nu toe is erg gematigd over de 5000 series, waar ik daarvoor maanden er naar uit zat te kijken als potentiele opvolger van mijn 3000 kaart.
Benchmarks lijken toch wel vrij goed, maar niet op alle vlakken t.o.v. extra verbruik. Overigens laat het gelinkte artikel wel goed ziet wat de resultaten met en zonder DLSS en RT is. Het enige waar het nog in ontbreekt is een latency meting!
[Reactie gewijzigd door n00bs op 23 januari 2025 21:54]
Dus je zegt dat de latency (per frame) toeneemt door DLSS / MFG maar dat is dus helemaal niet in het geval.
Dat de FPS niet klopt met de latency klopt, als je 260FPS haalt maar je latency zit rond de 30/32ms dan kun je dat merken. Maar in de praktijk is voor de meeste games de hogere FPS veel belangrijker en merkbaarder.
Voor competitive games ga je het niet willen, voor 80% van de andere spellen ga je het niet merken.
2369 euro voor een video kaart? Dat is bijna een gemiddeld netto maand inkomen. Wat de gek ervoor geeft denk ik dan maar. Ik hoop dat weinig gekken er 2369 euro voor gaan geven en dat Nvidia weer bijzinnen komt.
Iemand enig idee wat de productie kosten zijn?
[Reactie gewijzigd door Speedster op 23 januari 2025 15:26]
Ik vind beiden eerlijk gezegd van de gekke, maar goed, ik zit dan ook liever met een boek in een hutje ergens op de hei als ik op vakantie ga. Voor ieder wat wils, zal ik maar zeggen.
Als gamer zijnde en als ik kijk hoeveel uur ik wel niet besteed achter mijn PC vind ik het het wel waard. Dat wil niet zeggen dat ik alsnog 3x nadenk en het een bak met geld vind..
Of een iphone van tegen de 2k aan, of een Samsung Galaxy fold met een vergelijkbare prijs als een 5090. Kortom, veel mensen zijn gewoon bereid om flink te betalen voor iets waar ze vreugde uit halen. Is het geen 5090, dan is het wel vakantie, een mobieltje, een 7-gangen diner in een driesterren restaurant, ......
Ikzelf ga het niet betalen voor een videokaart, maar ik ben wel van plan om mijn inmiddels antieke PC te vervangen door een nieuw modelletje met een 5080 erin. Kan ik weer een aantal jaren vooruit, in ieder geval langer dan de levensduur van een nieuwe high-end smartphone
Grappig, ik draai ook op een 2080 Super, en ik begin nu her en der tegen performance issues aan te lopen. Ik ben nu al een paar maanden in dubio wat de opvolger van m'n 2080 moet gaan worden.
Volgende maand komt Monster Hunter Wilds uit, en die draait voor mij niet goed genoeg tijdens actie op de huidige GPU. Die 8gb vram is gewoon te krap aan het worden. Maar met de prijzen van tegenwoordig twijfel ik of het nog wel een nvidia moet gaan worden. Ik kan mij best vinden in het commentaar over de prijzen, hoewel het ook een hobby mag zijn en dus wat mag kosten.
Voor de helft heb je een kaart die misschien een jaartje minder mee gaat. High end GPU's voor futureproofing is echt onzin, dit heb je alleen nodig voor 4k120 achtige toestanden.
[Reactie gewijzigd door Kaasrol op 23 januari 2025 15:38]
Oke, en hoe draai ik alle rendersoftware en noem maar op op die kaarten? Al die software is geoptimaliseerd voor CUDA dus al heeft AMD 96GB heb ik er nog niks aan
Fair, lees CUDA applicaties ipv machine learning. Dan is het ook een kwestie van prijs per uur, dat is anders dan in het hobby (gaming) scenario waar ik op reageerde.
Je zit op een hardware vergelijkingssite. Kijk even drie seconden voordat je de claim maakt dat er geen AMD kaarten zijn met meer dan 16GB. AMD 7900XTX 24GB, AMD 7900XT 20GB
dan zit je met Nvidia binnenkort met één kaart daarboven, voor een prijs waar je, als het je om geheugen gaat. net zo goed naar pro kaarten kan kijken.
[Reactie gewijzigd door blackdiablo op 23 januari 2025 16:18]
Lees even wat ik schrijf.
NIEUWE videokaarten. Geen vorige generatie. De 9700 9070 serie die uitkomt heeft maar 16GB geheugen en AMD heeft al aangegeven voorlopig geen high end kaarten meer uit te brengen.
Dus als je top performance wil met veel geheugen kan je NIET bij AMD terecht.
[Reactie gewijzigd door Arjant2 op 23 januari 2025 21:33]
Behalve dat die 'oude' kaarten het ook nog lang zat vol gaan houden. Als consument wil je de beste koop, dat is niet altijd het nieuwste zoals ook nu blijkt.
lees dan ook wat ik schrijf dan zit je BINNENKORT met één kaart daarboven.
Als je het over andere kaarten hebt als de 4090. dan tellen de 7900xtx en xt ook.
en het is een 9070, geen 9700
[Reactie gewijzigd door blackdiablo op 23 januari 2025 20:31]
Dat hoor ik meer, maar als het puntje bij paaltje komt staan ze bij de volgende generatie weer in de rij en de fabrikant denkt, hmmm ze betaalden het? er kan wel weer wat bovenop.
Als je voor het rekengemak 6 jaar doet met zo'n kaart van 2300 euro, dan heb je nu inderdaad de allerbeste kaart, over 2 jaar komen er nieuwe kaarten uit en dan is hij ineens niet meer het beste. 2 jaar later komen er weer nieuwe kaarten uit en dan heb je ineens een midrange kaart.
Voor die 2300 euro had je 3x een kaart van 750 euro kunnen kopen (Zonder verkoop van de oude kaart meegerekend), dan had je in het begin niet het allerallerbeste gehad (maar nog steeds een goede grafische kaart die alle spellen prima kan spelen), na 2 jaar zal je al in de buurt zitten van wat die 5090 zou doen en de volgende upgrade ben je al sneller.
Als je dan ook nog je oude kaarten verkoopt zal je waarschijnlijk over die periode meer terug krijgen dan die 5090 na 6 jaar (kijk maar wat een 2080ti nu kost) en voor de laatste 2 jaar heb je een snellere kaart.
Misschien heb je na 2 of 4 jaar wel al een betere ervaring omdat je ook nieuwe features krijgt die de 5090 niet zal hebben
Je zou verwachten dat 90% van de mensen zo redeneert of zelfs om de 3 jaar upgrade middels een midrange kaart. Maar blijkbaar toch teveel mensen die 4k spelen op ultra (of andere zware eisen hebben) en/of teveel over hebben voor hun pc hobby.
Mensen die AI modellen willen trainen maar niet genoeg geld hebben voor dedicated AI kaarten
Mensen willen showen dat ze genoeg geld hebben voor een 5090 (zelfs als ze dat geld misschien eigenlijk niet hebben.
Mensen die zodanig veel geld hebben dat het verschil tussen 1000 en 2500 euro bijna niet opvalt.
Mensen die geen verstand hebben van wat nodig en mogelijk is om spellen soepel te laten draaien.
Mensen gaan waarschijnlijk nog een 5e categorie noemen: Mensen die hun hobby wel 2500 euro waard vinden voor het plezier dat ze er uit krijgen. Maar ik denk dat ik die mensen afhankelijk van hun financiële situatie in mijn 3e of 4e categorie (of beide) zou plaatsen. :-)
Om nog een belangrijke categorie toe te voegen. Mensen met 3D rendering als hobby (of semi-professioneel). Dat is voor mij de enige reden dat ik zo'n high-end kaart gekocht heb. Gaat dan vooral om de VRAM.
Jammer voor mij dus om alleen D5 rendering als benchmark te zien.
Dat zijn de adviesprijzen. Daarvoor ga je 'm hoogstwaarschijnlijk nergens in Europa daadwerkelijk kunnen kopen. All 5090s gaan de komende tijd ontzettend zeldzaam zijn.
Ik was heel erg bereid om zoveel neer te tellen (en m'n 4090 te verpatsen voor 1500 ofzo dus dan valt het nog mee) maar doordat het zo een lawaaikaartje is blijf ik voorlopig nog even hangen.. Maar de prijs vind ik redelijk.
Heb 2 jaar geleden 2400€ voor mijn Asus strix 4090 OC betaald ik kijk niet echt op vanwege de prijs van de 5090 dus.
Maar vind hem niet echt vernieuwend helaas ik had meer verwacht.
Uiteraard hadden we dat graag willen doen, maar bij een releasereview met een beperkte hoeveelheid tijd moeten we keuzes maken. Als we wel de koeler hadden getest maar bijvoorbeeld niet de PCIe 4.0-prestaties, had hier ongetwijfeld een vraag daarnaar gestaan . Morgen heeft vrijwel ons hele videokaartenteam een welverdiende vrije dag, maar dit zal een van de eerste dingen zijn die we volgende week gaan oppakken
Ik zie zelf een grotere meerwaarde in temperaturen, ventilator rpm en decibels melden in een review dan een pci-e 4.0 vs 5.0 test...
Die eerste drie zaken zouden toch prioriteit moeten hebben over een PCI-e 4.0 vs 5.0 test in een videokaart review?
Wat blijkbaar ook niet zo'n hele wereldschokkende data opgeleverd heeft.
Wel fijn voor Nvidia dat het nog tot volgende week duurt voordat die info hier toegevoegd wordt.
-Qua idle power draw valt het tegen.
-Qua geluidsniveau valt het tegen met zo'n 40db.
[Reactie gewijzigd door HugoBoss1985 op 23 januari 2025 16:45]
Ik ben hier erg blij mee. Heb zelf nog een x470 bord met pci-e 3.0. Door jullie overzicht durf ik de gok wel aan en schat ik dat dit in totaal een procent of 5 verschil zal maken. Dank!
De temperaturen, de koeler (2 slots) en het ventilatoren rpm vind ik het enige indrukwekkende aan deze kaart, n.a.v. andere reviews waar de temperaturen wél getest (gepost) zijn.
De VRAM temperatuur vind ik dan wel aan de hoge kant.
[Reactie gewijzigd door HugoBoss1985 op 23 januari 2025 16:01]
Ja ook echt wel benieuwd, want normaal koop ik geen FE maar vind wel echt fijn dat ik ik geen 3-4 slots meer kwijt ben! Altijd wel wat zonde gevonden dat die kaarten zo belachelijk groot geworden zijn, vind op zich misschien wel de grootste inovatie van deze reeks. Alleen jammer te zien dat partners dit design of variatie lijken te gebruiken, van wat ik zag lijken ze allemaal vrijwel zelfde koelers layout te gebruiken dan bij hun 4000 serie.
Bij DLSS framegen is beeldkwaliteit leuk maar m.i. nog een van de minst belangrijke factoren. Er moet getest worden op input-lag en input-artefacts. We spelen immers games en kijken niet naar een film - er is sprake van user-input. De reden dat we hoge framerates willen bij games, is zodat het vloeiender voelt.
Het gaat mis bij fast-paced shooters of letterlijk elke competitive game. Het probleem is dat als je in een shooter je muis snel heen-en-weer beweegt, DLSS Framegen de nieuwe richting van je beweging met geen mogelijkheid kan voorspellen. M.a.w., als je een snelle links-rechts-links flick maakt met je muis, weet DLSS niet waar je beweging omdraait en ook niet waarnaartoe. De gegenereerde / gegokte frame wordt ge-extrapoleerd uit de start van je beweging, en zal over- of undershooten (of uberhaupt compleet hallucineren), wat een vreemd gevoel zal geven. En bij alles wat een competitief element heeft, is accuracy tussen wat je doet en wat je ziet belangrijker dan al het andere.
Als je met framegen een game op 120fps speelt, terwijl de native framerate 30fps is, krijg je dus een game die er smooth 'uitziet', maar alsnog op inputs reageert als dikke stront door een trechter en je intussen mogelijk dingen laat zien waar je crosshair nooit geweest is, tot de volgende echte frame orde op zaken stelt.
DLSS framegen is vooral een hele mooie truc om synthetische benchmarks hoge nummers uit te laten persen, omdat die wel puur om de cinematische vloeiendheid gaan.
[Reactie gewijzigd door Boxman op 23 januari 2025 15:54]
1. Reflex staat los van framegen, het is niet eerlijk om native zonder reflex te vergelijken met framegen mét reflex.
2. Reflex kan maar beperkt optimaliseren, als je vertrekt van 30fps blijft de tijd om een volgend echt frame te genereren veel te hoog om het te doen aanvoelen als 120fps, wat je ook probeert.
Eerlijk of niet het gaat uiteindelijk om het behaalde resultaat en dat is goed met FG. De latency zal altijd lager zijn met REFLEX zonder FG en straks helemaal met REFLEX 2.0.
Framegen extrapoleert niet. DLSS (en FSR) framegen interpoleert tussen 2 frames. Dat is ook de reden dat input latency inherent hoger is. Eerst moet de nieuwe frame beschikbaar zijn, en pas dan kun je interpoleren. En met 1 AI frame per 1 gerenderde frame, moet de laatste gerenderde frame de halve frametime later worden weergegeven dan de AI frame. Dus de extra latency is altijd (minimaal) interpolatietime+frametime/2.
Native (met upscaling, dus niet echt native) 30fps is gewoon te laag voor framegen. Maar van 30 native, naar 80 met upscaling, naar 240 met framegen, kan prima werken. Je moet inderdaad wel een heel klein beetje snappen waar je mee bezig bent als je framegen goed wil gebruiken. En een spellen spelen waar input latency niet enorm belangrijk is, voor competitive gamers is framegen geen goed idee. Daarvoor komt reflex 2 binnenkort.
Als jij persoonlijk niets geeft over hoe vloeiend het beeld is van je spel. En alleen geeft om input latency. Is de "we" in je verhaal nogal misleidend. Ik vind het heel fijn als een beeld rustiger is voor mijn ogen door gebruik van framegen.
The latest generation of DLSS also generates beyond frames. In can predict the future, generating 3 additional frames for every frame that we calculate.
Als dat niet waar blijkt te zijn, dan heb ik verder niks gezegd, buiten het feit dat je dan inherent input-lag hebt omdat je voor je frame-gen moet wachten op de volgende berekende frame. Ik zie dat er online veel discussie is over zijn uitspraak, maar ook dat het lastig is een officieel statement te vinden over of met ingang van DLSS4 nou wel of niet geëxtrapoleerd wordt.
Ben ik de enige die de resultaten teleurstellend vind tov de 4090, als je kijkt naar de enorme toegenomen geheugensnelheid en aantal cores?
Bandbreedte bijna x2
Aantal cores bijna 1/3 bij
Ik zou gedacht hebben om toch een +50% performance te zien.
Klopt! Ik denk dat deze kaart aardig power-limited is nog. Namelijk, de 5080 heeft exact halve specs, maar mag 360 watt verbruiken, dat zou betekenen dat deze *eigenlijk* 720w nodig zou hebben om volledig benut te worden.
Dat is natuurlijk maar een theorietje, maar ik ben dus ook heel benieuwd of iets van undervolting plus hogere power limit nog wat meer performance kan loskrikken, ik denk 't namelijk van wel.
Sommige spellen halen dit ook wel, maar mijn aanname (van een leek) is dat er maar weinig devs zijn die de boel goed genoeg kunnen optimaliseren. Cyberpunk heeft bijvoorbeeld gewoon +45-50% FPS tegenover een 4090.
Heeft niet veel met optimaliseren te maken maar meer hoe goed je game scaled met sneller geheugen. Bij sommige games is dat effect gewoon groter dan bij andere
Dat niet alleen, de prijs dat doet het hem voor mij. Als het een prijskaartje kreeg van 15 a 1600 euro dan had ik me portemonnee direct getrokken, maar dit is te gek voor woorden...
Bijzonder teleurstellend voor een 5090 eerlijk gezegd! Tuurlijk wisten we de specs al, en de nagenoeg identieke process node... maar het blijft jammer.
Ik had meer performance verwacht t.o.v. de 4090. De 5090 geeft je gemiddeld 30% extra performance in gaming voor een adviesprijs die 25% hoger ligt.
Diezelfde flagship-vergelijking was de vorige generatie véél gunstiger. De 4090 geeft 70% extra performance t.o.v. de 3090, voor een adviesprijs die ~6.7% hoger ligt.
Tuurlijk had ik zelf ook liever weer +60-70% gezien, maar ik denk dat ze dit keer voornamelijk op het compacter maken hebben gefocust, en nog wat meer aan de koeling gesleuteld. De 5090 lijkt een stuk koeler te blijven terwijl het ook nog significant smaller is geworden. Ik denk dat het best wat mogelijkheden geeft aan kleine builds zonder te hoeven rommelen met waterkoeling.
Wellicht dat de 60 series weer een mooie performance sprong maakt zoals de 40 series gedaan heeft.
Qua formaat is de 5090FE alleen minder dik dan de 4090FE. Het blijft een beest van een kaart qua afmetingen - 'kleine build' gaat relatief zijn. Goed meten voordat je in het diepe springt.
Ik had meer performance verwacht t.o.v. de 4090. De 5090 geeft je gemiddeld 30% extra performance in gaming voor een adviesprijs die 25% hoger ligt.
En 30% extra performance voor 28% meer stroomverbruik. Niet echt een bijzondere upgrade wat dat betreft. Performance per watt is bijna gelijk. Ook niet al te verbazend aangezien de node gelijk is gebleven.
Al is het compactere formaat en de bijna dubbele geheugenbandbreedte is natuurlijk wel interessant. Zeker voor LLM gebruik waar geheugenbandbreedte de bottleneck is. Daar is de extra VRAM ook super geschikt voor.
Maar voor gaming kijk ik de kat maar even uit de boom, denk dat het niet echt zin heeft om mijn 4090 te upgraden. Zeker omdat er ook een nieuwe voeding bij moet en eigenlijk een AM5 moederboard + CPU + nieuw geheugen om er maximaal profijt van te trekken. Toen ik van mijn oude 3080Ti naar de 4090 ging was dat wel een enorme sprong.
[Reactie gewijzigd door Llopigat op 23 januari 2025 15:52]
Er zijn wat YT kanalen die de GTX1080 and RTX2080 opnieuw hebben getest met huidige cpu's (5800X3D, 7800X3D en 9800X3D) en er zit zo'n 30% winst in, in een enkele flink hoger.
Ik vraag me af hoeveel winst er in de 4090 en 5090 zit als we over aan aantal jaar flink snellere processors hebben.
Ik kan dit moeilijk geloven, dus zou je een bron willen delen?
Een goeie GPU-benchmark doe je in GPU-limited scenario's, dus ik kan me niet voorstellen dat een betere processsor daar veel invloed op zou hebben, laat staan een 30% verhoging. De hardware is wat het is - een betere CPU kan niet meer rekenkracht uit je videokaart trekken.
Ja, misschien draait het spel wel beter - maar dan komt dat zeer waarschijnlijk door betere CPU performance in een scenario waar dat een (kleine) bottleneck is.
[Reactie gewijzigd door IlIlIllII op 24 januari 2025 08:22]
Dit is er 1. GN heeft er ook een video over. Er zijn er meer.
Een betere cpu verandert een videokaart niet, dat begrijp ik, maar als het beste van toen gewoon niet voldeed om de cpu bottleneck 100% weg te halen, waarom zou dat voor de nieuwe videokaarten niet gelden? Zeker voor monsters als een 4090/5090 en net daaronder. Dat zou de mindere resultaten op 1080p wel verklaren.
Ikzelf ging van een 5600 naar 7700 en zelfs zonder bench merk je echt wel dat de 1% beter zijn met een 3060, en de 5600 zou volgens meerdere testen geen bottleneck moeten zijn.
Bedankt! Min of meer wat ik verwachtte eigenlijk. 1080p vergelijkingen van moderne spellen waarvan sommige een flinke CPU-bottleneck hebben.
maar als het beste van toen gewoon niet voldeed om de cpu bottleneck 100% weg te halen
Nou... er worden hier moderne spellen getest met een GPU en CPU uit 2017. Die spellen hebben nou eenmaal hogere requirements - logisch dat je dan eerder bottlenecked bent. Dus ''het beste van toen'' is niet echt toepasselijk hier aangezien deze spellen/ports grotendeels uit 2020-2024 komen. Dan kun je beter kijken naar spellen uit 2016-2018 imo die relevanter zijn voor de hardware van toen.
Kijk, als je echt 100% CPU-bottlenecked spel kun je natuurlijk je GPU-performance niet echt in kaart brengen. Ja, toekomstige CPU's verhelpen die bottleneck en zullen dat probleem oplossen. Eindresultaat is een hogere framerate. Maar is dat ''winst'' te noemen voor de GPU? Natuurlijk niet, want het is de CPU die je framerate verbetert. Je gemiddelde GPU-benchmarks zijn iets accurater omdat ze nu ''vrij spel'' hebben, maar als je die verbeterde metingen toevoegt aan de vroegere benchmarks... dan spreken we over margin of error.