Door Reinoud Dik en Tomas Hochstenbach

Kunstmatig en krachtig

Nvidia GeForce RTX 5090 Review

23-01-2025 • 15:00

334

Singlepage-opmaak

Conclusie

Hoe reviewen we gpu’s en hardware als de nadruk steeds meer op AI komt te liggen en de ene pixel niet meer met de ander te vergelijken valt? De rol van upscaling en Frame Generation begint steeds groter te worden in gaming, en als het aan Nvidia ligt, is dit de weg die ingeslagen moet worden om steeds snellere, slimmere en efficiëntere videokaarten mogelijk te maken. En voor een deel is dat noodgedwongen, want zelfs bijna tweeënhalf jaar na de RTX 40-serie had TSMC blijkbaar geen geschikte nieuwe node beschikbaar om de verkleining, inclusief prestatie- en efficiëntiewinst, daarvan te benutten. Voor ons als reviewers maakt dit het beoordelingsproces van videokaarten, en al helemaal een nieuwe generatie videokaarten op basis van een nieuwe architectuur, een stuk lastiger. Wat betekenen gpu-prestaties nog als meer dan 90 procent van wat er op je beeld verschijnt met DLSS 4 door AI gegenereerd wordt?

Zoals we al jaren gewend zijn, kunnen we de gebruikelijke prestatiewinst van het nieuwe topmodel ten opzichte van zijn voorganger noemen. De GeForce RTX 5090 is op 4k met Ultra-instellingen zonder raytracing gemiddeld ruim 30 procent sneller dan de RTX 4090. Bij gebruik van raytracing is dat nog een procent meer. Het stroomverbruik ligt echter 40 procent hoger, wat minder prestaties per watt tot gevolg heeft. Ook de adviesprijs van de RTX 5090 is met 2369 euro zo mogelijk nog astronomischer dan die van zijn voorganger.

Nvidia GeForce RTX 5090

De prijs-prestatieverhouding van de RTX 5090 ligt met bovenstaande punten echter niet zomaar vast. Puur kijken naar rasterization of raytracing vertelt niet het hele verhaal en laat niet de potentie van de nieuwe generatie zien. DLSS 4 met Multi Frame Generation ziet er bij de eerste indrukken aardig goed uit, en Nvidia zal het algoritme ongetwijfeld verder kunnen verbeteren om beeldfouten tot een minimum te beperken. Maar volledig afgaan op Multi Frame Generation en neuralrendering is vandaag de dag ook allesbehalve het complete plaatje, omdat ondersteuning nu nog op gang moet gaan komen. Voor Nvidia is het dan ook zaak om in zoveel mogelijk games en software hun technologie ondersteund te krijgen. Als er een fabrikant is aan wie dit is toe te vertrouwen, dan is het Nvidia wel; met RTX en DLSS heeft Nvidia bewezen over voldoende overtuigingskracht richting gameontwikkelaars te beschikken. Daarbij is het slim dat Nvidia ervoor kiest om de kwalitatieve verbeteringen van DLSS ook op de RTX 20-, 30- en 40-serie mogelijk te maken, zodat meer van zijn klanten hier gebruik van kunnen maken.

De enorme featureset van de RTX 50-serie maakt het nieuwe aanbod van Nvidia in zekere zin vergelijkbaar met hoe de fabrikant zijn RTX 20-serie in 2018 op de markt bracht. Ook toen konden de hardwaremogelijkheden pas goed worden benut naarmate ondersteuning vanuit software en games toenam. Volgens Nvidia is DLSS 4-ondersteuning erg makkelijk om te implementeren als een game reeds DLSS ondersteunt, dus de uitrol van Multi Frame Generation zal mogelijk vlotter verlopen. Voor grote nieuwe features die onderdeel uitmaken van RTX Neural Rendering zal dat vermoedelijk niet direct het geval zijn. Voor een RTX 5090 met 32GB geheugen is Neural Texture Compression vermoedelijk niet snel noodzakelijk, maar voor bijvoorbeeld een RTX 5070 met 12GB vram kan dat op termijn wel een groot verschil maken.

Omdat belangrijke en unieke features van de RTX 50-serie zich de komende jaren nog moeten gaan bewijzen, is de RTX 5090 vandaag de dag niet voor iedereen de gewenste grote stap vooruit, maar wel een videokaart die klaar is voor de toekomst. De ruim 30 procent hogere prestaties zijn min of meer in lijn met de toename die we in het verleden hebben gezien met de winst van de RTX 2080 Ti op de GTX 1080 Ti en ook de RTX 3090 op de RTX 2080 Ti. Dat sommigen misschien meer hadden verwacht van de RTX 5090, zit hem mede in de veel grotere sprong die de RTX 4090 ten opzichte van zijn voorgangers maakte.

Lees meer

Reacties (334)

334
328
116
11
0
185
Wijzig sortering
Interessante review qua prijs-energieverbruik-prestaties!

Kleine persoonlijke opmerking: ik had in de benchmarks liever een recenter en veeleisender spel als Indiana Jones and the Great Circle in de plaats gezien van Doom Eternal.
Als je de prestaties uitdrukt in gemiddelde frames per watt, presteert de RTX5090 zelfs iets minder dan de RTX4090 namelijk:

- RTX5090: 135,7 frames / 562,61 watt = 0,2412 frames/watt
- RTX4090: 103,8 frames / 401,93 watt = 0,2583 frames/watt
(Tweakers GPU Prestatiescore 2025-1 - 4k ultra met rasterization / Opgenomen vermogen ingame - Cyberpunk 2077 - 3840x2160 - Ultra)

Gek dat deze berekening niet in de overzichten staat. Wat mij betreft is het de meeste treffende meetwaarde als het gaat om het uitdrukken van innovatie in een getal.

[Reactie gewijzigd door Luit op 23 januari 2025 15:46]

Bij publicatie ontbrak die inderdaad nog, maar inmiddels staat de efficiëntie / prestatie-per-watt grafiek onderaan p22 :)

Als je het puur berekent met de game waarin we ook stroom meten, komt het juist nipt in het voordeel van de 5090 uit - maar de conclusie uit beide methoden lijkt me vooral dat het verschil tussen 40- en 50-serie beperkt is.

[Reactie gewijzigd door Tomas Hochstenbach op 23 januari 2025 16:42]

Het verbaast mij dat aan het eind van het artikel niet de conclusie getrokken wordt dat de prijs/kwaliteit niet in verhouding staat:

Wanneer het verschil in frames/watt zo marginaal is vergeleken met de vorige generatie kun je wmb niet spreken van een vooruitgang. Zeker niet als je minimaal 20% meer transistors, cores, prijs en stroomverbruik nodig hebt om dat te bereiken.
Dat komt eerder over alsof ze de techniek van de 4090 verder opgeblazen hebben dan dat er enige vooruitgang wordt geboekt, wat niet verrassend is aangezien beide ook hetzelfde procedé gebruiken.

Op papier lijkt wat dat betreft de 5070ti mij bijvoorbeeld een stuk interessanter, er vanuit gaande dat die inderdaad de 4090 verslaat.
... Dat komt eerder over alsof ze de techniek van de 4090 verder opgeblazen hebben dan dat er enige vooruitgang wordt geboekt, ...
Vandaar ook dat Steve Walton (van Hardware Unboxed op YouTube en de TechSpot website) het de '4090 Ti' bleef noemen en dat Balin, (o.a. de editor) daarop telkens op de achtergrond bleef roepen "No Steve, it's the 5090!"
Een portie Australische humor/sarcasme, ieder mag er uiteraard het zijne van vinden, ik ben er wel van!
... Op papier lijkt wat dat betreft de 5070ti mij bijvoorbeeld een stuk interessanter, er vanuit gaande dat die inderdaad de 4090 verslaat.
Tuurlijk! De enige vraag is nog; met hoeveel 'AI-Powered Frame Generation' tegenover de 4090 zonder? ;)
Maar nu even serieus, bij een eerlijk vergelijk tussen de 5070 Ti en de 4090 ga je 'van een koude kermis thuiskomen', zo ongeveer 'de winter van 1962–1963' koud...
Het verbaast mij dat aan het eind van het artikel niet de conclusie getrokken wordt dat de prijs/kwaliteit niet in verhouding staat:
Hoezo? Bij flagship videokaarten draait het niet om de prijs-prestatieverhouding, het is altijd het allersnelste model voor wie bereid is daar flink voor te betalen? Voor betere price/performance kijk je beter naar midrange kaarten.
Op papier lijkt wat dat betreft de 5070ti mij bijvoorbeeld een stuk interessanter, er vanuit gaande dat die inderdaad de 4090 verslaat.
Nvidia's marketing doet het goed zo te zien. De 5070 Ti gaat never nooit zo snel zijn als een 4090 in een eerlijke vergelijking, de rekenkracht zit er ver onder. Pas met de nieuwe truukjes van multi frame gen kun je grafiekjes maken waarmee die indruk wordt gewekt.
Het schokkende is dat er dus zo goed als geen generationele uplift is dankzij de architectuur: de upgrade van het N4 naar N4P procedé geeft je een uplift in efficiëntie van enkele procenten, en de 5090 is in performance/watt amper 5% beter dan de 4090. Dus wat zal het zijn: 2% dankzij N4P, 2% dankzij Blackwell vs Ada? Voor een nieuwe architectuur is zo een non-upgrade echt nooitgezien.

Misschien moeten we de 4080 en 4070 reviews afwachten, want misschien is de 5090 gewoon gepusht naar een absurd slecht punt op de efficientie-curve, maar voorlopig ziet het eruit alsof Blackwell op architecturaal niveau een dode mus is, tenminste voor gaming.

[Reactie gewijzigd door kiang op 24 januari 2025 09:21]

Voor een nieuwe architectuur is zo een non-upgrade echt nooitgezien.
De RX 7600 was ook niet efficiënter dan zijn voorganger, terwijl ook die op een efficiënter procedé staat dan de 6600. Prestaties per Watt verschillen altijd een beetje per kaart natuurlijk, maar met RDNA 3 hebben we al gezien dat de vooruitgang soms tegenvalt.
Klopt, ik doelde met mijn uitspraak vooral op nvidia. Ik denk dat zij enkel een dergelijk slechte archtiecturale sprong maakten bij de gefroce 500 serie. AMD heeft inderdaad al vaker de plank misgeslagen :+
Poeh, de 500-serie is al een poosje geleden! Ik heb die serie net niet bewust als tweaker meegemaakt, maar de 500-serie was toch de 400-serie maar dan wél goed? Die “Grillforce” GTX 480 was berucht, maar over de 580 heb ik nooit iemand gehoord.

Overigens hield precies die generatie Terascale 3 ook niet over. Architectureel was het een stap in de juiste richting en de HD 6900-kaarten waren goedkoper te produceren dan de HD 5800-serie, maar sneller en efficiënter waren ze niet zonder meer.
Wow, fantastisch om te lezen. Jouw reactie.
Ik was ooit fervent gamer, bouwde altijd mijn eigen systemen. Maar ben ooit afgehaakt bij nVidia bij de Geforce 7 7800GS AGP. De generatie die jij beschrijft als pre-historie, zou nog vele generaties duren tot hij geintroduceerd werd.

Daarvoor had ik Geforce 6, Geforce 4 Ti 4200, Geforce 2 GTS en daarvoor weer 3dFX. Na de laatste nVidia kaart, heb ik AMD kaarten in mijn systemen gehad. Tot ik uberhaupt geen tijd meer had om te gamen. Mijn laatste videokaart is inmiddels alweer uit 2015.

Zou het vuurtje ooit weer gaan branden?
Al vind ik die grafiek een beetje misleidend, want jullie pakken er nou net een game uit waar de 5090 het goed doet, nl. Cyberpunk 2077. Als je het gemiddelde neemt (te zien op pagina 18 van de review) komt de 5090 er toch wat slechter vanaf. De 5090 verbruikt 2,5 keer de hoeveelheid van een 4070 Super. Maar qua prestaties is die op 4K slechts 2,34 keer sneller. Zelfde verhaal voor de gewone 4070. De 5090 verbruikt ruim 3 keer zoveel (verbruik van de 4070 is 180W) maar is slechts 2,77 keer sneller.
Conclusie: zowel de 4070 als de 4070 Super zijn efficiënter dan de 5090, maar jullie grafiek toont net het tegenovergestelde.
Energiegebruik zou de high-end gamer, die zon kaart daadwerkelijk koopt voor optimale prestaties, aan zijn welgevormde derrière oxideren. 30% meer prestaties, tot 40% meer stroomverbruik tijdens gamen kan door de beugel.

Je krijgt met deze 5090 30% meer cuda cores, 30% meer prestaties op 4K ultra of raytracing(dat is niet goed te vergelijken door nieuwe technieken) voor 20% meer geld. Dat is zeer acceptabel. Bij lagere resoluties en instellingen geeft de CPU doorslag, daarom haalt de 5090 daar geen 30%.

Sowieso zullen tweakers altijd gaan proberen wat de kaart gaat doen bij lagere voltages.

Hoe dan ook, dit is geen budgetgaming, en daarom niet relevant.

Overigens ben ik niet in de markt voor een videokaart als de 5090, ik ben geen high-end gamer, maar het kan mij eerlijk gezegd ook niets schelen wat mijn 4070Ti Super verbruikt tijdens het gamen. Dat is mijn hobby, energie verbruik ik nu eenmaal. Bij mijn koelkast is het wat anders, die staat dag en nacht aan, dus die is extra zuinig.

[Reactie gewijzigd door ABD op 23 januari 2025 16:51]

Ik word zo langzamerhand een beetje gek van dat gepiep over stroomgebruik. En al helemaal bij dit soort producten.
Iemand zei het al eerder in een andere draad, is een beetje als een lambo V12 kopen en dan huilen over het brandstofverbruik.
Je mist het punt denk ik.
Het hoge stroomverbruik geeft aan dat de extra performance winst is behaald met kwantiteit en niet met kwaliteit.
Wat betekent kwaliteit nou weer? Je had gewoon de verkeerde verwachtingen, het was allang bekend dat Blackwell niet op een nieuwe node gefabriceerd werd en nagenoeg dezelfde architectuur als Ada had (enige verschil van GB100 t.o.v GH100 was de toevoeging van int4/fp4 op de tensor cores en het was al bekend dat Compute en RTX weer samen gingen). Dan zal je meer cores op de die moeten gooien, en aangezien de 4090 wss al op de meest gunstige plek op de power/performance curve zit, zal je met je grotere chip ook een flink stuk meer verbruiken

Overigens had Nvidia de prijs wel hetzelfde moeten houden of wat minder fors omhoog en wat minder de hype machine moeten activeren. Zolang je zelf hier niet in mee gaat, dan is er weinig shockerends aan deze launch.

[Reactie gewijzigd door 24hourpartypal op 24 januari 2025 12:19]

Wat betekent kwaliteit nou weer?
Bij een nieuwe generatie (en nieuw prijspunt) verwacht je meer dan enkel een grotere chip met meer geheugen. Ook wel bekend als kwaliteit boven kwantiteit.

Ik heb het idee dat deze kaart niet gericht is op mensen die hem voor graphics willen gebruiken maar voor """"AI"""" (aka ML) taken. Daar heeft het allemaal wel zin (competutioneel gezien) en is het wel een generationele winst.

[Reactie gewijzigd door kaas-schaaf op 24 januari 2025 14:19]

Dat zijn aannames, in het verleden zijn er vaker nieuwe generaties op dezelfde node uitgekomen, en N4P is zeker niet een sterk verouderde node. Kwaliteit is dus niet het probleem (wat in het verleden op dezelfde node nog juist wel eens een probleem was)

Je kan alleen geen 60% prestatie winst verwachten. Ada had een gigantische winst op de vorige node, Ampere's 8nm op Samsung, wat een zeer inefficiënte node was. Dan was de sprong naar TSMC 4nm gigantisch, zeker omdat hier breeduit van EUV gebruikgemaakt wordt.

De winst op AI gebied vind ik overigens ook discutabel, de qualiteit van de resultaten gaat met quantized modellen soms best wel om laag. Al is door quantization het wel mogelijk om grotere modellen op relatief weinig VRAM te gebruiken, dus directe hardware support voor dit soort berekeningen is niet onwelkom. Ook voor gaming en DLSS, of RTX broadcast AI-gedoe (wat oprecht best cool is) is dit fijn, dus zeker wel een fundementeel architectuureel verschil met de vorige generatie, ook op RTX. [en of je nou wel of geen FG wil gebruiken, MFG is voor hen die interesse hebben in >500hz monitors vanwege persistence blur zeker wel een value add]

Blackwell is inderdaad vooral gemaakt voor AI/ML berekeningen, al zal iedereen winst hebben van de dual die GB200 gezien dat een gigantische chip is. Het is gewoon belangrijk om niet in de Nvidia-pr hype mee te gaan en te zien waar de prestatie winsten vandaan komen, maar ook belangrijk om niet met de mob mentaliteit mee te gaan en te begrijpen waarom dingen zo zijn. Uiteindelijk zijn het allemaal bedrijven met twijfelachtige business practices.

[Reactie gewijzigd door 24hourpartypal op 24 januari 2025 15:01]

Straks hoor ik het nog wel, als je twee stroomgroepen in huis nodig hebt om die gpu te draaien }:O
Overdrijven is ook een vak want dat zal nooit nodig zijn voor een gpu die zelfs 4000 Watt gebruikt of je hebt een stroomverdeler uit 1800.
Misschien even kijken hoeveel je max uit een stopcontact kunt trekken op 1 groep. Je haalt geen 4000 watt uit één groep. En dan moet de rest van de pc en al je toebehoren nog.

[Reactie gewijzigd door Kots op 24 januari 2025 08:03]

De standaard in Nederland is 3680 Watt per groep maar kan met gemak 4000 Watt aan. Het laten draaien van een wasmachine in combinatie met een droger verbruikt al snel meer dan 5000 Watt en heb nog nooit problemen gehad.
Serieus? Nooit geweten, dank.
Dan heb jij een goede stroomgroep, bij mij en anderen die ik ken gaat dat zeker niet werken.
Die 575 is stock FE
De customs met OC
Daar boven op gebruiker OC en dan ga je ver over de 600watt heen
Is de powerlimit nu hoger voor customs RTX 5090's. Ik geloof me te herinneren dat de RTX 4090 FE een 600w bios heeft en customs daar onder zaten?
Stroomverbruik is nou eenmaal belangrijk. Energie is duur. Logisch dat mensen daarover praten. Bovendien moet je als koper een voeding hebben die de kaart kan dragen, dus relevant.

[Reactie gewijzigd door Is_ Y_ Serious? op 24 januari 2025 08:20]

Relevant, maar geen punt waarover je zou moeten klagen als je een "high-end" product koopt. Het enige wat wij kunnen doen is balen dat er nog steeds gekkies zijn die €2300,- uitgeven aan een computeronderdeel en daarmee de bizarre prijsstellingen van de inmiddels monopolist Nvidia in stand houden.

High-end is trouwens bewust tussen haakjes. Gevoelsmatig is de graphics-card business namelijk een side-business en easy cash grab waarvan Nvidia zo afscheid zou nemen als de concurrentie on-par was.
Ik heb een High-end koelkast gekocht. Deze heeft een heel gunstig energieverbruik. Ik vind dit soort stroomverbruiken erg jammer. En totaal niet praktisch.
Ik heb meer het idee dat het een beetje een papegaai kreet begint te worden vanwege 'het huidige politieke klimaat' of zo.
Hoeveel uur draait die kaart nou echt op volle toeren? 99% van de tijd staat ie gewoon te idlen en als je 1 uur per dag gamed per dag maakt 't aan 't eind van het jaar bijna geen drol uit.

Mensen doen net of die kaart 24 uur per day 600 watt ligt te lurken
Bij ons thuis gamen we vaak met z’n drieën. Drie videokaarten van elk 500 watt, verbruiken behoorlijk wat stroom. Dan heb ik het nog niet eens over de aanschafprijs van de RTX 5090. Mijn zoon kan echt uren achter elkaar gamen en zit daarmee ruimschoots boven 1 uur per dag. Dat zorgt voor een behoorlijk hoog energieverbruik. Als je een kaart van 500 watt slechts 1 uur per dag gebruikt, kost dat al snel €71,20 per jaar.

Dit is natuurlijk slechts een voorbeeld, maar de RTX 5090 komt hier sowieso niet in huis, vooral vanwege het hoge energieverbruik.
Ja sorry hoor, maar als we gaan zeuren over 70 euro per JAAR dan buig ik uit :)
Je zit dan echt wat mij betreft in het verkeerde topic te posten.

[Reactie gewijzigd door Quartz123 op 24 januari 2025 17:01]

Als je nu al ziet wat voor powerstages er bij de cpu en de gpu zijn, word dan alleen maar erger naarmate er weer meer stroom nodig is. Wat natuurlijk ook de prijzen zal opdrijven.
een koelkast verbruikt ongeveer 200kwh per jaar, 550 wat per dag, dat is een uurtje gamen met een 5090... systeem verbruik niet meegeteld. Game je meer dan een uur per dag heb je echt wel een hoger verbruik dan je koelkast.Het is een keuze die iemand kan maken, maar het is wel handig je dat te realiseren.Mijn systeem dat ik veel voor zware rekenklussen gebruik en voor gamen (5950x en 3060ti ) is ongeveer 10% van onze jaarlijks verbruik...
Precies waar het hier over gaat, darom snap ik niet waarom je denkt dat ik dat niet weet. De één koopt een Lamborghini omdat hij het geld heeft. De ander heeft een superzuinige compacte Toyota Yaris, die hem ook van A naar B brengt. De Yaris is in dit voorbeeld een RTX4060 waar je prima mee kan gamen voor veel minder geld.

Iemand die €5000 of meer uitgeeft aan zijn gamesysteem met OLED monitors, eventueel met VR bril en highend joysticks, soms zelfs een vlieg- of racesimulator, maakt zich echt niet zo druk over het verbruik. Misschien staat zijn dak vol met zonnepanelen en heeft hij thuisaccus.

Deze kaart is een niche product en voor een enkeling weggelegd. Daarom snap ik mensen die kwampachtig watt per frame gaan berekenen of iets anders willen 'bewijzen' totaal niet. Een Lamborghini heeft niemand nodig, dat weet iedereen.

[Reactie gewijzigd door ABD op 24 januari 2025 10:20]

maakt zich echt niet zo druk over het verbruik. Misschien staat zijn dak vol met zonnepanelen en heeft hij thuisaccus.
Dit zijn alleen maar aannames.

Zou natuurlijk voor veel mensen ook zo zijn. Echter ga ik er ook vanuit dat er mensen bestaan die dure dingen kopen maar als nog druk kunnen maken over stroomverbruik, al was het alleen maar om het milieu

Overig zijn het vaak juist de rijkere mensen die op de centen letten

Ik snap echt niet dat hier mensen altijd denken dat als je 1 ding doet, het andere meteen niet meer uitmaakt.. vind ik echt een rare gedachte

[Reactie gewijzigd door Sinester op 24 januari 2025 11:47]

[...]

Ik snap echt niet dat hier mensen altijd denken dat als je 1 ding doet, het andere meteen niet meer uitmaakt.. vind ik echt een rare gedachte
Uit dezelfde tekst van slechts enkele zinnen:
Zou natuurlijk voor veel mensen ook zo zijn. Echter ga ik er ook vanuit dat er mensen bestaan die dure dingen kopen maar als nog druk kunnen maken over stroomverbruik, al was het alleen maar om het milieu
Overig zijn het vaak juist de rijkere mensen die op de centen letten
Dit zijn alleen maar aannames.
Ding ding ding ding!

(Je hebt duidelijk je eigen tekst niet nagelezen of je snapt niets van ironie)

Waar het om gaat is dat mensen die een 5090 kopen niet de mensen zijn die in dit topic klagen over de kostprijs, prijs/prestatie of de frames/watt van deze kaart.

[Reactie gewijzigd door ABD op 24 januari 2025 12:06]

ik kon uit je reacties natuurlijk niet zien wat jij weet, en het was niet de bedoeling daar iets te suggereren .De meeste mensen onderschatten hoeveel op jaarbasis een PC aan stroom verbruikt en houden zichzelf voor de gek. Een 'uurtje gamen' klinkt fijn. Jij dus niet blijkbaar, prima.

er is gewoon een discusdie over energie verbruik. Dat is terecht. Dat is niet 'krampachtig' of belerend. Dat maak jij ervan en is weer stemmingmakerij

[Reactie gewijzigd door tw_gotcha op 24 januari 2025 18:07]

Ja, heerst inderdaad een schaamcultuur, maar ik wil het niet persoonlijk maken en niemand mijn levensstijl opleggen. Ik ben er zeer actief mee bezig, geloof mij . Maar we dwalen te ver af, het onderwerp gaat om een videokaart, niet over schaamcultuur.
Lambo is vaak extra auto naast daily runner gehouden wordt. Dus 1 uurtje in de zomer of weekend.
Lan of gamen zijn regelmatig vele uren op dag.
Weekend gamen lijkt mij
6 uur 8uur 6 uur vr zat zo
Denk dat lambo voornamelijk in schuurstaat.
Maar 5090 gamer zal door jaar heen veel gamen en niet maar uurtje
Ik zie andere framerates staan?
Respectievelijk 112,6/76,1 (net als de verbruiksgegevens, in Cyberpunk 4K Ultra gemiddeld).
Dan is 5090 zuiniger.
Dat komt (denk ik) doordat het vermogen wat jij gebruikt het maximale vermogen onder load is, op 1 willekeurig moment. Die 135,7fps is de totaal score. Je kan deze twee moeilijk direct met elkaar vergelijken.
Als je frames/watt wil weten zou je het totaal opgenomen vermogen tijdens een test run moeten delen door het totaal aantal gerenderde frames in diezelfde test.
Neemt niet weg dat jouw deling waarschijnlijk een aardige indicatie geeft.

Ik zou ook wel willen zien hoe een spel speelt met native 10fps, maar door 4mfg eruit ziet als 40fps. Dat moet toch mega sluggy/laggy gaan voelen?
Ik krijg nu een beetje een onderbuikgevoel dat die mfg vooral in benchmarks er goed uit komt..
Gezien Tweakers het opgenomen vermogen alleen geeft op basis van Cyberpunk 2077 in 4K lijkt het me dan wel zo fair de frames/watt berekening ook op die game+resolutie te baseren. Het zou immers zomaar kunnen zijn dat in de andere spellen waar het prestatieverschil kleiner is het verschil in stroomverbruik óók kleiner is. Maar eigenlijk heb je stroommetingen nodig van meerdere games om een echt zinnige uitspraak te kunnen doen, vanavond maar eens bij de vele andere outlets kijken dan maar :P

Met alleen Cyberpunk krijg je zoiets:
RTX4090: 76,1 fps / 401,93 watt = 0,189 frames/watt
RTX5090: 112,6 fps / 562,61 watt = 0,200 frames/watt
7900XTX: 64,5 fps / 338,98 watt = 0,190 frames/watt

Dat neemt natuurlijk niet weg dat een verbetering van slechts 5,8% voor een compleet nieuwe generatie en architectuur een behoorlijke tegenvaller is, en ook weinig goeds belooft voor de 5070(Ti) en 5080 waarbij het verschil in CUDA cores t.o.v. de Super varianten van de 4070(TI) en 4080 een stuk kleiner is als met de 90 serie.
Ik vind het een vertekenende statistiek. Het lijkt nu alsof de 7900XTX even efficient is als de 4090, wat echt wel ver van de waarheid afstaat. Ik zou het juist interessant vinden als een paar kaarten tegen dezelfde power limit getest worden, Computerbase heeft dat overigens gedaan.

Uit interesse, waar komt de 5,8% vandaan? Heb ik waarschijnlijk gemist in de review.
Uit interesse, waar komt de 5,8% vandaan? Heb ik waarschijnlijk gemist in de review.
0,200 / 0,189 = 1,058
Hier gaan we weer maar had het bij de vorige 50-series post ook al vermeld: prestaties / watt bij de 90-reeks, daar is nu toch werkelijk niemand mee bezig?

''de meest treffende meetwaarde'' bij een 5090 kaart is hoe bruut snel is dat ding. Dat is het enige toch wat relevant is bij een topmodel.

Niemand kijkt bij de nieuwste versie van de GT3RS - hoeveel is het gemiddeld verbruik per PK tov de vorige generatie, dat bepaalt hoe innovatief het ding is. NEEN, hoe snel geraakt dat ding rond een bocht, dat is wat relevant is. Verbruik daar kijk je naar als je shopt voor een Prius, niet voor een GT3RS.
Is wat mij betreft net hetzelfde bij een xx90-reeks kaart.

"tijden zijn veranderd, stroomprijzen anders'' nou en?
De 90-kaarten van Nvidia hebben maar 1 doel: ze willen de snelst mogelijke consumentengpu op de markt zijn. Als dat moet door meer juice door de kaart te jagen, dan doen ze dat. Als je daar geen fan van bent, koop je toch gewoon een andere kaart? Ik veronderstel dat er weinig mensen zijn die een energiezuinige build willen gaan kijken naar de 90-reeks kaarten. Dus voor die 0,x% die dat toch doet, is dat een zeer irrelevant punt waar ze bij Nvidia geen rekening mee moeten houden. 99,X% koopt de 5090 omdat ze gewoon het snelste willen no matter what en dat heeft Nvidia gewoon opnieuw gedaan en afgeleverd.

Persoonlijk ben ik geen fan trouwens van die DLSS toestanden en frame gen. Denk de keren dat ik al eens DLSS heb gebruikt op 1 hand te tellen is. Ik vind dat een beetje 'boerenbedrog' maar we zullen ongetwijfeld steeds meer die richting uitgaan. Doe mij dan liever grote sprongen op vlak van raw performance ipv met artificiële trukjes.

[Reactie gewijzigd door JacobsT op 24 januari 2025 07:51]

Stroom word duurder. Punt aan de lijn. AI en elektrische auto's zijn verantwoordelijk hiervoor. En niet genoeg kerncentrales of andere alternatieven.

Rijke mensen zijn de gierigste mensen volgens 3 aannemers die ik voor m'n huis gebruikt heb (ze hebben dit onafhankelijk van elkaar gezegd). Dit will zeggen dat ze onderste uit kast halen... Waarom dan geen volt efficiency curve op 5090 toepassen? Je verliest nauwelijks maar je constant verbruik is lager, en dus je rijk loon word minder beïnvloed door 'onvoorzichtigheden'.
Er is een verschil tussen geld efficiënt willen besteden en een luxe uitgave doen zoals een gaming CPU maar goed, als je aannemer het zegt :P
Het is toch eigenlijk altijd zo dat de efficiency curve niet linear is, als in: Voor 10% meer performance heb je vaak meer dan 10% energie nodig. Dat geldt ook voor je auto of als je gaat hardlopen.

Ik mis juist in veel reviews een genormaliseerde vergelijking tegen dezelfde power draw.
Dat je efficientie gaat verliezen bij een hoger wattage was wel te verwachten aangezien het chip bak procede niet anders is. Eerlijk gezegd vind ik het wat dat betreft wel meevallen.

Het wordt interessant of de 5600 nog zuiniger wordt dan de 4600, gezien deze getallen zou het me niet verbazen.
Vind het ook bijzonder dat deze 2400 euro kostende GPU "maar" 30 fps haalt zonder alle DLSS en frame generation/AI-kunstjes, puur power heeft deze kaart dus flink wat moeten inleveren ten opzichte van zijn voorganger.

Altijd leuk dat je met de nieuwste software 200+ fps kan halen, maar in werkelijkheid is het geen prestatie als zonder deze features de games amper speelbaar zijn. Zolang een kaart geen 60 fps haalt zonder alle snufjes lijkt mij dat een achteruit gang op techniek, en uiteraard ook optimalisatie van game development.
Jammer om te zien dat alles zo aan het instorten is om snel geld te harken links of rechtsom.
Fps/watt wordt dat als je het uit zou schrijven niet joules/frame ?
Vraag me af hoe veel beter je die getalen kan krijgen met undervolten
Kleine persoonlijke opmerking: ik had in de benchmarks liever een recenter en veeleisender spel als Indiana Jones and the Great Circle in de plaats gezien van Doom Eternal.
Mee eens! Sinds release hebben we Indiana Jones al op de shortlist staan. Omdat het spel grote updates heeft gekregen en nog zal krijgen, hebben we hem momenteel nog niet als vervanger voor Doom ingezet. Bij een volgende revisie van onze game suite gaat dat waarschijnlijk wel gebeuren :)
Bedankt voor de reactie en jullie flexibiliteit! Top!
rsnubje Testlabcoördinator @Vigenère23 januari 2025 16:29
Indiana Jones staat wel op de lijst voor games die we gaan testen, maar omdat de game nog zo nieuw is(of was toen we begonnen) en vermoedelijk veel patches krijgt, hebben we besloten deze nog niet mee te nemen.
Dat is begrijpelijk, bedankt voor de uitleg waarom.
Ik onderschrijf jouw suggestie mbt Indiana Jones and the Great Circle. Het is een inmiddels geliefd spel met zeer goede reviews.

Maar het spel is vooral op technisch vlak interessant omdat het een van de eerste games is waar ray tracing niet uitgezet kan worden omdat het dat volledig in het spel verwerkt zit. De developers hebben hier vanaf vroeg in de ontwikkeling voor gekozen.

Bijzonder is ook dat het zo goed schaalt, het heeft in principe settings die geschikt zijn voor een RTX 20xx/RX6xxx kaart tot aan path tracing settings die het best tor hun recht komen op een RTX 5090.
Ze doen dit vaak met een bepaald soort spel om te zorgen dat je een vergelijking kunt maken op langere termijn, dat al helemaal geoptimaliseerd is en dus niet afhankelijk meer is dat de software goed werkt met de hardware of dat scores alleen van elkaar verschillen door fouten daarin die nog geoptimaliseerd gaan worden.
Aanvullend had het idd wel leuk geweest als indiana erbij zou kunnen worden genomen puur om een van de meest recente games te zien. Maar goed er zitten op zich ook genoeg titels bij die recent genoeg zijn, en daarmee een fatsoenlijk beeld geven van de prestaties.
ja, dit was ook mijn eerste idee!
Vooral omdat Indiana Jones een redelijk zwaar spel is om te draaien in 4K ultra full ray tracing.
Ik denk dat er ook eens nagedacht moet worden om GPU computing als benchmark op te nemen.
Je ziet dat men steeds meer "faking" technieken gaat inzetten om tot betere graphics of fps te komen. Dus de GPU werkt met minder data en laat alleen door upscaling het "betere plaatje" zien. Je meet dan steeds minder de echte mogelijkheden van een GPU.
Daarnaast wordt de GPU ook steeds meer gebruikt voor lokale LLM/AI. Hiermee is het een stuk moeilijker om van die fake optimalisaties te doen, dus lijkt mij een betere maat om de echte GPU limieten te testen.
Ik weet dat Tweakers (meestal?) geen geluidsmeting doet bij Founders Editions, maar bij deze 5090 FE die een zeer innovatieve dual slot-koeloplossing heeft was het wel leuk geweest om daarvan de geluidsresultaten te zien.

Ik heb al gezien dat die helaas erg tegenvallen met 40 dB. Ter vergelijk: de 4090 had 35 dB en was daarmee redelijk stil te noemen, 40 dB is dat allerminst helaas.

Oh ja, en o.a. aardig wat coil whine komt er ook nog bovenop, aldus computerbase.de (vertaald):
Qua volume zijn er echter ook twee negatieve punten op te merken. Ten eerste heeft de grafische kaart te maken met relatief veel elektronische ruis. Het ratelen van de spoel is behoorlijk uitgesproken vanaf framesnelheden van drie cijfers en merkbaar vanaf 200 FPS. Als de framerates dan behoorlijk fluctueren, is er een leuk "rammelaarconcert" - printplaat met hoge dichtheid met componenten van de hoogste kwaliteit of niet.


En ten tweede werkte de ventilatorstop vrijwel nooit op het testsysteem, ook al waren alle temperaturen laag. Het merkwaardige is dat het zelden werkte, alleen om te stoppen met werken de volgende keer dat je een spel startte. Dit is duidelijk nog steeds een bug, want op een tweede en een derde systeem werkte de ventilatorstop betrouwbaar en zoals verwacht.
Bron: https://www.computerbase....-10#abschnitt_kuehlsystem

[Reactie gewijzigd door Degrader op 23 januari 2025 16:21]

Ik heb al gezien dat die helaas erg tegenvallen met 40 dB. Ter vergelijk: de 4090 had 35 dB en was daarmee redelijk stil te noemen, 40 dB is dat allerminst helaas.
Wellicht is hij luider met 2 fans met een hoger TBP maar ondanks dat lijkt de toonhoogte waarmee het gezoem van de fans hoorbaar is toch wel zeer zeker ten faveure van de 5090 FE te zijn, luister dit maar eens:

YouTube: This much GPU should be OUTLAWED! Full in-Depth RTX 5090 Review!
Ja, maar dat is met een vaste fansnelheid van 65% voor beide kaarten. De fans zullen in de praktijk van de 4090 minder snel draaien dan die van de 5090, puur omdat de 5090 veel warmer wordt. Dus dat is dan weer ten faveure voor de 4090 😉

[Reactie gewijzigd door Degrader op 23 januari 2025 19:48]

Ze hadden voor die prototype 4-slot moeten gaan met 3 fans.

Begrijp me niet verkeerd.. sub 80C is mega goed voor een 2-slot koeler, maar niemand wilt een luidruchtige kaart hebben... ik i.i.g. niet daarom deshroud ik die van mij ook altijd en plant er gewoone fans op.
Nee, vind ik niet, dat is te dik en onhandig. Ze hadden de innovaties moeten toepassen op een drie slots koelingoplossing, dus net zo dik als 4090 FE, en niet per se voor een SFF-compatible kaart moeten gaan. Dit was kennelijk toch nét te hoog gegrepen, gezien de geluidsproductie, hoe enorm ingenieus het ook is wat de engineers van Nvidia hebben weten te creëren met deze ongekend complexe kaart en koeling.

[Reactie gewijzigd door Degrader op 23 januari 2025 21:19]

De zuurpruimen van Hardware Unboxed zijn juist enorm onder de indruk van de koeling (maar niet van de rest van de performance). Je moet meenemen dat hij enorm veel meer stroom gebruikt dan de 4090.
Het stroomverbuik is idd bizar en lijkt de grootste reden voor een betere prestatie. Je kan dan wel 45% performance gain hebben in bijvoorbeeld cyberpunk op ultra, maar je gaat ook van 400W naar 560W wat 40% is dus hoeveel extra performance per watt krijg je dan echt kan je je afvragen.
Tegelijkertijd zit er maar een paar procent verschil bij de 4090 tussen 350w limiet en 450w. Dus het is inderdaad wat minder innovatief om met een hoop meer power te werken, maar ook zeker niet niks, vind ik.
Ik vind dat (flink!) "meevallen" aangezien je op hetzelfde procede zit is het te verwachten dat je efficentie slechter wordt als je er meer stroom door pompt. Er is dus wel degelijk wat gewonnen in de 5000 serie, al is het niet meer zoals 10 jaar geleden met de enorme sprongen.
Ik zeg toch ook dat het 'een zeer innovatieve dual slot-koeloplossing' is? Maar uiteindelijk is de geluidsproductie waar het om gaat, hoe goed de koeler ook de 575 W opgenomen vermogen mag weten af te voeren.
En ik had goede hoop door PcCentric die op CES met een 5090 FE mocht spelen en laat horen hoe stil de kaart wel niet was onder zware belasting: YouTube: Gaming On The RTX 5090 With DLSS 4!
Dit valt toch tegen volgens verschillende reviews.
Hardware Unboxed zei dat ze de videokaartfans niet hoorde over de casefans, dus ook daar zit het wel goed mee op het FE model..
Kan het woord raytracing niet meer aanhoren. Vroeger was er Tessellation en PhysX, iets wat naar mijn mening veel mooier was, en het werd veel minder gehyped dan RT. Een aparte gpu voor PhysX zelf, wie herinnert het zich nog.

RT wordt veel te veel aangekaart alsof het zo speciaal en mooi is maar persoonlijk vind ik het maar gebakken lucht.
Ik ben het niet met je eens, maar het ligt wel wat genuanceerder. We gaan naar steeds betere graphics, maar voor fotorealistische graphics is belichting extreem belangrijk. Wij mensen zijn heel goed in staat om echt en nep te onderscheiden. Raytracing heeft de potentie om graphics echt een paar niveau's omhoog te tillen. Kijk een paar demo's van hele oude spellen en ondanks de oude graphics zien ze er meteen 100 keer beter en realistischer uit, puur door de belichting. Alleen real-time raytracing is super demanding.

Ik ben het daarom wel met je eens dat de performance die het kost nog amper opweegt tot het resultaat. Zeker als spellen het allemaal gebruiken voor een effectje hier en daar. Maar ik denk wel dat je ergens moet beginnen, want ik denk wel dat RT een belangrijk onderdeel is van toekomstige graphics met de potentie tot game changer.
RTGI kost op mijn RTX 3060 amper twee milliseconden mits goed geoptimaliseert. Gewoon keurige 1080p60 in m'n eigen game.
Dat moet op de RTX 50 kaarten toch echt geen probleem meer zijn. Zelfs de ROG Ally presteert nog 40FPS met RTGI aan.

Ik heb het idee dat mensen qua ray tracing prestaties een beetje zijn blijven hangen bij de allereerste RTX 20 series en de inmiddels vijf jaar oude game consoles, en het vaak ook de schuld geven van games die over het algemeen slecht geoptimaliseert zijn.

Maar we zijn inmiddels een stuk verder en ray tracing an sich hoeft echt geen probleem meer te zijn voor de prestaties.

[Reactie gewijzigd door Wolfos op 23 januari 2025 16:14]

Dat is waar, ik ben groot fan van goede lichte RTGI implementaties zoals avatar frontiers of pandora. Maar veel games met RTX aan schroeven alles maar gewoon tot de max en lossen de rest op met lagere render resoluties in geïnterpoleerde frames. Zo wordt ook deze 5090 nog gehalveerd in FPS in cyberpunk met RTX aan zo lijkt het. Ik zie er niet bij staan of dat "gewone" rtx is of path tracing, maar ik vermoed het eerste. Ik vindt dat gewoon nog steeds een veeeeel te grote performance loss persoonlijk.
Ik kan niet wachten tot een krachtige raytracing videokaart, die alles volledig kan raytracen. Dan kan ik eindelijk weer eens vette 3D graphics maken. Tot nu toe is het gewoon veel te traag.
Daar heb je toch speciale professionele renderkaarten voor.
Nee. Voor grafisch rendering blijven de gaming kaarten de beste bang-for-your-buck. Quadro's zijn extreem duur in verhouding.

95% van rendering in de professionele grafische wereld wordt ook nog steeds op CPU's gedaan. Slow and steady wins the race t.o.v fast but unpredictable met GPU's.
Volgens mij is de afgelopen tien jaar zelfs de meest vastgeroeste studio inmiddels over op GPU rendering, Redshift, Octane, Cycles, Karma XPU is echt de hoofdmoot vd industrie. En je hebt heus geen snelle kaart nodig om mooie plaatjes te maken... het gaat alleen wat rapper.
Dat is nu net de clue, sneller klaar met renderen. Een zichzelf respecterende studio heeft een renderfarm. ;)
Er zijn maar een paar studios die (soort van) op die manier werken - tijdens Corona hebben die allemaal servers geinstalleerd voor thuiswerkers, en alle machines binnen de studio, workstation of headless, worden allemaal ingezet voor distributed renderen via bijvoorbeeld (meestal) Deadline. Als er niet op wordt gewerkt, worden er wat batches met frames weggewerkt door Deadline. De grotere studios zullen wel meer remote workstations hebben dan artists, maar of je dan van een dedicated farm kan spreken, dat denk ik niet, die tijd is wel over sinds we op de GPU renderen.
Overigens bestaat er zeker wel professionele GPUs, maar die worden meestal ingezet op het moment dat je double precision nodig hebt (science) of als je echt iets 24/7 moet draaien op de GPU en het kosteneffectief is om de beste, sjiekste en duurste te halen.
Sommige software kan al zelfstandig meerdere pc's/gpu's aan elkaar koppelen voor sneller renderen. Het staat daarmee ook niet stil.

Weet niet of renderen via de cloud lekker werkt. Moet je wel erg veel bandbreedte hebben en didicated server voor het renderen.

[Reactie gewijzigd door Tourmaline op 30 januari 2025 15:19]

Nogmaals "Sinds we op GPU Renderen". Er zijn niet veel studio's in mijn vaarwater die dat kunnen veroorloven. Je spreekt hier een beetje te veel voor je eigen situatie alsof dat voor de rest van de industrie zo is. Volgens mij ben je een motion designer die vooral bij reclame's werkt, of niet?

[Reactie gewijzigd door Inferno-Acid op 6 februari 2025 16:57]

waarschijnlijk heb je wel gelijk idd. Doen FS ,Mill et al nog steeds alles op CPU dan?
Ik freelance zelf voor Framestore en The Mill en Electric Theatre Collective en nee. Die zitten nog allemaal op CPU. Ik doe vooral ook FX en VFX, dat is vaak veel gedoe met het geheugen van een GPU. De studios die vooral op GPU zitten zoals jij zegt zijn denk ik toch vaak reclamestudio's of iets kleinere boutique studios. Vaak ook lichter werk. Eenpitters. GPU's hebben nog steeds ERG Veel problemen met zware scenes.

That said: Ik heb net twee klussen op Karma XPU gedaan door budget restrictie redenen. Maar wat is dat kut zeg vergeleken met normale Karma of andere CPU renderers... Zo veel extra overhead om dat je op je geheugen moet letten, en veel features die niet werken.

Ik denk dat je een 3d motion designer bent? Vanuit die positie kan je de dingen wel zeggen die jij net zei. Vanuit een perspectief van VFX en VFX/zware motion Design absoluut niet. Misschien was mijn 95% overdreven, maar vanuit mijn perspectief klopt dat dan wel. Net zoals GPU's vanuit jouw perspectief.

[Reactie gewijzigd door Inferno-Acid op 6 februari 2025 17:00]

Haha jij weet donders goed wat ik allemaal doe :D Maar idd, vanuit VFX perspectief heb je gelijk, al is t mega interessant wat er allemaal op de GPU kan wat dat betreft tegenwoordig (Volg vooral even de jongens van JangaFX op linkedin en insta) en wat dat betekent voor je workflow, lekker snel versies er uit knallen ipv ellenlange simulatietijden...
Yep ik gebruik het ook waar het kan idd. Maar geheugenrestricties zijn echt real, ik werk echt vaak met scenes die 128+GB nodig hebben ( en kneiterhard geoptimized worden alsnog ).
Framestore/The Mill etc werken vaak aan zulke grote shots met veel artists tegelijk dat opletten op geheugen echt niet geprefereerd is. CPU is dan een soort bulldozer die langzaam maar zeker alles wel pakt.. GPU heeft dan veel meer haken en ogen.

Maar ja het komt er zeker aan! Helemaal met die apple unfied memory dingen.. :)

[Reactie gewijzigd door Inferno-Acid op 12 februari 2025 13:54]

RT is wel echt fundamenteel anders en wordt steeds vaker geïmplementeerd.

Helaas zorgen matige implementaties en lage settings onterecht voor een slechte naam. Vooral op consoles is vaak het verschil tussen aan en uit nauwelijks te zie, maar de framerate zakt wel merkbaar in.

Ik durf te stellen dat RT, bij een goede implementatie, een game changer is. Zeker met path tracing beleef je het spel anders, er ontstaat een compleet andere atmosfeer. Het is het daarom vooral een hele gave techniek voor atmosferische singleplayer games

Als je geïnteresseerd bent heb ik wat voorbeelden van hoe goed het kan zijn bij een goede implementatie en hoge settings via Digital Foundry:

- Alan Wake 2 met path tracing
- Indiana Jones met path tracing
- Cyberpunk 2077 met path tracing

Kortom, dat RT weinig doet is wat mij betreft een misvatting.

Op dit moment heb je helaas wel een krachtige GPU nodig om van fatsoenlijke RT effect gebruik te kunnen maken. Ik heb hoge de hoop dag de 5070 path tracing mogelijk gaat maken in het hoger mid desegregation. Heb ook hoge verwachtingen van de RT verbeteringen die bij de AMD RX 9070 verwacht worden.

(Het helpt voor de perceptie trouwens ook niet mee dat de huidige generatie consoles hardwarematig eigenlijk nauwelijks geschikt is voor ray tracing. Als je cynisch bent zou je kunnen zeggen dat het er op lijkt dat ze vooral het vakje ‘ray tracing’ aan wilde kunnen vinken. Het had misschien eigenlijk pas de volgende generatie geïmplementeerd moeten worden)

[Reactie gewijzigd door DLSS op 23 januari 2025 16:43]

Is het niet zo dat de engines die er op dit moment zijn gewoonweg niet goed genoeg met raytracing als basis voor belichting zijn opgebouwd, maar eigenlijk aan is toegevoegd? (ben er verder niet in bekend maar boerenverstand idee)
Zodra er dan genoeg power is in de pc's om dit in de engine van de grond af te kunnen draaien voor alle/meeste belichting lijkt het me een stuk beter implementeerbaar?
Ik vond dit filmpje vorige week van LTT wat dat betreft wel verhelderend: YouTube: Ray Tracing is MANDATORY Now
Dat het verschil vaak nog niet heel duidelijk is omdat veel spellen natuurlijk van te voren gemaakte lightmaps hebben. Maar dat dit ook iets iets wat veel ontwikkeltijd bij spellen vergt en dat bij een spel wat raytracing vereist zoals de recente Indiana Jones titel dus een stap is die dan kan worden overgeslagen.
Met je eens. Raytracing is het nieuwe HDR. In veel situaties zodanig overtrokken qua gebruik en instellingen dat het niet meer realistisch is. Leuk voor een demo van 2 minuten, irritant als je er uren naar kijkt.
Je had zelfs dedicated PhysX kaarten die geen grafische dingen ondersteunde. Maar volgens mij was dat juist hoe PhysX begon voordat het in videokaarten terecht kwam.
Als we niet overgaan op Path/Ray Tracing komen visuals geen stap meer verder. En aangezien iedereen betere visuals wilt hebben zullen ze eraan moeten geloven dat Path/Ray Tracing de toekomst is.
Nee, mits goed geïmplementeerd voegt het veel toe vind ik. Vaak zie je het ingezet worden voor veel te scherpe reflecties en dat was het, dat schiet niet op. Kijk je naar bijvoorbeeld Cyberpunk dan zie je dat het echt goed is, ik speel dat niet meer zonder.
Moet je pathtracing in cyberpunk eens aanzetten, beste graphics die ik ooit al in een spel zag.
Hmm ik vind RT erg gaaf en ik zie dat al redelijk ingeburgerd is.

Ik wil graag RT naar ETS2 zien komen maar ik vrees het ergste.
Hoop dat ze mee kijken hier :o
Ja ghost recon in lan 3 pc naast mekaar elk Asus physx p1 erin
3 trinitron 19” monitoren goeie tijden.
Nu twee 32” passen daar maar 2 pc
Mooi artikel, maar helaas geen goede test en analyse.
Er is ook bij mij en vele anderen genoeg discussie over de generated frames, DLSS en totale latency dat een gamer ervaart. Uiteindelijk is die latency voor gamers vele malen belangrijker dan wat meer frames. En op het moment dat jouw PC al niet eens fatsoenlijk een stabiele framerate eruit kan gooien, dan moet je zeker niet AI inzetten om meer FPS te hebben. Het enige resultaat is een behoorlijke toename in de latency. Ook zou het fijn zijn om de games te testen op raw performance en daarna met de AI truckendoos open. Bij de testmethodiek staat in ieder geval niet beschreven welke settings gebruikt zijn m.b.t. de AI rendering 4000 vs 5000 series.

Nvidia Reflex 2 zou dit flink moeten reduceren! maar dit is sowieso zonder frame gen. te gebruiken. Daarbij wat andere testen al laten zien, zorgt die Reflex 2 ook voor beeldcorruptie voor hen die daar weer gevoelig voor zijn.

Buiten het feit dat ik dus totaal niet overtuigd ben van DLSS4 met multi frame gen. vind ik RTX Neural Faces helemaal waardeloos. Ook hier heb ik op youtube meerdere renders van gezien en je creeert een gezicht dat totaal anders is dan de gamemaker bedacht heeft. Vaak veel te zachte gezichten. Niets voor mij dus...

En het verbruik, zowel Idle als onder load. Als je dan zoveel jaar verder kijkt, is de efficiency dus er niet beter op geworden (performance per watt).

Mijn uiteindelijk oordeel tot nu toe is erg gematigd over de 5000 series, waar ik daarvoor maanden er naar uit zat te kijken als potentiele opvolger van mijn 3000 kaart.

Edit na lezen ander artikel: https://www.pcmag.com/new...-star-powerhouse-rtx-4090

Benchmarks lijken toch wel vrij goed, maar niet op alle vlakken t.o.v. extra verbruik. Overigens laat het gelinkte artikel wel goed ziet wat de resultaten met en zonder DLSS en RT is. Het enige waar het nog in ontbreekt is een latency meting!

[Reactie gewijzigd door n00bs op 23 januari 2025 21:54]

Bij de testmethodiek staat in ieder geval niet beschreven welke settings gebruikt zijn m.b.t. de AI rendering 4000 vs 5000 series.
Het is heel simpel: álle tests in het artikel zijn native rendering (dus zonder DLSS), behalve die op pagina's 19, 20 en 21.
Dank voor de reactie, willen jullie svp een full latency opnemen.
Zie ook: YouTube: Is DLSS 4 actually BULLS**T?? --- THE RTX 5090 BLIND TEST
Dus je zegt dat de latency (per frame) toeneemt door DLSS / MFG maar dat is dus helemaal niet in het geval.

Dat de FPS niet klopt met de latency klopt, als je 260FPS haalt maar je latency zit rond de 30/32ms dan kun je dat merken. Maar in de praktijk is voor de meeste games de hogere FPS veel belangrijker en merkbaarder.

Voor competitive games ga je het niet willen, voor 80% van de andere spellen ga je het niet merken.
Aannames en dan +1.

Hier wat testjes en zie je dat de latency natuurlijk flink toeneemt: YouTube: Is DLSS 4 actually BULLS**T?? --- THE RTX 5090 BLIND TEST
2369 euro voor een video kaart? Dat is bijna een gemiddeld netto maand inkomen. Wat de gek ervoor geeft denk ik dan maar. Ik hoop dat weinig gekken er 2369 euro voor gaan geven en dat Nvidia weer bijzinnen komt.

Iemand enig idee wat de productie kosten zijn?

[Reactie gewijzigd door Speedster op 23 januari 2025 15:26]

De een gaat voor 5k op vakantie, de ander koopt een videokaart van 2,3k.
Haha dit idd, 5k op vakantie no one bats an eye, 2.3k voor een videokaart en iedereen gaat uit z’n dak.
Ik vind beiden eerlijk gezegd van de gekke, maar goed, ik zit dan ook liever met een boek in een hutje ergens op de hei als ik op vakantie ga. Voor ieder wat wils, zal ik maar zeggen.
Dat is prima toch. Ik moet er niet aan denken om in een hutje te zitten met een boek, misschien voor één dag maar daarna heb ik dat ook wel gezien.
Als gamer zijnde en als ik kijk hoeveel uur ik wel niet besteed achter mijn PC vind ik het het wel waard. Dat wil niet zeggen dat ik alsnog 3x nadenk en het een bak met geld vind..
Toch heeft een gamer waarschijnlijk meer plezier van een videokaart van 2369 euro dan een vakantie van 2 weken. Idiote prijzen.

[Reactie gewijzigd door Is_ Y_ Serious? op 24 januari 2025 08:40]

Of een iphone van tegen de 2k aan, of een Samsung Galaxy fold met een vergelijkbare prijs als een 5090. Kortom, veel mensen zijn gewoon bereid om flink te betalen voor iets waar ze vreugde uit halen. Is het geen 5090, dan is het wel vakantie, een mobieltje, een 7-gangen diner in een driesterren restaurant, ......

Ikzelf ga het niet betalen voor een videokaart, maar ik ben wel van plan om mijn inmiddels antieke PC te vervangen door een nieuw modelletje met een 5080 erin. Kan ik weer een aantal jaren vooruit, in ieder geval langer dan de levensduur van een nieuwe high-end smartphone :Y)
Ik doe 4 a 5 jaar leuk m'n hobby met zo'n kaart. Het is minder dan een maand hypotheek. Waarom ben ik dan gek?
Een kaart als de 5090 gaat wel langer mee dan dat, zeker met z'n 32GB VRAM.

Ik denk dat de 5090 over 8-10 jaar nog prima mee kan.

(Ik draai alles nog prima op 1440p met m'n 2080 Super met 8GB..nu 6 jaar oud.)
Grappig, ik draai ook op een 2080 Super, en ik begin nu her en der tegen performance issues aan te lopen. Ik ben nu al een paar maanden in dubio wat de opvolger van m'n 2080 moet gaan worden.

Volgende maand komt Monster Hunter Wilds uit, en die draait voor mij niet goed genoeg tijdens actie op de huidige GPU. Die 8gb vram is gewoon te krap aan het worden. Maar met de prijzen van tegenwoordig twijfel ik of het nog wel een nvidia moet gaan worden. Ik kan mij best vinden in het commentaar over de prijzen, hoewel het ook een hobby mag zijn en dus wat mag kosten.
July 23rd, 2019. Is de datum dat die kaart werd uitgebracht. Dus bijna 6 jaar oud.

Met de grafische instellingen op medium zal die vermoedelijk nog best een tijdje meekunnen?

Primaire reden dat we veel meer VRAM nodig hebben is dan ook vooral AI/ML. (In mijn geval vooral voor 3D rendering)

Punt zijnde dat je waarschijnlijk die 6 jaar naar 8 jaar kan 'rekken' door de grafische instellingen bij te stellen. Vind dat persoonlijk niet slecht.
Voor de helft heb je een kaart die misschien een jaartje minder mee gaat. High end GPU's voor futureproofing is echt onzin, dit heb je alleen nodig voor 4k120 achtige toestanden.

[Reactie gewijzigd door Kaasrol op 23 januari 2025 15:38]

Want? Het verschil in VRAM is ook aanzienlijk en maakt hem een stuk meer futureproof. Maar dat is uiteraard een persoonlijke afweging ;)
Als je VRAM nodig hebt kun je beter AMD kopen, hetzelfde argument als bovenstaand gaat op - tenzij raytracing of machine learning heel belangrijk is.
Oke, en hoe draai ik alle rendersoftware en noem maar op op die kaarten? Al die software is geoptimaliseerd voor CUDA dus al heeft AMD 96GB heb ik er nog niks aan :)
Fair, lees CUDA applicaties ipv machine learning. Dan is het ook een kwestie van prijs per uur, dat is anders dan in het hobby (gaming) scenario waar ik op reageerde.
Je zit op een hardware vergelijkingssite. Kijk even drie seconden voordat je de claim maakt dat er geen AMD kaarten zijn met meer dan 16GB. AMD 7900XTX 24GB, AMD 7900XT 20GB

dan zit je met Nvidia binnenkort met één kaart daarboven, voor een prijs waar je, als het je om geheugen gaat. net zo goed naar pro kaarten kan kijken.

[Reactie gewijzigd door blackdiablo op 23 januari 2025 16:18]

Lees even wat ik schrijf.
NIEUWE videokaarten. Geen vorige generatie. De 9700 9070 serie die uitkomt heeft maar 16GB geheugen en AMD heeft al aangegeven voorlopig geen high end kaarten meer uit te brengen.
Dus als je top performance wil met veel geheugen kan je NIET bij AMD terecht.

[Reactie gewijzigd door Arjant2 op 23 januari 2025 21:33]

Behalve dat die 'oude' kaarten het ook nog lang zat vol gaan houden. Als consument wil je de beste koop, dat is niet altijd het nieuwste zoals ook nu blijkt.
De nieuwe van AMD zouden in maart op de markt komen dacht ik.
lees dan ook wat ik schrijf dan zit je BINNENKORT met één kaart daarboven.
Als je het over andere kaarten hebt als de 4090. dan tellen de 7900xtx en xt ook.

en het is een 9070, geen 9700

[Reactie gewijzigd door blackdiablo op 23 januari 2025 20:31]

Dat hoor ik meer, maar als het puntje bij paaltje komt staan ze bij de volgende generatie weer in de rij en de fabrikant denkt, hmmm ze betaalden het? er kan wel weer wat bovenop.
Kijk maar hoeveel 4090's ineens te koop staan op de vraag & aanbod, maarliefst 15. En ik denk niet dat ze allemaal ineens gestopt zijn met gamen...
Als je voor het rekengemak 6 jaar doet met zo'n kaart van 2300 euro, dan heb je nu inderdaad de allerbeste kaart, over 2 jaar komen er nieuwe kaarten uit en dan is hij ineens niet meer het beste. 2 jaar later komen er weer nieuwe kaarten uit en dan heb je ineens een midrange kaart.

Voor die 2300 euro had je 3x een kaart van 750 euro kunnen kopen (Zonder verkoop van de oude kaart meegerekend), dan had je in het begin niet het allerallerbeste gehad (maar nog steeds een goede grafische kaart die alle spellen prima kan spelen), na 2 jaar zal je al in de buurt zitten van wat die 5090 zou doen en de volgende upgrade ben je al sneller.

Als je dan ook nog je oude kaarten verkoopt zal je waarschijnlijk over die periode meer terug krijgen dan die 5090 na 6 jaar (kijk maar wat een 2080ti nu kost) en voor de laatste 2 jaar heb je een snellere kaart.
Misschien heb je na 2 of 4 jaar wel al een betere ervaring omdat je ook nieuwe features krijgt die de 5090 niet zal hebben
Veruit de slimste benadering.
Je zou verwachten dat 90% van de mensen zo redeneert of zelfs om de 3 jaar upgrade middels een midrange kaart. Maar blijkbaar toch teveel mensen die 4k spelen op ultra (of andere zware eisen hebben) en/of teveel over hebben voor hun pc hobby.
Dan wil ik je stulpje best wel eens komen bewonderen. 8-)
Hahahaha ja... het is eigenlijk een stuk meer dan dat lol, welkom voor een pilsje ;)
Ik zou zeggen mensen uit de volgende categoriën:
  • Mensen die AI modellen willen trainen maar niet genoeg geld hebben voor dedicated AI kaarten
  • Mensen willen showen dat ze genoeg geld hebben voor een 5090 (zelfs als ze dat geld misschien eigenlijk niet hebben.
  • Mensen die zodanig veel geld hebben dat het verschil tussen 1000 en 2500 euro bijna niet opvalt.
  • Mensen die geen verstand hebben van wat nodig en mogelijk is om spellen soepel te laten draaien.
Mensen gaan waarschijnlijk nog een 5e categorie noemen: Mensen die hun hobby wel 2500 euro waard vinden voor het plezier dat ze er uit krijgen. Maar ik denk dat ik die mensen afhankelijk van hun financiële situatie in mijn 3e of 4e categorie (of beide) zou plaatsen. :-)
Om nog een belangrijke categorie toe te voegen. Mensen met 3D rendering als hobby (of semi-professioneel). Dat is voor mij de enige reden dat ik zo'n high-end kaart gekocht heb. Gaat dan vooral om de VRAM.

Jammer voor mij dus om alleen D5 rendering als benchmark te zien.
Dat zijn de adviesprijzen. Daarvoor ga je 'm hoogstwaarschijnlijk nergens in Europa daadwerkelijk kunnen kopen. All 5090s gaan de komende tijd ontzettend zeldzaam zijn.
2350 voor de nvidia, tot aan 3000 ofzo voor Asus ROG Extreme Unlimited Beast schat ik zo in.
Ik heb bijna 13 jaar geleden ook al 1600 euro uitgegeven aan mijn destijdse dual Nvidia TI4600 setup.

Dus dat valt nog enig sinds mee als je dat bekijkt , dat was toen het beste wat er te krijgen was en dat was dan wel Inc de water blocken.
Bedoel je alleen de onderdelen, of ook de research, marketing, enz enz
Een ander schiet voor 2369 vuurwerk de lucht in, nee dat is een goeie investering.
En? Voor iets wat je jaren kan gebruiken?
Ik was heel erg bereid om zoveel neer te tellen (en m'n 4090 te verpatsen voor 1500 ofzo dus dan valt het nog mee) maar doordat het zo een lawaaikaartje is blijf ik voorlopig nog even hangen.. Maar de prijs vind ik redelijk.
De productie kosten...zal mij niet verbazen als deze onder de 50 euro liggen.
Heb 2 jaar geleden 2400€ voor mijn Asus strix 4090 OC betaald ik kijk niet echt op vanwege de prijs van de 5090 dus.
Maar vind hem niet echt vernieuwend helaas ik had meer verwacht.
Zijn de temperaturen getest? Ben benieuwd naar de nieuwe koeler. Of komt dit pas bij de non-reference tests?
Uiteraard hadden we dat graag willen doen, maar bij een releasereview met een beperkte hoeveelheid tijd moeten we keuzes maken. Als we wel de koeler hadden getest maar bijvoorbeeld niet de PCIe 4.0-prestaties, had hier ongetwijfeld een vraag daarnaar gestaan :P. Morgen heeft vrijwel ons hele videokaartenteam een welverdiende vrije dag, maar dit zal een van de eerste dingen zijn die we volgende week gaan oppakken :)
Ik zie zelf een grotere meerwaarde in temperaturen, ventilator rpm en decibels melden in een review dan een pci-e 4.0 vs 5.0 test...
Die eerste drie zaken zouden toch prioriteit moeten hebben over een PCI-e 4.0 vs 5.0 test in een videokaart review?
Wat blijkbaar ook niet zo'n hele wereldschokkende data opgeleverd heeft.

Wel fijn voor Nvidia dat het nog tot volgende week duurt voordat die info hier toegevoegd wordt.

-Qua idle power draw valt het tegen.
-Qua geluidsniveau valt het tegen met zo'n 40db.

[Reactie gewijzigd door HugoBoss1985 op 23 januari 2025 16:45]

Dat kan - wij hebben een andere afweging gemaakt. Idle power draw staat gewoon in de review hoor, op p22 :)
Ik ben hier erg blij mee. Heb zelf nog een x470 bord met pci-e 3.0. Door jullie overzicht durf ik de gok wel aan en schat ik dat dit in totaal een procent of 5 verschil zal maken. Dank!
Gaan jullie daar in ook meer testen buiten games? Zoals 3D rendering.
Ik mis dat dus ook...

@Tomas Hochstenbach @Trygve

De temperaturen, de koeler (2 slots) en het ventilatoren rpm vind ik het enige indrukwekkende aan deze kaart, n.a.v. andere reviews waar de temperaturen wél getest (gepost) zijn.
De VRAM temperatuur vind ik dan wel aan de hoge kant.

[Reactie gewijzigd door HugoBoss1985 op 23 januari 2025 16:01]

Ja ook echt wel benieuwd, want normaal koop ik geen FE maar vind wel echt fijn dat ik ik geen 3-4 slots meer kwijt ben! Altijd wel wat zonde gevonden dat die kaarten zo belachelijk groot geworden zijn, vind op zich misschien wel de grootste inovatie van deze reeks. Alleen jammer te zien dat partners dit design of variatie lijken te gebruiken, van wat ik zag lijken ze allemaal vrijwel zelfde koelers layout te gebruiken dan bij hun 4000 serie.
40 dB bij 77C, qua temps bijzonder goed voor een 2-slot 600w kaart, maar de geluidsproductie is bagger zoals verwacht.

AIBs gaan het beter doen qua geluid.
Bij DLSS framegen is beeldkwaliteit leuk maar m.i. nog een van de minst belangrijke factoren. Er moet getest worden op input-lag en input-artefacts. We spelen immers games en kijken niet naar een film - er is sprake van user-input. De reden dat we hoge framerates willen bij games, is zodat het vloeiender voelt.

Het gaat mis bij fast-paced shooters of letterlijk elke competitive game. Het probleem is dat als je in een shooter je muis snel heen-en-weer beweegt, DLSS Framegen de nieuwe richting van je beweging met geen mogelijkheid kan voorspellen. M.a.w., als je een snelle links-rechts-links flick maakt met je muis, weet DLSS niet waar je beweging omdraait en ook niet waarnaartoe. De gegenereerde / gegokte frame wordt ge-extrapoleerd uit de start van je beweging, en zal over- of undershooten (of uberhaupt compleet hallucineren), wat een vreemd gevoel zal geven. En bij alles wat een competitief element heeft, is accuracy tussen wat je doet en wat je ziet belangrijker dan al het andere.

Als je met framegen een game op 120fps speelt, terwijl de native framerate 30fps is, krijg je dus een game die er smooth 'uitziet', maar alsnog op inputs reageert als dikke stront door een trechter en je intussen mogelijk dingen laat zien waar je crosshair nooit geweest is, tot de volgende echte frame orde op zaken stelt.

DLSS framegen is vooral een hele mooie truc om synthetische benchmarks hoge nummers uit te laten persen, omdat die wel puur om de cinematische vloeiendheid gaan.

[Reactie gewijzigd door Boxman op 23 januari 2025 15:54]

Nvidia reflex lost dat probleem grotendeels op. Ik heb bij geen enkele game gemerkt dat input lag opeens een issue is bij frame gen.

Nvidia reflex is echt een onder benoemd paradepaardje. Zit erg goed in elkaar.
Nvidia reflex lost dat probleem grotendeels op
Neen, want:

1. Reflex staat los van framegen, het is niet eerlijk om native zonder reflex te vergelijken met framegen mét reflex.

2. Reflex kan maar beperkt optimaliseren, als je vertrekt van 30fps blijft de tijd om een volgend echt frame te genereren veel te hoog om het te doen aanvoelen als 120fps, wat je ook probeert.
Dat is wel eerlijk want dat is nu eenmaal onderdeel ervan , daarmee worden de verschillen zo klein dat 99% van de gamers dat niet merkt
Niet eerlijk, want het staat los van FG, werkt los van FG en bestond al lang voor FG.
daarmee worden de verschillen zo klein dat 99% van de gamers dat niet merkt
Uitspraak zonder bronnen of bewijs.
Eerlijk of niet het gaat uiteindelijk om het behaalde resultaat en dat is goed met FG. De latency zal altijd lager zijn met REFLEX zonder FG en straks helemaal met REFLEX 2.0.
Ik heb een 4090 en gebruik FG en reviews van dlss4 laten dat zien dat het nog verbeterd is.
Framegen extrapoleert niet. DLSS (en FSR) framegen interpoleert tussen 2 frames. Dat is ook de reden dat input latency inherent hoger is. Eerst moet de nieuwe frame beschikbaar zijn, en pas dan kun je interpoleren. En met 1 AI frame per 1 gerenderde frame, moet de laatste gerenderde frame de halve frametime later worden weergegeven dan de AI frame. Dus de extra latency is altijd (minimaal) interpolatietime+frametime/2.

Native (met upscaling, dus niet echt native) 30fps is gewoon te laag voor framegen. Maar van 30 native, naar 80 met upscaling, naar 240 met framegen, kan prima werken. Je moet inderdaad wel een heel klein beetje snappen waar je mee bezig bent als je framegen goed wil gebruiken. En een spellen spelen waar input latency niet enorm belangrijk is, voor competitive gamers is framegen geen goed idee. Daarvoor komt reflex 2 binnenkort.

Als jij persoonlijk niets geeft over hoe vloeiend het beeld is van je spel. En alleen geeft om input latency. Is de "we" in je verhaal nogal misleidend. Ik vind het heel fijn als een beeld rustiger is voor mijn ogen door gebruik van framegen.
Ik was onder de indruk dat met ingang van DLSS4 wel geëxtrapoleerd werd, op basis van wat nVidia CEO Jensen Huang op t=770s van zijn keynote zegt:
The latest generation of DLSS also generates beyond frames. In can predict the future, generating 3 additional frames for every frame that we calculate.
Als dat niet waar blijkt te zijn, dan heb ik verder niks gezegd, buiten het feit dat je dan inherent input-lag hebt omdat je voor je frame-gen moet wachten op de volgende berekende frame. Ik zie dat er online veel discussie is over zijn uitspraak, maar ook dat het lastig is een officieel statement te vinden over of met ingang van DLSS4 nou wel of niet geëxtrapoleerd wordt.
Ben ik de enige die de resultaten teleurstellend vind tov de 4090, als je kijkt naar de enorme toegenomen geheugensnelheid en aantal cores?
Bandbreedte bijna x2
Aantal cores bijna 1/3 bij
Ik zou gedacht hebben om toch een +50% performance te zien.
Klopt! Ik denk dat deze kaart aardig power-limited is nog. Namelijk, de 5080 heeft exact halve specs, maar mag 360 watt verbruiken, dat zou betekenen dat deze *eigenlijk* 720w nodig zou hebben om volledig benut te worden.

Dat is natuurlijk maar een theorietje, maar ik ben dus ook heel benieuwd of iets van undervolting plus hogere power limit nog wat meer performance kan loskrikken, ik denk 't namelijk van wel.
Sommige spellen halen dit ook wel, maar mijn aanname (van een leek) is dat er maar weinig devs zijn die de boel goed genoeg kunnen optimaliseren. Cyberpunk heeft bijvoorbeeld gewoon +45-50% FPS tegenover een 4090.
Heeft niet veel met optimaliseren te maken maar meer hoe goed je game scaled met sneller geheugen. Bij sommige games is dat effect gewoon groter dan bij andere
Ah ok, dat klinkt ook wel logisch ja, bedankt.
Pssst.. het is stiekum een 4090Ti Zie HWU
Dat niet alleen, de prijs dat doet het hem voor mij. Als het een prijskaartje kreeg van 15 a 1600 euro dan had ik me portemonnee direct getrokken, maar dit is te gek voor woorden...
Bijzonder teleurstellend voor een 5090 eerlijk gezegd! Tuurlijk wisten we de specs al, en de nagenoeg identieke process node... maar het blijft jammer.

Ik had meer performance verwacht t.o.v. de 4090. De 5090 geeft je gemiddeld 30% extra performance in gaming voor een adviesprijs die 25% hoger ligt.

Diezelfde flagship-vergelijking was de vorige generatie véél gunstiger. De 4090 geeft 70% extra performance t.o.v. de 3090, voor een adviesprijs die ~6.7% hoger ligt.
Tuurlijk had ik zelf ook liever weer +60-70% gezien, maar ik denk dat ze dit keer voornamelijk op het compacter maken hebben gefocust, en nog wat meer aan de koeling gesleuteld. De 5090 lijkt een stuk koeler te blijven terwijl het ook nog significant smaller is geworden. Ik denk dat het best wat mogelijkheden geeft aan kleine builds zonder te hoeven rommelen met waterkoeling.

Wellicht dat de 60 series weer een mooie performance sprong maakt zoals de 40 series gedaan heeft.
Ja dit verbaast me wel, dat de 5090 met dat hogere verbruik en die kleine koeler zo koel blijft.

Dat hebben ze dan echt netjes gedaan. Mijn 4090 is echt een bakbeest maar over het algemeen is dat voor koeling juist prima.
Qua formaat is de 5090FE alleen minder dik dan de 4090FE. Het blijft een beest van een kaart qua afmetingen - 'kleine build' gaat relatief zijn. Goed meten voordat je in het diepe springt. :)
Ja klopt, voor de echte mini-builds zal het nog steeds wel een uitdaging of een onmogelijke taak zijn.
Ik had meer performance verwacht t.o.v. de 4090. De 5090 geeft je gemiddeld 30% extra performance in gaming voor een adviesprijs die 25% hoger ligt.
En 30% extra performance voor 28% meer stroomverbruik. Niet echt een bijzondere upgrade wat dat betreft. Performance per watt is bijna gelijk. Ook niet al te verbazend aangezien de node gelijk is gebleven.

Al is het compactere formaat en de bijna dubbele geheugenbandbreedte is natuurlijk wel interessant. Zeker voor LLM gebruik waar geheugenbandbreedte de bottleneck is. Daar is de extra VRAM ook super geschikt voor.

Maar voor gaming kijk ik de kat maar even uit de boom, denk dat het niet echt zin heeft om mijn 4090 te upgraden. Zeker omdat er ook een nieuwe voeding bij moet en eigenlijk een AM5 moederboard + CPU + nieuw geheugen om er maximaal profijt van te trekken. Toen ik van mijn oude 3080Ti naar de 4090 ging was dat wel een enorme sprong.

[Reactie gewijzigd door Llopigat op 23 januari 2025 15:52]

Ik hoopte ook op richting 50%. 25 a 30 % is een beetje tsja net niet :(
Er zijn wat YT kanalen die de GTX1080 and RTX2080 opnieuw hebben getest met huidige cpu's (5800X3D, 7800X3D en 9800X3D) en er zit zo'n 30% winst in, in een enkele flink hoger.

Ik vraag me af hoeveel winst er in de 4090 en 5090 zit als we over aan aantal jaar flink snellere processors hebben.
Ik kan dit moeilijk geloven, dus zou je een bron willen delen? :)

Een goeie GPU-benchmark doe je in GPU-limited scenario's, dus ik kan me niet voorstellen dat een betere processsor daar veel invloed op zou hebben, laat staan een 30% verhoging. De hardware is wat het is - een betere CPU kan niet meer rekenkracht uit je videokaart trekken.

Ja, misschien draait het spel wel beter - maar dan komt dat zeer waarschijnlijk door betere CPU performance in een scenario waar dat een (kleine) bottleneck is.

[Reactie gewijzigd door IlIlIllII op 24 januari 2025 08:22]

Dit is er 1. GN heeft er ook een video over. Er zijn er meer.

Een betere cpu verandert een videokaart niet, dat begrijp ik, maar als het beste van toen gewoon niet voldeed om de cpu bottleneck 100% weg te halen, waarom zou dat voor de nieuwe videokaarten niet gelden? Zeker voor monsters als een 4090/5090 en net daaronder. Dat zou de mindere resultaten op 1080p wel verklaren.

Ikzelf ging van een 5600 naar 7700 en zelfs zonder bench merk je echt wel dat de 1% beter zijn met een 3060, en de 5600 zou volgens meerdere testen geen bottleneck moeten zijn.
Bedankt! Min of meer wat ik verwachtte eigenlijk. 1080p vergelijkingen van moderne spellen waarvan sommige een flinke CPU-bottleneck hebben.
maar als het beste van toen gewoon niet voldeed om de cpu bottleneck 100% weg te halen
Nou... er worden hier moderne spellen getest met een GPU en CPU uit 2017. Die spellen hebben nou eenmaal hogere requirements - logisch dat je dan eerder bottlenecked bent. Dus ''het beste van toen'' is niet echt toepasselijk hier aangezien deze spellen/ports grotendeels uit 2020-2024 komen. Dan kun je beter kijken naar spellen uit 2016-2018 imo die relevanter zijn voor de hardware van toen.

Kijk, als je echt 100% CPU-bottlenecked spel kun je natuurlijk je GPU-performance niet echt in kaart brengen. Ja, toekomstige CPU's verhelpen die bottleneck en zullen dat probleem oplossen. Eindresultaat is een hogere framerate. Maar is dat ''winst'' te noemen voor de GPU? Natuurlijk niet, want het is de CPU die je framerate verbetert. Je gemiddelde GPU-benchmarks zijn iets accurater omdat ze nu ''vrij spel'' hebben, maar als je die verbeterde metingen toevoegt aan de vroegere benchmarks... dan spreken we over margin of error.
Ik had graag wat Blender benchmarks gezien. AI cores is leuk in games maar geeft het ook een boost in 3D applicaties
Erg jammer dat die hier niet bij staan ja. D5 Render waar gebruikt gemaakt wordt van DLSS is voor mij niet heel interessant nee
Gelukkig heeft Blender een eigen benchmark: scores

Op dit item kan niet meer gereageerd worden.