Let op: je bekijkt een oudere versie van dit artikel. Bekijk hier de nieuwste versie van dit artikel.

Door Reinoud Dik

Redacteur

Beste videokaart voor 4k-gaming

Videokaart Best Buy Guide

99

Beste videokaart voor 4k-gaming

De beste videokaart voor gaming op 4k, de populaire naam voor de resolutie die 3840 bij 2160 pixels telt, is natuurlijk op de eerste plaats de grafische kaart die op die resolutie goed presteert. Daarnaast is de prijs van de videokaart een belangrijke overweging in ons advies.

Voor deze Videokaart Best Buy Guide hebben we alle relevante videokaarten getest in tien games en met twee soorten kwaliteitsinstellingen: doorgaans de 'medium'- en 'ultra'-presets. Als een spel raytracing ondersteunt, testen we de prestaties ook met die optie ingeschakeld.

Hieronder vind je eerst onze aanraders, de zogenaamde Best Buys. We raden eerst een videokaart aan die je comfortabel met ruim 60fps laat spelen op 4k-resolutie, gevolgd door een advies voor wie een monitor met een hoge refreshrate goed wil benutten.

Verder naar beneden kun je de benchmarkresultaten waarop we onze adviezen baseren bekijken en zetten we die prestaties af tegen de prijzen in onze prijs-prestatieverhouding.

Updates

16-12-2024 We hebben het aanbod gecheckt, en de prijzen bijgewerkt. Dit zijn nog steeds onze aanraders.

Onze aanraders

Best Buy 4k-gaming @ 60fps

AMD Radeon RX 7900 XT
AMD Radeon RX 7900 XT Max. 2,4GHz • 20GB GDDR6 • 2x DP, HDMI, USB type-C Prijs bij publicatie: € 702,-
Bekijk product

De AMD Radeon RX 7900 XT leent zich uitstekend voor gaming op 4k-resolutie. In onze benchmarks van tien games komt hij uit op gemiddeld 81fps met de allerhoogste ultra-instellingen. Voor de meeste 7900 XT-videokaarten betaal je op het moment van schrijven rond de 800 euro, waarmee hij aanzienlijk goedkoper is dan de langzamere RTX 4070 Ti Super van Nvidia. Alleen wanneer je raytracing inschakelt, is de Nvidia-kaart wel sneller, maar daarvoor zijn beide kaarten op deze resolutie eigenlijk te langzaam.

Ook de gunstiger geprijsde RX 7900 GRE haalt nog altijd 68fps, maar omdat dat een gemiddelde is, zijn er ook games die onder de 60fps dippen. Ga je voor die kaart, houd er dan rekening mee dat je af en toe voor iets lagere grafische instellingen moet kiezen. Met de geadviseerde RX 7900 XT zul je daar voorlopig minder snel tegenaan lopen.

Bekijk de goedkoopste Radeon RX 7900 XT's

Lees hier onze Radeon RX 7900 XT-review

Best Buy 4k-gaming @ 120fps

Nvidia GeForce RTX 4090 Founders Edition
Nvidia GeForce RTX 4090 Founders Edition Max. 2,52GHz • 24GB GDDR6X • 3x DP, HDMI Prijs bij publicatie: € 2.242,-
Bekijk product

Op dit moment is er maar één videokaart die dermate hoge framerates neerzet op 4k-resolutie dat we kunnen spreken van high refreshrate gaming op deze resolutie. Dat is natuurlijk de GeForce RTX 4090, het meest uit de kluiten gewassen grafische monster dat Nvidia deze generatie heeft uitgebracht. Gemiddeld haalt deze kaart 137fps in de door ons geteste games zonder raytracing, en met die rendertechniek ingeschakeld zakt dit terug naar 85fps.

Helaas zijn de prijzen voor een RTX 4090 de laatste tijd gestegen. Nvidia gebruikt de AD102-gpu's in deze videokaart ook voor zakelijke AI-versnellingskaarten, waardoor de toevoer beperkt is. Om de rekenkracht van deze videokaart goed te benutten, moeten de overige specificaties van je pc er ook goed uitzien, waardoor de totale kosten aardig kunnen oplopen.

Wie echter het snelste van het snelste wil om op 2160p met een hoge framerate te gamen, heeft hier met de RTX 4090 wel een geschikte optie voor.

Bekijk de goedkoopste GeForce RTX 4090's

Lees hier onze GeForce RTX 4090-review

 

Prestaties in 4k-gaming

Geteste games

  • Assassin's Creed: Mirage
  • Assetto Corsa Competizione
  • Avatar: Frontiers of Pandora
  • Call of Duty: Modern Warfare II
  • Cyberpunk 2077
  • Doom Eternal
  • F1 23
  • Forza Motorsport
  • Starfield
  • The Callisto Protocol

Om in een oogopslag te laten zien hoe de verschillende gpu's zich tot elkaar verhouden, berekenen we de gewogen gemiddelden vanuit de tien geteste games op basis van de resultaten. Deze gemiddelden noemen we de Tweakers GPU Prestatiescore.

In games die gebruikmaken van traditionele rasterization haal je al met een GeForce RTX 4060 Ti meer dan 60fps op medium-settings, maar de meeste gamers zullen daar geen genoegen mee nemen. Voor gemiddeld 60fps op ultra heb je minstens een Radeon RX 6800 XT of GeForce RTX 4070 nodig. Om echt in elke game boven de 60fps uit te komen, moet je wat marge nemen; vandaar dat onze aanrader net een stapje hoger zit.

Op 4k ultra valt de RX 7800 XT van AMD bijna perfect tussen de RTX 4070 en RTX 4070 Super in, terwijl de RX 7900 XTX net wat vlotter is dan de RX 7900 XT. De RTX 4080 Super haalt het net niet bij de RX 7900 XTX, maar die wordt wel ruim voorbijgestreefd door de RTX 4090, die met grote afstand de grafiek aanvoert.

Met raytracing ingeschakeld daalt de gemiddelde framerate enorm. Alleen de RTX 4080, RTX 4080 Super en RTX 4090 halen meer dan 60fps, en we durven wel te stellen dat alleen de RTX 4090 je echt comfortabel laat gamen met raytracing aan. AMD doet het relatief aanzienlijk slechter dan zonder raytracing; de RX 7900 XTX presteert bijvoorbeeld identiek aan de RTX 4070 Ti, terwijl hij zonder raytracing nog 32 procent sneller was.

  • 4k ultra
  • 4k ultra + raytracing
  • 4k medium

Ben je benieuwd naar de prestaties in een specifieke game? Bekijk dan al onze videokaartbenchmarks.

Prijs-prestatieverhouding

In onderstaande grafiek zetten we de prestaties van een videokaart, om precies te zijn onze GPU Prestatiescore voor 4k ultra, af tegen de prijs van de videokaart. Om de prijs te bepalen, hebben we gekeken naar wat op het moment van schrijven de drie goedkoopste verkrijgbare videokaarten voor elke gpu waren in de Pricewatch, met als filter een levertijd van maximaal drie dagen. We hanteren de gemiddelde prijs van deze drie kaarten om tot de prijs-prestatieverhouding te komen.

De grafiek toont een kromme trendlijn van de prijs-prestatieverhouding van alle modellen die op de desbetreffende resolutie een prestatiescore hebben behaald. De interessantste gpu's vind je linksboven van de trendlijn; die bieden relatief hoge prestaties voor een relatief lage prijs. Kaarten met een stip rechtsonder de trendlijn hebben juist een relatief slechte prijs-prestatieverhouding.

Vanaf een kleine 600 euro koop je een videokaart die minstens 60fps haalt, zoals de AMD RX 7800 XT en de Nvidia RTX 4070 Super - die laatste is van dat tweetal de snelste, maar ook wat duurder. Voor 780 euro haal je een RX 7900 XT in huis, die met zijn rode stip duidelijk boven de trendlijn uitkomt en dus een bovengemiddeld goede deal is.

In het hogere segment is de RX 7900 XTX een duidelijk betere koop dan de RTX 4070 Ti Super. De AMD-kaart is zelfs sneller dan de duurdere RTX 4080 Super - die moet je alleen kopen als de betere raytracingprestaties van die kaart of andere Nvidia-specifieke features je aanspreken. De RTX 4090 is helemaal rechtsbovenin een klasse apart: extreem duur, maar ook extreem snel.

Reacties (99)

99
97
63
3
0
15
Wijzig sortering
Ik blijf het een gemis vinden dat in dergelijke BBGs of reviews de upscaling technieken niet mee worden genomen in het totaalplaatje. Zaken als DLSS 3.0 (+Frame Generation) en FSR 3 zijn, in veel AAA-games, immers onmisbaar op 4K met alle toeters en bellen.

I know, want ook ik met een RTX 4090 val soms terug op DLSS. :)
Hoe vaak moet dit gedoe herhaald worden?

Net zoals bij Gamers Nexus maakt Tweakers hier de juiste beslissing: upscaling wordt uitgezet in reviews, omdat we de pure kracht van verschillende GPUs met elkaar willen vergelijken.

DLSS/FSR vervuilt die data dusdanig dat er geen objectieve vergelijking kan gemaakt worden:
  • De kwaliteit van verschillende upscaling settings is niet objectief te vergelijken (FSR vs DLSS vs XeSS, maar ook bvb DLSS quality vs balanced)
  • Het effect op de framerate van upscaling verschilt per game
  • De kwaliteit van de upscaling verschilt per game
  • De versie van de gebruikte upscaling verschilt per game, en daarmee dus de performancewinst en kwaliteit (DLSS 2.1 vs 2.2 bvb)
  • Updates aan upscaling, die los staan van game- of driver updates, kunnen het hele plaatje weer omgooien
En zelfs als je een objectieve manier probeert te ontwikkelen (bvb door de itnerne render resolutie gelijk te trekken of door adhv een objectieve kwaliteitsscore zoals PSNR te berekenen hoe goed een bepaalde upscaling setting is, en dan in al je benchmarks dezelfde kwaliteit te targetten), dan is dat alsnog niet relevant voor jou als gebruiker: iemand die op een 24" 1440p scherm speelt zal upscaling artifacten minder belangrijk vinden dan iemand die op 32" 1440p speelt.

Dus, met upscaling wordt het extreem moeilijk om objectief en kwantificeerbaar te reviewen.

Neem daartegen de huidige aanpak: er wordt een representatieve set aan games genomen en op native resolutie wordt er getest. Gelet op de consistente prestatie verhoudingen tussen kaarten doorheen meerdere reviews weten we gewoonweg dat dit een objectief correct beeld geeft van de performance van die kaarten.

Als jij echter van jezelf weet dat je op een klein 4k scherm speelt, dan weet je dat je op DLSS performance gemiddeld ongeveer 50% extra FPS krijgt tov native, en dat dat voor jou een acceptabel kwaliteitsnieau is. Ik speel dan weer op 27" 1440p en weet dat ik FSR quality wil, en dus gemiddeld slechts 20% extra FPS kan verwachten. Dat extra percentage is afhankelijk van de game en gebruiker. Wat hebben we er dus aan dat we arbitraire percentags bij de FPS getallen gaan optellen?
De relatieve performance is echter het allerbelangrijkste in GPU reviews, en daarvan schetsen de cijfers van Tweakers een correct beeld, ook als je voor jezelf beslist upscaling aan te zetten. Er hoeft dus niets veranderd te worden, geneuzel of DLSS en FSR aanzetten in reviews mag dus alsjeblief even uitsterven.

[Reactie gewijzigd door kiang op 22 juli 2024 13:17]

Ik ben het hier niet mee eens, maar ik benader het vanuit het perspectief als consument die een videokaart zoekt.

Als consument wil ik namelijk graag weten wat een videokaart kan met alle technische opties die er aan vast zitten. Ik game op mijn PC/TV/Hifi surround setup in de woonkamer en ik was op zoek naar een videokaart die daar bij past. Onlangs heb ik een nieuwe TV aangeschaft (S95C) die 4k120hz draait en mijn 1080 Ti was daarom aan vervanging toe.

Gezien mijn oude 1080 Ti alle moderne opties (Raytracing en upscaling etc.) niet kon draaien heb ik een backlog aan games opgespaard die ik met alle toeters en bellen wil spelen (Shadow of the Tomb Raider, Cyberpunk 2077, Control). Bij het zoeken naar een videokaart wilde ik dus weten welke kaart het beste hierbij past. Hierdoor kom ik dan uiteindelijk uit bij het nodig hebben van DLSS of FSR om raytracing + 4k vlot te laten draaien, voor native 4k RT is de techniek er nog niet.

Nu snap ik dat DLSS of FSR onderhevig is aan softwarematige updates en daarom geen betrouwbare metric door de tijd heen voor een vergelijkend warenonderzoek tussen videokaartgeneraties, maar ik wil wel weten wat een videokaart nu kan als ik er eentje koop. Ik wil weten wat de prestaties in het heden zijn met alle grafische opties aangetikt voordat ik +1000,- euro uitgeef.

Ik ben uiteindelijk voor een 4080 Super gegaan waar ik heel tevreden mee ben, maar ik heb wel het internet afgespeurd naar reviews om te kijken wat 4k RT + DLSS doet. Ik vind het dan ook jammer dat Tweakers niet de extra moeite doet om dit in kaart te brengen.

Ik zou voorstellen dat Tweakers een extra kopje maakt in de reviews met wat er nodig is om verschillende, gangbare resoluties te behalen, b.v. neem de meest demanding game van het moment (Cyberpunk 2077) en ontdek in het review of een kaart b.v. 1440p 144hz, 4k60hz, 4k120hz, 4k144hz etc. kan draaien, en zo ja met welke settings. Ook is de volgende generatie gamingmonitoren op komst met 4k240hz, dit zal native bij de meeste games niet meer kunnen zonder upscaling.

Het is een andere manier van denken over een product en een review, maar ik denk dat dit een vraag is waar consumenten wel mee zitten.
Ik game op mijn PC/TV/Hifi surround setup in de woonkamer en ik was op zoek naar een videokaart die daar bij past. Onlangs heb ik een nieuwe TV aangeschaft (S95C) die 4k120hz (...)(Shadow of the Tomb Raider, Cyberpunk 2077, Control). Bij het zoeken naar een videokaart wilde ik dus weten welke kaart het beste hierbij past.
En andere mensen hebben een 24" 1080p monitor en spelen esports spellen. Nog andere mensen spelen op 1440p RPGs. Nog andere mensen hebben een HDR scherm en willen daar wel wat van weten. Nog andere mensen gamen en streamen tegelijk en zoeken dus uit hoe het dan met de performance zit.

Jouw verwachting, dat een review (of zelfs een BBG) perfect voor jou op een dienblad aanbiedt wat jij in jouw situatie wilt doen is een erg hoge verwachting en je moet toch even het zelfrelativeringsvermogen hebben om te snappen dat een review simpelweg niet elke situatie kan invullen en testen?

Het enige wat een review kan is een correct beeld van de GPUs onderling schetsen, en dat gebeurt hier correct: de relatieve verhouding tussen de kaarten wordt correct getoond, en kan je in bijna alle games wel doortrekken, ook al staat jouw game er niet tussen.

Als je echt wilt weten hoeveel FPS een bepaalde GPU met bepaalde settings haalt, dan kan je dat gewoon op youtube vinden. En voor je vraagt "En WaArOm DoEt TwEaKeRs DaT dAn NeIt AlS eEn YoUtUbEr DaT wEl KaN?": die youtuber doet 1 game en maximaal, wat, 2 of 3 GPUs? en dan testen ze in die video's meestal ongeveer 5 verschillende settings, maar de test is meestal gewoon even kort rondlopen en dus niet exact dezelfde testrun, en dus minder exact.
Tweakers test voor elke review 10 games op 3 resoluties, eventueel nog met RT aan voor een kleine selectie aan GPUs met 2-3 games, en hertest naast de nieuwe GPU ook nog eens ongeveer 10 (of meer!) oudere modellen. Reken maar uit: Tweakers draait voor elke review ongeveer 10 x 3 x 10 testruns zonder RT, en dan nog 3 games x 5 GPUs x 3 resoluties, in totaal dus 300 + 45 testruns. Per. Review.

Als jij eist dat er naast native ook nog eens upscaling wordt gebruikt, laten we zeggen op twee settings balanced en quality), dan doe je de hele testset maal 3: jij vraagt dat tweakers niet 345 maar 1035 testruns doet.

Naast dat het dus geen extra informatie geeft om jou een betere koopbeslissing te doen maken, is het dus ook nog eens ronduit onhaalbaar.
Ik denk dat het nog steeds haalbaar moet zijn om DLSS + RT te reviewen, al weet ik niet of de testruns zo gaan op de manier zoals je voorstelt (alle oude kaarten hertesten)?

Ik neem aan dat reviewers een test bench hebben die voor een bepaalde periode qua onderliggende specs hetzelfde blijft en ze de historische cijfers gebruiken van vorige reviews? Ik kan mij ook bedenken dat ze bij bepaalde kaarten of generaties voor de zekerheid nog een run doen om te kijken of het nog overeenkomt of dat alles opnieuw moet (bijvoorbeeld nieuwe testbench). Anders is reviewen wel echt heel inefficient en tijdverslindend werk. Mocht het wel zo zijn, petje af voor de redactie.

Maar om terug te gaan naar mijn punt, ik denk dat als een feature bij een kaart zit en die ook wijds gebruikt wordt, ook getest moet worden met een selectie van games die er gebruik van maken.

Uiteindelijk heb ik mijn 4080S gekocht op basis van de review van TweakTown die wel DLSS + RT testte. Als Tweakers iets neerzet wat binnen dezelfde lijn valt zie ik het probleem niet waarom ze het niet zouden doen.

Zie hieronder de review:

https://www.tweaktown.com...ng-Performance-and-DLSS-3
al weet ik niet of de testruns zo gaan op de manier zoals je voorstelt (alle oude kaarten hertesten)?
Eh, ja. Elke respectabele reviewer hertest voor elke review, zodat de situatie exact gelijk is: zelfde driver versie, zelfde versie van de game, zelfde versie van Windows.

In de Tour van het nieuwe tweaker hq wordt dit ook (nogmaals) gezegd: https://youtu.be/7MwcqVVwGPg?si=rcX41_W_VJvzOGXO (rond 4:15)
Ik vind dat je ergens een punt hebt. Bij het advies wordt enkel gefocust op native 1440p gaming. Terwijl je met een 1080p kaart ivm dlss/fsr prima op een 1440p scherm kan gamen.

In mijn beleving, valt zoiets dergelijks wel onder een achtergrondartikel, wat ze ook regelmatig getest hebben. Want upscaling technieken geven dezelfde performance boost voor elke game. Hierna verwijzen zou wel een goede toevoeging zijn.
(...) maar ik denk dat dit een vraag is waar consumenten wel mee zitten.
Dat maakt het niet automatisch een vraagstuk die valt te beantwoorden en dat is juist het probleem. DLSS is enorm afhankelijk van de game zelf, niet alleen is de beschikbaarheid wisselend maar ook de prestatiewinst (en soms verlies). Jouw voorstel zou dus inhouden dat de testresultaten voor Cyberpunk 2077 slechts alleen iets over DLSS voor die game zegt. Als je DLSS dus wilt testen, moet je dat voor alle games doen die een potentiële koper wilt spelen.
Maar dit is een "best buy" guide, dat zou toch meer dan performance grafiekjes moeten zijn. Bij een kaart hoort nou eenmaal het ecosysteem, en dat iets als DLSS dan helemaal niet genoemd wordt is wel gek, want het zal voor veel mensen meespelen in hun keuze. Zeker op het 4K segment
Het ecosysteem van AMD en Nvidia, inclusief DLSS en FSR, wordt besproken op de inleidende pagina - dat is immers voor alle resoluties hetzelfde :)
Helemaal mee eens!
Upscaling moet uit voor dit soort benchmarks.

Het mag wel bij een (individuele) review vermeld worden met eventueel een apparte graph... maar de upscaling resultaten moeten duidelijk gescheiden blijven van raw performance.

Ik zie upscaling/frame gen als iets dat je fps omhoog haalt als je bijvoorbeeld net iets te kort komt om je refresh rate te halen of om oudere gpus toch nog even langer te gebruiken.

Upscaling zou niet nodig moeten zijn (op de target resolutie van je gpu) als je net 300€(1080p) tot (4k)2000€ (<-WTF) hebt uitgegeven. Maar goed... developers maken er tegenwoordig zo'n rommeltje van zodat je al upscaling nodig hebt op 1080p met een 4070.
Ik ben het helemaal met je eens. Als je de pure reken kracht van de GPU wil testen moet inderdaad upscaling uit staan, zeker bij benchmarks. Dan is het de GPU vs GPU.

Voor mij is upscaling eerder een manier om een goedkopere GPU te kopen en toch nog te kunnen gamen op 1080p of hoger. Wat natuurlijk, bij benchmarks totaal niet de bedoeling is daar je de rekenkracht, de performance van de GPU kaart wil meten tegen over een andere GPU kaart.
Ik begrijp het probleem, en ja, het is op zijn minst "lastig" daar objectieve metingen te doen...
Maar in zekere zin treedt hetzelfde probleem op bij de keuze van de games voor de vergelijking: dat een kaart voor deze games een zeker prestatieniveau haalt, wil nog niet zeggen dat het voor andere games ook opgaat.
@Tomas Hochstenbach Ik denk echter dat er wellicht voor b.v. 1 game eens een vergelijking gemaakt kan worden die zo'n beetje aangeeft wat je hier zou kunnen verwachten.

Bekijken we de prijs-prestatiecurve hierboven dan zou mijn conclusie zijn dat AMD op veel prijsniveaus de betere keus is... maar het zou weleens zo kunnen zijn dat b.v. nvidia betere upschalingssoftware biedt en voor die use case dus een betere keus biedt dan je op grond van de prestatiecurve hierboven zou kunnen verwachten, een beetje a la RT, waar nvidia vaak de betere pirjs-prestatie biedt.

Zelf zoek ik een kaart voor 4K VR toepassing en hier wordt beweert (Toms' Hardware) dat de video decoding om het beeld naar de VR set te sturen bij nvidia soms wat beter is en dat dus nvidia voor VR een betere keus zou zijn... en ik heb werkelijk geen idee of dat ook werkelijk een bottleneck zou vormen voor VR toepassingen.

Op zijn minst zou het als thema eens door Thomas & Co. eens wat uitvoeriger onderzocht kunnen worden, zodat ik voor mezelf in kan schatten dat ik bij DLSS bij een mij acceptabele kwaliteit b.v. '10% meer fps' win dan met FSR - ik als ik dat voor mij belangrijk vindt, dat nvidia resultaten 10% omhoog moet schuiven in de prestatiecurves t.o.v. de AMD tegenhangers.
Bij de laatste build voor iemand die VR wou spelen heb ik me ingelezen en tot de conclusie gekomen dat Nvidia de beste optie is als je een probleemloze VR ervaring wil. Vond niks dan problemen met AMD, zelfs mensen die van armoe hun kaart verkochten om naar het groene team over te stappen.
OK, heb je links naar sites waar dit gemeld wordt? Ik heb b.v. de indruk dat de vroege drivers voor de 7XXX slecht waren en dingen niet goed werkten, maar dat met betere drivers het probleem verholpen zou zijn. Vaak echoen dat soort verhalen dan 3 jaar later nog in Reddit & Co. Ik heb ook de indruk dat nvidia de drivers beter voor elkaar heeft, maar om nou €300 meer uit te geven voor een 4080 super met minder performance (RT is geen optie voor VR, tenzij ik voor een 4090 ga) dan een 7900 XTX?
Bron was idd Reddit. Zelf had ik graag een build met de 7800XT gemaakt, maar die was in November pas uit en leek toen geen mooie sprong te maken tov de 6800XT.
Heb zelf geen ervaring met VR, de 4070 was op dat moment de veiligste keuze. Ook ivm raytracing en DLSS.
Raytracing kan op bepaalde momenten mooie efffecten geven, maar houdt ik eerlijk gezegd de komende 10 jaar voor 90% marketing uit het groene kamp. B.v. de held gekleed in rood pak staat voor een spiegelende deur... dan komt er meer rood licht de kamer in, maar is is prima te "faken" door het rood door de gamemaker lokaal wat omhoog te schuiven.
https://www.youtube.com/watch?v=2VGwHoSrIEU

'Echte' raytracing die dan de nu nog ingebakken effecten volledig kan vervangen vraagt een factor 100 meer rekenkracht, ziet er dan ook ook echter uit als alles wat je nu ziet. De gedachte dat op 4K te proberen bij een fatsoenlijke framerate is belachelijk: zelfs een 4090 redt dat simpelweg niet. In bepaalde games kun je wat zien van een simpele variant waar alleen grofweg gerekend wordt. Zelfs op een 4090 zou ik dat uitzetten tenzij het een 'Nvidia' spel is waar het spel er veel beter uitziet als je het aanzet, omdat de ontwikkelaars het anders niet faken in raster graphics.

[Reactie gewijzigd door batteries4ever op 22 juli 2024 13:17]

Ik vind dat upscalers absoluut meegenomen moeten worden. We zijn op een punt beland dat bedrijven er in mee moeten gaan als ze het onderspit niet willen delven. Elke fabriekant heeft zijn eigen versie en zelfs game engines springen er op. Unreal heeft zijn eigen upscaler ingebouwt. Het verschil in performance en kwaliteit dezer dagen is groot genoeg dat ik sterk adviseer het in overweging mee te nemen bij de aanschaf van een kaart. Want als je het niet hebt. Tja, dan mis je de helft en soms drie kwart van de frames. Ik heb hier even een simple vergelijking voor je gemaakt en zoals je kunt zien, dat als je niet weet waar je naar kijkt, ga je het kwaliteits verschil niet zien maar de performance wel merken. https://imgur.com/a/oTjdKGn
Precies! Inmiddels zijn DLSS (en in mindere mate) FSR gewoon een belangrijk onderdeel van een videokaart. Mede door het gebrek aan optimalisaties vanuit de developers maar dat is een andere discussie...
In tegendeel. Veel mensen kopen die rommel. Maar de games waar het in beschikbaar is is heel beperkt. Eigenlijk alleen in de games waar ze een dikke zak met geld aan hebben gegeven, of waar ze aan mee ontwikkeld hebben. Iedere game ondersteund weer wat anders. En als je het aan zet lever je gewoon kwaliteit en een lage latency in voor meer fps. En die extra fps heb je alleen maar nodig omdat die zelfde fabrikanten features pushen die zo on evenredig taxerend zijn dat uiteindelijk geen hond die gebruikt, omdat je fps alsnog ruk is.

Als die ontwikkeltijd gebruikt zou worden om de graphics te verbeteren met niet real time raytracing, zou je een vergelijkbare ervaring kunnen creeren. Met een veel betere fps, latency en beeldkwaliteit. Die bagger hadden ze er nooit in moeten bouwen.
DLSS 3.5 is anders dusdanig goed dat het inmiddels in veel gevallen een beter, scherper en stabieler (lees: geen shimmering, etc.) beeld geeft dan native met TAA.
Verder is het een ideale manier om nieuwere spellen toch goed te kunnen spelen op verouderende hardware.

Hoe dan ook is DLSS al lang niet meer de techniek uit 2018 die eigenlijk in elk opzicht behalve framerate flink slechter was dan native. Ik ben dan ook van mening dat DLSS gewoon terug moet komen in de benchmarks. Zeker wanneer er ook nog ray tracing gebruikt wordt. Dat AMD beide technieken nog niet op het niveau van Nvidia heeft en daardoor stukken minder zal presteren en het daardoor appels met peren vergelijken wordt is dan maar zo...
Dat is wat Nvidia je wil doen laten geloven. En daar jagen ze een gigantisch marketing budget er voor doorheen. Je tweede kolom maakt dat ook wel heel duidelijk. Want daar staat klinklare onzin in. Zonder realtime raytracing begeeft je kaart het lang voor deze een beperkende factor wordt. Want de enige reden waarom je die DLSS moet aan fietsen is die realtime raytracing.

En het aller ergste is nog dat door realtime raytracing in plaats van pre renderd raytracing te gebruiken, het verbruik van game pc's die dat gebruiken enorm stijgt. Er wordt een absurde hoeveelheid energie wereldwijd verspilt aan een feature die prima door de developer is te pre-renderen.

[Reactie gewijzigd door Seth_Chaos op 22 juli 2024 13:17]

Ik geloof m'n eigen ogen en die zeggen dat DLSS over het algemeen stabieler is dan TAA en dus een betere AA methode is. Dat is niet zo in alle games maar er zijn er genoeg. Niets marketing aan, want ik check dit in alle games om te zien wat de beste IQ geeft. Er zijn genoeg games waar ik DLSS zou gebruiken zelfs zonder prestatiewinst.

Wat is pre rendered raytracing? Bedoel je dan het bakken van belichting want dat is absoluut onrealistisch in de meerderheid van games? Het werkt in lineaire statische games maar daar houdt het min of meer op. Sowieso kost het devs enorm veel tijd en de productiekost is nu al belachelijk hoog voor games, laat staan dat devs alle lighting gaan moeten pre-baken.

[Reactie gewijzigd door napata op 22 juli 2024 13:17]

Bedoel je dan het bakken van belichting want dat is absoluut onrealistisch in de meerderheid van games?
Wat op dit moment wordt verkocht als RT is vrijwel altijd een mix van raytracing en gebakken belichting. Alleen als ze zeggen dat ze 'global illumination' met raytracing doen, dan hebben ze geen gebakken belichting. Het is ook niet per se heel erg realistisch, want spiegelende oppervlakken zijn vaak veel te spiegelend, iets dat je in het echt zelden zo tegenkomt.

In games zijn oppervlaktes sowieso veel gladder dan in het echt, want een enkele baksteen heeft in het echt al gigantisch veel kleine uitstulpingen en inhammen, wat verschrikkelijk veel GPU kosten om daadwerkelijk te modelleren. Dus gebruiken games vaak een glad oppervlak met een texture die het doet lijken alsof het oppervlak niet glad is. Maar bij raytracing gaat het dan niet goed, want voor de game engine lijkt het dan alsof dat oppervlak glad is, dus reflecteert het licht niet realistisch.

En raytracing zoals het wordt toegepast in games is sowieso een sterk versimpeld versie van raytracing dat bijvoorbeeld wordt gebruikt voor films, waar ze vaak 30-40 minuten doen over een frame. Om dat terug te brengen tot minimaal 60 FPS kan het niet anders dan het sterk te versimpelen.
Wat op dit moment wordt verkocht als RT is vrijwel altijd een mix van raytracing en gebakken belichting.
Maar hij heeft het over pre-rendered raytracing vs realtime raytracing. Belichting bakken is offline raytracing gebruiken en het resultaat statisch in een game te steken. Weinig kosten en goede resultaten maar het nadeel natuurlijk is dat het veel tijd kost en statisch is.

Ik speelde onlangs UC4 en TLOU: P1 en daar zie je gebakken GI en perfecte reflecties die duidelijk geen SSR zijn. Zeker in UC4 is dit gewoon allemaal gebakken. Volgens mij gebruikt TLOU wel een combinatie van SSR, Planar en prebaking voor reflecties. De GI lijkt ook enigzins realtime, maar ik weet niet welke techniek ze gebruiken. Geen hardware raytracing in ieder geval.

Voorbeeldje in UC4 Dit is natuurlijk geen realtime GI want dat kan de PS4 niet aan op zo'n acccurate manier.
Ja, maar wat ik zeg is dat wat verkocht wordt als raytracing in werkelijkheid meestal een hybride oplossing is. Dus je hebt dan gebakken belichting in combinatie met raytracing.
Dus je hebt dan gebakken belichting in combinatie met raytracing.
Dat zal wel een tijdje zo blijven totdat de videokaarten dusdanig meer kunnen. Denk in 5 tot 10 jaar tijd is alles wel raytracing en nu is de kracht er niet voor. Maar het hangt ook af of de competitie en concurrentie die er tussen videokaart fabrikanten zijn of we dat punt bereiken omdat er nu eigenlijk weinig concurrentie is, vooral toen er alleen Nvidia en AMD was en nu dat Intel erbij is gekomen moeten we nog zien of Intel in deze markt blijft en doorpakt.
Het hangt niet alleen van de concurrentie af, maar ook van de productieprocessen. We zien dat TSMC de laatste tijd sterk stijgende prijzen vraagt voor de nieuwe productieprocessen en dat ze ook problemen hebben om op tijd te leveren. En met de nieuwe nodes schaalt cache vrijwel niet meer, terwijl dat een heel belangrijk en steeds groter deel van de chip is/wordt.

En Intel & Samsung hebben ook grote moeite met hun chipfabricage.

Een flink deel van de verbeterde prijs/prestatie uit het verleden bestond eruit dat de chips snel beter werden en Nvidia/AMD dat voordeel doorgaven aan de consument.
Bedoel je dan realtime belichting met raster + RT of echt gebakken statische belichting + RT?

Het lijkt alsof je het laatste bedoelde, maar ik dacht altijd dat hybrid raytracing de combinatie is van realtime raster + raytracing.
Global illumination is meestal gewoon gebakken.
Dat is niet waar. Ten eerste is er geen enkele game die uitsluitend raytracing gebruikt voor de belichting. Want dan zou je game met 1fps gerenderd worden op je 4090. Het is sowieso een mix van een heleboel technieken. En al die games hebben sowieso allemaal prerenderd lighting, want anders had 95% van alle gamers de game niet kunnen spelen. Om een voorbeeld aan te halen. Nvidia heeft veel tijd en geld gestoken in Cyberpunk 2077 om raytracing daarin te showcasen. Die zelfde belichting kun je via mods die door 1 persoon geschreven zijn toevoegen aan de game zonder raytracing te gebruiken. Het verbruikt een fractie van de rekenkracht die de realtime raytracing kost, en je hebt dan ook veel meer headroom om meer mods toe te voegen die het realisme naar een veel hoger niveau tillen dan met raytracing enabled mogelijk is.
Er is een verschil tussen raster en pre-baked lightning. Je comment was niet duidelijk wat je bedoelde. Als ik pre-rendered raytracing dan denk ik aan prebaking.
Er zijn voldoende onafhankelijke tests die DLSS vergelijken met native en DLSS vervolgens een beter beeld geeft dan native + TAA (want veel andere smaken van anti-aliasing heb je tegenwoordig niet meer in games) met een flinke performance winst tot gevolg. Dat heeft niets te maken met een zak geld maar gewoon hoe de techniek in elkaar steekt.

Dit wordt vervolgens in bepaalde spellen, met Cyberpunk 2077 al beste voorbeeld, gebruikt om een bijna onspeelbare framerate (wanneer je path tracing gebruikt) om te zetten in een perfect speelbaar geheel waarbij er dankrij ray-reconstruction ook nog een beter beeld ontstaat dan "zonder" deze technieken. Genoeg filmpjes van te vinden met die van Digital Foundry als beste.

En pre-rendered ray tracing heeft een performance voordeel maar kan natuurlijk hetgeen bieden dat real-time ray tracing kan geven. Ik ben wel met je eens dat in veel spellen ray tracing weinig toevoegd en het vaak blijft bij wat (overbodige) reflecties en (zeker in het begin) praktisch nutteloze "ray traced shadows". Maar als je kijkt naar spellen die ray traced global illumination toepassen (Metro Exodus is een mooi voorbeeld) dan is het toch echt wel een aanzienlijk beter beeld en in elk opzicht superieur.

En wat betreft je opmerking dat DLSS alleen aan moet vanwege/door ray tracing is gewoon onzin. DLSS kan nuttig zijn wanneer de native framerate te laag is. Dat kan dus zijn bij nieuwste spellen op ultra terwijl je niet meer de beste hardware hebt of wanneer je gewoon een hoge framerate wil. Er zijn legio scenario's te bedenken waarbij DLSS dan een uitstekende oplossing is.
Je kan dan wel mooi nvidia de schuld geven van vanalles, je kunt ook eens kritisch zijn naar AMD waarom ze hier flink in achterlopen....
Verder is het een ideale manier om nieuwere spellen toch goed te kunnen spelen op verouderende hardware.
Welke verouderde hardware support DLSS3.5 precies?
DLSS 3.5 is alles vanaf de RTX4000-serie. Dus ook de minder sterke versies die qua "native" performance een stuk onderdoen voor een RTX3070/3080.

En dan heb je natuurlijk nog DLSS2.x die op alle RTX-kaarten gebruikt kan worden en al een aanzienlijke verbetering was t.o.v. de eerste versie uit 2018.
DLSS 3.5 is alles vanaf de RTX4000-serie. Dus ook de minder sterke versies die qua "native" performance een stuk onderdoen voor een RTX3070/3080.
Dus geen verouderde hardware. Prima dat de RTX 4060 langzamer is dan de 3080. Dat heeft niets met veroudering te maken. Jij doelt op mensen die wat langer met hun oude hardware kunnen doen. Dat is nog niet het geval. Alles met 3.5 is current gen.

Klopt, de "verouderde hardware" uit 2018, kan profiteren van DLSS2. Voor zover dat verouderd is.

Als Nvidia zo door gaat met nieuwe DLSS features locken achter hardware generaties zonder daadwerkelijke reden daarvoor anders dan geld harken, heb ik een beetje moeite met het "verouderde hardware" argument

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:17]

Ik had misschien beter "DLSS2/3/3.5" kunnen schrijven.

Hoe dan ook kun je dankzij DLSS "gratis" betere performance halen zonder dat je visueel er (aardig) op achteruit gaat. Voorheen kon je die "gratis" performance enkel behalen daar de resolutie te verlagen of je settings lager te zetten. En hardware uit 2018 is inmiddels toch aardig verouderd...

Maar DLSS/FSR moet geen "lapmiddel" worden om incompetentie te verbloemen en het zo ongeveer de enige manier wordt om iets speelbaars te maken. Dit zie je nu al regelmatig bij console games die op 720p native draaien en dan zelfs al moeite hebben om een stabiele 60fps te halen.
nu map je DLSS 3.5 en verouderde HW samen, effe terug naar realiteit, welke verouderde HW ondersteund welke DLSS versie??? right... je verhaal klopt dus niet.

RT is ook iets enkel voor zeer specifieke games.

met een beetje inteligentie weet je van jezelf welk type game dat je speelt, welk budget je hebt en wat je er dan tegen smijt vna HW, deze BBG geeft je een indicatie, er zal altijd wel iets zijn om over te discusieren.
zoals het nut van 4K gaming en het extra onnodig verbruik en de hogere co2 voetafdruk ? :D etc etc...
En als je het aan zet lever je gewoon kwaliteit en een lage latency in voor meer fps.
Je hebt geen idee waar je het over hebt. Dit is gewoon fout. Integendeel super resolution geeft je meer fps en lagere latency. Zet reflex aan en je zal nog veel lagere latency hebben.
En die extra fps heb je alleen maar nodig omdat die zelfde fabrikanten features pushen die zo on evenredig taxerend zijn dat uiteindelijk geen hond die gebruikt, omdat je fps alsnog ruk is.
veel gamers gebruiken dat of jij dat nu wil of niet , daarom dat het ook veel reviewers die relevant willen zijn erbij hoort.
Als die ontwikkeltijd gebruikt zou worden om de graphics te verbeteren met niet real time raytracing, zou je een vergelijkbare ervaring kunnen creeren.
Grappig dat AMD of intel dit dan ook niet kunnen en jij denk beter te weten.
Mede door het gebrek aan optimalisaties vanuit de developers maar dat is een andere discussie...
Het is juist andersom - upscaling is de optimalisatie.

Je gaat bijv. nooit een keer 0.5 rays per pixel tracen op native resolutie op een midrange kaart. Op lagere resolutie renderen en daarna upscalen is daarvoor de beste oplossing.
Hoe verklaar je dit dan bij een aantal consoles games die op native 720p draaien, zonder ray tracing, en dan al moeite hebben om stabiel 60fps te halen.

Jedi Survivor op de ps5/xbox was een mooi voorbeeld. Die had in het begin 720p native en dit werd vervolgens met FSR naar 1440p gebracht. Dit was de performance mode, dus zonder ray tracing en die had ook nog eens serieus last van frame drops en wist op veel momenten niet boven de 50fps uit te komen Pas bij patch 7 had men het eindelijk fatsoenlijk geoptimaliseerd, was de native resolutie naar (bijna) 1080p gegaan en waren de frame drops eruit.

Ik vraag me dan af hoe het hele verhaal er had uitgezien als er geen FSR was en men wel "moest" optimaliseren omdat het er anders niet uit zag.
Jedi Survivor was juist 720p met frame drops omdat ze ray tracing niet uit hadden gezet voor de performance mode. Maar goed, voor de rest geld voor vrijwel alle effecten wel dat de je betere performance hebt bij lagere resolutie.

Blijft natuurlijk wel een afweging hoe je dat balanceert. 720p met FSR is te laag.
Ik blijf die discussie zinloos vinden: niet alle videokaarten ondersteunen DLSS, niet alle games ondersteunen DLSS en de prestatiewinst is verschillend per game. Je kan niet van Tweakers verwachten dat ze alle games vergelijken.
Neen maar ze kunnen dat wel vergelijken waar dat wel gebeurt, net zoals ze doen qua FPS, immers elke game heeft een andere FPS .
Als jij alle games met DLSS gaat benchmarken voor Tweakers dan willen ze vast wel een linkje naar je dataset doen.

Dat elke game een andere FPS heeft komt omdat elke game een ander formaat textures, complexiteit van shaders en aantallen objecten heeft te tonen. Het prestatievermogen van een GPU schaalt lineair mee met deze workloads. DLSS doet dat niet, dus valt daar niet veel zinnigs aan te meten.
Ik run geen hardware/tweaker site die serieuze videokaart reviews wil doen. En elke game is idd anders daarom is het absurd te zeggen dat omdat bij DLSS benchmarks (waar er minder verschil is dan tussen game benchmarks) het plots onmogelijk is dat te benchmarken.

Vraagt dit meer tijd? Tuurlijk en daar wringt hem het schoentje, nergens anders.

[Reactie gewijzigd door k995 op 22 juli 2024 13:17]

Waarom zouden ze? Zoals @nst6ldr al zegt, de performance increase zal verschillen, niet elke kaart heeft DLSS en de performance die FSR dan haalt is weer anders, zelfde geld dan ook weer voor XESS, er zijn teveel factoren om mee te rekenen.

En dat is ook lekker, 2000 euro kaart halen en dan upscaling gebruiken.. |:(
Ik gebruik het in zowel Cyberpunk als Alan Wake 2 om verder max settings te spelen met mijn 4090...
Ik herinner me nog de tijd dat AMD door sommige puristen afgeschreven werd omdat het beeld dat ze produceerden afweek van wat NVidia produceerde. Vandaag zweren diezelfde puristen bij DLSS en de bijhorende hevige artifacting omdat het hoger FPS levert.

Zelf zet ik geen FSR aan. Ofwel levert het visueel geen verbetering, ofwel zijn er artifacts of andere visuele nadelen zichtbaar. Dan gewoon wat lagere settings als ik een vlottere gameplay wil.
onmisbaar?
Dat zou het niet moeten zijn.
Ik blijf het een gemis vinden dat in dergelijke BBGs of reviews de upscaling technieken niet mee worden
Ik vind het zeer goed dat dit niet mee genomen wordt, vind het echt een totaal verkeerd beeld geven van de algemene prestaties..

Natuurlijk kan het als extra info toegevoegd worden, maar de kaart beoordelen met upscaling aan vind ik echt not done, en hoop ook dat dit nooit gaat gebeuren
Is dit pc gaming in 2024? We betalen 2000 euro voor de 2 jaar oude high end kaart van Nvidia waar we vervolgens de framerate in games met AI moeten redden op een resolutie die al 10 jaar geleden mainstream werd? Ben geen console gamer, maar ook geen (moderne) pc gamer meer door dit soort rare trends.
Ligt dat aan de kaart, of de ontwikkelaar van de game?
De kaart, want ik hoor alleen maar geklaag over de 7900xtx van vrienden. Uurlijkse crashes in BG3, iedere 1-2 potjes in counterstrike een crash, tijdens WoW raids crashes.

Het is echt heel irritant en je verliest er regelmatig rondes door en in WoW's geval zelfs makkelijk 5-10 minuten voor je hele raid (20 man dus).

De 6000 series hadden die problemen niet.
Ik heb nog nooit een crash gehad in BG3 of CS2. RX 7800 XT hier. Wel eens in een andere game. Maar dat lag toch echt aan de CPU die ik met P.B.O. blijkbaar net iets teveel geundervolt had.

Ik weet niet hoe groot jouw poel met gebruikers van de 7900 XTX gebruikers is,maar het is te kort door de bocht om 1 onderdeel de fout te geven zonder dieper onderzoek.
Het is behoorlijk anekdotisch inderdaad, had ik wat duidelijker aan kunnen geven, het ging in dit geval om 4 verschillende 7900XTX gebruikers. Niet veel, maar ook niet maar 1 geval.
Zelf hier een 7900XT speel BG3 en CS2 nooit problemen gehad, BG3 van het eerste uur ook niet.
Terwijl me maat met een 3070 ti constant crasht in BG3.

En een andere maat met een normale 3070 heeft zowel crashes met CS2 en BG3 maar die draait ook op unsupported geheugen modules omdat hij dwars is.

Wat ik hierbij probeer te zeggen is dat niet elke crash altijd aan je GPU ligt en een 7900XT* ook gewoon een stabiele kaart is.
Heb je gelijk in, iedereen heeft andere ervaringen, al helemaal met zoveel verschillende merken en dus variabelen.
Dit zijn allemaal aannames, want Nvidia kan net zo goed optimalisaties in hun drivers uitbrengen voor games en wat zij dus ook veel doen. AMD heeft vaak gezegd dat videokaart fabrikanten dit doen omdat ontwikkelaars veel bugs erin laten of op een specifieke merk testen / concentreren.
Wat werkt er niet? De kaart of de game? volgens mij werken de games allemaal. Volgens mij is RDNA ook wel goed bekend bij de ontwikkelaars daar zowel de PS als de XB RDNA zijn. En ondanks dat... zijn er een factor 10 meer problemen met AMD dan met Nvidia.

Heeft niets met fanboyism te maken, het zijn gewone harde feiten. kijk om de forums op reddit. kijk op de steam game forums. kijk hier. Waarmee zie je de meeste shit? AMD.

Zolang ze het niet op orde krijgen en eerlijk: ze hebben het nooit op orde gehad, zelfs niet toen het nog ATI heette, zowel de hardware en de software kwaliteit zullen ze altijd de 2e plek hebben. En moeten ze uitkijken dat Intel ze niet inhaalt.

Trouwens mijn 2e impopulaire mening: ook Ryzen is een can of worms. Nog steeds geen goede memory controller, nog steeds ERP problemen, nog steeds USB incompatibiliteit: the list goes on and on. 2 borden, 3 CPU's, 3 voedingen en ik heb nog steeds gedonder. ERP moet uit, het standaard soc voltage moet omlaag (??) anders cold boot het gebakje niet.. gekkenhuis.

Laatste AGESA gezien? die lijst met security bugs? fijn hoor.
Per definitie aan de kaart; game- en softwareontwikkelaars hoeven geen hardwareafhankelijke ondersteuning aan te bieden.
... maar ook geen hardafhankelijke features gebruiken die bij het andere kamp ontbreken. Heel simplistisch: als jouw game rekent op de aanwezigheid van CUDA cores, gaat dat op een AMD kaart niet draaien. Ik geloof dat dit een typisch gevalletje van 'halen en brengen' is...
Ontwikkelaar.

Heb zelf een XTX, devs hebben aangegeven dat het een probleem is met de game specifiek. Nog nooit problemen gehad in elke andere game.
Mensen met Nvidia-kaarten klagen ook veelvuldig over Helldivers II. Het is gewoon weer typisch zo'n release met onvoldoende QA.
Voor dit geld (>600 euro) moet het gewoon werken.
Geen enkele videokaart werkt altijd probleemloos, zeker omdat het probleem vaak bij de spelfabrikanten ligt.
Dat is onzin. Het mag zeker gebruikt worden, maar beiden moeten getest worden.
De verwachting is anders blijkbaar.
Is DLSS superieur aan AMD FSR?
Tim van Hardware Unboxed heeft meerdere videos gemaakt waarbij hij de technieken naast elkaar legt.
Puur kwalitatief bekeken is zijn conclusie dat DLSS vaker en gemiddeld gezien betere resultaten geeft.

Dat gezegd hebbende is DLSS puur gelimiteerd tot nvidia kaarten. FSR valt te gebruiken op elke video kaart (dus óók Intel en nvidia) én kan de techniek toegepast worden op consoles. FSR is daardoor breder inzetbaar.

Persoonlijk zou ik het niet 'superieur' noemen. Dat insinueert dat DLSS is alle gevallen significant beter is. Van wat ik gezien heb, is DLSS hooguit marginaal beter, maar ook lang niet altijd. Soms is FSR weer iets beter in bepaalde games.

Het is dan zeker de moeite waard om de games die je speelt en waarbij DLSS/FSR ondersteunt worden op een rijtje te zetten en dan goede reviews te bekijken om te zien welke techniek in welke game voor jou beter werkt. In andere woorden, en zoals altijd: ... it depends.

Edit: typo's

[Reactie gewijzigd door CelisC op 22 juli 2024 13:17]

Oké dank, interessant.
Viel me al op dat FSR gebruikt kon worden bij mij in Forza op mijn Nvidia kaart
Ja, word wel in minder games gesupporteerd denk ik.
TDP:
Radeon RX 7900 XT - 300W
Radeon RX 7900 XTX - 355W
nvidia RTX 4080 Super - 320W
nvidia RTX 4090 - 450W

Dit zal afwijken voor AIB versies. Juist in dit segment zou het fijn zijn om nog een extra grafiekje te zien waarbij deze kaarten naast elkaar worden gelegd om FPS/Watt te kunnen vergelijken. Dat vind ik persoonlijk relevant genoeg om in mijn overwegingen mee te nemen.
Een fps/watt-grafiek vind je op de pagina Alle testresultaten.
Ik zie het nu! Dank voor het delen
Ik heb de link niet geklikt, maar TDP is geen vast gelegd cijfer. Dat wil zeggen dat 450 van AMD niet hetzelfde hoeft te zijn als 450 watt van Nvidia.
De 7900 XT heeft mij wel even laten twijfelen toen de prijs afgelopen maand omlaag viel. Ik zit momenteel op een RTX 3070 dus de nood is niet enorm hoog.

Wat ik een beetje mis is randzaken.
Ik gebruik zo bijvoorbeeld Nvidia broadcast, en shadowplay. Hoe zit het met het software pakketje wat je erbij krijgt? 5 fps meer of minder doet mij niet zoveel als ik bepaalde functionaliteit moet missen. Of zijn de Nvidia apps zoals broadcast inmiddels ook te gebruiken via AMD?
Dat vraag ik me ook wel af, zit zelf met een 3060 Ti en een mooie headshot in een game en even ALT+F10 klikken en je hebt de laatste 30 seconden (of wat je wil) opgenomen. Geen idee hoe dat zit bij AMD.
@JDx

Heb zelf een XTX. Clips maken is geweldig, in Adrenaline software ga je gewoon naar recording en stel je je instellingen in en je hotkey, je kiest dan bijvoorbeeld je resolutie waarin je videos / clips maakt, framerate ( 30 tot 120 ), bitrate, hoeveel seconden de clip moet zijn, welke encoder je gebruikt en meer. Het is super in-depth en dan als je eenmaal alles hebt ingesteld naar voorkeur ga je gewoon in-game, druk je je hotkey en dan heb je je clip.

Als je geen zin hebt om alles manueel in te stellen heb je ook gewoon presets die lopen van low tot high.
Ok, netjes, gelijk aan de NVidia software dus. Als AMD ook goed mee gaat doen in AI, dan ga ik dat eens overwegen, momenteel werkt dat nog niet vlekkeloos.
Zou het niet beter zijn om een rechte lijn door de data te trekken om iets van prijs per frame aan te geven?
Ik dacht hetzelfde. Een rechte lijn zou veel beter laten zien of een GPU gunstig uitvalt qua prijs per frame. Boven de lijn is goed, daaronder niet. Daar maak je ook meteen mee duidelijk dat meer performance (op 4K bijv) je relatief veel meer kost.

Van de huidige curve begrijp ik niet zoveel, behalve dat hij mooi door alle datapunten heen loopt.

Los daarvan: hoe dan ook prettig dat jullie dit grafiekje erbij plaatsen.

[Reactie gewijzigd door Morphix op 22 juli 2024 13:17]

De lijn volgt de prijs-prestatieverhouding van alle datapunten; hij loopt krom omdat je in het hogere segment nu eenmaal minder waar voor je geld krijgt. De locatie van een stip boven/onder de lijn geeft nu dus aan of je voor dat segment een gunstige prijs-prestatieverhouding krijgt. Dat lijkt mij eigenlijk nuttigere informatie dan een rechte lijn die aangeeft dat elke high-end videokaart een relatief slechte price/perf heeft.
Duidelijk. Wmb help je de lezer juist als je duidelijk maakt dat het hoge segment een (relatief) slechte prijs/prestatie-verhouding heeft. Zoals je het nu weergeeft lijkt het eerder alsof de 4090 bijzonder gunstige prijs/prestatie verhoudingen heeft. Je nudged een potentiële koper daarmee naar een dergelijke kaart omdat die 'zover boven de lijn' ligt.

Meeste gebruikers zitten nog steeds op 1080p en hebben helemaal geen kaart uit het hogere segment nodig. Die hebben meer baat bij een 'eerlijke' vergelijking via een rechte lijn. Je kiest je resolutie en target FPS en dan de GPU die het meest gunstig uitpakt. Als je dan toch meer performance wil, is in ieder geval duidelijk dat je dan, relatief, een minder verstandige keuze maakt voor je portemonnee.
Het effect dat duurdere kaarten meer €/fps kosten is bekend en zie je doordat de lijn door de datapunten minder snel stijgt in het duurdere segment. Je mag best een blad papier over de grafiek leggen dat door de 0,0 gaat (let erop dat thomas het deel onder de 15 fps heeft weggelaten en een kaart naar keuze (b.v. de 4090, maar dat hoeft niet): alles wat erboven ligt heeft betere prijsprestatie dan de gekozen kaart, alles eronder een slechtere.
Wil je voor een geven budget de beste kaart kiezen: het hoogste punt links van een verticale lijn door je budget. Wil je alleen kaarten met meer dan X FPS hebben: alleen de karten boven een horizontale lijn met X FPS. De rechte lijnen zijn eenvoudig erbij te maken, de data curve daarentegen niet.
Ja deze uitslag kon ook niet anders, wat een beest, maar je moet er wel je hypotheek voor oversluiten ;)
Bezit sinds Februari 2023 de ASUS TUF 4090 OC. Ja het is heel veel geld, maar het game plezier wat je terug krijgt op 4k met alles op Ultra en Raytracing aan is ongekend. Elke nieuwe game maar vooral ook oudere games (remakes) ga je opnieuw beleven.
Met de DLSS technology hoop ik dat de kaart nog heel lang meegaat.
Ik heb een Ultrawide Samsung double 4k monitor en als ik daar een 4K spel op wil spelen met ultra high settings en ray tracing dan haal ik zelfs met een RTX 4090 alsnog maar 42 FPS. De videokaarten zijn hedendaags niet toereikend om op dit niveau te gamen; laat staan wanneer de 8K-monitors mainstream worden. Uitgaande van een 50% increase in videokaart-performance elke 2 jaar zoals nu het geval is, duurt het nog tot September 2028 tot ik met deze monitor boven de 120 FPS kom.

En dan de prijs.. wie kan een prijs van 1900 voor een videokaart in vredesnaam rechtvaardigen? Stel dat je 5 jaar met een videokaart doet en fanatiek gamed en in totaal 38 games speelt, wat neerkomt op 50 euro per spel bovenop de aanschafprijs van de game zelf. Dit is toch niet realistisch meer; laat staan voor de mensen die niet 8 games per jaar spelen op hun PC.
Tja, je mag kiezen: ofwel je gaat voor een kaart die met de meest belachelijke opties op simpelweg slecht geoptimaliseerde games toch nog een leuk beeld geeft - maar dat kost geld. Ofwel je kiest voor realistischer budget en zet b.v. RT standaard uit. RT staat wat dat betreft hoog op mijn lijstje van dingen die je beter kunt laten: kost idioot veel rekenkracht voor erg weinig voordeel t.o.v. een halfweg slimme voorgebakken belichting => gewoon niet doen, zodat gamemakers het in de toekomst weer weg laten, i.p.v. blindelings de overspannen marketing hype te volgen.

De keuze voor een realistisch budget is ook de reden waarom veel meer mensen in een VW o.i.d. rijden dan een Ferrari...
Ik wacht wel 5+ jaar tot de videokaarten een stuk beter zijn. Voorlopig heb ik een PS5 die ik voor €400 heb gekocht en veel plezier oplevert met ook exclusieve spellen.
Kan ook, maar je hebt dan een doosje dat weliswaar veel bied voor de prijs, maar daar betaal je bij de games weer voor. Ook is dan de grafische kwaliteit vaak heel wat minder dan zelfs een matige videokaart. Dat is nogal een verschil met 4K RT gaming met een leuke frame rate...
Wat was het test systeem van de 4k bench? of heb ik er overheen gekeken?
Alle details over de testmethode vind je op de pagina Alle testresultaten.

[Reactie gewijzigd door Tomas Hochstenbach op 22 juli 2024 13:17]

Ik reageer op het verkeerde bericht, excuus.

[Reactie gewijzigd door CelisC op 22 juli 2024 13:17]

Is er nog een 4090 die beter draait dan de FE?
En waar is de 3080Ti in de resultatenlijst?

[Reactie gewijzigd door Kecin op 22 juli 2024 13:17]

Op dit item kan niet meer gereageerd worden.