De GeForce RTX 4090 is Nvidia’s nieuwste vlaggenschip en markeert het begin van een nieuwe generatie videokaarten. Deze high-end videokaart moet volgens de fabrikant een flinke stap in maximale prestaties bieden, veel efficiënter werken en dankzij slimme nieuwe technieken hogere framerates op hogere resoluties mogelijk maken. De basis voor dit nieuwe topmodel is de AD102-chip, de grootste gpu van de Ada Lovelace-architectuur. Dit is de opvolger van Ampere, dat de fundering vormde voor de RTX 30-serie.
Nvidia GeForce RTX 4090: net zo groots in prestaties als in formaat?
Vanaf het moment dat de GeForce RTX 4090 in ons testlab arriveerde, zijn we druk in de weer geweest om deze langverwachte videokaart te testen. Tegenover een reeks modellen van voorgaande generaties bekijken we in deze review hoe Nvidia's nieuwste grafische monster het ervan afbrengt, en uiteraard lees je in dit artikel ook alles over de nieuwe features, architectuur en specificaties.
AD102 op 5 nanometer
Als we kijken naar de AD102-chip die het hart van de RTX 4090 vormt, valt onmiddellijk op dat we met een topmodel van de volgende generatie te maken hebben. Met TSMC’s '4N'-productieprocedé kan Nvidia beduidend meer transistors op dezelfde oppervlakte kwijt dan het met Samsungs 8nm bij de RTX 30-serie kon. Dat betekent dan ook dat we een flinke toename in het aantal transistors zien, terwijl de totale oppervlakte van de chip juist iets minder is dan bij de GA102-gpu zoals die voor de topmodellen van de vorige generatie werd gebruikt. De sprong gaat nu van 28 miljard naar 76,3 miljard transistors, terwijl de diesize van 628 naar 608mm² is teruggebracht. Kleinere chips zijn altijd goed nieuws omdat hiervan meer geslaagde exemplaren van de band rollen en ze goedkoper zijn. Toch zal er van kostenbesparing in dit geval geen sprake zijn; een chip van 600mm² is nog altijd enorm en de productiekosten voor het nieuwere 5nm-procedé liggen vermoedelijk een stuk hoger.
Al die extra transistors worden natuurlijk ingezet om de prestaties op Ada Lovelace ten opzichte van de Ampere-generatie te verhogen. De meest in het oog springende verandering op dit gebied is de veel grotere L2-cache. Op de RTX 3090 Ti zat daarvan nog 6MB, maar bij de RTX 4090 is maar liefst 72MB van dit geheugen beschikbaar. Met deze stap zet Nvidia in op de strategie die AMD met zijn RX 6000-generatie begon: fors meer cachegeheugen om de prestaties op te krikken.
Net zoals bij de RTX 3090 Ti bestaat de geheugenconfiguratie van de RTX 4090 uit een 384bit-geheugenbus met daarop 24GB GDDR6X-geheugen dat op 21Gbit/s draait. Daarmee zijn deze twee kaarten gelijk aan elkaar en werkt de RTX 4090 niet met een geheugensnelheid van 24Gbit/s, zoals eerdere geruchten vermeldden. De geheugenbandbreedte is onder de streep dus exact hetzelfde als op de RTX 3090 Ti. Het GDDR6X-geheugen staat bekend als snel, maar niet als erg zuinig. Zoals tegenwoordig normaal is bij videokaarten, moeten ook op de RTX 4090 de geheugenchips gekoeld worden om goed op de hoge snelheid te kunnen werken. Bij de Founders Edition valt verder op dat de kaart nóg groter en dikker is dan we bij de voorgaande generatie zagen. Als je ze naast elkaar zet, lijken de Founders Editions van de RTX 30-serie bijna schattig, terwijl dit op zich al flinke kaarten in omvang zijn. Met het formaat wordt in ieder geval duidelijk dat Nvidia met deze generatie alles uit de kast trekt, ook om AMD’s komende RDNA 3-videokaarten voor te blijven.
Videokaart
RTX 4090
RTX 3090 Ti
RTX 2080 Ti
GTX 1080 Ti
Gpu
AD102
GA102
TU102
GP102
Architectuur
Ada Lovelace
Ampere
Turing
Pascal
Procedé
TSMC '4N' 5nm
Samsung 8nm
TSMC 12nm
TSMC 16nm
Diesize
608,5mm²
628,4mm²
754mm²
471mm²
Transistors
76,3 miljard
28 miljard
18,6 miljard
12 miljard
CUDA-cores
16.384
10.752
4352
3584
Tensor-cores
512
336
544
0
RT-cores
128
84
68
0
Texture-units
512
336
272
224
Rops
176
112
88
88
Baseclock
2230MHz
1560MHz
1350MHz
1480MHz
Boostclock
2520MHz
1860MHz
1545MHz 1635MHz (FE)
1582MHz
L2-cache
72MB
6MB
5,5MB
2,75MB
Vram
24GB GDDR6x
24GB GDDR6x
11GB GDDR6
11GB GDDR5x
Geheugensnelheid
21GBit/s
21GBit/s
14Gbit/s
11Gbit/s
Geheugenbus
384bit
384bit
352bit
352bit
Bandbreedte
1008GB/s
1008GB/s
616GB/s
484GB/s
Tdp
450W
450W
250W
250W
Adviesprijs FE (bij introductie)
1959 euro
2250 euro
1259 euro
825 euro
Uitgebracht
12 oktober 2022
29 maart 2022
27 september 2018
5 maart 2017
De opbouw van de chip is in grote lijnen vergelijkbaar met die van voorgaande generaties. AD102 heeft 12 Graphics Processing Clusters, waarvan er op de RTX 4090 11 actief zijn. Elke GPC bestaat behalve uit de Raster Engine uit 6 Texture Processing Clusters, waarin per stuk twee Streaming Multiprocessors en een PolyMorph Engine zitten. Elke SM bevat vier clusters van elk 32 CUDA-cores en een Tensor-core. Net als bij Ampere kunnen ook op Ada Lovelace de int32-cores fp32-berekeningen uitvoeren.
Nvidia telt voor het aantal CUDA-cores in de specificaties simpelweg het totale aantal cores op dat geschikt is voor fp32-instructies, maar net als bij Ampere is het addertje onder het gras dat de gedeelde shaders niet simultaan óf gemengd fp32- en int32-berekeningen kunnen uitvoeren. Dus binnen zo’n blok van gedeelde shaders kunnen geen combinaties worden uitgevoerd binnen dezelfde kloktik. Eén int32-instructie zorgt ervoor dat alle zestien gedeelde CUDA-cores uitsluitend andere int32-berekeningen kunnen doen tot de volgende kloktik. Kortom: als er int32-instructies moeten worden verwerkt, lever je in aan fp32-rekenkracht.
RTX 4090
AD102-gpu
Architectuur en features
Behalve dat de gpu van de RTX 4090 op een kleiner productieprocedé is gemaakt, veel meer transistors bevat en op hogere kloksnelheden kan werken, is AD102 uiteraard ook opgebouwd rondom een nieuwe architectuur. Die architectuur is vernoemd naar Ada Lovelace, de Britse wiskundige die wordt gezien als de ontwerpster van het eerste algoritme voor de mechanische computer.
Shader Execution Reordering
Een van de grootste vernieuwingen in de RTX 40-serie is Shader Execution Reordering, of SER. Met deze techniek probeert Nvidia efficiënter gebruik te maken van de beschikbare rekenkracht op de gpu door verschillende typen rekentaken te sorteren en te herordenen om ze gegroepeerd te laten verwerken. Met (grote) hoeveelheden uniforme taken werkt een gpu immers op zijn best. Om dit zo goed mogelijk te laten verlopen, zegt Nvidia de SM en het bijbehorende geheugen voor SER te hebben aangepast. De fabrikant stelt zelf dat deze feature voor de gpu net zo'n grote innovatie is als out-of-order execution was voor processors.
SER moet in raytracingtaken een flinke prestatiewinst geven. Dat komt doordat de rays na een eerste hit heel verschillende kanten uitgaan, en opvolgende berekeningen voor deze rays bij een tweede en derde hit erg inefficiënt en serieel uitgevoerd worden. Indirecte belichting en reflecties zijn hier voorbeelden van. Met SER legt Nvidia wel een verantwoordelijkheid bij ontwikkelaars neer, want de scheduling wordt door middel van een api aangestuurd voor specifieke workloads. Wel wordt inzicht in het gebruik mogelijk gemaakt door Nvidia's graphics shader profiler genaamd NSight.
Nieuwe generatie RT-cores
Op Ada Lovelace vinden we de derdegeneratie-RT-cores van Nvidia. Deze zijn volgens de fabrikant twee keer zo snel in intersection throughput en alpha traversal. Daarmee worden zowel de meest voorkomende rekentaken bij raytracing als de complexere gevallen sneller afgehandeld. Vooral halftransparante objecten, zoals glas maar ook vuur, en gedetailleerde objecten die licht niet volledig blokkeren, zoals boombladeren, kunnen door de verbeterde alpha traversal sneller worden berekend.
Organisch gevormd materiaal was op voorgaande generaties ook een uitdaging om te renderen, omdat de complexiteit van de vorm tot gevolg had dat het lang duurde voordat was bepaald op welk deel van het object licht werd geblokkeerd en op welk deel niet. Om dit op te delen in kleinere subtaken, is de Opacity Micromap Engine toegevoegd. Daarmee kan een virtuele mesh van deze kleinere micro-triangles opgesteld worden om veel eenvoudiger en daardoor efficiënter te bepalen welke delen van een object doorzichtig en welke ondoorzichtig zijn.
DLSS 3
De komst van SER, zoals we hierboven al bespraken, wordt met de introductie van de RTX 40-serie wat ondergesneeuwd door de veel zichtbaardere verbetering die DLSS 3 met zich meebrengt. De techniek van Deep Learning SuperSampling bestaat al enige tijd en heeft sinds de introductie een hoop updates en verbeteringen gehad. Specifieke rekenkernen op de gpu maken het mogelijk om met deep learning op een slimme manier beelden te upscalen naar een hogere resolutie.
Met DLSS 3 maakt Nvidia het op de RTX 40-serie mogelijk om de informatie van het voorgaande en huidige gerenderde frame te gebruiken om niet alleen te upscalen, maar een geheel nieuw frame aan de reeks toe te voegen. Dit noemt Nvidia dan ook DLSS Frame Generation, wat dus gecombineerd kan worden met DLSS Super Resolution-upscaling. Omdat deze gegenereerde AI-frames niet verwerkt hoeven te worden door de cpu of gpu, maar gecreëerd worden door de losse Tensor-cores en Optical Flow Accelerator, kan de framerate zelfs in cpu-beperkte scenario's verhoogd worden. Kortgeleden publiceerde Tweakers al een artikel over hoe DLSS 3 precies werkt.
AV1 decoding en encoding
Net als bij de Ampere-generatie maakt Nvidia op de RTX 40-serie gebruik van de vijfdegeneratie-Nvdec-hardwaredecoders. Die hebben uiteraard ondersteuning voor H.264, H.265, VP8 en VP9, maar ook voor AV1. Hierin verschilt de RTX 4090 dus niet van zijn voorganger, al zijn er op de AD102-gpu wel drie van dit soort decoders aanwezig, waarvan er op de RTX 4090 slechts een is ingeschakeld.
Bij de encoderkant komen we grotere veranderingen tegen. Met Ada Lovelace wordt de Nvenc-hardware-encoder van de achtste generatie geïntroduceerd, met voor het eerst hardwarematige ondersteuning om AV1 ook te kunnen coderen. Daarmee is bijvoorbeeld het opnemen van gameplay met een veel hogere kwaliteit mogelijk, vooral als in de vergelijking met oudere codecs een gelijke bitrate wordt aangehouden.
Ook van deze encoders komen we drie stuks tegen op de AD102-gpu, waarvan er op de RTX 4090 twee actief zijn. Die twee encoders kunnen elk hun eigen taak uitvoeren, maar ook parallel aan één stream werken, waarbij ze automatisch het werk verdelen en tot twee keer zo snel werken. Deze dual encoding kan gebruikt worden op H.265 en AV1. Nvidia stelt verder dat de achtstegeneratie-Nvenc H.264 tot 40 procent efficiënter kan comprimeren.
Opvallend afwezig: PCIe 5.0 en DisplayPort 2.0
In de specificaties vallen tussen alle nieuwe features en verbeteringen twee zaken op. Allereerst het ontbreken van PCI-Express 5.0-ondersteuning en daarnaast de afwezigheid van DisplayPort 2.0.
Nvidia stelt in zijn presentatie de RTX 4090 voor als de ultieme high-end videokaart van de nieuwste generatie. Daarbij verwacht menige hardwareliefhebber wellicht een PCIe 5.0-verbinding. Aan de processorkant is deze ondersteuning immers al even aanwezig, Intels twaalfdegeneratie-Core-processors hebben het en de pas geïntroduceerde Ryzen 7000-processors van AMD ondersteunen het ook. Nvidia geeft in een reactie aan dat de bandbreedte die PCIe 4.0 levert, al ruimschoots voldoende is voor de RTX 4090 en er dus geen enkele reden was om het ontwerp van de kaart onnodig ingewikkeld te maken puur om PCIe 5.0 op het specificatielijstje te kunnen krijgen.
In een reactie geeft Nvidia aan dat DisplayPort 2.0 niet aanwezig is op Ada Lovelace omdat het simpelweg niet op tijd klaar was. Dat is een opvallende verklaring, aangezien DP 2.0 al in juni 2019 officieel is uitgebracht. Deze standaard maakt het dankzij een hogere snelheid mogelijk om een 4k-scherm met 144Hz of meer zonder compressie aan te sturen, terwijl dit bij de aanwezige DisplayPort 1.4-aansluiting op de RTX 4090 in dat scenario beperkt is tot 120Hz bij een 8bit-kleurdiepte per kanaal en zelfs 97Hz bij 10bit. In de praktijk zal dit niet zo snel een probleem vormen, omdat gebruikgemaakt kan worden van display stream compression. Met dsc wordt compressie toegepast om bandbreedte te besparen zonder daarbij een visueel waarneembare achteruitgang te introduceren. Momenteel zijn er ook nog geen monitors met DP 2.0 op de markt, maar de verwachting is dat dit in het komende jaar gaat veranderen. Omdat DisplayPort 1.4 dankzij DSC langer bruikbaar is, zal het ontbreken van een 2.0-aansluiting in de praktijk geen al te groot probleem vormen. Wel is het opmerkelijk dat voor een flagship-videokaart, die wordt gepresenteerd als supergeschikt voor zeer hoge resoluties en dito framerates, een oudere generatie DisplayPort-aansluiting is gebruikt.
Testverantwoording
Ons uitgangspunt bij gpu-tests is altijd dat we de rest van het systeem een zo klein mogelijke bottleneck willen laten vormen. We hebben er daarom voor gekozen om alle videokaarten te testen met de Ryzen 9 5950X als processor. Voor onze gpu-tests gebruiken we altijd referentiekaarten of Founders Editions, tenzij de desbetreffende gpu niet als een dergelijk model is uitgebracht of wij er geen beschikbaar hebben. In dat geval gebruiken we een custom model dat wat kloksnelheden betreft zo dicht mogelijk bij de referentiespecificatie zit.
De exacte specificaties van het testsysteem zijn in de tabel hieronder te vinden.
Testsysteem gpu's
Processor
AMD Ryzen 9 5950X @ 4,65GHz all-core
Moederbord
ASUS ROG Crosshair VIII Hero (bios 4201, Agesa V2PI 1.2.0.7, Resizeable BAR support geactiveerd)
Werkgeheugen
G.Skill Trident Z Royal 32GB (2x 16GB) DDR4-3600 CL16-16-16-36
Ssd
Samsung 970 EVO 250GB (OS) + Kioxia Exceria+ 2TB (games)
Voeding
Be quiet Dark Power Pro 12 1500W
Koeling
Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, be quiet Pure Wings 2-ventilatoren
Besturingssysteem
Windows 11
Geteste videokaarten
Voor onze gpu-tests gebruiken we altijd referentiekaarten of Founders Editions, tenzij de desbetreffende gpu niet als een dergelijk model is uitgebracht of wij er geen beschikbaar hebben. In dat geval gebruiken we een custommodel dat wat kloksnelheden betreft zo dicht mogelijk bij de referentiespecificatie zit.
Voor deze review hebben we de volgende modellen gebruikt:
We hebben alle videokaarten voor deze review getest met de nieuwste driver die beschikbaar was toen we begonnen. Voor de AMD Radeon-kaarten hebben we Radeon Software 22.9.2 gebruikt; voor Nvidia GeForce-kaarten was dat GeForce 517.48. De GeForce RTX 4090 is getest met een persdriver met nummer 521.9.
Met behulp van PresentMon meten we in elke geteste game de prestaties, waaruit we zowel de gemiddelde framerates (fps) als de frametimes van het 99e en 99,9e percentiel berekenen en die laatste twee in milliseconden rapporteren.
In de grafieken op de volgende pagina's vind je telkens grafieken met samengestelde balkjes, bestaande uit het 99e percentiel, omgerekend naar frames per seconde (genoteerd als minimumframerate), gevolgd door de gemiddelde framerate per seconde. Op die tweede score, het gemiddelde aantal beelden per seconde dat een videokaart kan berekenen, wordt primair gesorteerd. De frametimes geven geen beeld van de gemiddelde framerate, maar van de uitschieters in negatieve zin. Die kunnen immers tot gevolg hebben dat een game ondanks een goed gemiddelde niet vloeiend aanvoelt.
De tijd die het kost om beelden binnen een 3d-game en dus binnen onze benchmark te renderen, varieert van frame tot frame. Bij onze frametimemeting worden de rendertijden van alle individuele frames opgeslagen. Daarna gooien we de 1 procent langzaamste frames weg. De hoogste rendertijd van de resterende 99 procent van de frames, oftewel het langzaamste frame, is het 99e percentiel frametime.
Op verzoek van enkele lezers hebben we ook de 99,9e-percentielwaarden toegevoegd. Hiervoor laten we dus slechts de 0,1 procent langzaamste frames buiten beschouwing. In theorie is dit nog preciezer, maar in de praktijk gooien incidentele oorzaken en meetfouten soms roet in het eten. Voor nu hebben we ze vermeld in de review, maar houd dat dus in het achterhoofd bij het bekijken van deze resultaten.
Gameselectie
Regelmatig houden we de reeks spellen tegen het licht en bij deze keuzen houden we rekening met de api, de engine, het genre, de AMD/Nvidia-verhouding, de leeftijd en de technische benchmarkdetails van elke game, om op een zo representatief mogelijke suite uit te komen.
Game
Verschijningsdatum
API
Engine
Assassin's Creed: Valhalla
November 2020
DX12
Anvil Next 2.0
Cyberpunk 2077
December 2020
DX12
REDengine 4
Forza Horizon 5
November 2021
DX12
ForzaTech
Doom Eternal
Maart 2020
Vulkan
Id Tech 7
F1 2022
Juli 2022
DX12
EGO Engine 4.0
Far Cry 6
Oktober 2021
DX12
Dunia 2.0
Metro Exodus
Februari 2019
DX12
4A Engine
Red Dead Redemption 2
November 2019
Vulkan
RAGE
Guardians of the Galaxy
Oktober 2021
DX12
Dawn Engine
Total War: Warhammer III
Februari 2022
DX11
TW Engine 3
Stroommeting
Naast de prestaties meten we het stroomverbruik van videokaarten. De stroommeting voeren we uit met een zogenaamde riserkaart van fabrikant Adex, die we tussen het PCIe-slot en de videokaart in plaatsen. Op die manier kunnen we niet alleen de stroom meten die door de losse stroomkabels loopt, maar ook het vermogen dat de videokaart rechtstreeks uit het PCIe-slot betrekt. Voor de meting zelf gebruiken we verschillende exemplaren van de Tinkerforge Voltage/Current Bricklet 2.0. Voor de slotmeting is de riserkaart met zo’n bricklet uitgerust. Om de stroom van de PEG-kabel te meten, is de bricklet samen met de benodigde connectors op een speciaal voor onze test ontworpen printplaat geplaatst. Afhankelijk van het aantal stroomkabels dat een videokaart vereist, gebruiken we uiteraard diverse meters.
3DMark en Unigine Superposition
3DMark heeft een hele suite aan benchmarks, waarvan we Time Spy, Fire Strike en Port Royal standaard draaien. Fire Strike maakt gebruik van de DX11-api, Time Spy en Port Royal van DirectX 12. De benchmarks berekenen een totaalscore op basis van de gpu- en cpu-prestaties, waarbij de grafische score het zwaarst meeweegt. De Graphics-scores staan zoveel mogelijk los van de prestaties van de andere componenten en deze scores kun je dus ook het best gebruiken als indicatie voor gpu-prestaties onafhankelijk van de rest van het systeem.
De RTX 4090 is in Time Spy ruim 63 procent sneller dan de RTX 3090 Ti; in Fire Strike is het verschil zelfs nog groter. De Radeon RX 6950 XT wordt met vergelijkbare marges verslagen door de RTX 4090.
Port Royal is 3DMarks benchmark waarin raytracingprestaties worden gemeten. Het betreft een synthetische test waaruit zowel een score als een gemiddelde framerate komt. De RTX 4090 komt hier optimaal uit de bus met een score die flink hoger ligt dan bij de huidige generatie videokaarten. De RTX 3090 Ti, die tot op heden de hoogste raytracingsprestaties liet zien, wordt ruimschoots ingehaald door de RTX 4090.
Port Royal - FPS
Port Royal - score
3DMark Port Royal - FPS
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Superposition is een benchmark van Unigine en is in zowel OpenGL als DirectX 11 te draaien. Voor onze tests maken we gebruik van DX11 en twee van de aanwezige grafische presets. Ook in Superposition zien we een enorme winst voor Nvidia. De RTX 4090 is hier bijna 75 procent sneller dan de RTX 3090 Ti.
Assassin's Creed: Valhalla is een thirdperson-adventuregame en draait op DirectX 12 in de Anvil Next 2.0-engine. Valhalla is een game die standaard erg goed draait op AMD-hardware, maar dat weerhoudt Nvidia er niet van om op 4k-ultra een 50 procent hogere framerate neer te zetten. De RTX 4090 is daarbij de enige kaart die met deze settings boven de 100fps uitkomt. Op lagere resoluties en instellingen zijn de verschillen uiteraard kleiner, maar met uitzondering van 1080p-medium is de RTX 4090 overal de snelste.
4k
4k Ultra
4k Ultra (99p)
4k Ultra (99,9p)
4k Medium
4k Medium (99p)
4k Medium (99,9p)
Assassin's Creed Valhalla - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Cyberpunk 2077 is een actie-rpg die in december 2020 is uitgebracht door CD Projekt. Het spel maakt gebruik van de REDengine 4 en draait op DirectX 12. De game is extreem veeleisend; enkel de snelste hardware produceert op 4k-ultra speelbare framerates.
De RTX 4090 breekt hier door de 60fps-grens, met een score die bijna 50 procent hoger ligt dan op de RTX 3090 Ti. Op lagere resoluties blijft het nieuwe vlaggenschip de sterkste, maar bij lagere kwaliteitsinstellingen wordt de processor al snel de beperkende factor, waar de Radeon-kaart minder last van heeft.
4k
4k Ultra
4k Ultra (99p)
4k Ultra (99,9p)
4k Medium
4k Medium (99p)
4k Medium (99,9p)
Cyberpunk 2077 - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Doom Eternal, onderdeel van de zeer bekende serie firstpersonshooters, draait in de Vulkan-api op de relatief nieuwe idTech 7-engine en kwam in maart 2020 uit. De benchmark bestaat uit een 60 seconden durende vaste route door de Hell on Earth-map van het spel.
Ook in Doom weet de RTX 4090 indruk te maken met een flinke hogere score. De RTX 3090 Ti wordt met 55 procent voorsprong achtergelaten op 4k-ultra en ook AMD's vlaggenschip heeft weinig te zeggen tegenover Nvidia's topmodel.
4k
4k Ultra
4k Ultra (99p)
4k Ultra (99,9p)
4k Medium
4k Medium (99p)
4k Medium (99,9p)
Doom Eternal - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
F1 2022 is als een van de bekendste racegames onderdeel van ons testprotocol. De serie draait al de nodige jaren op de EGO-engine, waarvan we inmiddels de vierde iteratie gebruiken. We maken gebruik van de DirectX 12-api en de ingebouwde benchmark van het spel, waarbij we raytracing voor deze test uitgeschakeld laten.
F1-games van de afgelopen jaren draaien vrij goed op Radeon-kaarten; vooral bij lagere resoluties komt de RDNA-architectuur erg goed naar voren. Op 4k-ultra staat de RTX 4090 er op zijn best voor met een winst van bijna 40 procent ten opzichte van de RX 6950 XT en RTX 3090 Ti. Bij medium-instellingen nadert AMD's kaart al en op lagere resoluties blijft het vooralsnog een gelopen race voor team rood.
4k
4k Ultra
4k Ultra (99p)
4k Ultra (99,9p)
4k Medium
4k Medium (99p)
4k Medium (99,9p)
F1 22 - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Far Cry 6 is Ubisofts recentste firstpersonshooter in de Far Cry-serie, die al jarenlang draait op de Dunia-engine. Voor Far Cry 6 wordt daarvan versie 2.0 gebruikt en voor het eerst is daar raytracing aan toegevoegd, dat we voor deze test uitgeschakeld laten.
Ten opzichte van de hiervoor besproken games is de winst voor de RTX 4090 relatief klein, al is die met 25 procent op 4k-uItra ten opzichte van het Ampere-topmodel desondanks niet klein. Op die schermresolutie blijft de RTX 4090 de snelste, als we overschakelen naar 1440p en lager lopen we snel tegen een cpu-bottleneck aan.
4k
4k Ultra
4k Ultra (99p)
4k Ultra (99.9p)
4k Medium
4k Medium (99p)
4k Medium (99.9p)
Far Cry 6 - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Forza Horizon 5 is een racegame die is ontwikkeld door Playground Games en uitgebracht in november 2021. Het spel maakt gebruik van DirectX 12 en draait op de ForzaTech-engine.
In Forza is de RTX 4090 op elke geteste resolutie en instelling de snelste kaart, maar op 4k-ultra komt hij uiteraard het best tot zijn recht. In dat geval is de voorsprong op de RX 6950 XT en RTX 3090 Ti ruim 45 procent.
4k
4k Ultra
4k Ultra (99p)
4k Ultra (99,9p)
4k Medium
4k Medium (99p)
4k Medium (99,9p)
Forza Horizon 5 - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Guardians of the Galaxy is een adventuregame gemaakt door Eidos-Montréal en uitgebracht in oktober 2021. Het spel draait in DX12 op de Dawn Engine, onder andere bekend van de Deus Ex-serie. Opvallend aan Guardians of the Galaxy is dat dit spel doorgaans op medium- en ultra-instellingen bij de meeste videokaarten zeer vergelijkbare framerates heeft. Daarom hebben we ervoor gekozen om bij de ultra-instellingen ook raytracing in te schakelen, al nemen we die resultaten niet mee in onze standaard prestatiescore.
Op ultra-instellingen met 4k plaatst de RTX 4090 zich ruim 50 procent boven de RTX 3090 Ti. Op medium-instellingen zonder raytracing zijn de verschillen kleiner, hoewel ook dan de voorsprong op het vorige topmodel nog steeds meer dan 30 procent bedraagt.
4k
4k Ultra
4k Ultra (99p)
4k Ultra (99,9p)
4k Medium
4k Medium (99p)
4k Medium (99,9p)
Guardians of the Galaxy (DX12) - 3840x2160 - Ultra (DXR - Ultra)
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Metro Exodus is een firstpersonshooter die draait op de 4A Engine. Voor onze tests in deze game maken we gebruik van de DirectX 12-api en de vrij zware, ingebouwde benchmark.
Metro is een game die doorgaans vrij goed draait op Nvidia-hardware. Op de RTX 4090 is dat ook het geval, want bij ultra-instellingen is deze 45 procent sneller dan de RTX 3090 Ti. Op 4k-resolutie veranderen de verhoudingen maar weinig als we terugschakelen naar medium-settings.
4k
4k Ultra
4k Ultra (99p)
4k Ultra (99,9p)
4k Medium
4k Medium (99p)
4k Medium 99,9p)
Metro Exodus - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Red Dead Redemption 2 is Rockstars bekende openworldgame van eind 2019 en draait in de Rockstar Advanced Game Engine. Het spel valt met zowel DirectX 12 als de Vulkan-api te draaien en omdat DX12 op ons testsysteem problemen geeft, maken we gebruik van Vulkan, dat wel probleemloos werkt. Voor deze test zetten we de ingebouwde benchmark van het spel in, waarbij we enkel de laatste (en langste) scène gebruiken.
In Red Dead Redemption 2 komen we ongeveer dezelfde verhoudingen tegen als we bij hiervoor besproken games hebben gezien. De RTX 4090 plaatst zich in deze game met een voorsprong van 45 procent boven de RTX 3090 Ti op 4k-ultra en ongeveer hetzelfde gebeurt bij gebruik van medium-instellingen.
4k
4k Ultra
4k Ultra (99p)
4k Ultra (99,9p)
4k Medium
4k Medium (99p)
4k Medium (99,9p)
Red Dead Redemption 2 - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Total War: Warhammer III is een recente realtime strategygame die draait op de TW Engine en gebruikmaakt van DirectX 11.
In Warhammer III komen Nvidia-kaarten doorgaans vrij gunstig naar voren. De RTX 4090 is hierop geen uitzondering; de kaart is op 4k-ultra bijna 54 procent sneller dan de RTX 3090 Ti.
4k
4k Ultra
4k Ultra(99p)
4k Ultra (99,9p)
4k Medium
4k Medium (99p)
4k Medium (99,9p)
Total War: Warhammer III - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Om in één oogopslag te zien hoe de verschillende gpu's zich tot elkaar verhouden, berekenen we gewogen gemiddelden vanuit gebruikte en hiervoor besproken games op basis van de resultaten. Deze prestatiescores berekenen we met de geteste resoluties en kwaliteitsinstellingen. We gebruiken hiervoor alle geteste games die gebruikmaken van rasterization. Raytracing nemen we dus niet mee in de berekening.
De GeForce RTX 4090 behaalt op 4k-ultra gemiddeld 129fps. Dat is 47 procent meer dan de RTX 3090 Ti, en 65 procent meer dan de RX 6950 XT op deze resolutie en kwaliteitsinstelling weet neer te zetten. De RTX 4090 is daarmee de eerste videokaart die in onze prestatiescore op 4k-ultra door de 100fps-grens heen komt en zelfs op deze resolutie voor high-refreshrategaming geschikt is. Op 1440p en 1080p zijn de verschillen uiteraard kleiner en in die gevallen begint de processor van ons testsysteem ook sneller de beperkende factor te worden.
Naast de prestatiescore in games met de traditionele rasterization, kijken we ook naar de gemiddelde prestaties die we in games met raytracing voorbij hebben zien komen.
Als we kijken naar de zwaarste gamebenchmarks zonder DLSS met raytracing ingeschakeld, dan is de RTX 4090 gemiddeld bijna 33 procent sneller dan de RTX 3090 Ti en 78 procent sneller dan de RX 6950 XT. Dit prestatieverschil is wat beperkt door Far Cry 6, waarin we veel eerder dan in andere games tegen een beperking van de processor aanlopen. In andere games is te zien dat de RTX 4090 veel verder uitloopt op de huidige generatie topmodellen.
Videokaart
RTX 4090
RTX 3090 Ti
RX 6950 XT
Verschil RTX 4090 t.o.v. RTX 3090 Ti
Verschil RTX 4090 t.o.v. RX 6950 XT
Cyberpunk 2077 DXR 4k Ultra
42,4fps
25,3fps
13,1fps
+67,6%
+224%
F1 2022 DXR 4k Ultra
87,6fps
52,3fps
32,1fps
+67,5%
+173%
Far Cry 6 DXR 1440p Ultra
94,8fps
99,6fps
102,8fps
-4,8%
-7,8%
Guardians of the Galaxy DXR 4k Ultra
95,8fps
63,1fps
31fps
+51,8%
+209%
Metro Exodus DXR 1440p Ultra
134,4fps
102,5fps
76,6fps
+31,1%
+75,5%
Gemiddelde
91fps
68,6fps
51,1fps
+32,7%
+78%
DLSS3 en 8k-gaming
DLSS 3 is een van de paradepaardjes van Nvidia bij de launch van de RTX 4090. De standaard is al door de fabrikant ontwikkeld, maar gameontwikkelaars moeten er grotendeels nog mee aan de slag. Voor de pers zijn echter enkele bètabuilds van games ter beschikking gesteld om DLSS 3 alvast mee te kunnen testen, waaronder Cyberpunk 2077 en F1 2022. Die games hebben we getest en bespreken we hieronder. Ook Microsofts Flight Sim 2020 heeft een testversie gekregen en hoewel deze game vanwege zijn cpu-bottleneck schreeuwt om een DLSS 3-implementatie, waren we vanwege tijdgebrek genoodzaakt de uiterst omslachtige benchmark van Flight Sim 2020 voor een ander moment te bewaren.
Cyberpunk 2077
In Cyberpunk 2077 hebben we DLSS met de Performance-modus getest en daarin presteert de RTX 4090 met DLSS 3.0 nog eens 32 procent beter dan op DLSS 2.0. De totale winst komt daarmee op maar liefst 105 procent uit voor DLSS op de RTX 4090 ten opzichte van het renderen zonder deze upscaling-techniek. Kortom, de framerate verdubbelt hierdoor, terwijl DLSS 2.0 in het beste geval de framerate met 55 procent verhoogt. In de frametimes zien we bovendien dat DLSS 3.0 ook goede resultaten neerzet en geen extra zichtbare latency toevoegt.
4k Ultra
4k Ultra (99p)
4k Ultra (99.9p)
Cyberpunk 2077 - 3840x2160 - Ultra
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Wanneer we in Cyberpunk ook nog eens raytracing inschakelen, is de winst van DLSS 3.0 nog indrukwekkender. Op de RTX 4090 ligt de framerate dan ruim drie keer zo hoog als zonder DLSS en zelfs bijna twee keer zo hoog als met DLSS 2.0.
4k Ultra DXR
4k Ultra DXR (99p)
4k Ultra DXR (99,9p)
Cyberpunk 2077 - 3840x2160 - Ultra (DXR - Ultra)
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Ook in F1 2022 hebben we DLSS getest met de Performance-modus en hier raytracing ingeschakeld. In deze game wint de RTX 3090 Ti al enorm veel met DLSS 2.0 ingeschakeld, maar de relatieve winst voor de RTX 4090 is met DLSS 3.0 nog groter.
4k Ultra - DXR
4k Ultra - DXR (99p)
4k Ultra - DXR (99,9p)
F1 22 - 3840x2160 - Ultra - DXR
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Omdat Nvidia net als de snelste RTX 30-kaarten ook de RTX 4090 aanprijst als gamevideokaart voor 8k, hebben we enkele benchmarks gedraaid op deze resolutie. De framerates liggen uiteraard lager dan op 4k, maar het hangt ook erg van de game en kwaliteitsinstellingen af of er een speelbare framerate wordt gehaald.
AC Valhalla - Medium
AC Valhalla - Ultra
CP2077 - Medium
CP2077 - Ultra
Doom - Medium
Doom - Ultra
F1 - Medium
F1 - Ultra
F1 - Ultra DXR
Far Cry 6 - Medium
Forza - Medium
Forza - Ultra
Metro - Medium
Metro - Ultra
Metro - Ultra DXR
RDR2 - Medium
RDR2 - Ultra
Warhammer III - Medium
Warhammer III - Ultra
Assassin's Creed Valhalla - 7680x4320 - Medium
Videokaart
Minimum- / Gemiddelde framerate in fps (hoger is beter)
Waar de GeForce RTX 4090 ook zijn spierballen moet kunnen laten zien, mede dankzij de grote hoeveelheid videogeheugen, is in renderbenchmarks. Wij hebben Octanebench en Blender kunnen draaien in de korte tijd voor publicatie.
Octanebench
OctaneBench is de benchmark van de volledig op de gpu gebaseerde OctaneRender-software, die ook de raytracingcores van Nvidia benut. We draaiden de test met gebruik van Nvidia OptiX. De RTX 4090 komt Octanebench tot 1300 punten, een 83 procent hogere score dan de RTX 3090 Ti.
Met behulp van Blender renderen we de scène Scanlands op 8K met behulp van Optix. Daar is de RTX 4090 ruim twee minuten eerder klaar met renderen, en dus in 38 procent minder tijd klaar dan de RTX 3090 Ti.
Het ingame-stroomverbruik meten we tijdens belasting in de benchmark van Metro Exodus op 4k-ultra.
De RTX 4090 verbruikt tijdens belasting bijna 470W, iets meer dan de opgegeven total board power. De enige reden dat de RTX 3090 Ti in onze grafiek nog meer verbruikt, is dat dit een custom-Gigabyte Gaming OC betreft met een hogere powerlimit. De RTX 4090 Founders Edition is dan ook met afstand de minst zuinige referentiekaart die we tot op heden hebben getest. Ook idle valt het verbruik tegen; de kaart weet zonder belasting het verbruik niet tot het niveau van de voorgaande generatie terug te dringen.
Als we de prestaties in Metro Exodus op 4k-ultra tegen het daarbij gemeten stroomverbruik afzetten, komen we tot onderstaande grafiek. Dan zien we dat de GeForce RTX 4090 een verbeterde efficiëntie laat zien ten opzichte van de voorgaande RTX 30-serie. Het nieuwe topmodel komt op het niveau van AMD's huidige vlaggenschip uit. De RX 6950 XT is in Metro Exodus uiteraard langzamer dan de RTX 4090, maar verbruikt tijdens die belasting ook significant minder.
Prestaties-per-watt in Metro Exodus
Videokaart
Gemiddelde frames per watt in fps (hoger is beter)
De GeForce RTX 4090 levert zonder meer indrukwekkende prestaties. Deze videokaart behaalt in onze prestatiescore op 4k-ultra 129 frames per seconde en is op die resolutie erg geschikt om in combinatie met een 144Hz-monitor te worden gebruikt. Nvidia biedt met de RTX 4090 tegen de 50 procent betere prestaties dan op de RTX 3090 Ti en dat is nog zonder het gebruik van raytracing. Als we dit inschakelen, loopt de voorsprong op tot 70 procent. De RTX 4090 is de eerste videokaart waarmee raytracing op 4k zonder problemen ingeschakeld kan worden.
Als DLSS 3-ondersteuning aanwezig is in het desbetreffende spel, kan de framerate in potentie nog ruim verdubbeld worden. Dat laatste zijn uiteraard de grafiekjes die Nvidia het liefst laat zien, omdat de prestatiewinsten enorm kunnen zijn. Hoewel ondersteuning per game los van de ‘gewone’ DLSS moet worden ingebouwd, kunnen we niet ontkennen dat de stap die Nvidia zet met DLSS 3 wat rendertechniek betreft, indrukwekkend is. De interpolatieachtige aanpak voor het genereren van extra frames is innovatief te noemen, wat ook tot gevolg heeft dat een goede vergelijking van statische beeldkwaliteit erg lastig te maken is, doordat gerenderde en gegenereerde frames elkaar afwisselen.
Ultieme prestaties voor een flinke prijs
Groot, zwaar, log, lomp en ijzersterk. Dat zijn woorden die opkomen bij het beeld dat we van de RTX 4090 hebben gekregen na onze tests. Het fysieke formaat van de Founders Edition zet een geheel nieuwe standaard en laat videokaarten van voorgaande generaties verbleken, terwijl die bij hun introductie nog zo uit de kluiten gewassen leken.
De RTX 4090 is nóg meer een halo flagship dan we van eerdere topmodellen hebben gezien. De prijs is hoog, wat er ten tijde van stevige inflaties en financiële onzekerheden waarschijnlijk nóg minder mensen toe aanzet om zo'n prijzig stuk hardware te kopen. Hoewel de efficiëntie van de snelste Ada Lovelace beter is dan die van de RTX 30-serie, komt de kaart op dit vlak gelijk uit met AMD’s Radeon RX 6950 XT, een kaart die binnenkort ook een opvolger krijgt. Het energiegebruik van de RTX 4090 is met 470 watt onder volle belasting geen prettig vooruitzicht voor wie onlangs nieuwe energietarieven heeft gekregen of die nog gaat krijgen. Mocht de kaart in je behuizing passen, dan is de volgende uitdaging om al die warmte er tijdens het gebruik weer uit te krijgen.
Omdat de GeForce RTX 4090 momenteel de enige RTX 40-videokaart is die Nvidia op de markt brengt, kunnen we onze conclusies over de nieuwe serie en de Ada Lovelace-architectuur vooralsnog enkel op dit model baseren. En omdat de RTX 4090 een vanafprijs van 1959 euro krijgt terwijl de voorgaande generatie flink in prijs is gedaald, is de prijs-prestatieverhouding niet bijzonder goed te noemen. Dat is eigenlijk nooit het geval bij de topmodellen, maar Nvidia’s vlaggenschip is juist tijdens de huidige energie- en inflatiecrisis als een olifant in een porseleinkast.
De eerste custom-RTX 4090's van boardpartners hebben ons testlab bereikt. Onze round-up verschijnt snel.
DerBauer heeft een interessante video review online gezet. Daarin is hij met de power target setting gaan spelen en de conclusie daaruit is dat als je de power target omlaag zet naar 60%, je nauwelijks performance verliest in games en toch een enorme afname van het verbruikte vermogen ziet (bijvoorbeeld 10% minder performance in 3dMark Time Spy Extreme met een opname vermindering van 33%).
Zeer interessant! Dat zou betekenen dat deze kaarten meer plaats krijgen in de wereld van hoge energieprijzen. 90% met 300 watt is zeer netjes te noemen.
Dan nog de prijzen iets omlaag en je houdt een prachtige generatie kaarten over.
Dat is een fijne bijkomstigheid, maar de fabrikant vraagt dan wel 2x zoveel geld voor iets waarvan je 10% niet gaat gebruiken. Dat lijkt mij geen topdeal....
Ik zag zojuist de review op gamers nexus en die 4090 is meer dan 2x zo snel als mijn RTX3080 kaartje welke nu ineens midrange is geworden (dat heb je met vooruitgang ).
Ik ben erg onder de indruk van deze kaarten en als het klopt dat de RTX 4090 zo'n 450 watt lust valt me dat nog mee voor hetgeen wat je krijgt. Mijn RTX 3080 lust ook dik 300 watt, dus dat valt nog wel te compenseren. Ik heb een 4K monitor dus zou dit (volgens nexus) een hele vooruitgang zijn. Ik ga hier absoluut niet zielig doen of jaloers zijn want ik kan zo'n 4090 met gemak kopen zonder er iets aan in te boeten. Dat is zo geregeld, maar er is iets anders dat me nu nog tegen houdt:
Hoe vaak game ik nu echt en hoe vaak heb ik nood aan zulke hoge prestaties? Ik heb een eigen groothandel en als ik in de avond ga gamen dan zal dat zo'n 1 a 1,5 uur zijn. De games die ik heb lopen prima op 60 fps en of de settings nu op ultra zet of op medium-high; ik zie het verschil niet echt en als ik nu de hele dag zou hebben om te gamen dan kocht ik hem. Ik heb mijn RTX 3080 nog geen 5 maanden en het was geen domme aankoop want mijn vorige PC begaf het gewoon. Domme pech.
Echter ben ik niet getreurd want als ik over een kleine 2 jaar weer toe ben aan een nieuwe PC dan weet ik nu dat er een antwoord is in de vorm van deze generatie. Ik denk dat ik dan voor de 4080 ga want mijn 4K scherm (ook net nieuw) is gewoon 60 Hz. Dit is genoeg en ik ben dik tevreden met mijn huidige systeem. Desalniettemin ben ik wel degelijk verheugt te zien dat er nog zoveel rek zit in de GPU markt en zoals iemand hier riep (die heeft al een -1) wat een waardeloos stuk electronica; daar ben ik het zeker niet mee eens. De sprongen tussen de generaties worden steeds groter en als ik weer zover ben om iets nieuws te kopen dan heb ik tegen die tijd weer nieuwe games die deze power echt wel gaan gebruiken.
De prijs zal voor vele wel te hoog zijn, maar er komen ook andere varianten uit (4060-4070-4080) die wel te betalen zijn en alsnog een stuk rapper zijn dan hun broertjes uit de vorige generatie.
Met zulke kaarten loont het om te kijken wat je echt nodig hebt en er is keus genoeg op de GPU markt. Wil je echt 4K op strak 60+fps en RTX op high gaan spelen dan zul je er iets voor over moeten hebben en kost je dat geld. Dat is altijd al zo geweest en erover klagen is niet fair want dat zal altijd wel zo blijven.
Ik ben het helemaal met je eens, en ook ik krijg beetje FOMO van hoe goed de 4090 nu al lijkt te zijn.
Maar laten we een 3080 absoluut geen midrange kaart noemen toch? Zelfs al zijn andere kaarten sneller, dat maakt deze kaart niet langzaam. Een formule 1 auto is natuurlijk het snelste, maar dat maakt een lamborghini niet een 'midrange' auto, hoewel hij niet het snelste is (mag die vergelijking?)
Je noemt zelf ook al dat je geen nood hebt voor zulke prestaties, maar ik wilde daar nog bij zeggen, dat we nu niet al moeten zeggen dat de vorige generatie mid-range is
En toch zal het midrange worden al geef ik daar niet veel om. Je vergelijk klopt en de 3080 is nog steeds een beul van een kaart, dat zeker.
Ik weet nog de discussie met mijn neef over de gtx1080 die ik destijds had. Mijn neef zei dat de gtx1080 overkill was voor 1080p. Daar was ik het niet helemaal mee eens. Ik had toen een 1440p scherm en ik kon die gtx1080 echt wel op z'n knieën krijgen. Ook met 1080p is dat me gelukt.
Ray Tracing is prachtig, maar die luxe kan ik me niet altijd veroorloven met mijn rtx3080. In CP77 moet ik best wel wat concessies doen en ik RDR2 ook. Gelukkig geeft DLSS me een hele lange rek en kan ik alsnog dik gamen op 4K.
Ik vond de uitvinding van DLSS de beste die ik ooit gezien had. In plaats van de resolutie naar beneden bij te stellen schakel je DLSS in. Dan heb je ook geen andere vorm van anti aliasing nodig. DLSS geeft een lange adem en ik koop wel een 40 serie kaart als dat nodig is. Ik kan het betalen <> doordat ik geen geld over de balk gooi. Om nu een rtx4090 te kopen vind ik een impulsaankoop en ik wacht rustig af
DLSS zou een lange adem kunnen geven als Nvidia het niet artificiëel segmenteerd voor hun nieuwe kaarten. De 3090 kan al geen DLSS3.0. Uit eerdere generaties is ook gebleken dat ze zeer gemakkelijk nieuwe DLSS versies konden runnen door de nieuwe binary over de oude te pasten maar Nvidia ze gewoon niet bij de driver update gaf en pretendeerde dat het niet kon.
[Reactie gewijzigd door Osiummaster op 22 juli 2024 13:55]
Je gaat 'DLSS' 3.0 niet missen als input latency er voor jou toe doet.
Er is vanochtend een review van Hardware Unboxed uitgebracht over DLSS 3.0 waarin duidelijk wordt dat de input latency fors trager is dan met DLSS 2.0 en dat 3.0 tevens meer merkbare artifacting heeft t.o.v. 2.0. Na het kijken van de video kan ik niet anders dan concluderen dat deze techniek de goede DLSS naam onwaardig is. Hier de link: Hardware Unboxed DLSS 3.0 review : https://www.youtube.com/watch?v=GkUAGMYg5Lw
[Reactie gewijzigd door Pietjeball op 22 juli 2024 13:55]
Die gtx1080 was blijkbaar overkill in periode dat hij waarschijnlijk zei. En rtx2080 misschien net was of niet en rt en dlss niet relevant was. En cb77 was er toen ook niet. Al zou top 3 ruk games die idioot hoge eisen niet als de standaard nemen maar 75% van alle moderne games. Als oude dx11 game ruk loopt ligt dat meer aan de devs. Tenzij het je favo game is of grijs speelt, zou ik daar niet aankopen op baseren.
Tenzij die in rtx30 tijdperk zei. Al ben ik wel met hem eens. Het is overkill als gemiddelde game neemt en niet competatief gamed dus 60fps locked aan 60hz shermpje. En dat in 2019
Misschien heb je hier onbewust wel een punt gemaakt.
Er is amper een persoon die deze kaart gaat kopen, maar in de benchmarks geeft het jouw het gevoel dat jouw 3080 nog maar midden segment is.
Laat jij nou ook bij die kleine groep horen die een 3080 of hoger heeft gekocht, dat betekend dat het grootste gedeelte van de videokaart eigenaren dus eigenlijk nu het idee krijgt een 'minder dan gemiddelde' kaart te hebben.
Ik denk dat dat het eigenlijke idee achter de 4090 is. De rest van de kaarten tot middelmatigheid verdrukken. Iedereen het gevoel geven dat zijn kaart zwaar verouderd is en niet meer mee kan. En dat terwijl get gros van de gebruikers niet veel snellere kaarten draait dan een 2070ti/2080 misschien en jij nog een flink boven gemiddelde kaart in gebruik hebt.
Ontwikkelaars maken games voor het publiek. Dat straks 1,5% van de gamers de komende jaren een 4090 heeft betekend niet dat games hiervoor massaal gemaakt gaan worden. Ze gaan gemaakt worden om nog goed speelbaar te zijn op die 2070ti/2080 generatie.
Deze kaart is niet bedoeld om een serieus verkoopbaar product de markt in te zetten, dit is puur bedoeld om jou ontevreden te maken over je huidige hardware en je er toe aan te zetten de portemonnee te trekken voor hardware wat amper nut gaat hebben.
Deze kaart is niet bedoeld om een serieus verkoopbaar product de markt in te zetten, dit is puur bedoeld om jou ontevreden te maken over je huidige hardware en je er toe aan te zetten de portemonnee te trekken voor hardware wat amper nut gaat hebben.
Juist!
En daar zit hem de knevel. Nu trap ik hier niet zo snel in en aan de andere kant heeft Nvidia niet in de gaten dat het gros (zowat iedereen) deze kaart niet kan betalen en al helemaal niet nu alles duurder aan het worden is.
Maar toch is het leuk om te zien wat er allemaal nog mogelijk is op videokaarten gebied. Het is er, het biedt goede garanties voor de toekomst en je 'kunt' upgraden.
Ik ben heel benieuwd hoe de zaken er over een paar maanden voorstaan. Zal het percentage 40-serie bezitters nu flink gaan groeien of haalt de Steam-survey nog steeds een grote groep met mindere kaarten en zelfs nog de gtx1650 of de gtx1060 over een tijdje. We gaan het zien
Omdat de wereld sterk budget beperkt is en liever 1080p op 40 tot 60fps voor lief nemen ipm geld te smijten ook in goede tijden. En dat halo sku volk op tech site zwaar over vertegend woordig zijn. Naast dat niet iedereen op steam ook die zware games spelen maar ook meer die leuke casual games. Die de tech amper pushen.
Dan is midrange van 3 gen terug snel zat.
Aan de steam survey zal er niet veel veranderen. 1060 zal krimpen of ook de 2060 en 3060 krimpen geen idee.
Ik snap je reactie volkomen en deels ben ik het er ook mee eens.
Ik probeer hiermee te denken vanuit het oog van AAA-titels games. Het is en blijft veel geld en het merendeel van de mensen hebben die tech niet nodig, true.
Maar dit wil niet zeggen dat ik het eens ben met Nvidia. Ik vind dat het bedrijf meer naar hun eigen belang kijkt dan die van de burger. Hun winst is gebaseerd op een hele flinke winstmarge en ik probeer daar een argument op te bouwen. Er zullen vast meer mensen naar console gaming gaat kijken want dat is een pak goedkoper en ik denk dat Nvidia dit aan het vergeten is. Het bedrijf verdiend zeker een tik op hun vingers en het mag wat mij betreft wel wat menselijker. Vandaar dat je zegt:
Omdat de wereld sterk budget beperkt is en liever 1080p op 40 tot 60fps voor lief nemen ipm geld te smijten ook in goede tijden
Dit punt deel ik zeker met je.
Daarmee suggereer je dat de kaarten (of heel de PC gaming markt) way to overpriced is.
Die Steam survey vind ik wel interessant want het geeft ook een beetje weer waar het geld hem zit en veel mensen hebben genoeg aan een goedkope kaart of een APU. Voor candy crush heb je geen 40 serie nodig.
Ik poog te zeggen dat Nvidia een prachtige oplossing biedt voor PC gamers die AAA-titels willen spelen, maar dat de prijs die ze ervoor vragen gewoonweg over the top is. Dit kan hoe dan ook een stuk minder
Ik denk dat dat het eigenlijke idee achter de 4090 is. De rest van de kaarten tot middelmatigheid verdrukken. Iedereen het gevoel geven dat zijn kaart zwaar verouderd is en niet meer mee kan.
Dit lijkt me nogal een persoonlijke opvatting. Dit soort halo producten hebben altijd al bestaan en zijn voor de meesten niet meer dan een showcase van vette tech voor een ernstige prijs.
Het gros van de mensen zal een 4060 of een 4070 kopen en daar erg blij mee zijn, flagship be damned.
Behalve dat wat we nu dus een middenmotor kaart noemen door het bestaan van het halo product de 4090, eigenlijk gewoon een high end kaart is en ook voor een prijs en energie consumptie van iets wat we nog niet heel lang geleden een productiviteitskaart voor proffessioneel gebruik zouden noemen. Dit terwijl dat halo product eigenlijk niet echt een reeel product is, 450 watt voor een grafische kaart gaat nergens meer over, moet ik zometeen de totale powerdraw van mijn systeem in de kilo-watt gaan meten? Waar houdt dit op? Vanuit een meer principieel perspectief vind ik het het onacceptabel dat we in een tijd als dit vermogensbudgetten voor grafische kaarten en processoren iedere generatie maar blijven oprekken, voor pure entertainment doeleinden, net wat mooiere games, net wat hogere resolutie. Gewoon niet ok in een wereld die van fossiele brandstoffen probeert af te kicken.
Dat zeker en Nvidia zal zichzelf in de vingers snijden als ze deze prijzen aanhouden.
Inflatie, energieprijs, 2 kernwoorden van vandaag en Nvidia zal zelf moeten ondervinden dat de afname van deze kaarten minder snel gaat dan als ze een redelijke prijs aan zouden houden.
Ik denk dat als Nvidia 40% van de prijs afhaalt dat er meer dan 50% van de mensen deze kaart zal gaan kopen.
Ik denk dat ze wel bij zullen draaien als de verkoop tegen zou gaan vallen. Ik run een eigen bedrijf, dus ik ben wel thuis in dit soort zaken.
Ik begrijp dat je nooit bedrijfskunde hebt gehad en dat geeft ook niet, maar Nvidia verkoopt hun kaarten met een hele flinke marge. Aan de andere kant zou Nvidia er ook voor kunnen kiezen om minder winst te maken en zo een groter aantal klanten (kopers) te krijgen zodat de winst alsnog op het oude peil terecht komt.
Dat betekend dat als Nvidia de prijzen met 40% omlaag doet dat er meer dan 2 keer zoveel mensen hun producten kopen. Dan draai je 120% afzet en als je dan alsnog 20% in R&D stopt, heb je dezelfde winst en dat is te investeren in meer productie. Er komt gewoon veel meer geld binnen en je hebt tevreden klanten. Nu gaat AMD zich wel achter de oren krabben want met zo'n beleid kun je Nvidia flink aftroeven en dwing je Nvidia min of meer te concurreren.
Flinke winst afdingen zorgt ervoor dat het aantal afnemers zal dalen. Snap je
[Reactie gewijzigd door jimh307 op 22 juli 2024 13:55]
Het maken van dat filmpje heeft al €100 aan stroom gekost!
Ik heb nu een 3080ti die al flink is ge-undervolt net als mijn 5950x. En nog schrik ik soms van het verbruik na een flinke sessie gamen. Wie had ooit gedacht dat stroomverbruik en de kosten die daar aan hangen zo'n grote factor zouden spelen?
In mijn geval wacht ik wel op een nieuwere generatie die hopelijk meer winst boekt qua efficiëntie dan qua prestaties. Want net als @jimh307 hieronder ergens zegt zijn de prestaties niet echt nodig. Zelfs niet voor de meeste VR headsets en games.
Volgens Hardware Unboxed, de 4090 is veel "efficiënter" dan de 3090 TI.
By locking the frame rate at 90 FPS, we can see how much power each GPU uses. At this locked frame rate, the 4090 consumed just 215 watts. And that means for the same level of performance, the 3090TI required 93% more power. And the 6950XT, 40% more power.
Maar dat is dus op volle toeren, doorsnee verbruik ligt natuurlijk veel lager. Maargoed, als je al deze kaart wilt kopen dan maak je je waarschijnlijk ook echt niet zo druk over de stroomkosten, en een hobby mag best wat kosten. Voor mij vind ik dit al zo'n 1500 euro teveel als dat ik maximaal wil betalen voor ern GPU.
Een hobby zou niet ten koste mogen gaan van de levenskwaliteit van toekomstige generaties. Wat mij betreft wordt een streep getrokken: wettelijk max 100 Watt voor een videokaart.
Ligt eraan hoe het stroom wordt opgewekt. De een koopt een jetski of motor de ander gamed. Als we alle hobbies(bijna elke hobby is milieu belastend) opzij zitten voor toekomstige generaties wordt het leven saai. Is er ook niets voor om te leven.
En ja de kaarten mogen een stuk zuiniger. Maar dat komt wel met de tijd. De eerste autos waren ook niet zuinig.
Nou, laten we dan meteen maar formule 1 en andere races mee kappen en ook concerten etc. Want ook dat zijn allemaal grote stroomvreters/vervuilers. Ook maar bijwonen van voetbalwedstrijden afschaffen.
Ofwel dat beetje extra stroom wordt de levenskwaliteit van toekomstige generaties niet minder op. Hell, juist deze nieuwe chips zorgen dat ze er beter op worden want de technology gaat zo tenminste hard vooruit.
Ik denk dat we sowieso te veel vasthouden aan alles houden zoals het was, in het licht van de klimaatproblemen.
Laten we het ook hebben over vliegtuigen die leeg vliegen in verband met de slots.
Er zijn op heel veel vlakken maatregelen te nemen. Dat dat met vliegtuigen nog niet gebeurd is, betekent niet dat videokaartvermogen limiteren geen bijdrage levert.
Ja, dat van leegvliegen ivm slots is echt te krankzinnig voor woorden, dat is gewoon onnodige kapitaalvernietiging naast onnodig milieuvervuilend.
Maar waarom zou je een videokaartvermogen limiteren? Er zijn gewoon use case scenario's waarbij die extra kracht gewoon 'nodig' is en zonder dat extra vermogen is dat niet haalbaar, op dit moment. Niemand verplicht je die kaarten te kopen, en in principe wordt een relatief groot deel van de energie inmiddels gewoon 'schoon' geproduceerd, probleem zit em vooral in de kartelvorming/prijsafspraken, want waarom is electriciteit nog steeds gekoppeld aan gas?
Goed verhaal, helaas zijn we in Nederland kampioen in het selectief winkelen naar CO2 reductie. Een beperking van energieverbruik met computeren/gamen zou voor de hand liggen, immers betekent het vaak veel gebruik CO2 productie. In de winter kom je er misschien nog een beetje mee weg ivm dat het huis deels wordt verwarmd. In de zomer staat regelmatig aan de ene kant een PC te draaien en aan de andere kant de airconditioning. Dat is te gek voor woorden.
Hoe problematisch is het voor de gemiddelde computer enthousiast als de focus zich verplaatst van hoge prestaties naar hogere efficiëntie? Ik denk nauwelijks.
Je dient ook te berekenen hoelang het duurt om je nieuwe kaart terug te verdienen in verbruik als je zo denkt, spoiler: dan koop je heen nieuwe kaart...
Toch wel enigszins teleurstellend. Met 50% meer cores en een kloksnelheid die dik 33% hoger ligt had ik grotere verschillen verwacht met de 3090Ti. Geeft ook maar weer aan dat kloksnelheden verhogen maar een marginale verbetering geeft tegenover meer cores.
50% meer cores hoeft zeker niet meteen 50% meer prestaties te betekenen.
Dat ligt aan of men een korte of lange pijplijn heeft qua core opbouw, kortere pijplijn betekend hogere kloksnelheid, maar ook minder werk verricht per klok-tik, lange pijplijn, lagere klok, maar meer werk per tik.
Dat zijn allemaal keuzes die men maakt om de beste performance per Euro en/of Watt te behalen.
Dat is net zoiets als bij auto motoren, het ene ontwerp haalt +150pk uit een 1L motor met hoge toeren, een ander ontwerp haalt net 100pk uit een 2L, er zijn dus een hoop verschillen qua ontwerp en ontwerp doelen.
50% meer cores hoeft zeker niet meteen 50% meer prestaties te betekenen.
Absoluut, daar ben ik van op de hoogte, maar gaf zojuist hierboven dit ook al aan:
Als we nu kijken naar Ampere vs Lovelace, dan zien we dat het verschil tussen de 3070 en 3090Ti (circa 97% krachtiger) ongeveer 60% is qua performance. Dat is Ampere vs Ampere. Bij Ampere vs Lovelace is het verschil met de 4090 (circa 106% krachtiger tegenover de 3090Ti) lager dan Ampere vs Ampere, namelijk rond de 50%. Dat is wat mij betreft teleurstellend.
Ruwe rekenkracht =/= gamingprestaties. Anders was een Vega 64 in staat geweest om (even buiten scenario's waarin 8GB VRAM een beperking vormt) een 2080Ti te verslaan en zou Ampère het verpletterend moeten winnen van RDNA2.
In realiteit is een Vega 64 vergelijkbaar met een 1080 en zijn Ampère en RDNA2 aan elkaar gewaagd, en wint RDNA2 het zowel op prijs per frame en energieverbruik per frame.
Gamen draait niet om brute force rekenwerk maar om een hele zooi onvoorspelbare berekeningen die altijd tot inefficiënt gebruik van aanwezige rekenkracht zal leiden. Door die inefficiëncy te verminderen kun je een groter of kleiner deel van de aanwezige rekenkracht tot uitdrukking zien komen in gameprestaties, en er bestaan daarbij enorme verschillen tussen ongeveer even snelle GPU's in compute performance en ook voorbeelden waarbij qua compute performance vergelijkbare GPU's enorm veel verschillen in gameprestaties.
Dat is het verschil op papier tussen de 3070 en 3090Ti. Met de nadruk op 'op papier'.
Ruwe rekenkracht =/= gamingprestaties. Anders was een Vega 64 in staat geweest om (even buiten scenario's waarin 8GB VRAM een beperking vormt) een 2080Ti te verslaan en zou Ampère het verpletterend moeten winnen van RDNA2.
Dat weet ik, hiermee geef je eigenlijk precies aan wat ik bedoel. Vega 64 en Radeon VII waren immers de koningen van de teraflops, terwijl nieuwere GPU's, die op papier veel minder krachtig waren deze GPU's, veel beter presteerden. Nu is de vergelijking AMD vs NVidia niet helemaal eerlijk, omdat er een groot verschil in architectuur zit. Het punt is dat we bijvoorbeeld in het verleden een 2070 kaart zagen qua specificaties onder zou moeten doen voor de 1080, maar wél beter presteerde. Nu zien we juist het tegenovergestelde, althans, dat doen deze benchmarks vermoeden. Het is nog even afwachten hoe de wat mindere krachtigere kaarten presteren (die minder met bottlenecks te maken zullen hebben), maar het lijkt er op dat Ampere 100% naar Ampere 200% procentueel een grotere prestatieverbetering laat zien dan Ampere 100% naar Lovelace 200%.
Als Ampere 100% naar Ampere 200% een 60% prestatieverbetering laat zien, dan verwacht ik van de nieuwste architectuur dat die prestatieverbetering hoger is dan die 60% tegenover de oude architectuur. Die sprong is de afgelopen generaties bijna altijd gemaakt. Enkel Turing naar Ampere is wat lastig te beoordelen omdat ze van FP + INT naar FP + INT/FP zijn gegaan.
Even een vraag, want ik snap wel wat je bedoelt maar dit zit echt op de grens van m'n begrip. Wordt in games veel gebruik gemaakt van integers ipv. floating point vergeleken met compute workloads?
Als we naar Turing > Ampere kijken dan lijkt het er op dat de FP/INT shading units niet voor extreem veel extra prestatie zorgen, althans, niet zoveel als de genoemde TFLOPs doen vermoeden. Omdat games niet altijd de gehele core kunnen voor FP kunnen gebruiken. Of Integer veel wordt gebruikt hangt af van de game engine en wordt gebruikt om bepaalde taken die voorheen richting de CPU gingen op conto komen van de GPU. Volgens mij was het zo dat wanneer er INT berekend wordt, de hele core cluster geen FP kan berekenen. Het is dan ook een beetje een farce dat Nvidia destijds deze shading units heeft meegerekend bij de opgegeven FP32 Teraflops, om zo de kaarten er beter laten uit te zien dan ze waren.
Pascal bijvoorbeeld een architectuur waarbij alle shading units FP/INT waren en dus konden 'flippen', bij Turing zijn ze juist afzonderlijk gemaakt en vanaf Ampere zijn er naast de dedicated FP shading units nu weer de 'flippende' FP/INT SU's toegevoegd.
Je kan de kaarten wel enigszins vergelijken omdat sommige Ampere kaarten 2x zoveel shading units hebben dan Turing kaarten. Zo is heeft 2080 2944 FP shading units en 2944 INT, en de 3070 heeft 2944 FP en 2944 FP/INT. De 3070 presteert ongeveer 25% beter dan de 2080. Uiteraard is het verschil per game anders.
De vraag is of die prestatieverbetering vooral komt vanuit de extra beschikbare shading units of vanwege de prestaties per instructie zijn verbeterd. Die 25% komt namelijk ook behoorlijk overeen met Pascal naar Turing.
Omdat het verschil op papier een stuk groter lijkt dan het daadwerkelijk is. En natuurlijk is dat geen verrassing, een verdubbeling qua performance was nooit reëel, maar in het verleden zag je bijvoorbeeld bij Pascal naar Turing dat de Turing kaarten die op papier zwakker waren dan de Pascal kaarten alsnog een stuk beter presteerden.
Als we nu kijken naar Ampere vs Lovelace, dan zien we dat het verschil tussen de 3070 en 3090Ti (circa 97% krachtiger) ongeveer 60% is qua performance. Dat is Ampere vs Ampere. Bij Ampere vs Lovelace is het verschil met de 4090 (circa 106% krachtiger tegenover de 3090Ti) lager dan Ampere vs Ampere, namelijk rond de 50%. Dat is wat mij betreft teleurstellend.
Schaalbaarheid van GPU-cores/prestatie in games zal wel steeds beter worden, omdat multi chip modules de norm gaan worden en je dus steeds minder bijkomende kosten hebt om rekenkracht uit te breiden. Je zit dan alleen met de langere latency die het gebruik van een chiplet interconnect, veroorzaakt.
Nou dat ben ik wel met hem eens. 52% meer cores en een zo'n 35% hogere kloksnelheid en dan toch maar 50% hogere prestaties vind ik wel teleurstellend. Dan had je wel 100% mogen verwachten
[Reactie gewijzigd door reinierdewit op 22 juli 2024 13:55]
Het vergroten van de rekencapaciteit middels meer cores en hogere kloksnelheden is een goed begin om de prestaties te vergroten. Helaas ontstaan er dan vanzelf flessenhalzen op andere vlakken.
Zo zie je dat in sommige omstandigheden de extra rekenkracht volledig tot uiting komt en ontstaat er in andere situaties een cpu-bottleneck.
Zo werkt het niet, aangezien de cores ook anders in elkaar zitten. Lovelace is geen 2.0 versie van Ampère, zoals bijvoorbeeld RDNA2 dat wél is van RDNA.
Je denkt in veel te simpele termen over cores en kloksnelheden. Een auto met een 2x zo grote motor gaat ook niet 2x zo snel.
De theoretische maximale performance (in FLOPS) is wel 2x zo hoog als een 3090 Ti, maar de architectuur is anders. Je kunt niet simpelweg dezelfde architectuur pakken en de kloksnelheid wat opvoeren, want je zit met fysieke limitaties.
Om een snellere GPU te maken moet de hele architectuur op de schop. Denk aan de interne functies van de cores, gpu cache, maar ook het aantal threads per core, de werking van de thread scheduler, thread blocks, memory sharing tussen threads, noem maar op. Er komen zoveel variabelen bij kijken... En dan hebben we het nog niet eens gehad over mogelijke bottlenecks aan de CPU-kant.
Ik vind 50% extra performance heel indrukwekkend, en allesbehalve teleurstellend!
Het valt me op dat de resultaten in de testen van Tweakers.net aardig achterblijven bij die van andere testers. Kijk maar eens de video van LTT. Daar zie je veel grotere verschillen in de resultaten. In sommige gevallen (zonder RTX) bijvoorbeeld 4x de performance van de 3090TI in sommige testen.
Ik vraag me dus een beetje af of tweakers.net wel de testen optimaal heeft uitgevoerd, of dat er ergens iets mis is gegaan. Wellicht dat een andere CPU al andere resultaten geeft.
Ray tracing is echter typisch een setting die je los wilt testen, omdat het in veel spellen niet aanwezig is en je niet goed met AMD en Intel kunt vergelijken.
Ik ben het met je eens wanneer je over mid range kaarten praat, een deel van de gebruikers zal RT uit schakelen in dat segment. RT aan/uit tests zijn in die context zinvol.
Maar moderne, mega dure, high-end kaarten moeten er gewoon mee overweg kunnen. Geen excuus meer.
Ik zou de Radeon RX 7000 serie er in elk geval op af rekenen als ze wederom falen op dat vlak. Aan de andere kant zou ik serieus een RX 7800/7900 overwegen als ze wél mee kunnen dit keer en goed geprijsd zijn.
Ik vermoed dat je verwijst naar de Cyberpunk 2077 benchmark van LTT? Ze hebben ondertussen aangegeven dat er daar iets is misgelopen. Door problemen met de testbench werd FidelityFX Upscaling automatisch aangeschakeld, wat ervoor zorgt dat de resultaten te hoog zijn. Zie de pinned comment op hun video.
Zelden is een op papier 50% snellere GPU ook bij alle games 50% sneller zal zijn. De games die ze testen zijn nooit voor deze kaart bestemd. In deze GPU's zitten tensor cores en ray tracing cores. voordat je dat in game benut moet je wachten tot er een update komt of tot nieuwe spel uitkomt.
Dat de chip sneller is bestaat geen twijfel over. Dat zie je aan de renderbenchmarks. Bij OctaneBench (die die cores wel benut) zie je een toename van 83% en bij Blender 3.3 LTS 61% en ook bij F1 2022 zie je een toenalme van +67% fps indien je raytracing inschakelt.
Sommige mensen vinden raytracing maar niets maar het maak het beeld wel mooier. Al moet ik toegeven dat in de huidige games waar raytracing achteraf is toegevoegd de meerwaarde beperkt is. Het ziet er allemaal wat fake uit. Alsof alles moet reflecteren.
Een spel waar Raytracing helemaal tot uiting komt vraagt meer ontwikkeltijd omdat je elk elment moet bewerken om het realistisch te maken. Als je 'out of the box' raytracing toepast is dat enkel 'global illumination' en soms her en der een object (een auto...) Maar als je echt alles uit de kast wil halen moet je elk model in uw gamewereld aanpassen.
Nvidia doet dat natuurlijk heel goed in de demo's. Je voelt echt het materiaal. Menselijke huid is bijvoorbeeld complex omdat licht door de eerste huidlaag gaat. Door gewoon uw 3D model door een raytracing engine te draaien bereik je niets.
Nvidia heeft bijvoorbeeld RTX Remix uitgebracht. Om modders te helpen oudere games nieuw leven in te blazen. AI gaat zelfs objecten herkennen, textures upgraden, bumb maps met AI een gokje wagen welk materiaal het is. (katoen, papier, staal..)
Misschien bestaan deze tools achter de schermen ook voor games studio's die eerst een low def wereld willen ontwikkelen om daarna de wereld te upgraden. geen idee...
Het potentieel van het te verwachten visueel spektakel is wel gigantisch. De vraag is enkel hoe snel games gaan omschakelen. Het goede nieuws is dat je fps hit kan je met DLSS bijna volledig wegwerken.
Je kan teleurgesteld zijn maar ik zie wel een hele nieuwe wereld opengaan. Sommige willen enkel meer fps maar ik wil een mooier beeld.
[Reactie gewijzigd door Coolstart op 22 juli 2024 13:55]
Kan ook nog aan de cpus liggen helemaal met een 5950x(begrijp me niet verkeerd) een 5950x is een leuke cpu maar had toch liever een 12900k gezien in de test. En als ik het vergelijk met andere test systemen en reviews dan zie ik altijd een verschil met Tweakers. (Ik neem Tweakers dan ook al een tijdje niet meer serieus in testen)
Maar met een eventuele cpu upgrade in de toekomst is het mogelijk dat je meer uit de 4090 gaat halen en dat de verdubbeling dan wel geldt. Want een cpu kan nog steeds een bottleneck vormen op welke resolutie dan ook, betreft efficiëntie berekeningen.(Architectuur)
Ik bedacht me net ook dat je ook niet echt anders kunt of je moet alle concurrerende GPU's overnieuw testen. Je wilt toch appels met appels vergelijken.
Prima, maar waarom doet Techspot dit dan wel en Tweakers niet, ik snap je punt.
Maar de gpu's zijn nu zo bloedje snel dat een snelle cpu dan ook wel mag, desnoods moet je dan helemaal opnieuw beginnen het zij zo. Een 5950x kan je toch niet serieus nemen( terwijl een 12900k hem al eruit performed) en dan gaan ze ook nog eens een 4000 serie kaart erop benchen wat gewoon zonde van de tijd is geweest. Want je wilt immers de bottleneck zoveel mogelijk beperken en dat is hun keuze dus juist niet geweest.
Als iemand die zich bezig houdt met GPGPU werk kan ik je vertellen dat het aantal cores maar 1 van de factoren is die de performance bepalen.
Ik ben op dit moment aan het proberen om een algoritme te optimalizeren (samen met collega's) welk op een RTX5000 een performance heeft van 1x. Als ik hetzelfde algoritme run op een A100 (een kaart met meer dan 3x de cores) dan heeft die daar een performance van 0.98x.
Er is dus een andere bottleneck dan het aantal cores!
[Reactie gewijzigd door CrazyJoe op 22 juli 2024 13:55]
Voor productivity workloads is dit een zinnige upgrade... bijna 40% kortere rendertijden in apps als blender... sign me up! Want renderen - hoe snel het ook gaat op mijn 3080ti - blijft in het geval van animaties een erg lange activiteit. Ik heb inmiddels ook een punt bereik waarop mijn VRAM in blender vaak tegen de limiet aanloopt. (realtime raytracing previews in de viewport icm high res textures en adaptive subdivision vreten als snel je vram op). Dus die 24 gig is ook welkom.
Voor games is het echter niet bepaald de upgrade waar je op zit te wachten imho.
[Reactie gewijzigd door Laurens-R op 22 juli 2024 13:55]
Voor games is het echter niet bepaald de upgrade waar je op zit te wachten imho.
Waarom niet? Dit is de eerste kaart waarbij 4k 144hz gaming een realistisch scenario is. Lijkt mij prachtig op een grote OLED monitor 42/48 inch ofzo.
Je betaald er wel de volle mep voor nu, of dat het waard is hangt van je budget af. Op 4k 144 Hz kun je niet beter ontspannen dan op een 1080p 60hz. Maar het is wél mooier.
Ik vraag me af of die DLSS 3 framerate verdubbelaar nu wel echt gaat werken.
Als het extra frame wordt geinterpoleerd door het vorige en het volgende frame te combineren, dan introduceer je extra latency, wat me onwenselijk lijkt.
Als je het extra frame probeert te schatten door bewegingen "voort te zetten" vanuit het vorige gerenderde frame, dan kan je rare artifacten krijgen bij voorwerpen die continue van richting veranderen (zoals shooters).
Eigenlijk wil je dus WEL de CPU werkzaamheden hebben gedaan (en dus kwa tijd wat verder in het spel zitten dan het vorige frame) en dus objecten hebben op nieuwe locaties, maar tegelijkertijd wil je NIET een volle rendercyclus doen, maar iets slims doen met vorige frame.
Ik heb nog geen reviews gelezen die specifiek op dit punt induiken.
Daarnaast moet je game wel DLSS 3 ondersteunen, wat nog best een tijd gaat duren.
Los van DLSS 3, zie je wel een flinke vooruitgang in de rauwe performance van de kaart.
Als het extra frame wordt geinterpoleerd door het vorige en het volgende frame te combineren, dan introduceer je extra latency, wat me onwenselijk lijkt.
DLSS3 introduceert zeker extra latency, dit is dan ook meteen de reden waarom Reflex automatisch geactiveerd wordt zodra je DLSS3 aanzet.
Digital Foundry benoemde het al in hun preview video. Je kunt DLSS3 redelijk goed vergelijken met het renderen in SLI/AFR.
Inplaats van GPU1->GPU2->GPU1 is het nu GPU1->Interpolatie -> GPU1.
Hopelijk zullen reviewers binnenkort testen hoe effectief Reflex is in het tegengaan van de extra latency.
[Reactie gewijzigd door ColinZ op 22 juli 2024 13:55]
Er wordt nieuwe data bij verzonnen.
Hoe fancy het algoritme dat dat doet ook is, er is geen garantie dat die pixels ook kloppen.
De vraag is alleen of je het verschil gaat zien. Denk het eigenlijk niet.
Volgens Techpowerup zijn er met bepaalde settings artifacts te zien in screenshots maar zijn deze absoluut niet te zien in het bewegende beeld. En al helemaal niet als als je ook nog eens gefocust bent op je spel. Oftwel, als gebruiker ga je er niets van merken dat je DLSS 3 gebruikt. Althans, daar lijkt het op nu.
Je hersenen zijn enorm goed in het wegfilteren van informatie die niet kan kloppen. Daarnaast ook niet vergeten dat als je framerate hoger is dan de refreshrate van je scherm je ook niet eens elk frame op je scherm gaat krijgen.
Screen tearing, ghosting en andere artefacten zijn voor mij ook aardig duidelijk te zien, afhankelijk van de inplementatie van DLSS 3.0 kan dat net zo erg zijn.
Daarnaast ook niet vergeten dat als je framerate hoger is dan de refreshrate van je scherm je ook niet eens elk frame op je scherm gaat krijgen.
Als ik al 100 fps heb dan zou het ook niet echt meer nodig zijn om DLSS 3.0 aan te zetten, bij 60 of zelfs 30 fps is die essentie er dan meer, maar dan zou ik nog wel onder mn 165 Hz kunnen blijven.
Bovendien weet je ook niet of je dan juist de mooie, of juist de slechte frames te zien krijgt
In de spiderman voorbeelden in de video van digital foundry zag het er voor mij uit als "480p" artefacten op de randen tussen snel bewegende voorgrond en langzaam bewegende achtergrond. Let op, dat is dus een heel subjectieve ervaring.
[Reactie gewijzigd door Eomer op 22 juli 2024 13:55]
Daar ben ik dus ook heel benieuwd na. Lijkt mij echt de ultieme marketing tool om je product te verkopen maar is het ook echt zo goed als native? komende weken/ maanden zal daar wel veel onderzoek naar gedaan worden. Maar ik blijf nog even sceptisch.
Ligt vooral aan het spel dan dlss zelf. Er zijn zat spellen waarbij het daadwerkelijk fantastisch werkt en er zijn slellen waar je artifacts zoals flickering krijgt en blurred textures.
Bijvoorbeeld heeft RDR2 met nieuwe dlss een rare flickering en over sharpness. Zodra je aangepaste dlss dll gebruikt waar betere configuraties in staan is dit een verschil van dag en nacht.
Ik wil dan ook niks weten van al die upscaling trucjes, maar er zijn helaas teveel mensen die daar zo verliefd op zijn dat je meteen als een weirdo in een hoekje wordt geduwd als je dat zegt...
Digital Foundry heeft precies waar je naar refereert een goede technische video. Bij DLSS 3.0 is ook Nvidia Reflex verplicht en zie je dat de latency eigenlijk niet toeneemt.
Tweakers, waarom testen jullie de RTX 4090 met zo een oude CPU? Dat is in 1440 en zelfs 4k nu al een bottleneck!
Test het dan minimaal met een 5800 X3D of een 12900K of 7950x. Ik begrijp dit niet helemaal. Want op deze manier toon je totaal niet de kracht van de 4090. Want die is nog beter met een goede CPU. Want de CPU is nu heel snel een grote botleneck met zoveel power.
Een grote gemiste kans en eigenlijk is hierdoor de review niet correct en eigenlijk moet je die zelfs negeren. Heel erg jammer!
Tweakers, waarom testen jullie de RTX 4090 met zo een oude CPU? Dat is in 1440 en zelfs 4k nu al een bottleneck!
De RTX 4090 is een echte 4K-gamingkaart en in deze review heb ik de focus vrijwel volledig op die resolutie gelegd, uiteraard met daaronder ook 1440p en 1080p-resultaten weergegeven. Als ik even onze review van de Ryzen 9 7950X erbij pak en kijk naar de resultaten van twee games die we zowel op 1080p als op 1440p testen in cpu-reviews (Metro Exodus en Red Dead Redemption 2), dan is goed te zien dat op 1440p Ultra er amper verschillen zitten tussen de processors, laat staan dat dat op 4K Ultra het geval is. Nu zijn die cpu-tests met een RX 6950 XT uitgevoerd, en uiteraard is de RTX 4090 nog een stuk sneller, maar als we de RTX 4090-resultaten van deze review naast de 1080p-resultaten van de 7950X-review houden, dan toont de cpu-review hogere framerates in die games. Dat betekent dat onze Ryzen 9 5950X, die voor gpu-tests bovendien overgeklokt is én van sneller geheugen is voorzien, niet de bottleneck vormt in de door ons geteste games op 4K. Zoals @rsnubje al zegt gaan we binnenkort naar nieuwe gpu-testplatformen kijken om te waarborgen dat dit in de toekomst ook zo blijft.
Laat maar eens zien dat een gpu op 1440p (met name ultra) en op 4K een bottleneck heeft van een cpu(welke overigens op 4.65GHz draait en daarmee prima mee komt).
Gaat wel wat ver om te zeggen de review maar meteen te negeren, beetje lomp.
Maar goed, de tijd was al krap genoeg met al die launches achter elkaar. Wanneer Intel's 13th gen uit is, gaan we uitgebreid kijken welk platform de beste keuze is om in de toekomst GPU's mee te testen.
Kijk maart eens naar de review van hardwareunboxed op YouTube. Ze geven aan dat zelfs de 5800 X3D op 1440 vaak al CPU limited is en laten dat zien met data!
De CPU kan gewoon de GPU niet meer bijhouden en daarom moet je gewoon de snelste CPU erin zetten!
Deze review heeft op sommige vlakken gewoon meer dan 15% verschil met FPS op 1440!
Dat is op zijn zacht gezegd gewoon niet goed. Let maar op daar gaan binnenkort veel meer review over uitkomen over de CPU bottleneck omdat deze nieuwe 4090 dus zo belachelijk snel is.
Je komt gewoon niet weg met een 5950X met een kleine overclock terwijl zowel dee 12900K als de 7950X en de 5800X 3D gewoon een 10% gemiddeld sneller zijn dan deze CPU.
Je gaat toch ook niet een Bugatti Veyron testen met banden die tot 300 km/h kunnen ipv de speciale die tot zo een 500 km/h kunnen en dan zeggen dat de top 300 is omdat we niet sneller kunnen door de banden.
Dat is een beetje wat Tweakers hier nu doet. Je mag toch verwachten van een Review waarin zo een achterlijk snelle kaart wordt gebruikt je zorgt dat je alle performance die erin zit er ook daadwerkelijk uithaalt?
Wat heeft het dan voor zin om tabellen met prestaties erin te zetten die op sommige vlakken behoorlijk afwijken met de concurrentie?
Naar mijn mening is deze test daarom gewoon niet valide en heb ik niet eens meer de moeite genomen om alles door te lezen nadat ik heb gezien wat ze als testverantwoording gebruiken.
Ik denk dat vele mensen hier het erg onderschatten de kracht van een CPU om extra performance te krijgen. van gebruikers kan je dat verwachten maar niet van tech sites.
Kijk ook op Paul'sHardware op Youtube. Er staan een redelijk aantal spellen erbij die vooral op 1440 ongeveer 10% meer FPS hebben dan op Tweakers in combinatie met een 7950X.
Als jij 10% geen verschil vind dan weet ik het ook niet meer. Dan is gewoon enorm.
[Reactie gewijzigd door Mindfree op 22 juli 2024 13:55]
Games 1 op 1 vergelijken tussen andere reviewers zou ik sowieso mee uitkijken, maar dat terzijde.
Ondanks dat de 12900K al wat ouder is, is de 7950X dat niet en kwam die uit terwijl we al gpu's aan het hertesten waren. Daarnaast, voor de echte upgrade naar een nieuw platform voor gpu's wilden we op Intel's 13th gen wachten om een goed gewogen afweging te maken, ipv nu direct op wat nieuws springen (of ouds zoals de 5800X3D, maar die is locked dus valt imo af).
Je mag daarom ook verwachten dat de andere 40 serie kaarten gewoon op een nieuw platform getest zullen worden en volgt er tegelijkertijd dus ook een hertest van de meeste kaarten die nu ook getest zijn.
We gaan hoe dan ook kijken met welke processor we de beste resultaten krijgen, hoogstwaarschijnlijk icm een mooie overklok.
Overigens is die 10% die je noemt wel heel game afhankelijk en als je met een 4090 alleen maar op WQHD wilt gamen kun je beter een goedkopere kaart nemen imo.
Het vergelijken tussen andere reviews is juist een goede stap om een eerlijk overzicht te krijgen.
Dat de 5800X locked is maakt toch niets uit? Die is veel sneller dan de 5950X op 4.65 all core. Dat is toch geen valide reden om die niet mee te nemen?
En op 26-9-22 kwam de 7950X uit samen met jullie review dat is ruim 2 weken om met de nieuwe kaarten te testen.
Ik begrijp dat het niet altijd makkelijk is om alles opnieuw te testen maar de 12900K en 12900KS zijn al een tijd uit en zijn ook gewoon een stuk sneller dan de 5950X. Kom op Tweakers dat is een ruim 2 jaar oude CPU. In tijden dat alles wat 1 maand jong is oud is in de computer wereld is dat gewoon wederom geen valide reden.
Voor mijn part zetten jullie dan een extra teest met een van deze CPU's erbij in de review waarin je aantoont wat het verschil tussen de oude en nieuwe CPU's doen voor zulke zware kaarten. Er zijn ook meerdere spellen die op 4K sneller zijn op de nieuwe CPU's met de RTX 4090. Dus echt niet enkel op 1440 of 1080.
En of veel mensen dan wel of niet gebruik daarvan maken doet er mijn inziens niet toe. Meten is weten. En als je half meet weet je dus half.
Ik kijk en kom graag op Tweakers al heel veel jaren. En vroeger waren jullie een van de meest betrouwbare sites. Dat is nu gewoon niet meer zo. En daarom is het altijd goed om naar veel meer sites te kijken.
Dan krijg je een algehele indruk over iets. Ik zeg niet dat hier bewust iets wordt gedaan om cijfers anders te presenteren. Maar het is gewoon een gemiste kans.
Als iemand een dure RTX 4090 koopt zorgt degene ook dat die de beste CPU, een goede Case met airflow heeft een een goede voeding.
Je mag dus verwachten dat Tweakers weet wat de verschillen zijn. Een gebruiker hieronder beweert zelfs dat een 5e gen I7 geen bottleneck heeft op 1440 met een 3080TI... dan zit je er toch wel flink naast.
Jammer dat mensen dan gaan minnen omdat ze zelf blijkbaar niet goed weten hoe het echt is.
Je kan nog wel hele lappen tekst schrijven, maar ik heb mijn uitleg gedaan. Daar laat ik het bij. Ik begrijp echt wel het concept van een bottleneck en welke cpu er wel en niet goed is, maar het heeft weinig zin om daar nu op door te beuken.
Ik hoop wel wanneer jullie de AIB modellen testen welke ik begrijp jullie einde deze week te verwachten je dan hopelijk 1 van deze cpu's ook gebruikt om deze als "extra" erbij te zetten mits jullie met de oude 5950X blijven testen.
Dat lijkt mij niet zoveel moeite en je hoeft dan niet alle GPU's opnieuw te testen. Wanneer stappen jullie over op een nieuwe CPU? Bij uitkomen vaan de 13900K of Ryzen 7950 X 3D die ook gaat komen?
De komende tests zullen nog op de 5950X zijn, maar dat is allemaal 4K Ultra, dus ik betwijfel of dat uit gaat maken. Ik weet niet of er in deze korte tijd, tijd is om een extra cpu te doen. De Ryzen 7000 3D is nog onbekend wanneer die gaat komen, dus hebben we besloten daar niet op te wachten. Het zal dan eerder gaan om een opgevoerde 7950X of 13900K.
De 7950X en 13900K gaan sowieso sneller zijn met een OC dan de 5800X3D, want dat is de 7950X op stock al praktisch. En aangezien we een testplatform voor een langere tijd willen gebruiken, moet dat gewoon goed zijn en niet op stel op sprong een andere even snel, omdat de 4090 misschien bottleneckt op een resolutie waarvoor ie niet bedoelt is.
DF stelt dat je de kaart niet moet gebruiken op 1080 of 1440p aangezien je dan tegen cpu bottlenecks aanloopt en de frametimes stuk gaan. 4 of 8k is de enige use case voor dit ding.
3x WQHD 144Hz hier Maar 3090 trekt al die sims nog prima, omdat de meeste behoorlijk oud zijn, dus grafisch niet zwaar. Wellicht dat Motorsport 8 daar verandering in brengt.
Volgens mij schat je de benodigde CPU kracht echt vele malen te hoog in.
Heb zelf in mijn oude PC (8 jaar oud, i7-5820K CPU) de 3080Ti gehangen toen ik hem binnen kreeg om te testen of het werkte, had zelfs met die CPU nog geen bottleneck in Cyberpunk op ultrawide 1440p en was het nog steeds de GPU met de bottleneck.
Moet wel eerlijk zeggen dat die situatie voor de CPU kritisch werd met 93% verbruik op 6/12 cores/threads.
Zit nu op een i7-12800K met die 3080Ti en die CPU doet zo goed als niets in welke game dan ook. Dus met een CPU die toevallig net 1 gereratie oud is ga je echt geen bottleneck mee tegenkomen.
Gegarandeerd als je nu een 5800 X3D, 12900K of 7950X erin zet met dezelfde videokaart je minimaal 20% meer fps haalt op deze resolutie die je aangeeft. Je zit er echt helemaal naast!
Je weet toch dat CPU bottleneck op 1080 nagenoeg altijd aanwezig is en 1440 tegenwoordig ook heel erg aanwezig is en zelfs al op 4K.
Kijk bv naar hardwareunboxed waar ze meerdere malen al aangeven dat op 1440 de 5800 X 3D die ze gebruiken de bottleneck is Ook bij cyberpunk 2077 is de 4090 al weer een CPU bottleneck op 1440.
Veel mensen hebben dit blijkbaar nog niet in de gaten. Er zijn veel spellen die zowel CPU als GPU goed benutten en daarom is het belangrijk om van beide de beste en snelste te hebben.
Met je oude I7 laat je belachelijk veel FPS liggen met je 3080 TI! Zet je kaart maar eens in een systeem met de juiste CPU dan ga je dat echt zien!
Kijk ook even op Paul's Hardware op YouTube vooral op 1440P testen met een aantal dezelfde games en ultra instellingen haalt de 4090 met een 7950X ongeveer 10% meer FPS op dezelfde instelling.
Dat is gewoon belachelijk veel en ik vind het niet acceptabel om met een oude CPU als de 5950X zo een kaart te testen. In meerder games is het verschil dus 10% soms zelfs meer!
[Reactie gewijzigd door Mindfree op 22 juli 2024 13:55]
Nu wachten op kaarten die eigenlijk dezelfde performance hebben tegen een schappelijke prijs.
Zoals rond de 800-ish.
Inplaats van de gestoorde prijs die nVidia nu durft erop te plaatsen.
En tel daar nu eens alle inflatie bij? Dan mag je er op 22 jaar al direct 70% bijtellen. Ik heb destijds een Gefore4 Ti 4600 gekocht voor 500 euro, dat zou vandaag bijna 800 euro zijn om deze een jaar (en 2 koelers) later te vervangen voor een Gefore FX 5950 die me 600 euro kostte, of vandaag al meer dan 900 als ik zou corrigeren voor inflatie.
Eigenlijk zijn gpu's niet eens zo extreem veel duurder geworden terwijl de prestatie sprong dit keer vrij hoog is.. (die FX kaarten waren ook nog eens zeer matig in DX9 oid, herinner ik me nog)
Alles word duurder. Het valt nog te bezien of andere fabrikanten significant goedkoper gaan zijn. Tot nu toe heeft AMD iedere prijsverhoging van Nvidia gevolgd en zitten ze er hooguit een paar procent onder.
Maar deze prijzen voorspellen alvast niet veel goeds voor de goedkopere modellen.
[Reactie gewijzigd door Wolfos op 22 juli 2024 13:55]
Laten we het hopen, maar ik ben sceptisch aangezien er genoeg mensen waren die gewoon van de scalpers kochten tegen 3keer de prijs zoals 2000 ah 3000 euro.
Niet overal gebruiken ze gas, en niet overal is het zo duur geworden als in Nederland. In de rest van de wereld zullen er nog genoeg zijn die die kaartjes gaan kopen
Ik denk dat jij je daar gruwelijk in zult vergissen, mensen betaalde ver over de 2000 euro om zo'n 3090 te bemachtigen, en deze is dus goedkoper maar bijna dubbel zo snel. Ik verwacht dat de 4090 zeer goed zal verkopen, is voor veel contentcreators (rendering etc) zeer interessant, die kosten hebben ze er behoorlijk snel uit.
De inflatie (en waarde van de euro) helpt zeker niet mee, maar dit is een heel ander beest dan de 980 Ti wat gewoon een high-end gaming kaart was. Deze zijn meer voor creatieve doeleinden bedoelt. Daarnaast lijkt chipfabricage momenteel steeds duurder te worden.
Ik ben echt benieuwd waar AMD straks mee komt qua concurrentie voor een echte gaming kaart zoals de 4060.
[Reactie gewijzigd door Wolfos op 22 juli 2024 13:55]
Je hebt flinke infaltie over de dollar, dan super inflatie in de EU ook NL en diepte punt in euro vs dollar.
Die stap van modex 240p naar 480p vga was zeer grote stap naar 600p 3dfx sli addon ook 720p was al stuk beter maar 1080p was stuk gangbaar.
En met 1440p heb je al duidelijk te maken met deminishing return. 4k is vaak de monitor te klein om volledig van de resolutie baat bij te hebben en met 8K vs 4k is de meerwaarde nihil tot subtiel tot zeer grote monitors waar je wel wat aan kan hebben.
Voor goede hoge FPS heb je daarbij de nieuwste displayport standaard voor nodig en dat zal alleen RDNA3 bieden.
Al zal ik 1st gaan voor grote 144hz game monitor 4K 48” en minder dan 1 meter afstand. 32” op ruim meter is te klein.
Die idiote prijs is stack up van meerdere factoren.
Duur N4x x huge-die x $inflatie x NL-infatie x $:eur x marge x hoge bom x hoge koeling.
Als er geen marge is dan heeft het ook geen zin om te produceren dan sluit je busnes. Zoals nu hier met BAkkers gaat .
Voor de oorlog zou vs alleen inflatie hebben een sterke euro dan zat je op 1600 euro ipv 2000 ook nog veel maar ja die hardware is duurder te produceren en daar komt die marge over.
Helaas heb je wel gelijk ja.
Ik blijf gewoon hangen op mijn 2070S voorlopig.
Tot er wat meer Sanity in de markt terug keert.
En anders dan tja, geef ik mijn droom van 3D artist maar wederom op. En ga ik dan maar wat anders doen.
Je hebt niet zo'n hele dikke GPU nodig voor 3D art. Als je met een path tracer wilt renderen zal het zeker helpen maar anders heb je aan zo'n 2070S ruim voldoende.
Dat wel, maar dit geef ik echt niet uit aan een grafische kaart. Je kan voor de prijs iets van 5 verschillende consoles kopen, samen! Ik koop deze kaart simpelweg niet, omdat ik het niet normaal vind, net als een telefoon niet boven de 800 komt hier. Ik heb geen mega prestaties nodig om leuk te kunnen spelen, ook geen 4K, dus kan prima af met veel goedkoper.
Console is niche product die hardware dump prijs heeft.
PC koop je de hardware met marge dus 1,5 x console prijs.
Er is geen APU voor PC met zware igpu specifiek voor gamen.
Je hebt ook niet zeer snel systeem geheugen en direct store is daar optie en geen standaard spec. Met apparte midrange g-kaart zit je ook met hogere BOM kosten van meerdere PCB met als voordeel dat je zelf bepaald of meer xobxS of x of pcie5.0 ssd of pro supper pro of meteen console nextgen of nog gen verder aan performance.
Enige voordeel van consoles is stuk minder last van cheaters. PC gamen meer de mooie open werelden en slow pace exploring avonduurlijk gameplay. Waar 60fps zat is.
Bij concoles meer competatieve online shooter lijkt mij 120hz support wel belangrijker en gfx boeid dan niet zo.
800 euro voor deze performance? Dat wordt dan de 6060 Ti. De 5070 Ti zal nog iets duurder zijn.
Op één of andere manier was de prijs niet zo'n groot probleem toen NVidia de topmodellen nog als "Titan" verkocht. De rename is vooral bedoeld om de 4080 "goedkoop in vergelijking" te laten lijken. En daar trappen nog steeds erg veel consumenten in. Zelfs een 4070 is nog een prima upgrade ten opzichte van de 2080.
Als je het prima vindt om te accepteren dat er tegen die tijd ook een 5090 of 6090 is die het nóg beter doet, is dat een prima strategie natuurlijk.
Goeie tip voor tweakers met het hebben-syndroom in dure tijden: koop iets van vorig jaar en lees alleen de reacties onder de aankondiging van dat product
Dat schijnt dus enorm mee te vallen, een Gefore FX 5950 kostte in 2003 klaarblijkelijk ongeveer 600 euro. (vooruit gerekend naar 2022 is dat veel meer dan 800 euro)
Vooruit gerekend naar nu geeft wellicht een vertekend plaatje, we live in interesting times... Laten we 2020 doen, a 2,1% gemiddelde inflatie kom je dan uit op ~850 euro. Zeker niet 'veel meer dan 800'
Hoe het ook zij, 800 is in elk geval geen uitzonderlijke prijs als we de historische prijzen er bij pakken.
Dat ligt er dus helemaal aan hoe ver je terugkijkt. We hebben net geconstateerd dat het topmodel in 2003 850-900 inflatie gecorrigeerde euro's kostte. De Titan X uit 2015 kostte 1000 euro en dat was destijds echt buitensporig. Inmiddels zitten we dus op het dubbele in 7 jaar tijd (en dan reken ik buiten de 4090ti die vast nog volgt). Er is lang niet genoeg inflatie geweest om dat goed te praten, ook niet in de afgelopen 9 maanden.
[Reactie gewijzigd door PhWolf op 22 juli 2024 13:55]
Uiteraard ligt het er aan hoe je het bekijkt, dat geldt voor bijna alle dingen in het leven.
Nu is het wel zo dat de performance sprong dit keer ongekend is en de wisselkoers gooit, bovenop de inflatie, nog wat roet in het eten.
Maar goed ik geef je geen ongelijk voor wat betreft het uitlopen van de prijzen in zijn algemeenheid.
Persoonlijk denk ik er over om een 4080 te nemen en zelfs die is behoorlijk aan de prijs. Helaas kunnen we 'm hier niet voor $899 kopen zoals in de Verenigde Staten.
Nou eigenlijk niet die prijzen hier en nu zit de inflatie op maar lonen werken vertraagd gemiddeld dus is net maatje extremer. 2022 prijzen maar je loon is nog niet inflatie gecompenseerd. Sommigen totaal niet die bokkensprong nada gecompenseerd.
Het is helaas hoe de gang van zaken gaan.
"De RTX 4090 verbruikt tijdens belasting bijna 470W" is dat alleen de RTX 4090, of met de rest van het systeem er bij? Want een Playstation 5 verbruikt +/- 220W. Dus als het alleen de RTX 4090 zou zijn dan is het echt een extreem hoog stroomgebruik.
Dat is gemiddeld. Sterker nog, een mediaan. En wat je zegt over kort door de bocht, dan geldt dat toch ook voor Der8auer met 1 game, die blijkbaar de kaart niet goed genoeg belast.
Er wordt naast Battlefield 2142 ook Cyberpunk 2077, Justice en A Plaque Tale getest.
Cyberpunk 2077 - 420W en met DLSS 330W
Justice - 373W en met DLSS 339W
A Plaque Tale - 389 en met DLSS 369W
Wat ik dan bedoelde te zeggen is dat het dan daar is om te zeggen dat toevallig in Metro het verbruik hoog is dan te concluderen dat de hele kaart veel stroom verbruikt.
Daarnaast zou je in een test de frames kunnen locken op een vast aantal FPS zoals bijvoorbeeld 80fps en dan meten hoeveel power ze gebruiken. Dan kan je verschillende kaarten ook tegen elkaar afzetten.
[Reactie gewijzigd door Senaxx op 22 juli 2024 13:55]
Het schijnt zo te zijn dat ze eerst een target hadden van 600 Watt, en dat is bijgesteld naar beneden. Gelukkig.
Maar een volledige PS5 vergelijken met een 4090 is best lastig. Je kunt ook zeggen dat een Nintendo Switch een heeel stuk zuiniger is dan een PS5, en een acceptabele game performance tevoorschijn tovert. Maar da's echt wel appels met peren vergelijken.
Ja natuurlijk is het niet hetzelfde. En met een PC kan je meer dan met een console, is een veelgehoord argument.
Maar als het om gamen gaat dan is het met deze prijzen en stroomverbruik in een toch al dure tijd alleen maar aantrekkelijker geworden om console gamer te worden.
En ik bedoel niet te klagen en ik ben ook niet zielig, heb een PS5 en een RTX 3080.
Maar op deze manier is de lol van PC hardware en het upgraden zoals ik dat in de tijd van Hardware.info deed, toch wel echt definitief voorbij.
Moet wel bij genoemd worden dat wanneer men bijvoorbeeld Cyberpunk speelt met een framerate cap op 90, op 4K ultra settings, deze zelfde 4090 toch echt iets van 40% minder stroom verbruikt dan een 3090ti op gelijkwaardige settings. Net nog in een review voorbij zien komen.
Dat een kaart zoveel kán trekken, wil niet zeggen dat je dat moet toelaten in elke mogelijke game of applicatie.
Dus ondanks dat het inderdaad behoorlijk belachelijk kan worden, in benchmarks of wanneer álles open getrokken wordt.... hoeft dat natuurlijk niet.
Daar heb je een goed punt. Nu ben ik ook gelijk benieuwd of een cap op 45 of 60fps en dan met DLSS 3.0 dat oprekken naar 90fps zuiniger of minder zuinigen gaat zijn. Interessant aspect
Native 60 fps in Spiderman doet gemiddeld 280 watt op mijn 3080 ti.
Dlss quality 60 fps in Spiderman doet gemiddeld 235 watt op mijn 3080 ti.
Sowieso cap ik veel spellen op 60 fps (4k) want bij single player games vind ik dat prima en bijkomend voordeel is dat de kaart een stuk minder herrie maakt en minder stroom verbruikt.
Maar realistisch gezien, welk percentage gebruikers gaat dat doen? Gemiddelde gamer gaat geen 2000 euro uitgeven, om het op beestje op halve kracht te laten werken natuurlijk....
Sowieso geeft een gemiddelde gamer geen 2000 euro uit aan een videokaart. Gemiddelde gamer en enthousiastelingen zijn twee verschillende groepen consumenten
Inderdaad, goed punt. M'n zoontje speelde een tijdje wat lichtere games en de videokaart stond toch een beetje te blazen in de woonkamer. Ik heb toen geen FPS cap ingesteld, maar een 'stroomcap' in MSI Afterburner. Gewoon de TDP op 70% a 80% gezet bij een RTX 3080 en alles bleef lekker stil.
Beetje zonde ergens van de performance, zeker bij zo'n RTX 4090 van 2000 euro. Echter, als het geld je niet veel uitmaakt, zijn de prestaties per watt wel heel goed. Je kan er dan ook een zeer goed presterende ietwat zuinige kaart van maken...
Kies dan voor een undervolt, heb mijn 3080 Ti op 1820 MHz op 785mV draaien. Voluit wordt die nu max 60 graden wat voorheen rustig naar de 82 graden ging.
Want een Playstation 5 verbruikt +/- 220W. Dus als het alleen de RTX 4090 zou zijn dan is het echt een extreem hoog stroomgebruik.
Je krijgt er natuurlijk wel veel meer performance voor terug dan in een PS5. Als je de performance aanpast van de 4090 krijg je waarschijnlijk dezelfde performance/framerate met minder verbruik dan de PS5.
Een PlayStation 5 heeft, volgens Digital Foundry, het equivalent van een gpu die zich ergens tussen de RTX 2060 en de RTX 2070 bevindt.
Dat is met de beste wil in de verste verte niet te vergelijken met een RTX 4090. Sterker nog, het ding is zo ontzettend veel krachtiger dat het me niets zou verbazen dat het per frame (inclusief pc) zelfs zuiniger is dan de ps5.
Leuke kaart, maar voor 98% absoluut niet interessant. Afgezien van de enorm hoge prijs is het vebruik ook extreem hoog (net als de RTX 3090 Ti trouwens). Het formaat van de kaart zorgt ervoor dat je goed moet opletten wat voor behuizing je hebt, want ik de meeste kleinere kasten zal die niet eens passen.
Afgezien van de hoge aanschafprijs is het idle verbruik ook behorlijk aan de hoge kant, met een steeds hoger idle vebrruik van zowel cpu's als gpu's mag je zelfs als entousiatseling wel oppassen met de huidige electra prijzen wat voor componenten je aanschaft.
Ik kijk al lange tijd niet meer naar grafische kaarten, maar de prijs vind ik echt hoog. En ja iedereen kan wel roepen over de invlatie en andere redenen verzinnen waarom, maar zelfs voor een vlaggenschip en wetende dat er over aantal maanden een Ti versie komt, is dit toch best schrikken. De prestaties zijn daarenegen best indrukwekkend. Wel ben ik erg benieuwd naar de mid en low range kaarten.
Voor mensen die een computer inclusief electrische verwarming zoeken komt deze kaart natuurlijk als geroepen.
[Reactie gewijzigd door Andyk125 op 22 juli 2024 13:55]
Precies wat je zegt, deze specifieke kaart is voor 98% van de gamers niet interessant om te kopen. Net zoals een dure auto voor de meeste mensen niet interessant is. Toch is er een markt voor beide én Nvidia kan roepen dat zij de snelste zijn dus ‘koop een nvidia!’
Het idle verbruik is inderdaad niet laag, maar nog wel lager dan kaarten van enkele generaties terug. Tijdje terug opgezocht wat mijn vorige kaart, een GTX970, idle verbruikt, en daar zit deze 4090 nog altijd een heel stuk onder. Die verbruikte meer dan 70W idle.
Deze kaart zal op max 250 watt en underclocked en undervolted vermoedelijk nog steeds enorm goed presteren, beter dan een 3090 of 3080 op die settings.
Dus staar je niet blind op de max power. Je bent niet verplicht deze kaart op 450 watt te draaien
Er zijn al wel video's te vinden die dit voor je berekend hebben en met een 280-300Watt heb je inderdaad nog steeds een hele goede performance. Maar laten we eerlijk zijn je koop niet zo'n kaart om deze maar op 60% power te gebruiken ook al krijg je daar 80% van de prestaties mee. Wat nog steeds behoorlijk indrukwekkend is hoor, daar gaat het niet om. Maar de prijs is ook extreem hoog.
Daarnaast heb je niets aan een kaart als deze als de rest van de hardware er ook niet op afgestemd is. Dat betekend een high-end cpu en moederbord, snel geheugen, etc en ook een 4k monitor met hoge refreshrate. Alles wat dus betekend dat het hele verbruik van de pc sowieso veel hoger ligt, want al die componenten gebruiken in verhouding meer stroom, ook al zijn ze misschien wel efficienter.
Iemand die een GPU als de RTX 4090 koopt doet dit niet enkel en alleen maar voor gamen. Toch zijn er games die zowel cpu als gpu bound zijn en waar een betere cpu wel degelijk een grote invloed heeft, vooral als je raytracing wilt gebruiken. Als je andere taken gaat uitvoeren met een kaart als de RTX 4090 en die wil je optimaal benutten dan heb je ook een high-end cpu nodig. Voor alleen al het verschil in prijs tussen de 3090 Ti en de 4090 kun je al een high end cpu aanschaffen.
Dus je gaat rond de €2000,- betalen voor een top of the line kaart en hem dan underclocken en zodoende minder performance krijgt ? Me dunkt dat degene die deze kaart kopen, zich geen moer om de elektra rekening interesseert.
Die paar dagen wachten kunnen er nog wel af. Deze FE uitvoering ziet er prachtig uit en presteert ook prima qua geluidsdruk en koeling. Maar ik wacht geduldig ook de AIB's af die de komende dagen beschikbaar komen in reviews.
[Reactie gewijzigd door Noord27 op 22 juli 2024 13:55]
Nee hoor, een video kaart kan nooit te groot worden voor het moederbord. Wel natuurlijk de kast waar hij in moet. Je hebt alleen restricties in je X en Y as maar de Z as van je ruimte kan volledig benut worden.
Daarnaast is dit probleem alleen aanwezig voor de flagship kaarten, de 3060 en waarschijnlijk de 4060 zijn helemaal niet zo groot en kunnen toch behoorlijk wat !
Als je de 4090 met een itx moederbord gebruikt is de verhouding wel gek. De uitbreidingskaart is dan vele malen groter en zwaarder dan het moederbord... maar technisch geen enkel probleem mits de videokaart goed is vastgezet. Misschien als je dat niet doet dat dan het PCI-E slot afbreekt oid
Ja, omdat we anders in meerdere games stroom zouden moeten testen. Metro is onze game waarmee we stressen voor het stroomverbruik. Over het algemeen werkt dat overigens prima en is de game geloof ik redelijk representatief.
DerBauer is het daar niet helemaal mee eens. Die haalt in veel games niet eens de 400w. En heeft ook meteen getest hoeveel het uitmaakt als je de power target aanpast.
Wat blijkt: bij 50% powertarget heeft de kaart de beste performance per watt (0.42fps/W in Time Spy Extreme, vs 0.15fps/W voor de 3090ti) terwijl bij 60% je in game iets van 5% fps verliest, terwijl je 20-35% minder stroom verbruikt (afhankelijk van de game).
Tja, dan zijn we het daarover oneens. Dit is toch echt wat we zien bij goede belasting.
[EDIT] net even de video van Der8auer bekeken en die haalt op max load gewoon 422W en in Cyberpunk is de 330W op 100% PL die hij meet met DLSS, dus natuurlijk gaat het verbruik dan omlaag, want dan hoeft die kaart niet zo hard te werken.
[Reactie gewijzigd door rsnubje op 22 juli 2024 13:55]