Nvidia's Ampere-architectuur, voornamelijk bekend van de GeForce RTX 30-serie, is inmiddels al anderhalf jaar oud. De nieuwste toevoeging aan deze reeks videokaarten voor consumenten is de RTX 3090 Ti, waarbij Nvidia alle registers van Ampere opentrekt voordat het overstapt op een volgende generatie. Dit nieuwe vlaggenschip is de nieuwe overtreffende trap en toont tegelijk in bepaalde opzichten een glimp van wat we van toekomstige videokaarten kunnen verwachten.
RTX 3090 Ti: de overtreffende trap van de overtreffende trap
Met de RTX 3090 Ti krijg je voor het eerst een volledig ingeschakelde GA102-gpu. Op de RTX 3080, 3080 Ti en zelfs 3090 ging het nog om een deels uitgeschakelde chip. In het geval van de RTX 3090 Ti ten opzichte van de normale 3090 is de sprong in het aantal actieve rekenkernen met 256 niet zo spannend, net iets meer dan 2 procent extra.
Een groter verschil zien we bij de geheugensnelheid. GDDR6X stond al niet bekend om zijn lage snelheden, maar bij de RTX 3090 Ti heeft Nvidia er nog een flinke schep bovenop gedaan. De geheugensnelheid bedraagt op deze kaart 21Gbit per seconde, 7,7 procent meer dan op de RTX 3090. Met dezelfde geheugenbus van 384bit resulteert dit in een totale geheugenbandbreedte van 1008GB/s.
Enorm verbruik mogelijk dankzij PCIe Gen5-connector
Per rekenkern krijg je op de RTX 3090 Ti dus meer bandbreedte, wat de prestaties ten goede kan komen. Die winst kent echter een prijs, want het opgegeven verbruik van de RTX 3090 Ti is fors, heel fors. Met een tgp van maar liefst 450W is de RTX 3090 Ti in zowel absolute als relatieve zin flink dorstiger dan de normale 3090, die op 350W is gespecificeerd. Nu lag bij GDDR6X de primaire focus al niet op efficiëntie, maar de hogere geheugensnelheid op de RTX 3090 Ti is samen met de hogere kloksnelheden van de gpu zelf verantwoordelijk voor een toename van bijna 30 procent in het opgegeven verbruik ten opzichte van de RTX 3090.
Om de tgp van 450W in goede banen te leiden, is de RTX 3090 Ti voorzien van de PCIe Gen5-stroomaansluiting. Deze zestienpinsconnector kan tot 600W leveren en in de twaalfpinsversie tot 450W, flink meer dan de 150W waarop de bekende PEG-connector met acht pinnen gespecificeerd is. Omdat er praktisch nog geen desktopvoeding op de markt is met deze connector, wordt in de doos van elke RTX 3090 Ti een adapter meegeleverd. Deze kan drie PEG-aansluitingen met elk acht pinnen omzetten naar de enkele zestienpinsconnector die de RTX 3090 Ti vereist. Een vergelijkbare oplossing is bekend van de RTX 3090 Founders Edition, waar twee PEG-aansluitingen met een adapter op de twaalfpinsconnector werd gebruikt.
De RTX 3090 Ti is niet alleen in de stroomvoorziening veeleisend, ook de portemonnee moet ondersteboven om een exemplaar te kunnen bemachtigen. De RTX 3090 Ti krijgt een adviesprijs van 2250 euro mee. Dat is bijna 1000 euro meer dan de adviesprijs die de RTX 2080 Ti destijds meekreeg, het topmodel van de vorige generatie.
Videokaart |
RTX 3090 Ti |
RTX 3090 |
RTX 2080 Ti |
GTX 1080 Ti |
Gpu |
GA102 |
GA102 |
TU102 |
GP102 |
Architectuur |
Ampere |
Ampere |
Turing |
Pascal |
Procedé |
8nm |
8nm |
12nm |
16nm |
Diesize |
628,4mm² |
628,4mm² |
754mm² |
471mm² |
Transistors |
28 miljard |
28 miljard |
18,6 miljard |
12 miljard |
CUDA-cores |
10.752 |
10.496 |
4352 |
3584 |
Tensor-cores |
336 |
328 |
544 |
0 |
RT-cores |
84 |
82 |
68 |
0 |
Texture-units |
336 |
328 |
272 |
224 |
Rops |
112 |
112 |
88 |
88 |
Baseclock |
1560MHz |
1400MHz |
1350MHz |
1480MHz |
Boostclock |
1860MHz |
1700MHz |
1545MHz 1635MHz (FE) |
1582MHz |
Vram |
24GB GDDR6x |
24GB GDDR6x |
11GB GDDR6 |
11GB GDDR5x |
Geheugensnelheid |
21GBit/s |
19,5Gbit/s |
14Gbit/s |
11Gbit/s |
Geheugenbus |
384bit |
384bit |
352bit |
352bit |
Bandbreedte |
1008GB/s |
936GB/s |
616GB/s |
484GB/s |
Tdp |
450W |
350W |
250W |
250W |
Adviesprijs FE (bij introductie) |
2250 euro |
1649 euro |
1259 euro |
825 euro |
Uitgebracht |
29 maart 2022 |
24 september 2020 |
27 september 2018 |
5 maart 2017 |
Ons uitgangspunt bij gpu-tests is altijd dat we de rest van het systeem een zo klein mogelijke bottleneck willen laten vormen. We hebben er daarom voor gekozen om alle videokaarten te testen met de Ryzen 9 5950X als processor. Voor onze gpu-tests gebruiken we altijd referentiekaarten of Founders Editions, tenzij de desbetreffende gpu niet als een dergelijk model is uitgebracht of wij er geen beschikbaar hebben. In dat geval gebruiken we een custom model dat wat kloksnelheden betreft zo dicht mogelijk bij de referentiespecificatie zit.
De exacte specificaties van het testsysteem zijn in de tabel hieronder te vinden.
Testsysteem gpu's |
Processor |
AMD Ryzen 9 5950X @ 4,65GHz all-core |
Moederbord |
ASUS ROG Crosshair VIII Hero (bios 4006, Agesa V2 PI 1.2.0.6b, Resizeable BAR support geactiveerd) |
Werkgeheugen |
G.Skill Trident Z Royal 32GB (2x 16GB) DDR4-3600 CL16-16-16-36 |
Ssd |
Samsung 970 EVO 250GB (OS) + Kioxia Exceria+ 2TB (games) |
Voeding |
Be quiet Dark Power Pro 12 1500W |
Koeling |
Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, be quiet Pure Wings 2-ventilatoren |
Besturingssysteem |
Windows 11 21H2 (ver 22000.613) |
Geteste videokaarten
Voor onze gpu-tests gebruiken we altijd referentiekaarten of Founders Editions, tenzij de desbetreffende gpu niet als een dergelijk model is uitgebracht of wij er geen beschikbaar hebben. In dat geval gebruiken we een custom model dat wat kloksnelheden betreft zo dicht mogelijk bij de referentiespecificatie zit.
Voor deze review hebben we de volgende modellen gebruikt:
- MSI GeForce RTX 3090 Ti Suprim X
- MSI GeForce RTX 3090 Gaming X Trio
- AMD Radeon RX 6900 XT referentiemodel
- Nvidia GeForce RTX 3080 Ti Founders Edition
- AMD Radeon RX 6800 XT referentiemodel
- Nvidia GeForce RTX 3080 Founders Edition
- AMD Radeon RX 6800 referentiemodel
- Nvidia GeForce RTX 2080 Ti Founders Edition
- AMD Radeon RX 6700 XT referentiemodel
Drivers en meetmethode
We hebben alle videokaarten voor deze review getest met de nieuwste driver die beschikbaar was toen we begonnen. Voor de AMD Radeon-kaarten hebben we Radeon Software 22.3.1 gebruikt; voor Nvidia GeForce-kaarten was dat GeForce 512.16.
Met behulp van PresentMon meten we in elke geteste game de prestaties, waaruit we zowel de gemiddelde framerates (fps) als de frametimes van het 99e en 99,9e percentiel berekenen en die laatste twee in milliseconden rapporteren.
In de grafieken op de volgende pagina's vind je telkens grafieken met samengestelde balkjes, bestaande uit het 99e percentiel omgerekend naar frames per seconde (genoteerd als minimumframerate), gevolgd door de gemiddelde framerate per seconde. Op die tweede score, het gemiddelde aantal beelden per seconde dat een videokaart kan berekenen, wordt primair gesorteerd. De frametimes geven geen beeld van de gemiddelde framerate, maar van de uitschieters in negatieve zin. Die kunnen immers tot gevolg hebben dat een game ondanks een goed gemiddelde niet vloeiend aanvoelt.
De tijd die het kost om beelden binnen een 3d-game en dus binnen onze benchmark te renderen, varieert van frame tot frame. Bij onze frametimemeting worden de rendertijden van alle individuele frames opgeslagen. Daarna gooien we de 1 procent langzaamste frames weg. De hoogste rendertijd van de resterende 99 procent van de frames, oftewel het langzaamste frame, is het 99e percentiel frametime.
Op verzoek van enkele lezers hebben we ook de 99,9e-percentielwaarden toegevoegd. Hiervoor laten we dus slechts de 0,1 procent langzaamste frames buiten beschouwing. In theorie is dit nog preciezer, maar in de praktijk gooien incidentele oorzaken en meetfouten soms roet in het eten. Voor nu hebben we ze vermeld in de review, maar houd dat dus in het achterhoofd bij het bekijken van deze resultaten.
Gameselectie
Regelmatig houden we de reeks spellen tegen het licht en bij deze keuzen houden we rekening met de api, de engine, het genre, de AMD/Nvidia-verhouding, de leeftijd en de technische benchmarkdetails van elke game, om op een zo representatief mogelijke suite uit te komen.
De wijzigingen ten opzichte van onze oude testmethode bestaan uit het vervangen van Dirt 5, F1 2020, Far Cry: New Dawn en Shadow of the Tomb Raider door respectievelijk Forza Horizon 5, F1 2021, Far Cry 6 en Guardians of the Galaxy. De oudste game uit onze vorige lijst, Shadow of the Tomb Raider, is na ruim drie jaar toch vervangen. Hoewel er technisch niets mis is met het spel, hebben we met het oog op de actualiteit van de selectie besloten dit te vervangen door een nieuwere game, in dit geval Guardians of the Galaxy.
- Testsuite 2022-1 (huidig)
- Testsuite 2021-2 (oud)
Game |
Verschijningsdatum |
Api |
Engine |
Assassin's Creed: Valhalla |
November 2020 |
DX12 |
Anvil Next 2.0 |
Cyberpunk 2077 |
December 2020 |
DX12 |
REDengine 4 |
Forza Horizon 5 |
November 2021 |
DX12 |
ForzaTech |
Doom Eternal |
Maart 2020 |
Vulkan |
Id Tech 7 |
F1 2021 |
Juli 2021 |
DX12 |
EGO Engine 4.0 |
Far Cry 6 |
Oktober 2021 |
DX12 |
Dunia 2.0 |
Metro Exodus |
Februari 2019 |
DX12 |
4A Engine |
Red Dead Redemption 2 |
November 2019 |
Vulkan |
RAGE |
Guardians of the Galaxy |
Oktober 2021 |
DX12 |
Dawn Engine |
Total War: Warhammer III |
Februari 2022 |
DX11 |
TW Engine 3 |
Game |
Verschijningsdatum |
Api |
Engine |
Assassin's Creed: Valhalla |
November 2020 |
DX12 |
Anvil Next 2.0 |
Cyberpunk 2077 |
December 2020 |
DX12 |
REDengine 4 |
Dirt 5 |
November 2020 |
DX12 |
(custom) EGO |
Doom Eternal |
Maart 2020 |
Vulkan |
Id Tech 7 |
F1 2020 |
Juli 2020 |
DX12 |
EGO Engine 4.0 |
Far Cry: New Dawn |
Februari 2019 |
DX11 |
Dunia 2.0 |
Metro Exodus |
Februari 2019 |
DX12 |
4A Engine |
Red Dead Redemption 2 |
November 2019 |
Vulkan |
RAGE |
Shadow of the Tomb Raider |
September 2018 |
DX12 |
Foundation |
Total War Saga: Troy |
Augustus 2020 |
DX12 |
TW Engine 3 |
Stroommeting
Naast de prestaties meten we het stroomverbruik van videokaarten. De stroommeting voeren we uit met een zogenaamde riserkaart van fabrikant Adex, die we tussen het PCIe-slot en de videokaart in plaatsen. Op die manier kunnen we niet alleen de stroom meten die door de losse stroomkabels loopt, maar ook het vermogen dat de videokaart rechtstreeks uit het PCIe-slot betrekt. Voor de meting zelf gebruiken we verschillende exemplaren van de Tinkerforge Voltage/Current Bricklet 2.0. Voor de slotmeting is de riserkaart met zo’n bricklet uitgerust. Om de stroom van de PEG-kabel te meten, is de bricklet samen met de benodigde connectors op een speciaal voor onze test ontworpen printplaat geplaatst. Afhankelijk van het aantal stroomkabels dat een videokaart vereist, gebruiken we uiteraard diverse meters.
3DMark heeft een hele suite aan benchmarks, waarvan we Time Spy en Fire Strike standaard draaien. Fire Strike maakt gebruik van de DX11-api, Time Spy van DirectX 12. Beide benchmarks berekenen een totaalscore op basis van de gpu- en cpu-prestaties, waarbij de grafische score het zwaarst meeweegt. De Graphics-scores staan zoveel mogelijk los van de prestaties van de andere componenten en deze score kun je dus ook het best gebruiken als indicatie voor gpu-prestaties onafhankelijk van de rest van het systeem.
De GeForce RTX 3090 Ti is in Time Spy ongeveer 10 procent sneller dan de RTX 3090. In de oudere 3DMark-tests is het verschil iets kleiner.
- Time Spy Graphics
- Fire Strike Ultra Graphics
- Fire Strike Extreme Graphics
Superposition
Superposition is een benchmark van Unigine en is in zowel OpenGL als DirectX 11 te draaien. Voor onze tests maken we gebruik van DX11 en twee van de aanwezige grafische presets. Ook hier zien we een winst van ongeveer 10 procent ten opzichte van de RTX 3090, in elk geval op 4k-resolutie.
- 4k Optimized
- 4k Optimized - Total
- 1080p High
- 1080p High - Totaalscore
Om in één oogopslag te zien hoe de verschillende gpu's zich tot elkaar verhouden, berekenen we gewogen gemiddelden vanuit gebruikte en hiervoor besproken games op basis van de resultaten. Deze prestatiescores berekenen we met de geteste resoluties en kwaliteitsinstellingen. We gebruiken hiervoor alle geteste games die gebruik maken van rasterization. Dat betekent dat de eerder besproken Ultra-resultaten van Guardians of the Galaxy niet zijn meegenomen in de prestatiescores voor Ultra op alle resoluties.
In onze prestatiescore is op 4k Ultra de RTX 3090 Ti 8 procent sneller dan de RTX 3090 en daarmee de snelste kaart die we op deze resolutie hebben getest. Met Medium-instellingen heeft de RTX 3090 Ti een vergelijkbare voorsprong, maar op 1440p en 1080p blijft AMD gemiddeld genomen nipt sneller. Dit sluit aan bij wat we over de hele linie in eerdere reviews ook hebben gezien; Nvidia's Ampere-architectuur is het sterkst op hogere resoluties, terwijl AMD's RDNA2 het met Infinity Cache juist op lagere resoluties erg goed doet.
- 4k Ultra
- 4k Medium
- 1440p Ultra
- 1440p Medium
- 1080p Ultra
- 1080p Medium
Niet alleen hebben we een hele reeks games getest volgens conventionele rendertechnieken (rasterization), we hebben ook enkele extra tests gedraaid om de raytracingprestaties te kunnen vergelijken.
3DMark Port Royal
Port Royal is 3DMarks benchmark waarin raytracingprestaties worden gemeten. Het betreft een synthetische test waaruit zowel een score als een gemiddelde framerate komt.
Niet geheel verrassend eindigt de RTX 3090 Ti bovenaan in de Port Royal-benchmark. De kaart is bijna 9 procent sneller dan de RTX 3090 en behaalt een 45 procent hogere score dan de Radeon RX 6900 XT.
- Port Royal - FPS
- Port Royal - score
Cyberpunk 2077 - DLSS en DXR
Als we de RTX 3090 Ti in Cyberpunk testen met DLSS ingeschakeld op de Quality preset, dan presteert de kaart ruim 9 procent beter dan de RTX 3090 op 4k Ultra. Op 1440p is de voorsprong net iets kleiner.
- 4k Ultra
- 4k Ultra (99p)
- 4kUltra (99.9p)
- 1440p Ultra
- 1440p Ultra (99p)
- 1440p Ultra (99.9p)
Met raytracing ingeschakeld in Cyberpunk 2077 zet de RTX 3090 Ti een ruim 80 procent hogere framerate neer wanneer we DLSS inschakelen. Die vooruitgang is iets kleiner dan we bij de andere kaarten zien. Zo gaat de RTX 3080 er relatief gezien het meest op vooruit.
- 4k DXR Ultra
- 4k DXR Ultra (99p)
- 4k DXR Ultra (99,9p)
- 1440p DXR Ultra
- 1440p DXR Ultra (99p)
- 1440p DXR Ultra (99,9p)
Guardians of the Galaxy
In deze game loopt de RTX 3090 Ti nog iets voor op de RTX 3090, maar met DLSS ingeschakeld komen deze twee kaarten samen met de RTX 3080 Ti tegen hetzelfde prestatieplafond aan. Met deze hoge framerates lijkt de beperkende factor ergens anders te liggen.
- 1440p DXR Ultra
- 1440p DXR Ultra (99p)
- 1440p DXR Ultra (99,9p)
Waar de GeForce RTX 3090 Ti pas echt zijn spierballen moet kunnen laten zien, mede dankzij de grote hoeveelheid videogeheugen, is in renderbenchmarks. In de korte tijd dat wij over een RTX 3090 Ti beschikten, hebben we er twee kunnen draaien.
Blender
Met behulp van Blender renderen we de scène Barcelona Pavilion, die je hier gratis kunt downloaden. In de CUDA-test zijn alleen de normale gpu-cores aan het werk, met de Optix-renderer worden ook de raytracingcores aangesproken. We hebben de nieuwste Blender 3.1 gebruikt.
Met de raytracingcores aan het werk is de Pavilion-render al na 17,7 seconden klaar. Dat is iets sneller, nog geen 3 procent, dan de RTX 3090. Met uitsluitend de normale CUDA-cores duurt de test 46 seconden, bijna 5 procent korter dan de RTX 3090 daarvoor nodig had.
OctaneBench
OctaneBench is de benchmark van de volledig op de gpu gebaseerde OctaneRender-software, die ook de raytracingcores van Nvidia benut. De RTX 3090 Ti komt tot een 3,4 procent hogere eindscore dan de RTX 3090. Dat is duidelijk minder prestatiewinst dan we bijvoorbeeld in veeleisende games zien.
Het ingame stroomverbruik meten we tijdens belasting in de benchmark van Shadow of the Tomb Raider.
De RTX 3090 Ti staat eenzaam onderaan, met een schrikbarend hoog verbruik van ruim 480W. Dat is 35 procent meer dan wat we meten op de RTX 3090 onder volle belasting. Het verschil met de RX 6900 XT is nog veel groter; de RTX 3090 Ti verbruikt maar liefst 65 procent meer dan het huidige Radeon-topmodel.
- Opgenomen vermogen ingame
- Opgenomen vermogen idle
De GeForce RTX 3090 Ti is het nieuwste vlaggenschip van Nvidia op basis van de inmiddels al anderhalf jaar aanwezige Ampere-architectuur. Het is opmerkelijk dat de groene fabrikant er zo laat nog voor kiest om de volledig ingeschakelde GA102-gpu op een nieuw halo-product uit te brengen.
De rekenkracht van de RTX 3090 Ti is niet noemenswaardig veel hoger dan op de RTX 3090. Wel draait het GDDR6X-geheugen op nóg hogere snelheden dan bij eerder uitgebrachte RTX 30-kaarten en zijn de kloksnelheden van de gpu op papier ook nog hoger. Sneller geheugen levert bij videokaarten doorgaans een voorspelbare prestatiewinst op en bij de RTX 3090 Ti is dat niet anders. De verbetering ten opzichte van de RTX 3090 is niet extreem, maar met gemiddeld 8 procent nog wel significant te noemen.
Duur, dorstig en dwaas
Dat bij steeds hogere prestaties de allerlaatste extra frames duur worden betaald, bewijst de RTX 3090 Ti wel. Aan de genoemde voorsprong op de RTX 3090 zit een gigantische prijs vast en dan niet alleen de 2250 euro voor de aanschaf. Het energiegebruik van Nvidia's nieuwe topmodel kruipt richting de 500W. Met een prestatiewinst van nog geen 10 procent ten opzichte van de RTX 3090 in het achterhoofd, is het 35 procent hogere energiegebruik van de RTX 3090 Ti bijzonder lastig goed te praten. Ten opzichte van de Radeon RX 6900 XT valt het verbruik zelfs 65 procent hoger uit, en dan blijven alleen de allerhoogste resoluties over als troefkaart voor dit Ampere-monster.
Voor een enkel halo-product kan dit extreme energiegebruik wellicht nog door de vingers worden gezien. Zorgelijker is dat de aansluiting voor de voeding van de kaart, de PCIe Gen5-connector, klaargestoomd is voor de volgende generatie videokaarten die tot 600W kunnen verbruiken. Dergelijke vermogens leiden niet alleen tot uitdagingen op het gebied van koeling, ook zouden Nvidia en andere partijen zich in tijden van energieschaarste en een verschuivende focus naar duurzaamheid achter de oren moeten krabben of dit wel de richting is die toekomstige hardware moet opgaan. Dat geldt vooral voor Nvidia, dat in 2014 juist vriend en vijand verraste met de efficiënte Maxwell-architectuur, die om alle beperkingen van het destijds zwaar herkauwde 28nm-productieprocedé leek heen te dansen. Dat niet alle videokaarten van de volgende generatie de volledige 450 of zelfs 600W van de PCIe Gen5-connector zullen benutten, durven we nog wel te geloven. Toch hadden we liever gezien dat beperkingen in de beschikbare vermogens fabrikanten ertoe had gedwongen de prestatiewinsten in andere hoeken te zoeken.