Door Reinoud Dik en Tomas Hochstenbach

Nvidia GeForce RTX 3080 Review

Maakt Nvidia de hoge verwachtingen waar?

16-09-2020 • 15:00

625

Multipage-opmaak

Inleiding

Eindelijk is het zover; we mogen je alles vertellen over de Nvidia GeForce RTX 3080, inclusief alle benchmarks die we in ons eigen testlab hebben gedraaid. Na twee jaar zijn de opvolgers van Nvidia’s RTX 2000-serie werkelijkheid.

GeForce RTX 3000: grote beloften

De GeForce RTX 3000-serie is een belangrijke reeks voor Nvidia. De vorige generatie introduceerde weliswaar nieuwe technologie, zoals raytracing, maar was als je daarvan gebruikmaakte, niet noemenswaardig sneller dan de 10-serie. De belofte van de RTX 3000-reeks is een forse stap in prestaties, zelfs met alle nieuwe technieken ingeschakeld. In zijn presentatie stelde Nvidia’s ceo Jensen Huang de eigenaren van een Pascal-videokaart gerust: ‘it’s safe to upgrade now’.

Alles over de GeForce RTX 3080

Sinds de GeForce RTX 3080 vorige week arriveerde in ons testlab, zijn we druk bezig geweest met het testen van Nvidia’s langverwachte eerste gamevideokaart op basis van de Ampere-architectuur. In deze review lees je alles over de RTX 3080, de achtergrond van de architectuur met specificaties en natuurlijk de prestaties.

De Ampere-architectuur

Al enige generaties maakt Nvidia aparte architecturen voor consumenten, lees: gamers, en zakelijke klanten: servers, datacenters, renderfarms enzovoort. Hoewel Nvidia beide architecturen nu onder de Ampere-noemer schaart, verschillen ze behoorlijk in opbouw. Op bepaalde fronten zijn er zeker wijzigingen doorgevoerd aan de Ampere-architectuur zoals die voor de RTX 3000-kaarten wordt gebruikt. In de basis is die echter erg vergelijkbaar met Turing, terwijl de server-Ampere juist duidelijk een doorontwikkeling is van Volta.

RTX 3080 block diagram
Een blokdiagram van de GA102-gpu zoals aanwezig in de GeForce RTX 3080

Extreem veel CUDA-cores dankzij FP32-truc

GA102 SM RTX 3080
De indeling van één Ampere-sm

De Ampere-gpu’s zijn verdeeld in shading multiprocessors, kortweg sm’s. Eén sm bevat vier clusters van elk 32 CUDA-cores en een Tensor-core. Bij Turing was dat nog maar de helft van het aantal CUDA-cores, hoewel Nvidia geen heel grote wijzigingen heeft doorgevoerd. Waar Turing gescheiden units had voor fp32-berekeningen (32bit-berekeningen met zwevendekommagetallen) en int32-berekeningen (32bit-berekeningen met gehele getallen), kunnen de int32-cores bij Ampere óók fp32-berekeningen uitvoeren.

Nvidia telt voor het aantal CUDA-cores in de specificaties simpelweg het totale aantal cores op dat geschikt is voor fp32-instructies, maar het addertje onder het gras is dat de gedeelde shaders niet tegelijk fp32- en int32-berekeningen kunnen uitvoeren. Laat staan dat er binnen zo’n blok van gedeelde shaders géén combinaties kunnen worden uitgevoerd binnen dezelfde kloktik. Eén int32-instructie zorgt ervoor dat alle zestien gedeelde CUDA-cores uitsluitend andere int32-berekeningen kunnen doen tot de volgende kloktik. Kortom: als er int32-instructies moeten worden verwerkt, lever je in aan fp32-rekenkracht.

Gebruikers hoeven dus geen verdubbeling van de prestaties te verwachten, wat het verdubbelde aantal cores en overigens ook de verdubbelde bandbreedte naar de L1-cache kunnen doen vermoeden. Hoewel de intensiteit van de diverse typen instructies volgens Nvidia flink varieert van game tot game, liet het bedrijf zich op vragen van Tweakers toch een uitspraak ontlokken over de gemiddelde prestatiewinst. Die zou 'across the board' ruim 30 procent zijn ten opzichte van een ontwerp waarbij de int32-cores in z'n geheel geen fp32-instructies kunnen verwerken, zoals Turing.

Verbeterde raytracing- en Tensor-cores

Naast de reguliere shader-cores heeft Nvidia ook de raytracing- en Tensor-cores van een update voorzien. De gpu-ontwerper spreekt van de tweede generatie rt-cores en de derde generatie Tensor-cores, aangezien die laatste voor Turing ook al in de Volta-serverarchitectuur zaten.

De rt-core werd bij Turing geïntroduceerd als hardwarematige versnelling voor het volgen van lichtstralen en het berekenen waar die een object raken. De daadwerkelijke grafische uitwerking daarvan, zoals reflectie en schaduw, wordt door de gewone shader-cores berekend. Specifiek het uittekenen van lichtstralen kunnen rt-cores veel sneller dan generieke CUDA-cores, terwijl laatstgenoemde bovendien beschikbaar blijven voor andere taken.

Er zijn twee belangrijke aanpassingen gedaan aan de rt-cores van Ampere. De eerste is dat de eenheid die lichtstraalkruisingen berekent, nu twee keer zo snel werkt, oftewel twee keer zoveel kruisingen kan berekenen als bij Turing. Als tweede is een hardwarematige methode toegevoegd om de locaties van lichtstraalkruisingen te interpoleren. In feite kan hiermee bewegingsonscherpte worden gecreëerd. In een specifiek voorbeeld van een Blender-render met motionblur is een Ampere-rt-core acht keer zo snel als zijn voorganger.

RTX 3080 motion blur RTRTX 3080 motion blur RT

Ook aan de Tensor-core is gesleuteld voor Ampere. Om te beginnen is het goed om te weten dat het aantal Tensor-cores is teruggebracht van acht naar vier per sm, maar dat ze per stuk wel een verdubbelde rekenkracht hebben. Bij reguliere machinelearning op basis van een dense matrix is het totale aantal fma-berekeningen dat per kloktik op halve precisie kan worden uitgevoerd, daardoor gelijk gebleven op 512 per sm (128 per Tensor-core).

In de praktijk komt het echter vaak voor dat van veel mogelijke uitkomsten al vaststaat dat ze geen rol gaan spelen in het antwoord, waardoor sprake is van een dataset waarin nullen in de meerderheid zijn: een sparse matrix. Dit type machinelearningberekeningen kan bij Ampere op dubbele snelheid worden uitgevoerd, dus met 1024 berekeningen per sm, of 256 per Tensor-core. Mits daarvan gebruik wordt gemaakt, kunnen de Tensor-cores in Ampere dus dubbel zoveel werk verzetten.

sparse deep learning

RTX IO: texture-decompressie in de gpu

Onder de naam RTX IO maakt Nvidia zijn Ampere-gpu’s geschikt voor de nieuwe Microsoft-api DirectStorage, die volgend jaar beschikbaar komt via DirectX. Kort gezegd kunnen gameontwikkelaars met deze api gecomprimeerde textures rechtstreeks inladen naar het videogeheugen, waardoor knelpunten bij de processor en het opslagmedium worden omzeild. Vooral de laadtijden als je een game start of een nieuwe omgeving laadt, moeten daardoor flink verkort kunnen worden.

Tot nu toe had een gameontwikkelaar in feite twee opties. De eerste was om grafische data ongecomprimeerd op te slaan, maar dat kost veel opslagruimte en levert eerder opslagknelpunten op doordat je in absolute zin meer data aan het rondpompen bent. Optie twee is compressie toepassen, wat beide problemen oplost. Decomprimeren moet echter in het systeemgeheugen gebeuren door de processor. Hoe hoger de bandbreedte van de opslag, hoe meer data moet worden verwerkt en dus hoe hoger de cpu-belasting. Je kunt stellen dat snellere (pci-e 4.0-) ssd’s dit probleem dus alleen maar verergeren.

In een game die gebruikmaakt van DirectStorage, wordt gecomprimeerde data van de ssd via pci-e naar het videogeheugen getransporteerd om pas binnen de videokaart uitgepakt te worden. In theorie lost dit alle bovengenoemde nadelen op, alleen moeten gameontwikkelaars er dus wel bewust gebruik van gaan maken. Zoals gezegd komt de api pas ergens volgend jaar beschikbaar, dus de eerste games die er gebruik van maken, zullen nog een eind weg zijn.

RTX IO

De oplettende lezer valt het wellicht op dat de pci-e-controller tegenwoordig natuurlijk in de processor zit en Nvidia’s diagram dus niet volledig correct is. Navraag leert ons dat Nvidia hier met ‘cpu’ echt doelt op de processorkernen in het kader van decompressie en niet op de fysieke processor als geheel. Daar gaan de data immers alsnog doorheen.

Gddr6x-geheugen

Niet alleen de architectuur is nieuw bij videokaarten op basis van de Ampere-architectuur, ook het gebruikte geheugen is aangepast. Althans, dit geldt voor de RTX 3080 en RTX 3090. Door het flink toegenomen aantal CUDA-cores werd de noodzaak voor sneller geheugen steeds groter; die moeten immers ook allemaal van data worden voorzien. Nvidia en geheugenfabrikant Micron hebben zich gezamenlijk gericht op het doorontwikkelen van gddr6.

Met slechts een x als toevoeging aan de naam lijkt er niet veel spannends te zijn gebeurd, maar dat is wel het geval. Onder de streep betekent gddr6x een flinke toename in bandbreedte ten opzichte van gddr6, maar dit is niet bereikt door simpelweg de kloksnelheid van het geheugen verder op te schroeven. De nieuwe geheugentechniek, overigens vooralsnog géén Jedec-standaard, maakt gebruik van pulse amplitude modulation, ofwel pam4, en doet dat op vier niveaus. Met die levels kunnen twee bit data per kloktik worden verwerkt, wat twee keer zoveel is als eerdere geheugenstandaarden, zoals gddr6. Dat is knap, maar de kans op fouten neemt hiermee ook sterk toe. Daarom zegt Nvidia zowel de geheugencontroller als het geheugen zelf elk van een eigen powerrail te hebben voorzien om daarmee de interferentie te minimaliseren.

GDDR6X geheugen

Gddr6x is sneller maar ook duurder

Micron zegt zelf al te hebben geëxperimenteerd met pam4 sinds 2006 en het bedrijf ziet mogelijkheden voor gddr, dram en zelfs hbm. Voor die laatste standaard zou zelfs pam8 realiteit kunnen worden en het bedrijf heeft het patent ervoor al aangevraagd. Voor nu is gddr6x met pam4, wat sinds 2017 in ontwikkeling is, echter nog het neusje van de zalm. Dat betekent eveneens dat de kosten hoger liggen dan bij het implementeren van normaal gddr6-geheugen.

Niet alleen de kosten, ook het verbruik van gddr6x ligt op een hoger niveau, althans als we kijken naar de RTX 3080. Per pin is de nieuwe standaard efficiënter dan gddr6, maar Nvidia heeft er bij zijn high-end Ampere-kaarten voor gekozen om de geheugensnelheid flink op te schroeven en zo veel winst in geheugenbandbreedte te behalen ten opzichte van de Turing-generatie. De RTX 3080 komt met een geheugensnelheid van 19Gbit per seconde op een 320bit-geheugenbus uit op een geheugenbandbreedte van 760GB per seconde. Dat is bijna 70 procent meer dan bij de RTX 2080, al is die kaart voorzien van een smallere geheugenbus van 256bit.

Samsung 8nm, specificaties en prijzen

Alle Ampere-gpu’s die Nvidia tot nu toe heeft aangekondigd, dus de GA102 en GA104, worden geproduceerd op Samsungs 8nm-proces. Daarmee maakt Nvidia een opvallende switch na jarenlang te hebben vertrouwd op TSMC als vaste leverancier van in elk geval de high-end chips.

Samsungs 8nm-proces is eigenlijk al best een oudje. In 2018 rolden de eerste chips op basis van dit procedé uit de machines. Je kunt zelfs stellen dat het proces nog een jaar ouder is, want het was slechts een kleine verbetering ten opzichte van het technisch grotendeels identieke 10nm-proces, waarop Samsung al sinds 2017 Exynos-socs bakte. Ten opzichte van de eerste generatie 10nm zou het 8nm-proces ongeveer 10 procent efficiënter zijn.

8nm is Samsungs kleinste proces waarvoor het geen gebruikmaakt van euv-belichting, een dure productiemethode die nog altijd de nodige beperkingen heeft, bijvoorbeeld als het gaat om de snelheid waarmee wafers gemaakt kunnen worden. Vorig jaar schreven we nog een uitgebreid achtergrondartikel over euv-lithografie.

Het 8nm-procedé dat Samsung twee jaar geleden aankondigde, heette 8LPU (Low Power Ultimate) en werd destijds gepresenteerd als ‘het ideale alternatief voor chips met hoge klokfrequenties en een grote transistordichtheid’. Nvidia zegt nu samen met Samsung een eigen '8N’-proces te hebben ontwikkeld, eveneens verwijzend naar een hogere dichtheid en een efficiëntiewinst van 10 procent. Of hiermee simpelweg 8LPU wordt bedoeld of dat daarbovenop nóg eens 10 procent extra efficiëntie wordt vrijgespeeld, is niet duidelijk. Nvidia wilde ons hier geen verdere details over geven.

Samsung 8N Nvidia custom process

Specificaties en prijzen

Opvallend is hoe Nvidia de verschillende Ampere-chips op het 8nm-procedé gebruikt om zijn line-up van de RTX 3000-serie te segmenteren. Zoals voor Nvidia gebruikelijk is, worden verschillende chips voor het portfolio voorzien van een codenaam waarbij de cijfers een indicatie geven van de relatieve prestaties en het formaat. Hoe hoger het laatste getal, des te lager de positionering. Bij de vorige Turing-kaarten werd TU104 al gebruikt voor de RTX 2080 en zelfs TU106 voor de RTX 2070. Met Ampere zet Nvidia hoog in door voor de RTX 3080 een GA102 te gebruiken en een GA104 op de RTX 3070.

GA102 heeft een oppervlakte van 628,4mm², wat ondanks het kleinere formaat dan de enorme 754mm² van TU102 alsnog een flinke chip is. Samsung heeft in vergelijking met TSMC relatief weinig ervaring met dergelijke grote chips en misschien zullen de yields daaronder te lijden hebben. Des te opvallender is het dat Nvidia voor de GA102-bevattende RTX 3080 ‘slechts’ 699 dollar vraagt, terwijl de RTX 2080 Ti met TU102 nog voor 1199 dollar over de toonbank ging.

Hoewel het bij beide kaarten niet om een volledig geactiveerde chip gaat, zijn op de GA102 van de RTX 3080 naar verhouding veel meer cores uitgeschakeld dan op de TU102 van de RTX 2080 Ti. Dit zou eventuele lage yields enigszins kunnen compenseren, waarbij de besproken herinrichting van de CUDA-core nog steeds een prestatiewinst oplevert.

Videokaart RTX 3080 RTX 2080 Ti RTX 2080 GTX 1080 Ti
Gpu GA102 TU102 TU104 GP102
Architectuur Ampere Turing Turing Pascal
Procedé 8nm 12nm 12nm 16nm
Die-size 628,4mm² 754mm² 545mm² 471mm²
Transistors 28 miljard 18,6 miljard 13,6 miljard 12 miljard
CUDA-cores 8704 4352 2944 3584
Tensor-cores 272 544 368 0
RT-cores 68 68 46 0
Texture-units 272 272 184 224
Rops 96 88 64 88
Baseclock 1440MHz 1350MHz 1515MHz 1480MHz
Boostclock 1710MHz 1545MHz
1635MHz (FE)
1710MHz
1800MHz (FE)
1582MHz
Vram 10GB gddr6x 11GB gddr6 8GB gddr6 11GB gddr5x
Geheugensnelheid 19Gbit/s 14Gbit/s 14Gbit/s 11Gbit/s
Geheugenbus 320bit 352bit 256bit 352bit
Bandbreedte 760GB/s 616GB/s 448GB/s 484GB/s
Tdp 320W 250W 215W 250W
Adviesprijs FE
(bij introductie)
719 euro 1259 euro 849 euro 825 euro

Video, display en streaming

Nvidia gebruikt voor de Ampere-kaarten dezelfde video-encoder als in Turing zat, waardoor er op dat vlak geen nieuwe mogelijkheden zijn. De decoder heeft wél een upgrade gekregen, met als belangrijkste resultaat dat video die met de av1-codec is gecodeerd, nu hardwarematig kan worden gedecodeerd. Het heeft er alle schijn van dat av1, als opvolger van Googles vp9, in de komende jaren een grote rol gaat spelen in de wereld van videostreaming.

Hdmi 2.1

Een andere belangrijke specificatie van de RTX 3000-serie is ondersteuning voor hdmi 2.1. Op televisies is deze standaard inmiddels niet écht meer gloednieuw; wat videokaarten betreft is deze reeks Ampere-kaarten de eerste die er gebruik van maakt. En juist voor het prestatieniveau van de RTX 3080 en hoger zullen de mogelijkheden van hdmi 2.1 van belang zijn: 4k tot 144Hz of zelfs 8k op 60Hz. Bij laatstgenoemde resolutie en framerate is display stream compression overigens wel nodig.

Broadcast: RTX Voice is nu geen bèta meer

Noemenswaardig is verder Nvidia Broadcast, de definitieve naam van de eerder uitgebrachte RTX Voice-bèta. De door kunstmatige intelligentie aangestuurde geluidsfiltering heeft nu drie profielen en zou nog maar een prestatie-impact van 3,6 procent hebben, waar dat tijdens de bèta nog 8,5 procent was. Het ai-algoritme wordt uiteraard uitgevoerd op de Tensor-cores. Er zijn ook enkele compleet nieuwe features toegevoegd aan de definitieve release van Broadcast, zoals het vervangen van de achtergrond en een autoframefunctie voor je webcam.

Nvidia Broadcast

Testverantwoording

Voor deze review van de GeForce RTX 3080 hebben we een compleet nieuw testsysteem in gebruik genomen dat geschikt is voor pci-express 4.0. AMD is op dit moment de enige die de nieuwste pci-e-standaard ondersteunt, dus de keuze viel al snel op AMD’s snelste game-cpu: de Ryzen 9 3900XT. Om het boostgedrag van de cpu uit te sluiten als variatiefactor, hebben we de multiplier vastgezet op 42.

De processor installeren we op een MSI MEG X570 Godlike-moederbord, net als 32GB aan G.Skill Trident Z Royal-geheugen (2x 16GB in dualchannel) op een snelheid van 3600mt/s en een tweetal ssd’s: een Samsung 970 Evo 250GB als bootdrive en een Kioxia Exceria+ 2TB waarop alle games zijn geïnstalleerd. Verder bestaat het systeem uit een be quiet Dark Power Pro 12 1500W-voeding en een uitgebreide waterkoelset van Alphacool. Als besturingssysteem is uiteraard de nieuwste versie van Windows 10 Pro 64bit geïnstalleerd.

Testsysteem
Processor AMD Ryzen 9 3900XT @ 4,2GHz
Moederbord MSI MEG X570 Godlike (bios v1.9)
Werkgeheugen G.Skill Trident Z Royal 32GB DDR4-3600 CL16-16-16-36
Ssd Samsung 970 Evo 250GB (OS) + Kioxia Exceria 2TB (games)
Voeding be quiet Dark Power Pro 12 1500W
Koeling Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, be quiet Pure Wings 2-ventilatoren
Besturingssysteem Windows 10 Pro 64bit May 2020 Update (2004)

Drivers en meetmethode

Alle Nvidia-gpu’s hebben we voor deze review getest met dezelfde driver: 456.16. Deze driver biedt naast de RTX 3080 ook ondersteuning voor eerdere generaties, waardoor het verschil tussen een launchdriver en een normale driver in deze vergelijking geen rol meer speelt.

Voor de AMD Radeon RX 5700 XT hebben we gebruikgemaakt van Radeon Adrenalin 20.8.3, wat op het moment van schrijven de recentste driver uit het rode kamp is.

Met behulp van PresentMon meten we in elke geteste game de prestaties, waaruit we zowel de gemiddelde framerates (fps) als de frametimes van het 99e en 99,9e percentiel berekenen en die laatste twee in milliseconden rapporteren.

In de grafieken op de volgende pagina's vind je telkens in eerste instantie gemiddelde framerates, oftewel het gemiddelde aantal beelden per seconde dat een videokaart kan berekenen. De frametimes geven geen beeld van de gemiddelde framerate, maar van de uitschieters in negatieve zin, die ervoor kunnen tot gevolg hebben dat een game ondanks een goed gemiddelde niet vloeiend aanvoelt.

De tijd die het kost om beelden binnen een 3d-game en dus binnen onze benchmark te renderen, varieert van frame tot frame. Bij onze frametime-meting worden de rendertijden van alle individuele frames opgeslagen. Daarna gooien we de 1 procent langzaamste frames weg. De hoogste rendertijd van de resterende 99 procent van de frames, oftewel het langzaamste frame, is het 99e percentiel frametime.

Op verzoek van enkele lezers hebben we ook de 99,9e-percentielwaarden toegevoegd. Hiervoor laten we dus slechts de 0,1 procent langzaamste frames buiten beschouwing. In theorie is dit nog preciezer, maar in de praktijk gooien incidentele oorzaken en meetfouten soms roet in het eten. Voor nu hebben we ze vermeld in de review, maar houd dat dus in het achterhoofd bij het bekijken van deze resultaten.

Gameselectie

Zoals je van ons gewend bent, testen we gpu’s met een selectie van tien games, die zorgvuldig is samengesteld om een zo representatief mogelijk beeld te geven. Hierbij hebben we onder meer rekening gehouden met de api, de engine, het genre, de AMD/Nvidia-verhouding, de leeftijd en de technische benchmarkdetails van elke game. Voorafgaand aan elke test wordt de videokaart opgewarmd, bijvoorbeeld door 3DMark te draaien of in het menu van de game als dat in real time gerenderde graphics bevat.

Game Verschijningsdatum Api Engine
Control Augustus 2019 DX12 Northlight Engine
Doom Eternal Maart 2020 Vulkan id Tech 7
F1 2020 Juli 2020 DX12 EGO Engine 4.0
Far Cry: New Dawn Februari 2019 DX11 Dunia 2.0
Ghost Recon: Breakpoint Oktober 2019 DX12 Anvil Next 2.0
Metro Exodus Februari 2019 DX12 4A Engine
Project Cars 3 Augustus 2020 DX11 Madness
Red Dead Redemption 2 November 2019 Vulkan RAGE
Shadow of the Tomb Raider September 2018 DX12 Foundation
Total War Saga: Troy Augustus 2020 DX12 TW Engine 3

Geluidsproductie en stroomverbruik

Naast de prestaties meten we ook de geluidsproductie en het stroomverbruik van videokaarten. De meting van de geluidsproductie doen we in een geluiddichte doos op een afstand van 30cm, met de decibelmeter schuin op de videokaart gericht. De drempelwaarde voor onze metingen is 18dB(A); dat mag je opvatten als volledig stil. Tijdens de idle-test wordt de videokaart vanzelfsprekend niet belast. De load-test is gebaseerd op een verlengde gametest van tien minuten, zodat de videokaart tijd heeft om op te warmen en zijn maximale geluidsproductie te bereiken.

De stroommeting voeren we uit met een zogenaamde riserkaart van fabrikant Adex, die we tussen het pci-express-slot en de videokaart in plaatsen. Op die manier kunnen we niet alleen de stroom meten die door de losse stroomkabels loopt, maar ook het vermogen dat de videokaart rechtstreeks uit het pci-e-slot betrekt. Voor de meting zelf vertrouwen we op verschillende exemplaren van de Tinkerforge Voltage/Current Bricklet 2.0. Voor de slotmeting is de riserkaart met zo’n bricklet uitgerust. Om de stroom van de peg-kabel te meten, is de bricklet samen met de benodigde connectors op een speciaal voor onze test ontworpen printplaat geplaatst. Afhankelijk van het aantal stroomkabels dat een videokaart vereist, gebruiken we uiteraard diverse meters.

Stroomverbruik meting videokaartenTinkerforge stroommeter

3DMark Time Spy en Fire Strike

3DMark heeft een hele suite aan benchmarks waarvan wij Time Spy en Fire Strike standaard draaien. Fire Strike maakt gebruik van de DX11-api, Time Spy van DirectX 12. Beide benchmarks berekenen een totaalscore op basis van de gpu- en cpu-prestaties, waarbij de grafische score het zwaarst meeweegt. De Graphics-scores staan zoveel mogelijk los van de prestaties van de andere componenten en deze score kun je dus ook het best gebruiken als indicatie voor gpu-prestaties onafhankelijk van de rest van het systeem.

In Time Spy loopt de RTX 3080 ruim 23 procent voor op de RTX 2080 Ti in de Graphics-score, met Fire Strike Ultra neemt de voorsprong toe tot 33 procent. In Fire Strike Extreme is het verschil weer iets kleiner. Tegenover de RTX 2080 Super doet de 3080 het ruim 50 tot zelfs 60 procent beter.

  • Time Spy Graphics
  • Time Spy
  • Firestrike Ultra Graphics
  • Firestrike Ultra
  • Firestrike Extreme Graphics
  • Firestrike Extreme
3DMark Time Spy - Graphics
Videokaart Gemiddelde score in punten (hoger is beter)
GeForce RTX 3080
17.619
GeForce RTX 2080 Ti
14.288
GeForce RTX 2080 Super
11.548
GeForce RTX 2070 Super
10.024
Radeon RX 5700XT
9.392
GeForce GTX 1080 Ti
9.239
GeForce GTX 1080
7.193
3DMark Time Spy
Videokaart Gemiddelde score in punten (hoger is beter)
GeForce RTX 3080
16.794
GeForce RTX 2080 Ti
14.177
GeForce RTX 2080 Super
11.787
GeForce RTX 2070 Super
10.429
GeForce GTX 1080 Ti
9.703
Radeon RX 5700XT
9.665
GeForce GTX 1080
7.734
3DMark Fire Strike Ultra - Graphics
Videokaart Gemiddelde score in punten (hoger is beter)
GeForce RTX 3080
10.795
GeForce RTX 2080 Ti
8.110
GeForce RTX 2080 Super
6.732
GeForce GTX 1080 Ti
6.644
Radeon RX 5700XT
6.641
GeForce RTX 2070 Super
5.946
GeForce GTX 1080
5.071
3DMark Fire Strike Ultra
Videokaart Gemiddelde score in punten (hoger is beter)
GeForce RTX 3080
10.957
GeForce RTX 2080 Ti
8.379
GeForce RTX 2080 Super
6.991
GeForce GTX 1080 Ti
6.863
Radeon RX 5700XT
6.648
GeForce RTX 2070 Super
6.198
GeForce GTX 1080
5.252
3DMark Fire Strike Extreme - Graphics
Videokaart Gemiddelde score in punten (hoger is beter)
GeForce RTX 3080
20.936
GeForce RTX 2080 Ti
16.552
GeForce RTX 2080 Super
13.645
GeForce GTX 1080 Ti
13.268
Radeon RX 5700XT
13.077
GeForce RTX 2070 Super
12.126
GeForce GTX 1080
10.128
3DMark Fire Strike Extreme
Videokaart Gemiddelde score in punten (hoger is beter)
GeForce RTX 3080
19.892
GeForce RTX 2080 Ti
16.176
GeForce RTX 2080 Super
13.455
GeForce GTX 1080 Ti
13.003
Radeon RX 5700XT
12.346
GeForce RTX 2070 Super
11.939
GeForce GTX 1080
9.901

Unigine Superposition

Superposition is een benchmark van Unigine en is in zowel OpenGL als DirectX 11 te draaien. Voor onze tests maken wij gebruik van DX11 en twee van de aanwezige grafische presets.

Op 1080p High loopt de RTX 3080 respectievelijk 17,5 en 43,8 procent voor op de RTX 2080 Ti en 2080 Super. Dat is al een goede voorsprong, maar deze wordt groter als we overstappen naar de 4k Optimized-preset. Strikt genomen zijn de kwaliteitsinstellingen op deze preset iets lager, maar het aantal pixels ligt vier keer zo hoog. Dat gaat de 3080 nog wat beter af dan de oudere kaarten.

  • 1080p High - Total
  • 1080p High
  • 4k Optimized - Total
  • 4k Optimized
Unigine Superposition - 1080p High
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
23.319,0
GeForce RTX 2080 Ti
19.853,0
GeForce RTX 2080 Super
16.220,0
GeForce RTX 2070 Super
15.505,0
GeForce GTX 1080 Ti
14.909,0
Radeon RX 5700XT
12.449,0
GeForce GTX 1080
11.284,0
Unigine Superposition - 1080p High - Totaalscore
Videokaart Gemiddelde score in punten (hoger is beter)
GeForce RTX 3080
174
GeForce RTX 2080 Ti
149
GeForce RTX 2080 Super
121
GeForce RTX 2070 Super
116
GeForce GTX 1080 Ti
112
Radeon RX 5700XT
93
GeForce GTX 1080
84
Unigine Superposition - 4K Optimized
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
14.533,0
GeForce RTX 2080 Ti
11.727,0
GeForce RTX 2080 Super
9.246,0
GeForce RTX 2070 Super
8.780,0
GeForce GTX 1080 Ti
8.661,0
Radeon RX 5700XT
7.146,0
GeForce GTX 1080
6.470,0
Unigine Superposition - 4K Optimized - Totaalscore
Videokaart Gemiddelde score in punten (hoger is beter)
GeForce RTX 3080
109
GeForce RTX 2080 Ti
88
GeForce RTX 2080 Super
69
GeForce RTX 2070 Super
66
GeForce GTX 1080 Ti
65
Radeon RX 5700XT
53
GeForce GTX 1080
48

Control

Control is een thirdpersonshooter uit 2019 en draait in DirectX 12 op de Northlight Engine. Onze benchmark bestaat uit een handmatig gelopen vaste route door de Central Executive-ruimte van het spel.

De RTX 3080 loopt hier goed uit op de Turings en daarbij valt op dat dit ook op lagere resoluties en lagere kwaliteitsinstellingen met vergelijkbare marges het geval is. Een voorsprong van ruim 30 procent op de RTX 2080 Ti lijkt de norm in Control voor de RTX 3080 en tegenover de 2080 Super is dat al gauw het dubbele.

4k

  • 4k Ultra
  • 4k Ultra (99p)
  • 4k Ultra (99.9p)
  • 4k Medium
  • 4k Medium (99p)
  • 4k Medium (99.9p)
Control - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
58,8
GeForce RTX 2080 Ti
44,5
GeForce RTX 2080 Super
35,1
GeForce RTX 2070 Super
30,9
Radeon RX 5700XT
28,3
GeForce GTX 1080 Ti
25,2
GeForce GTX 1080
18,3
Control - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 2080 Super
18,1
GeForce RTX 3080
19,2
GeForce RTX 2080 Ti
25,2
GeForce RTX 2070 Super
36,5
Radeon RX 5700XT
40,5
GeForce GTX 1080 Ti
44,1
GeForce GTX 1080
60,2
Control - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 2080 Super
18,5
GeForce RTX 3080
19,9
GeForce RTX 2080 Ti
25,9
Radeon RX 5700XT
41,8
GeForce RTX 2070 Super
41,9
GeForce GTX 1080 Ti
47,3
GeForce GTX 1080
73,1
Control - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
85,3
GeForce RTX 2080 Ti
65,5
GeForce RTX 2080 Super
51,3
GeForce RTX 2070 Super
45,6
Radeon RX 5700XT
41,3
GeForce GTX 1080 Ti
39,1
GeForce GTX 1080
23,3
Control - 3840x2160 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
13,4
GeForce RTX 2080 Ti
17,0
GeForce RTX 2080 Super
21,7
GeForce RTX 2070 Super
24,8
Radeon RX 5700XT
28,1
GeForce GTX 1080 Ti
28,9
GeForce GTX 1080
47,2
Control - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
14,1
GeForce RTX 2080 Ti
17,7
GeForce RTX 2080 Super
22,6
GeForce RTX 2070 Super
24,9
Radeon RX 5700XT
29,5
GeForce GTX 1080 Ti
31,0
GeForce GTX 1080
49,8

1440p

  • 1440p Ultra
  • 1440p Ultra (99p)
  • 1440p Ultra (99.9p)
  • 1440p Medium
  • 1440p Medium (99p)
  • 1440p Medium (99.9p)
Control - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
114,3
GeForce RTX 2080 Ti
84,5
GeForce RTX 2080 Super
70,2
GeForce RTX 2070 Super
59,4
Radeon RX 5700XT
57,7
GeForce GTX 1080 Ti
51,2
GeForce GTX 1080
38,3
Control - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
10,4
GeForce RTX 2080 Ti
13,5
GeForce RTX 2080 Super
16,1
GeForce RTX 2070 Super
18,8
Radeon RX 5700XT
21,0
GeForce GTX 1080 Ti
22,2
GeForce GTX 1080
29,1
Control - 2560x1440 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
11,1
GeForce RTX 2080 Ti
13,9
GeForce RTX 2080 Super
16,9
GeForce RTX 2070 Super
19,8
Radeon RX 5700XT
23,3
GeForce GTX 1080 Ti
23,5
GeForce GTX 1080
29,6
Control - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
166,5
GeForce RTX 2080 Ti
123,0
GeForce RTX 2080 Super
105,1
GeForce RTX 2070 Super
93,1
Radeon RX 5700XT
89,0
GeForce GTX 1080 Ti
80,1
GeForce GTX 1080
49,8
Control - 2560x1440 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
7,6
GeForce RTX 2080 Ti
9,7
GeForce RTX 2080 Super
11,4
GeForce RTX 2070 Super
12,6
Radeon RX 5700XT
14,5
GeForce GTX 1080 Ti
14,6
GeForce GTX 1080
22,4
Control - 2560x1440 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
8,2
GeForce RTX 2080 Ti
10,6
GeForce RTX 2080 Super
12,1
GeForce RTX 2070 Super
13,2
GeForce GTX 1080 Ti
15,6
Radeon RX 5700XT
15,7
GeForce GTX 1080
23,0

1080p

  • 1080p Ultra
  • 1080p Ultra (99p)
  • 1080p Ultra (99.9p)
Control - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
162,3
GeForce RTX 2080 Ti
122,7
GeForce RTX 2080 Super
107,3
GeForce RTX 2070 Super
95,0
Radeon RX 5700XT
91,7
GeForce GTX 1080 Ti
80,5
GeForce GTX 1080
60,9
Control - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
7,8
GeForce RTX 2080 Ti
9,8
GeForce RTX 2080 Super
11,1
GeForce RTX 2070 Super
12,2
Radeon RX 5700XT
14,3
GeForce GTX 1080 Ti
14,5
GeForce GTX 1080
18,6
Control - 1920x1080 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
8,5
GeForce RTX 2080 Ti
10,6
GeForce RTX 2080 Super
11,7
GeForce RTX 2070 Super
12,8
GeForce GTX 1080 Ti
15,1
Radeon RX 5700XT
15,6
GeForce GTX 1080
19,0

Doom Eternal

Doom Eternal, onderdeel van de zeer bekende serie firstpersonshooters, draait in de Vulkan-api op de relatief nieuwe idTech 7-engine en kwam in maart van dit jaar uit. De benchmark bestaat uit een 60 seconden-durende vaste route door de Hell on Earth-map van het spel.

In Doom Eternal behaalt de RTX 3080 bijzonder hoge framerates, zelfs op 4k Ultra. Hoe hoger de resolutie, hoe meer de Ampere-kaart uitloopt op de rest met op 4k Medium de grootste winst. Toch is het ook op 1080p indrukwekkend dat de 3080 de 2080 Ti zover voor weet te blijven.

4k

  • 4k Ultra
  • 4k Ultra (99p)
  • 4k Ultra (99.9p)
  • 4k Medium
  • 4k Medium (99p)
  • 4k Medium (99,9p)
Doom Eternal - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
178,1
GeForce RTX 2080 Ti
131,5
GeForce RTX 2080 Super
109,8
GeForce RTX 2070 Super
93,8
Radeon RX 5700XT
90,9
GeForce GTX 1080 Ti
77,3
GeForce GTX 1080
61,9
Doom Eternal - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
6,7
GeForce RTX 2080 Ti
8,8
GeForce RTX 2080 Super
10,9
GeForce RTX 2070 Super
12,6
Radeon RX 5700XT
12,8
GeForce GTX 1080 Ti
15,3
GeForce GTX 1080
18,7
Doom Eternal - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
7,1
GeForce RTX 2080 Ti
9,9
GeForce RTX 2070 Super
13,5
Radeon RX 5700XT
14,7
GeForce GTX 1080 Ti
16,0
GeForce RTX 2080 Super
18,8
GeForce GTX 1080
19,9
Doom Eternal - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
196,7
GeForce RTX 2080 Ti
142,4
GeForce RTX 2080 Super
120,0
GeForce RTX 2070 Super
101,4
Radeon RX 5700XT
98,7
GeForce GTX 1080 Ti
84,1
GeForce GTX 1080
66,3
Doom Eternal - 3840x2160 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 2080 Ti
5,4
GeForce RTX 3080
6,1
GeForce RTX 2080 Super
10,1
GeForce GTX 1080 Ti
12,1
GeForce RTX 2070 Super
12,2
Radeon RX 5700XT
12,7
GeForce GTX 1080
18,6
Doom Eternal - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 2080 Ti
5,7
GeForce RTX 3080
6,6
GeForce RTX 2080 Super
11,0
GeForce GTX 1080 Ti
12,6
Radeon RX 5700XT
13,9
GeForce RTX 2070 Super
17,9
GeForce GTX 1080
19,6

1440p

  • 1440p Ultra
  • 1440p Ultra (99p)
  • 1440p Ultra (99.9p)
  • 1440p Medium
  • 1440p Medium (99p)
  • 1440p Medium (99.9p)
Doom Eternal - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
296,0
GeForce RTX 2080 Ti
224,6
GeForce RTX 2080 Super
196,3
GeForce RTX 2070 Super
168,8
Radeon RX 5700XT
166,1
GeForce GTX 1080 Ti
136,5
GeForce GTX 1080
114,0
Doom Eternal - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
4,3
GeForce RTX 2080 Ti
4,9
GeForce RTX 2080 Super
6,2
GeForce RTX 2070 Super
7,2
Radeon RX 5700XT
7,3
GeForce GTX 1080 Ti
9,7
GeForce GTX 1080
11,2
Doom Eternal - 2560x1440 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
4,8
GeForce RTX 2080 Ti
5,2
Radeon RX 5700XT
7,6
GeForce RTX 2070 Super
8,3
GeForce RTX 2080 Super
9,2
GeForce GTX 1080 Ti
10,6
GeForce GTX 1080
11,9
Doom Eternal - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
345,0
GeForce RTX 2080 Ti
251,1
GeForce RTX 2080 Super
217,3
Radeon RX 5700XT
187,1
GeForce RTX 2070 Super
185,6
GeForce GTX 1080 Ti
151,8
GeForce GTX 1080
125,8
Doom Eternal - 2560x1440 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
4,0
GeForce RTX 2080 Ti
4,9
GeForce RTX 2080 Super
5,7
Radeon RX 5700XT
6,6
GeForce RTX 2070 Super
6,8
GeForce GTX 1080 Ti
8,9
GeForce GTX 1080
10,2
Doom Eternal - 2560x1440 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
4,5
GeForce RTX 2080 Ti
4,7
GeForce RTX 2080 Super
6,5
Radeon RX 5700XT
7,1
GeForce RTX 2070 Super
9,4
GeForce GTX 1080 Ti
9,5
GeForce GTX 1080
10,6

1080p

  • 1080p Ultra
  • 1080p Ultra (99p)
  • 1080p Ultra (99.9p)
Doom Eternal - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
350,7
GeForce RTX 2080 Ti
293,5
GeForce RTX 2080 Super
256,8
GeForce RTX 2070 Super
225,0
Radeon RX 5700XT
215,4
GeForce GTX 1080 Ti
175,2
GeForce GTX 1080
147,0
Doom Eternal - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
4,0
GeForce RTX 2080 Ti
4,4
GeForce RTX 2080 Super
4,8
GeForce RTX 2070 Super
5,4
Radeon RX 5700XT
6,1
GeForce GTX 1080 Ti
8,3
GeForce GTX 1080
9,2
Doom Eternal - 1920x1080 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
4,4
GeForce RTX 2080 Ti
4,7
GeForce RTX 2080 Super
5,2
GeForce RTX 2070 Super
5,9
Radeon RX 5700XT
6,4
GeForce GTX 1080 Ti
8,8
GeForce GTX 1080
9,7

F1 2020

F1 2020 is als een van de bekendste racegames ook onderdeel van ons testprocotol. De serie draait al de nodige jaren op de EGO-engine, waarvan we inmiddels de vierde iteratie gebruiken. We maken gebruik van de DirectX 12-api en de ingebouwde benchmark van het spel, met daarbij de cockpitview en de 'very wet'-weersinstelling geactiveerd op het circuit van Zandvoort.

In dit spel is de voorsprong op 4k opnieuw aanzienlijk: ruim 30 procent sneller dan de 2080 Ti en bijna 60 procent sneller dan de RTX 2080 Super. Op 1440p zijn de verschillen al kleiner en op 1080p is onmiddellijk duidelijk dat eerder de engine en processor de beperkende factor zijn dan de gpu.

4k

  • 4k Ultra
  • 4k Ultra (99p)
  • 4k Ultra (99.9p)
  • 4k Medium
  • 4k Medium (99p)
  • 4k Medium (99.9p)
F1 2020 (DX12) - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
140,6
GeForce RTX 2080 Ti
106,3
GeForce RTX 2080 Super
88,2
Radeon RX 5700XT
81,4
GeForce RTX 2070 Super
80,5
GeForce GTX 1080 Ti
75,7
GeForce GTX 1080
62,8
F1 2020 (DX12) - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
8,8
GeForce RTX 2080 Ti
11,5
GeForce RTX 2080 Super
13,3
Radeon RX 5700XT
14,1
GeForce RTX 2070 Super
14,3
GeForce GTX 1080 Ti
15,3
GeForce GTX 1080
18,2
F1 2020 (DX12) - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
10,1
GeForce RTX 2080 Ti
12,8
Radeon RX 5700XT
15,0
GeForce RTX 2070 Super
15,2
GeForce GTX 1080 Ti
16,8
GeForce GTX 1080
19,4
GeForce RTX 2080 Super
19,8
F1 2020 (DX12) - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
205,2
GeForce RTX 2080 Ti
155,4
GeForce RTX 2080 Super
118,5
Radeon RX 5700XT
117,4
GeForce RTX 2070 Super
107,2
GeForce GTX 1080 Ti
88,7
GeForce GTX 1080
83,3
F1 2020 (DX12) - 3840x2160 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
6,0
GeForce RTX 2080 Ti
7,9
GeForce RTX 2080 Super
9,7
Radeon RX 5700XT
9,8
GeForce RTX 2070 Super
10,6
GeForce GTX 1080
13,3
GeForce GTX 1080 Ti
17,4
F1 2020 (DX12) - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
6,7
GeForce RTX 2080 Ti
8,7
GeForce RTX 2080 Super
10,3
Radeon RX 5700XT
10,5
GeForce RTX 2070 Super
11,2
GeForce GTX 1080
14,1
GeForce GTX 1080 Ti
18,0

1440p

  • 1440p Ultra
  • 1440p Ultra (99p)
  • 1440p Ultra (99.9p)
  • 1440p Medium
  • 1440p Medium (99p)
  • 1440p Medium (99.9p)
F1 2020 (DX12) - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
181,1
GeForce RTX 2080 Ti
154,5
Radeon RX 5700XT
146,0
GeForce RTX 2070 Super
137,4
GeForce RTX 2080 Super
133,1
GeForce GTX 1080 Ti
124,4
GeForce GTX 1080
119,9
F1 2020 (DX12) - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
7,5
Radeon RX 5700XT
8,4
GeForce RTX 2080 Ti
8,4
GeForce RTX 2070 Super
9,0
GeForce RTX 2080 Super
9,3
GeForce GTX 1080 Ti
9,8
GeForce GTX 1080
70,9
F1 2020 (DX12) - 2560x1440 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
8,8
Radeon RX 5700XT
9,4
GeForce RTX 2070 Super
10,0
GeForce RTX 2080 Ti
10,9
GeForce RTX 2080 Super
11,1
GeForce GTX 1080 Ti
11,9
GeForce GTX 1080
11,9
F1 2020 (DX12) - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
250,2
GeForce RTX 2080 Ti
237,9
Radeon RX 5700XT
203,7
GeForce GTX 1080 Ti
199,4
GeForce RTX 2080 Super
197,9
GeForce RTX 2070 Super
170,0
GeForce GTX 1080
145,2
F1 2020 (DX12) - 2560x1440 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
5,5
Radeon RX 5700XT
5,9
GeForce RTX 2080 Ti
6,0
GeForce GTX 1080 Ti
6,1
GeForce RTX 2080 Super
6,2
GeForce RTX 2070 Super
7,0
GeForce GTX 1080
8,0
F1 2020 (DX12) - 2560x1440 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
6,3
Radeon RX 5700XT
6,7
GeForce RTX 2080 Super
6,8
GeForce GTX 1080 Ti
7,0
GeForce RTX 2070 Super
7,6
GeForce RTX 2080 Ti
8,4
GeForce GTX 1080
8,6

1080p

  • 1080p Ultra
  • 1080p Ultra (99p)
  • 1080p Ultra (99.9p)
F1 2020 (DX12) - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
198,8
GeForce RTX 2080 Ti
193,8
Radeon RX 5700XT
190,7
GeForce RTX 2080 Super
181,1
GeForce RTX 2070 Super
167,3
GeForce GTX 1080 Ti
167,2
GeForce GTX 1080
141,2
F1 2020 (DX12) - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Radeon RX 5700XT
6,9
GeForce RTX 3080
7,0
GeForce RTX 2080 Super
7,2
GeForce RTX 2080 Ti
7,3
GeForce RTX 2070 Super
7,5
GeForce GTX 1080 Ti
7,6
GeForce GTX 1080
8,8
F1 2020 (DX12) - 1920x1080 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Radeon RX 5700XT
8,0
GeForce RTX 3080
8,3
GeForce RTX 2080 Super
8,4
GeForce RTX 2070 Super
8,4
GeForce GTX 1080 Ti
8,7
GeForce GTX 1080
9,5
GeForce RTX 2080 Ti
11,1

Far Cry: New Dawn

Far Cry: New Dawn is een van Ubisofts meest vooraanstaande firstpersonshooters en de Far Cry-serie draait al de nodige tijd op de Dunia-engine. Voor New Dawn wordt daarvan versie 2.0 gebruikt, die het nog altijd met de DirectX 11-api moet doen. We maken gebruik van de ingebouwde benchmark van het spel.

In Far Cry: New Dawn is de voorsprong van de RTX 3080 op de andere videokaarten niet zo groot als in de games die we tot nu toe hebben gezien. De combinatie van een Ryzen-processor en deze game speelt hierin een rol, de Dunia-engine is niet bijzonder goed geoptimaliseerd voor de Zen-architectuur. Toch zijn ook hier de prestatieverbeteringen van de RTX 3080 tegenover de 2080 Ti en 2080 Super significant, op 4k althans. Op lagere resoluties wordt de processor al snel de beperkende factor.

4k

  • 4k Ultra
  • 4k Ultra (99p)
  • 4k Ultra (99,9p)
  • 4k Medium
  • 4k Medium (99p)
  • 4k Medium (99,9p)
Far Cry: New Dawn - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
93,2
GeForce RTX 2080 Ti
79,4
GeForce RTX 2080 Super
65,6
GeForce RTX 2070 Super
57,6
GeForce GTX 1080 Ti
56,9
Radeon RX 5700XT
55,5
GeForce GTX 1080
45,0
Far Cry: New Dawn - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
13,12
GeForce RTX 2080 Ti
15,72
GeForce RTX 2080 Super
18,87
GeForce RTX 2070 Super
19,43
GeForce GTX 1080 Ti
21,69
Radeon RX 5700XT
22,22
GeForce GTX 1080
27,32
Far Cry: New Dawn - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
14,84
GeForce RTX 2080 Ti
18,71
GeForce RTX 2080 Super
20,90
GeForce RTX 2070 Super
21,51
GeForce GTX 1080 Ti
23,40
Radeon RX 5700XT
25,25
GeForce GTX 1080
28,63
Far Cry: New Dawn - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
109,0
GeForce RTX 2080 Ti
92,3
GeForce RTX 2080 Super
77,2
GeForce RTX 2070 Super
68,5
GeForce GTX 1080 Ti
67,0
Radeon RX 5700XT
65,2
GeForce GTX 1080
53,2
Far Cry: New Dawn - 3840x2160 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
11,06
GeForce RTX 2080 Ti
13,11
GeForce RTX 2080 Super
15,50
GeForce RTX 2070 Super
17,48
GeForce GTX 1080 Ti
18,08
Radeon RX 5700XT
18,76
GeForce GTX 1080
22,62
Far Cry: New Dawn - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
12,55
GeForce RTX 2080 Ti
13,95
GeForce RTX 2080 Super
16,54
GeForce RTX 2070 Super
18,87
GeForce GTX 1080 Ti
19,83
Radeon RX 5700XT
20,26
GeForce GTX 1080
24,64

1440p

  • 1440p Ultra
  • 1440p Ultra (99p)
  • 1440p Ultra (99,9p)
  • 1440p Medium
  • 1440p Medium (99p)
  • 1440p Medium (99,9p)
Far Cry: New Dawn - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
108,6
GeForce RTX 2080 Super
103,2
GeForce RTX 2080 Ti
102,3
GeForce RTX 2070 Super
96,2
GeForce GTX 1080 Ti
95,8
Radeon RX 5700XT
94,4
GeForce GTX 1080
80,6
Far Cry: New Dawn - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 2080 Super
12,64
GeForce RTX 2080 Ti
12,74
GeForce RTX 3080
12,85
GeForce RTX 2070 Super
13,07
GeForce GTX 1080 Ti
13,09
Radeon RX 5700XT
13,91
GeForce GTX 1080
15,75
Far Cry: New Dawn - 2560x1440 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 2080 Super
13,42
GeForce RTX 2080 Ti
14,15
GeForce RTX 3080
14,21
GeForce GTX 1080 Ti
14,86
Radeon RX 5700XT
15,12
GeForce RTX 2070 Super
15,99
GeForce GTX 1080
17,42
Far Cry: New Dawn - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 2080 Ti
122,2
GeForce RTX 3080
121,3
GeForce RTX 2080 Super
118,9
GeForce RTX 2070 Super
114,4
GeForce GTX 1080 Ti
112,8
Radeon RX 5700XT
109,1
GeForce GTX 1080
96,0
Far Cry: New Dawn - 2560x1440 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 2070 Super
10,40
GeForce RTX 2080 Super
10,43
GeForce RTX 2080 Ti
10,48
GeForce RTX 3080
10,53
GeForce GTX 1080 Ti
10,63
Radeon RX 5700XT
11,30
GeForce GTX 1080
12,71
Far Cry: New Dawn - 2560x1440 - Medium (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 2080 Ti
11,56
GeForce RTX 3080
11,62
GeForce RTX 2080 Super
11,78
GeForce RTX 2070 Super
12,06
GeForce GTX 1080 Ti
12,34
Radeon RX 5700XT
12,60
GeForce GTX 1080
13,81

1080p

  • 1080p Ultra
  • 1080p Ultra (99p)
  • 1080p Ultra (99,9p)
Far Cry: New Dawn - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 2080 Super
109,6
GeForce RTX 3080
109,4
GeForce RTX 2080 Ti
108,7
GeForce RTX 2070 Super
107,8
GeForce GTX 1080 Ti
106,3
Radeon RX 5700XT
104,1
GeForce GTX 1080
99,5
Far Cry: New Dawn - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 2080 Super
12,72
GeForce RTX 2070 Super
12,84
GeForce GTX 1080 Ti
12,89
GeForce RTX 2080 Ti
12,94
GeForce GTX 1080
13,26
Radeon RX 5700XT
13,51
GeForce RTX 3080
13,81
Far Cry: New Dawn - 1920x1080 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce GTX 1080 Ti
13,72
GeForce RTX 2080 Super
13,98
GeForce RTX 3080
14,52
GeForce RTX 2080 Ti
14,58
GeForce RTX 2070 Super
14,59
GeForce GTX 1080
15,41
Radeon RX 5700XT
15,92

Ghost Recon: Breakpoint

Tom Clancy's Ghost Recon: Breakpoint is een openworldgame en draait door middel van de Anvil Next 2.0-engine in de DirectX 11-api en Vulkan. Voor deze game gebruiken we ook de ingebouwde benchmark.

Het spel komt op 4k Ultra met een RTX 3080 op een 23 procent hogere framerate uit dan op de 2080 Ti, de voorsprong ten opzichte van de RTX 2080 Super gaat intussen richting de 50 procent. Net als bij veel andere games zien we op lagere resoluties en ook met lagere instellingen minder grote, maar nog steeds significante verschillen.

4k

  • 4k Ultra
  • 4k Ultra (99p)
  • 4k Ultra (99,9p)
  • 4k Medium
  • 4k Medium (99p)
  • 4k Medium (99,9p)
Ghost Recon: Breakpoint - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
82,1
GeForce RTX 2080 Ti
66,7
GeForce RTX 2080 Super
55,5
GeForce RTX 2070 Super
51,3
GeForce GTX 1080 Ti
50,8
Radeon RX 5700XT
44,6
GeForce GTX 1080
40,6
Ghost Recon: Breakpoint - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
17,33
GeForce RTX 2080 Ti
23,15
GeForce RTX 2080 Super
25,06
GeForce RTX 2070 Super
27,17
GeForce GTX 1080 Ti
27,93
Radeon RX 5700XT
31,06
GeForce GTX 1080
31,06
Ghost Recon: Breakpoint - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
20,45
GeForce RTX 2080 Ti
25,92
GeForce RTX 2080 Super
32,91
GeForce GTX 1080 Ti
35,89
GeForce GTX 1080
42,60
GeForce RTX 2070 Super
46,43
Radeon RX 5700XT
49,22
Ghost Recon: Breakpoint - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
108,8
GeForce RTX 2080 Ti
91,1
GeForce RTX 2080 Super
75,7
GeForce RTX 2070 Super
69,8
GeForce GTX 1080 Ti
69,1
Radeon RX 5700XT
66,9
GeForce GTX 1080
56,8
Ghost Recon: Breakpoint - 3840x2160 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
13,30
GeForce RTX 2080 Ti
18,80
GeForce RTX 2080 Super
20,62
GeForce GTX 1080 Ti
20,96
Radeon RX 5700XT
21,60
GeForce RTX 2070 Super
21,69
GeForce GTX 1080
21,88
Ghost Recon: Breakpoint - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
15,48
GeForce RTX 2080 Ti
21,49
GeForce RTX 2080 Super
23,88
GeForce RTX 2070 Super
24,92
GeForce GTX 1080
24,99
GeForce GTX 1080 Ti
29,26
Radeon RX 5700XT
33,62

1440p

  • 1440p Ultra
  • 1440p Ultra (99p)
  • 1440p Ultra (99,9p)
  • 1440p Medium
  • 1440p Medium (99p)
  • 1440p Medium (99,9p)
Ghost Recon: Breakpoint - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
113,4
GeForce RTX 2080 Ti
96,9
GeForce RTX 2080 Super
82,8
GeForce RTX 2070 Super
77,9
Radeon RX 5700XT
77,4
GeForce GTX 1080 Ti
75,5
GeForce GTX 1080
63,5
Ghost Recon: Breakpoint - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
13,61
GeForce GTX 1080 Ti
18,08
GeForce RTX 2080 Ti
18,66
Radeon RX 5700XT
18,73
GeForce RTX 2080 Super
20,08
GeForce RTX 2070 Super
20,70
GeForce GTX 1080
21,05
Ghost Recon: Breakpoint - 2560x1440 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
16,66
GeForce RTX 2080 Super
22,27
GeForce RTX 2080 Ti
22,66
GeForce RTX 2070 Super
23,50
GeForce GTX 1080
24,28
GeForce GTX 1080 Ti
25,10
Radeon RX 5700XT
44,18
Ghost Recon: Breakpoint - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
142,8
GeForce RTX 2080 Ti
127,8
GeForce RTX 2080 Super
112,1
Radeon RX 5700XT
110,9
GeForce RTX 2070 Super
107,8
GeForce GTX 1080 Ti
106,2
GeForce GTX 1080
90,0
Ghost Recon: Breakpoint - 2560x1440 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
10,71
GeForce GTX 1080 Ti
12,72
Radeon RX 5700XT
13,23
GeForce GTX 1080
14,47
GeForce RTX 2080 Ti
14,97
GeForce RTX 2080 Super
15,60
GeForce RTX 2070 Super
15,92
Ghost Recon: Breakpoint - 2560x1440 - Medium (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
13,61
GeForce GTX 1080
16,67
GeForce RTX 2080 Ti
17,32
GeForce GTX 1080 Ti
17,68
GeForce RTX 2080 Super
18,44
GeForce RTX 2070 Super
18,45
Radeon RX 5700XT
25,94

1080p

  • 1080p Ultra
  • 1080p Ultra (99p)
  • 1080p Ultra (99,9p)
Ghost Recon: Breakpoint - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
126,5
GeForce RTX 2080 Ti
113,7
GeForce RTX 2080 Super
101,5
Radeon RX 5700XT
97,8
GeForce RTX 2070 Super
96,1
GeForce GTX 1080 Ti
92,3
GeForce GTX 1080
79,3
Ghost Recon: Breakpoint - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
12,29
GeForce GTX 1080 Ti
14,90
Radeon RX 5700XT
15,75
GeForce RTX 2080 Ti
16,21
GeForce GTX 1080
17,12
GeForce RTX 2080 Super
17,27
GeForce RTX 2070 Super
18,15
Ghost Recon: Breakpoint - 1920x1080 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
14,39
GeForce GTX 1080 Ti
17,25
GeForce RTX 2080 Super
20,12
GeForce GTX 1080
20,19
GeForce RTX 2080 Ti
20,92
GeForce RTX 2070 Super
21,34
Radeon RX 5700XT
26,54

Metro Exodus

Metro Exodus is een firstpersonshooter die draait op de 4A Engine. Voor onze tests in deze game maken wij gebruik van de DirectX 12-api en de vrij zware ingebouwde benchmark.

In Metro Exodus loopt op 4k Ultra de RTX 3080 nagenoeg 20 procent voor op de 2080 Ti en bijna 45 procent op de 2080 Super. De 3080 komt op deze instellingen bovendien net gemiddeld boven de 60fps uit, wat op lagere resoluties uiteraard meer is, terwijl de verschillen tussen de kaarten daar weer kleiner zijn.

4k

  • 4k Ultra
  • 4k Ultra (99p)
  • 4k Ultra (99,9p)
  • 4k Medium
  • 4k Medium (99p)
  • 4k Medium 99,9p)
Metro Exodus - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
62,9
GeForce RTX 2080 Ti
52,5
GeForce RTX 2080 Super
43,5
GeForce RTX 2070 Super
37,7
GeForce GTX 1080 Ti
36,6
Radeon RX 5700XT
36,1
GeForce GTX 1080
27,9
Metro Exodus - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
26,39
GeForce RTX 2080 Ti
29,41
GeForce RTX 2080 Super
35,84
Radeon RX 5700XT
40,65
GeForce RTX 2070 Super
40,82
GeForce GTX 1080 Ti
41,30
GeForce GTX 1080
54,95
Metro Exodus - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
25,0
GeForce RTX 2080 Ti
32,8
GeForce RTX 2080 Super
37,7
Radeon RX 5700XT
41,4
GeForce RTX 2070 Super
43,7
GeForce GTX 1080 Ti
45,6
GeForce GTX 1080
57,6
Metro Exodus - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
90,1
GeForce RTX 2080 Ti
75,9
GeForce RTX 2080 Super
63,3
GeForce GTX 1080 Ti
56,3
Radeon RX 5700XT
54,2
GeForce RTX 2070 Super
53,6
GeForce GTX 1080
41,5
Metro Exodus - 3840x2160 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
19,19
GeForce RTX 2080 Ti
23,15
GeForce RTX 2080 Super
26,43
Radeon RX 5700XT
28,01
GeForce GTX 1080 Ti
29,50
GeForce RTX 2070 Super
30,40
GeForce GTX 1080
39,06
Metro Exodus - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
22,4
GeForce RTX 2080 Ti
26,6
GeForce RTX 2080 Super
28,6
Radeon RX 5700XT
29,4
GeForce RTX 2070 Super
32,3
GeForce GTX 1080 Ti
32,6
GeForce GTX 1080
42,0

1440p

  • 1440p Ultra
  • 1440p Ultra (99p)
  • 1440p Ultra (99,9p)
  • 1440p Medium
  • 1440p Medium (99p)
  • 1440p Medium (99,9p)
Metro Exodus - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
96,3
GeForce RTX 2080 Ti
83,8
GeForce RTX 2080 Super
69,6
GeForce RTX 2070 Super
59,5
Radeon RX 5700XT
59,3
GeForce GTX 1080 Ti
57,1
GeForce GTX 1080
46,5
Metro Exodus - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
20,08
GeForce RTX 2080 Ti
22,27
GeForce RTX 2080 Super
24,51
Radeon RX 5700XT
27,37
GeForce RTX 2070 Super
28,17
GeForce GTX 1080 Ti
29,15
GeForce GTX 1080
35,46
Metro Exodus - 2560x1440 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
23,0
GeForce RTX 2080 Ti
24,9
GeForce RTX 2080 Super
27,1
Radeon RX 5700XT
28,2
GeForce RTX 2070 Super
31,1
GeForce GTX 1080 Ti
32,0
GeForce GTX 1080
37,7
Metro Exodus - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
130,3
GeForce RTX 2080 Ti
123,0
GeForce RTX 2080 Super
106,5
GeForce GTX 1080 Ti
94,5
Radeon RX 5700XT
91,6
GeForce RTX 2070 Super
91,5
GeForce GTX 1080
72,2
Metro Exodus - 2560x1440 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
14,18
GeForce RTX 2080 Ti
15,15
Radeon RX 5700XT
19,49
GeForce RTX 2080 Super
19,88
GeForce GTX 1080 Ti
22,17
GeForce RTX 2070 Super
22,22
GeForce GTX 1080
26,95
Metro Exodus - 2560x1440 - Medium (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
17,4
GeForce RTX 2080 Ti
19,0
Radeon RX 5700XT
20,3
GeForce RTX 2080 Super
21,7
GeForce GTX 1080 Ti
24,6
GeForce RTX 2070 Super
25,1
GeForce GTX 1080
29,5

1080p

  • 1080p Ultra
  • 1080p Ultra (99p)
  • 1080p Ultra (99,9p)
Metro Exodus - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
114,6
GeForce RTX 2080 Ti
103,8
GeForce RTX 2080 Super
87,3
GeForce RTX 2070 Super
75,7
Radeon RX 5700XT
75,3
GeForce GTX 1080 Ti
75,3
GeForce GTX 1080
59,7
Metro Exodus - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
15,06
GeForce RTX 2080 Ti
19,88
GeForce RTX 2080 Super
23,15
Radeon RX 5700XT
23,36
GeForce GTX 1080 Ti
24,75
GeForce RTX 2070 Super
25,13
GeForce GTX 1080
30,12
Metro Exodus - 1920x1080 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
18,9
GeForce RTX 2080 Ti
23,2
GeForce RTX 2080 Super
25,9
GeForce GTX 1080 Ti
27,8
Radeon RX 5700XT
29,1
GeForce RTX 2070 Super
29,2
GeForce GTX 1080
32,5

Project Cars 3

Project Cars 3 is een recente racegame van Slightly Mad Studios en draait in DirectX 11 op de Madness-engine. De benchmark bestaat uit een negentig seconden durende replay op de Nordschleife die in real time wordt gerenderd.

4k

  • 4k Ultra
  • 4k Ultra (99p)
  • 4k Ultra (99,9p)
  • 4k Medium
  • 4k Medium (99p)
  • 4k Medium (99,9p)
Project Cars 3 - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
129,0
GeForce RTX 2080 Ti
103,5
GeForce RTX 2080 Super
88,6
GeForce GTX 1080 Ti
84,0
GeForce RTX 2070 Super
81,4
Radeon RX 5700XT
80,5
GeForce GTX 1080
61,6
Project Cars 3 - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
9,0
GeForce RTX 2080 Ti
11,3
GeForce RTX 2080 Super
12,6
GeForce GTX 1080 Ti
13,6
GeForce RTX 2070 Super
13,6
Radeon RX 5700XT
13,7
GeForce GTX 1080
18,3
Project Cars 3 - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
11,6
GeForce RTX 2080 Ti
12,7
GeForce RTX 2080 Super
13,1
GeForce GTX 1080 Ti
14,0
Radeon RX 5700XT
14,1
GeForce RTX 2070 Super
14,3
GeForce GTX 1080
22,8
Project Cars 3 - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
149,4
GeForce RTX 2080 Ti
118,8
GeForce RTX 2080 Super
101,9
GeForce GTX 1080 Ti
100,9
GeForce RTX 2070 Super
89,7
Radeon RX 5700XT
88,8
GeForce GTX 1080
74,6
Project Cars 3 - 3840x2160 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
7,8
GeForce RTX 2080 Ti
9,3
GeForce RTX 2080 Super
11,1
GeForce GTX 1080 Ti
11,1
Radeon RX 5700XT
12,2
GeForce RTX 2070 Super
12,4
GeForce GTX 1080
15,7
Project Cars 3 - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 2080 Ti
9,6
GeForce RTX 3080
10,0
GeForce GTX 1080 Ti
11,4
GeForce RTX 2080 Super
11,8
Radeon RX 5700XT
13,6
GeForce GTX 1080
20,3
GeForce RTX 2070 Super
23,3

1440p

  • 1440p Ultra
  • 1440p Ultra (99p)
  • 1440p Ultra (99,9p)
  • 1440p Medium
  • 1440p Medium (99p)
  • 1440p Medium (99,9p)
Project Cars 3 - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
191,8
GeForce RTX 2080 Ti
163,5
GeForce RTX 2080 Super
137,5
GeForce RTX 2070 Super
127,4
GeForce GTX 1080 Ti
127,2
Radeon RX 5700XT
120,0
GeForce GTX 1080
106,6
Project Cars 3 - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
6,1
GeForce RTX 2080 Ti
7,3
GeForce RTX 2080 Super
8,4
GeForce RTX 2070 Super
8,9
GeForce GTX 1080 Ti
9,2
Radeon RX 5700XT
10,0
GeForce GTX 1080
10,7
Project Cars 3 - 2560x1440 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
7,3
GeForce RTX 2080 Super
8,8
GeForce RTX 2070 Super
9,3
GeForce GTX 1080 Ti
10,9
Radeon RX 5700XT
11,3
GeForce RTX 2080 Ti
12,4
GeForce GTX 1080
14,0
Project Cars 3 - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
228,4
GeForce RTX 2080 Ti
188,4
GeForce RTX 2080 Super
171,7
Radeon RX 5700XT
167,9
GeForce GTX 1080 Ti
167,7
GeForce RTX 2070 Super
158,2
GeForce GTX 1080
128,4
Project Cars 3 - 2560x1440 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
5,6
GeForce RTX 2080 Ti
6,0
Radeon RX 5700XT
6,6
GeForce GTX 1080 Ti
6,7
GeForce RTX 2080 Super
6,7
GeForce RTX 2070 Super
7,0
GeForce GTX 1080
9,3
Project Cars 3 - 2560x1440 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 2080 Ti
6,6
GeForce RTX 3080
6,9
GeForce RTX 2080 Super
7,0
GeForce RTX 2070 Super
7,4
GeForce GTX 1080 Ti
7,4
Radeon RX 5700XT
8,8
GeForce GTX 1080
11,2

1080p

  • 1080p Ultra
  • 1080p Ultra (99p)
  • 1080p Ultra (99,9p)
Project Cars 3 - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
198,3
GeForce RTX 2080 Ti
190,4
GeForce RTX 2080 Super
172,0
Radeon RX 5700XT
166,1
GeForce RTX 2070 Super
159,2
GeForce GTX 1080 Ti
157,9
GeForce GTX 1080
133,6
Project Cars 3 - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
6,0
GeForce RTX 2080 Ti
6,2
GeForce RTX 2080 Super
6,8
Radeon RX 5700XT
6,9
GeForce RTX 2070 Super
7,3
GeForce GTX 1080 Ti
7,6
GeForce GTX 1080
8,7
Project Cars 3 - 1920x1080 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
6,3
GeForce RTX 2080 Super
7,2
GeForce RTX 2070 Super
7,9
GeForce GTX 1080 Ti
7,9
Radeon RX 5700XT
8,0
GeForce RTX 2080 Ti
10,2
GeForce GTX 1080
11,5

Red Dead Redemption 2

Red Dead Redemption 2 is Rockstars bekende openworldgame van eind 2019 en draait in de Rockstar Advanced Game Engine. Het spel valt met zowel DirectX12 als de Vulkan-api te draaien en omdat DX12 op ons testsysteem problemen geeft, maken we gebruik van Vulkan, dat wel probleemloos werkt. Voor deze test zetten we de ingebouwde benchmark van het spel in, waarbij we enkel de laatste (en langste) scène gebruiken.

In deze game is de RTX 3080 op 4k Ultra bijna 23 procent sneller dan de RTX 2080 Ti en komt hij op deze instellingen bovendien comfortabel boven de 60fps uit. Daarnaast wordt de 2080 Super met ruim 40 procent voorbijgestreefd. Op 1440p Ultra zien we deze Ampere bijna de 100fps halen, maar ook met deze lagere resoluties worden de verschillen tussen de gpu's kleiner.

4k

  • 4k Ultra
  • 4k Ultra (99p)
  • 4k Ultra (99,9p)
  • 4k Medium
  • 4k Medium (99p)
  • 4k Medium (99,9p)
Red Dead Redemption 2 - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
73,0
GeForce RTX 2080 Ti
54,5
GeForce RTX 2080 Super
46,6
GeForce RTX 2070 Super
40,5
Radeon RX 5700XT
35,0
GeForce GTX 1080 Ti
31,6
GeForce GTX 1080
26,8
Red Dead Redemption 2 - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
17,1
GeForce RTX 2080 Super
18,3
GeForce RTX 2080 Ti
22,2
GeForce RTX 2070 Super
29,3
Radeon RX 5700XT
39,2
GeForce GTX 1080 Ti
39,8
GeForce GTX 1080
43,1
Red Dead Redemption 2 - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
27,7
GeForce RTX 2080 Ti
28,1
GeForce RTX 2080 Super
29,0
GeForce RTX 2070 Super
32,1
Radeon RX 5700XT
42,6
GeForce GTX 1080
45,1
GeForce GTX 1080 Ti
68,5
Red Dead Redemption 2 - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
75,7
GeForce RTX 2080 Ti
65,6
GeForce RTX 2080 Super
55,1
GeForce RTX 2070 Super
47,9
Radeon RX 5700XT
44,1
GeForce GTX 1080 Ti
39,0
GeForce GTX 1080
32,4
Red Dead Redemption 2 - 3840x2160 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
17,5
GeForce RTX 2080 Ti
19,1
GeForce RTX 2080 Super
22,7
GeForce RTX 2070 Super
25,1
Radeon RX 5700XT
27,1
GeForce GTX 1080 Ti
33,2
GeForce GTX 1080
38,8
Red Dead Redemption 2 - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 2080 Super
24,2
GeForce RTX 2080 Ti
27,2
GeForce RTX 2070 Super
27,7
Radeon RX 5700XT
31,6
GeForce RTX 3080
37,8
GeForce GTX 1080
41,2
GeForce GTX 1080 Ti
60,8

1440p

  • 1440p Ultra
  • 1440p Ultra (99p)
  • 1440p Ultra (99,9p)
  • 1440p Medium
  • 1440p Medium (99p)
  • 1440p Medium (99,9p)
Red Dead Redemption 2 - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
109,0
GeForce RTX 2080 Ti
86,2
GeForce RTX 2080 Super
73,0
GeForce RTX 2070 Super
64,2
Radeon RX 5700XT
55,4
GeForce GTX 1080 Ti
48,2
GeForce GTX 1080
42,1
Red Dead Redemption 2 - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
12,1
GeForce RTX 2080 Ti
14,2
GeForce RTX 2080 Super
17,1
GeForce RTX 2070 Super
18,8
Radeon RX 5700XT
22,5
GeForce GTX 1080 Ti
26,3
GeForce GTX 1080
27,8
Red Dead Redemption 2 - 2560x1440 - Ultra (99.9p)
Videokaart Gemiddelde framerate in ms (lager is beter)
GeForce RTX 3080
17,0
GeForce RTX 2080 Ti
18,8
GeForce GTX 1080 Ti
19,1
GeForce RTX 2070 Super
21,6
GeForce RTX 2080 Super
27,1
Radeon RX 5700XT
29,8
GeForce GTX 1080
30,0
Red Dead Redemption 2 - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
117,6
GeForce RTX 2080 Ti
108,8
GeForce RTX 2080 Super
93,7
GeForce RTX 2070 Super
81,0
Radeon RX 5700XT
77,5
GeForce GTX 1080 Ti
64,6
GeForce GTX 1080
56,1
Red Dead Redemption 2 - 2560x1440 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 2080 Ti
12,1
GeForce RTX 3080
12,8
GeForce RTX 2080 Super
13,3
GeForce RTX 2070 Super
16,0
Radeon RX 5700XT
20,1
GeForce GTX 1080 Ti
20,9
GeForce GTX 1080
22,1
Red Dead Redemption 2 - 2560x1440 - Medium (99.9p)
Videokaart Gemiddelde framerate in ms (lager is beter)
GeForce RTX 2080 Ti
13,4
GeForce RTX 3080
14,1
GeForce RTX 2080 Super
15,6
Radeon RX 5700XT
25,5
GeForce RTX 2070 Super
27,2
GeForce GTX 1080
29,0
GeForce GTX 1080 Ti
52,9

1080p

  • 1080p Ultra
  • 1080p Ultra (99p)
  • 1080p Ultra (99,9p)
Red Dead Redemption 2 - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
117,7
GeForce RTX 2080 Ti
107,4
GeForce RTX 2080 Super
91,1
GeForce RTX 2070 Super
80,4
Radeon RX 5700XT
70,1
GeForce GTX 1080 Ti
59,6
GeForce GTX 1080
53,0
Red Dead Redemption 2 - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 2080 Super
11,8
GeForce RTX 2080 Ti
12,0
GeForce RTX 3080
12,2
GeForce RTX 2070 Super
15,2
Radeon RX 5700XT
18,1
GeForce GTX 1080 Ti
21,7
GeForce GTX 1080
22,1
Red Dead Redemption 2 - 1920x1080 - Ultra (99.9p)
Videokaart Gemiddelde framerate in ms (lager is beter)
GeForce RTX 2080 Super
12,3
GeForce RTX 2080 Ti
12,6
GeForce RTX 3080
13,8
GeForce RTX 2070 Super
27,3
GeForce GTX 1080
28,4
Radeon RX 5700XT
34,8
GeForce GTX 1080 Ti
53,1

Shadow of the Tomb Raider

Shadow of the Tomb Raider maakt als laatste deel van de bekende adventureserie gebruik van de Foundation-engine. Het spel kan in zowel DX11 als DX12 gedraaid worden. Wij maken gebruik van laatstgenoemde api en van de ingebouwde benchmark.

Waar de RTX 2080 Ti op 4k Ultra nog krap boven de 60fps uitkwam, zit de RTX 3080 met deze instellingen al comfortabel richting de 80 frames per seconde. De winst is 30 procent, terwijl de Ampere-kaart ruim 50 procent voorloopt op de 2080 Super. Op 1440p zijn de verschillen ook nog significant; op 1080p is dat al een stuk minder het geval.

4k

  • 4k Ultra
  • 4k Ultra (99p)
  • 4k Ultra (99,9p)
  • 4k Medium
  • 4k Medium (99p)
  • 4k Medium (99,9p)
Shadow of the Tomb Raider (DX12) - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
80,9
GeForce RTX 2080 Ti
61,8
GeForce RTX 2080 Super
51,3
GeForce RTX 2070 Super
45,0
GeForce GTX 1080 Ti
44,2
GeForce GTX 1080
41,6
Radeon RX 5700XT
39,3
Shadow of the Tomb Raider (DX12) - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
14,90
GeForce RTX 2080 Ti
19,60
GeForce RTX 2080 Super
23,80
GeForce RTX 2070 Super
27,10
GeForce GTX 1080 Ti
27,40
GeForce GTX 1080
28,30
Radeon RX 5700XT
31,40
Shadow of the Tomb Raider (DX12) - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
15,20
GeForce RTX 2080 Ti
20,00
GeForce RTX 2080 Super
24,30
GeForce RTX 2070 Super
27,90
GeForce GTX 1080 Ti
27,90
GeForce GTX 1080
28,80
Radeon RX 5700XT
38,90
Shadow of the Tomb Raider (DX12) - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
113,2
GeForce RTX 2080 Ti
88,9
GeForce RTX 2080 Super
75,2
GeForce RTX 2070 Super
62,9
Radeon RX 5700XT
59,3
GeForce GTX 1080 Ti
58,4
GeForce GTX 1080
44,4
Shadow of the Tomb Raider (DX12) - 3840x2160 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
10,70
GeForce RTX 2080 Ti
13,60
GeForce RTX 2080 Super
16,00
GeForce RTX 2070 Super
19,60
Radeon RX 5700XT
19,90
GeForce GTX 1080 Ti
21,60
GeForce GTX 1080
27,30
Shadow of the Tomb Raider (DX12) - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
11,00
GeForce RTX 2080 Ti
13,80
GeForce RTX 2080 Super
16,30
GeForce RTX 2070 Super
20,00
Radeon RX 5700XT
20,30
GeForce GTX 1080
27,80
GeForce GTX 1080 Ti
28,26

1440p

  • 1440p Ultra
  • 1440p Ultra (99p)
  • 1440p Ultra (99,9p)
  • 1440p Medium
  • 1440p Medium (99p)
  • 1440p Medium (99,9p)
Shadow of the Tomb Raider (DX12) - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
138,4
GeForce RTX 2080 Ti
112,6
GeForce RTX 2080 Super
94,9
GeForce RTX 2070 Super
84,1
GeForce GTX 1080 Ti
81,7
Radeon RX 5700XT
74,8
GeForce GTX 1080
73,9
Shadow of the Tomb Raider (DX12) - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
9,40
GeForce RTX 2080 Ti
11,30
GeForce RTX 2080 Super
13,30
GeForce RTX 2070 Super
14,90
GeForce GTX 1080
16,50
GeForce GTX 1080 Ti
16,61
Radeon RX 5700XT
16,80
Shadow of the Tomb Raider (DX12) - 2560x1440 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
10,10
GeForce RTX 2080 Ti
11,70
GeForce RTX 2080 Super
13,60
GeForce RTX 2070 Super
15,60
GeForce GTX 1080
16,90
Radeon RX 5700XT
17,20
GeForce GTX 1080 Ti
37,53
Shadow of the Tomb Raider (DX12) - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
152,0
GeForce RTX 2080 Ti
139,1
GeForce RTX 2080 Super
128,7
GeForce RTX 2070 Super
109,8
Radeon RX 5700XT
103,4
GeForce GTX 1080 Ti
102,8
GeForce GTX 1080
78,8
Shadow of the Tomb Raider (DX12) - 2560x1440 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
9,20
GeForce RTX 2080 Ti
9,30
GeForce RTX 2080 Super
9,70
GeForce RTX 2070 Super
11,50
Radeon RX 5700XT
11,90
GeForce GTX 1080 Ti
12,95
GeForce GTX 1080
15,80
Shadow of the Tomb Raider (DX12) - 2560x1440 - Medium (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
9,90
GeForce RTX 2080 Ti
10,00
GeForce RTX 2080 Super
10,10
GeForce RTX 2070 Super
11,90
Radeon RX 5700XT
12,30
GeForce GTX 1080
16,10
GeForce GTX 1080 Ti
21,85

1080p

  • 1080p Ultra
  • 1080p Ultra (99p)
  • 1080p Ultra (99,9p)
Shadow of the Tomb Raider (DX12) - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
153,6
GeForce RTX 2080 Ti
141,7
GeForce RTX 2080 Super
133,3
GeForce RTX 2070 Super
123,0
GeForce GTX 1080 Ti
117,0
Radeon RX 5700XT
110,5
GeForce GTX 1080
108,6
Shadow of the Tomb Raider (DX12) - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
9,50
GeForce RTX 2080 Ti
9,70
GeForce RTX 2080 Super
9,80
GeForce RTX 2070 Super
10,70
GeForce GTX 1080
11,70
Radeon RX 5700XT
11,80
GeForce GTX 1080 Ti
12,29
Shadow of the Tomb Raider (DX12) - 1920x1080 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
10,20
GeForce RTX 2080 Super
10,30
GeForce RTX 2080 Ti
10,30
GeForce RTX 2070 Super
11,20
GeForce GTX 1080
12,00
Radeon RX 5700XT
13,90
GeForce GTX 1080 Ti
38,76

Total War Saga: Troy

Total War Saga: Troy is een recente realtime strategygame en draait op DirectX12 in de TW Engine 3. Het spel biedt drie ingebouwde benchmark, wij gebruiken de Battle-scene voor onze tests.

In Troy komt op 4k Ultra de RTX 3080 al aardig in de buurt van de 60fps, terwijl de 2080 Ti niet verder komt dan 44 beelden per seconde. De winst van 24,1 en 53,8 procent voor respectievelijk de 2080 Ti en 2080 Super is groot en ook op 1440p zien we nog een aardige voorsprong.

4k

  • 4k Ultra
  • 4k Ultra (99p)
  • 4k Ultra (99,9p)
  • 4k Medium
  • 4k Medium (99p)
  • 4k Medium (99,9p)
Total War: Troy - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
54,6
GeForce RTX 2080 Ti
44,0
GeForce RTX 2080 Super
35,5
GeForce GTX 1080 Ti
33,4
GeForce RTX 2070 Super
32,3
Radeon RX 5700XT
26,6
GeForce GTX 1080
26,0
Total War: Troy - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
24,0
GeForce RTX 2080 Ti
29,2
GeForce RTX 2080 Super
36,0
GeForce GTX 1080 Ti
38,0
GeForce RTX 2070 Super
39,2
Radeon RX 5700XT
48,1
GeForce GTX 1080
49,0
Total War: Troy - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce GTX 1080 Ti
23,3
GeForce RTX 3080
25,1
GeForce RTX 2080 Ti
31,5
GeForce RTX 2080 Super
38,9
GeForce RTX 2070 Super
41,1
GeForce GTX 1080
56,9
Radeon RX 5700XT
65,3
Total War: Troy - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
169,1
GeForce RTX 2080 Ti
133,3
GeForce RTX 2080 Super
108,8
Radeon RX 5700XT
98,1
GeForce RTX 2070 Super
95,8
GeForce GTX 1080 Ti
95,1
GeForce GTX 1080
76,9
Total War: Troy - 3840x2160 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
7,2
GeForce RTX 2080 Ti
8,5
GeForce RTX 2080 Super
10,3
Radeon RX 5700XT
11,6
GeForce RTX 2070 Super
11,7
GeForce GTX 1080
15,1
GeForce GTX 1080 Ti
22,1
Total War: Troy - 3840x2160 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 2080 Ti
8,8
GeForce RTX 3080
9,4
GeForce RTX 2080 Super
10,5
GeForce RTX 2070 Super
12,0
Radeon RX 5700XT
13,1
GeForce GTX 1080
15,7
GeForce GTX 1080 Ti
23,1

1440p

  • 1440p Ultra
  • 1440p Ultra (99p)
  • 1440p Ultra (99,9p)
  • 1440p Medium
  • 1440p Medium (99p)
  • 1440p Medium (99,9p)
Total War: Troy - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
102,3
GeForce RTX 2080 Ti
84,2
GeForce RTX 2080 Super
68,9
GeForce GTX 1080 Ti
62,7
GeForce RTX 2070 Super
61,9
GeForce GTX 1080
50,3
Radeon RX 5700XT
48,2
Total War: Troy - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
12,8
GeForce RTX 2080 Ti
15,4
GeForce RTX 2080 Super
18,4
GeForce RTX 2070 Super
20,2
GeForce GTX 1080 Ti
20,4
GeForce GTX 1080
25,1
Radeon RX 5700XT
26,6
Total War: Troy - 2560x1440 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
13,5
GeForce RTX 2080 Ti
16,1
GeForce RTX 2080 Super
19,5
GeForce RTX 2070 Super
22,0
GeForce GTX 1080 Ti
23,7
GeForce GTX 1080
26,1
Radeon RX 5700XT
38,6
Total War: Troy - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
273,0
GeForce RTX 2080 Ti
241,5
GeForce RTX 2080 Super
194,9
Radeon RX 5700XT
180,4
GeForce GTX 1080 Ti
178,5
GeForce RTX 2070 Super
173,9
GeForce GTX 1080
143,6
Total War: Troy - 2560x1440 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 2080 Ti
4,9
GeForce RTX 3080
5,1
GeForce RTX 2080 Super
6,0
GeForce RTX 2070 Super
6,5
Radeon RX 5700XT
7,0
GeForce GTX 1080 Ti
7,1
GeForce GTX 1080
8,0
Total War: Troy - 2560x1440 - Medium (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 2080 Ti
5,4
GeForce RTX 3080
6,2
GeForce RTX 2080 Super
6,4
GeForce RTX 2070 Super
6,8
GeForce GTX 1080
8,8
Radeon RX 5700XT
9,7
GeForce GTX 1080 Ti
21,5

1080p

  • 1080p Ultra
  • 1080p Ultra (99p)
  • 1080p Ultra (99,9p)
Total War: Troy - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
128,1
GeForce RTX 2080 Ti
122,0
GeForce RTX 2080 Super
99,6
GeForce GTX 1080 Ti
90,4
GeForce RTX 2070 Super
89,2
GeForce GTX 1080
73,8
Radeon RX 5700XT
68,0
Total War: Troy - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
10,1
GeForce RTX 2080 Ti
10,7
GeForce RTX 2080 Super
12,8
GeForce GTX 1080 Ti
14,2
GeForce RTX 2070 Super
14,2
GeForce GTX 1080
16,8
Radeon RX 5700XT
18,7
Total War: Troy - 1920x1080 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
12,0
GeForce RTX 2080 Ti
12,3
GeForce RTX 2080 Super
13,5
GeForce RTX 2070 Super
15,1
GeForce GTX 1080
18,2
GeForce GTX 1080 Ti
23,8
Radeon RX 5700XT
32,7

Prestatiescore games

Om in één oogopslag te zien hoe de verschillende gpu's zich tot elkaar verhouden, berekenen we vanuit de tien gebruikte en hiervoor besproken games op basis van de resultaten gewogen gemiddelden. Deze prestatiescores berekenen we op de geteste resoluties en kwaliteitsinstellingen.

De prestatiescore in 4k Ultra komt voor de 3080 uit op 81,3fps, wat betekent dat de RTX 3080 gemiddeld 25 procent sneller is dan de RTX 2080 Ti en zo'n 50 procent sneller dan de RTX 2080 Super. De RTX 2070 Super wordt met een voorsprong van zo'n 65 procent ruim verslagen. Ook ten opzichte van het oudere Pascal-vlaggenschip is de winst groot; de RTX 3080 is gemiddeld 78 procent sneller dan de GTX 1080 Ti in de tien geteste games. Tegenover de RX 5700 XT doet de RTX 3080 het 85 procent beter en de GTX 1080 wordt zelfs met meer dan 120 procent voorbij gestreefd.

Ook op 1440p-resolutie is de RTX 3080 ruim sneller dan de RTX 2080 Ti: ruim 19 procent. Gemiddeld komt de RTX 3080 hier uit op 125,5fps, wat de videokaart ook interessant maakt voor gamers met een 1440p-monitor met hogere refreshrate.

  • 4k Ultra
  • 4k Medium
  • 1440p Ultra
  • 1440p Medium
  • 1080p Ultra
Tweakers GPU Prestatiescore 2020 - 4K ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
81,9
GeForce RTX 2080 Ti
64,8
GeForce RTX 2080 Super
53,7
GeForce RTX 2070 Super
47,8
GeForce GTX 1080 Ti
45,3
Radeon RX 5700XT
43,9
GeForce GTX 1080
36,5
Tweakers GPU Prestatiescore 2020 - 4K medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
114,8
GeForce RTX 2080 Ti
92,3
GeForce RTX 2080 Super
76,4
GeForce RTX 2070 Super
66,9
Radeon RX 5700XT
65,1
GeForce GTX 1080 Ti
63,5
GeForce GTX 1080
49,6
Tweakers GPU Prestatiescore 2020 - 1440p ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
126,6
GeForce RTX 2080 Ti
105,1
GeForce RTX 2080 Super
90,4
GeForce RTX 2070 Super
81,7
Radeon RX 5700XT
77,6
GeForce GTX 1080 Ti
76,3
GeForce GTX 1080
64,8
Tweakers GPU Prestatiescore 2020 - 1440p medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
166,7
GeForce RTX 2080 Ti
146,9
GeForce RTX 2080 Super
129,3
Radeon RX 5700XT
116,4
GeForce RTX 2070 Super
115,4
GeForce GTX 1080 Ti
112,0
GeForce GTX 1080
88,3
Tweakers GPU Prestatiescore 2020 - 1080p ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
145,3
GeForce RTX 2080 Ti
131,8
GeForce RTX 2080 Super
117,6
GeForce RTX 2070 Super
107,4
Radeon RX 5700XT
103,4
GeForce GTX 1080 Ti
100,4
GeForce GTX 1080
85,9

Raytracing en DLSS

Niet alleen hebben we een hele reeks games getest volgens conventionele rendertechnieken (rasterization), we hebben ook enkele extra tests gedraaid om de raytracingprestaties te kunnen vergelijken.

3DMark Port Royal

Port Royal is 3DMarks benchmark waarin raytracingprestaties worden gemeten. Het betreft een synthetische test waar zowel een score als een gemiddelde framerate uitkomt. Hier zien we dat de nieuwe Ampere-kaart vrijwel 30 procent sneller is dan de 2080 Ti en zelfs 70 procent hoger eindigt dan de RTX 2080 Super. De GeForce-kaarten uit de 1000-serie kunnen dankzij ondersteuning vanuit de driver hun ongebruikte cores inzetten voor raytracing, maar wegens het gebrek aan aparte hardwareversnelling liggen de scores behoorlijk wat lager dan bij de RTX-kaarten.

  • 3DMark Port Royal
  • 3DMark Port Royal - FPS
3DMark Port Royal
Videokaart Gemiddelde score in punten (hoger is beter)
GeForce RTX 3080
11.340
GeForce RTX 2080 Ti
8.763
GeForce RTX 2080 Super
6.653
GeForce RTX 2070 Super
5.903
GeForce GTX 1080 Ti
1.993
GeForce GTX 1080
1.476
3DMark Port Royal - FPS
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
52,5
GeForce RTX 2080 Ti
40,6
GeForce RTX 2080 Super
30,8
GeForce RTX 2070 Super
27,3
GeForce GTX 1080 Ti
9,2
GeForce GTX 1080
6,8

DXR in Control

In Control hebben we ook een aantal tests gedraaid, waaronder raytracing met RTX die gebruikmaakt van de DXR-api in Windows 10. Ten opzichte van de RTX 2080 Ti ziet de RTX 3080 een prestatieverbetering van zo'n 40 procent, ongeacht de resolutie. Op 4k betekent dit het verschil tussen wel en niet speelbaar, op 1440p komt de RTX 3080 intussen comfortabel boven de 60fps, wat de Turing-generatie nog niet lukte.

  • 1440p
  • 1440p (99,9p)
  • 1440p (99p)
  • 4k
  • 4k (99p)
  • 4k (99,9p)
  • 1080p
  • 1080p (99p)
  • 1080p (99,9p)
Control - 2560x1440 - Ultra (DXR - High)
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
69,3
GeForce RTX 2080 Ti
50,0
GeForce RTX 2080 Super
39,6
GeForce RTX 2070 Super
35,5
Control - 2560x1440 - Ultra (DXR - High) (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
16,6
GeForce RTX 2080 Ti
22,3
GeForce RTX 2080 Super
28,6
GeForce RTX 2070 Super
53,2
Control - 2560x1440 - Ultra (DXR - High) (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
16,1
GeForce RTX 2080 Ti
21,9
GeForce RTX 2080 Super
27,5
GeForce RTX 2070 Super
35,8
Control - 3840x2160 - Ultra (DXR - High)
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
35,9
GeForce RTX 2080 Ti
25,8
Control - 3840x2160 - Ultra (DXR - High) (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
30,6
GeForce RTX 2080 Ti
43,7
Control - 3840x2160 - Ultra (DXR - High) (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
39,4
GeForce RTX 2080 Ti
49,8
Control - 1920x1080 - Ultra (DXR - High)
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
104,3
GeForce RTX 2080 Ti
73,9
GeForce RTX 2080 Super
60,6
GeForce RTX 2070 Super
54,5
Control - 1920x1080 - Ultra (DXR - High) (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
11,1
GeForce RTX 2080 Ti
15,1
GeForce RTX 2080 Super
18,4
GeForce RTX 2070 Super
27,9
Control - 1920x1080 - Ultra (DXR - High) (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
GeForce RTX 3080
11,8
GeForce RTX 2080 Ti
15,6
GeForce RTX 2080 Super
19,0
GeForce RTX 2070 Super
38,7

DLSS in Control

De verbeterde Tensor-cores in de RTX 3080 laten in deze DLSS-test hun meerwaarde zien. Op zowel 4k als 1440p liggen de prestaties duidelijk hoger. Op deze specifieke instellingen produceert de RTX 2080 Ti echter ook nog een prima speelbare framerate, maar de prestatiewinst van de 3080 kan nog altijd gebruikt worden om instellingen nog verder omhoog te schroeven.

  • 4K
  • 4K (99p)
  • 4K (99.9p)
  • 1440p
  • 1440p (99p)
  • 1440p (99.9p)
  • 1080p
  • 1080p (99p)
  • 1080p (99.9p)
Control - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 3080 - DLSS aan
99,0
RTX 2080 Ti - DLSS aan
77,4
RTX 3080
58,8
RTX 2080 Ti
44,5
Control - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
RTX 3080 - DLSS aan
12,1
RTX 2080 Ti - DLSS aan
14,6
RTX 3080
19,2
RTX 2080 Ti
25,2
Control - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
RTX 2080 Ti - DLSS aan
15,4
RTX 3080 - DLSS aan
16,2
RTX 3080
19,9
RTX 2080 Ti
25,9
Control - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 3080 - DLSS aan
176,5
RTX 2080 Ti - DLSS aan
135,3
RTX 3080
114,3
RTX 2080 Ti
84,5
Control - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
RTX 3080 - DLSS aan
7,1
RTX 2080 Ti - DLSS aan
9,0
RTX 3080
10,4
RTX 2080 Ti
13,5
Control - 2560x1440 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
RTX 3080 - DLSS aan
7,7
RTX 2080 Ti - DLSS aan
9,6
RTX 3080
11,1
RTX 2080 Ti
13,9
Control - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 3080 - DLSS aan
191,5
RTX 2080 Ti - DLSS aan
181,3
RTX 3080
162,3
RTX 2080 Ti
122,7
Control - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
RTX 3080 - DLSS aan
6,8
RTX 2080 Ti - DLSS aan
6,9
RTX 3080
7,8
RTX 2080 Ti
9,8
Control - 1920x1080 - Ultra (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
RTX 2080 Ti - DLSS aan
7,4
RTX 3080 - DLSS aan
7,7
RTX 3080
8,5
RTX 2080 Ti
10,6

DXR+DLSS in Control

Als we zowel raytracing als DLSS inschakelen, zien we bijna een verdubbeling van de framerate ten opzichte van DXR zonder DLSS. De meerwaarde van de upscalingtechniek om voor het prestatieverlies van raytracing te corrigeren, is hiermee duidelijk, zeker op hogere resoluties.

  • 4K
  • 4K (99p)
  • 4K (99.9p)
  • 1440p
  • 1440p (99p)
  • 1440p (99.9p)
  • 1080p
  • 1080p(99p)
  • 1080p (99.9p)
Control - 3840x2160 - Ultra (DXR - High)
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 3080 - DLSS aan
65,2
RTX 2080 Ti - DLSS aan
47,1
RTX 3080
35,9
RTX 2080 Ti
25,8
Control - 3840x2160 - Ultra (DXR - High) (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
RTX 3080 - DLSS aan
17,5
RTX 2080 Ti - DLSS aan
24,0
RTX 3080
30,6
RTX 2080 Ti
43,7
Control - 3840x2160 - Ultra (DXR - High) (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
RTX 3080 - DLSS aan
20,7
RTX 2080 Ti - DLSS aan
29,6
RTX 3080
39,4
RTX 2080 Ti
49,8
Control - 2560x1440 - Ultra (DXR - High)
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 3080 - DLSS aan
110,5
RTX 2080 Ti - DLSS aan
83,9
RTX 3080
69,3
RTX 2080 Ti
50,0
Control - 2560x1440 - Ultra (DXR - High) (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
RTX 3080 - DLSS aan
10,6
RTX 2080 Ti - DLSS aan
13,9
RTX 3080
16,1
RTX 2080 Ti
21,9
Control - 2560x1440 - Ultra (DXR - High) (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
RTX 3080 - DLSS aan
11,1
RTX 3080
16,6
RTX 2080 Ti - DLSS aan
20,7
RTX 2080 Ti
22,3
Control - 1920x1080 - Ultra (DXR - High)
Videokaart Gemiddelde framerate in fps (hoger is beter)
RTX 3080 - DLSS aan
111,2
RTX 2080 Ti - DLSS aan
110,9
RTX 3080
104,3
RTX 2080 Ti
73,9
Control - 1920x1080 - Ultra (DXR - High) (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
RTX 3080 - DLSS aan
10,6
RTX 2080 Ti - DLSS aan
10,7
RTX 3080
11,1
RTX 2080 Ti
15,1
Control - 1920x1080 - Ultra (DXR - High) (99.9p)
Videokaart Gemiddelde frametime in ms (lager is beter)
RTX 3080 - DLSS aan
11,2
RTX 3080
11,8
RTX 2080 Ti - DLSS aan
13,2
RTX 2080 Ti
15,6

DXR in Metro Exodus

Ten slotte hebben we ook raytracing getest in Exodus, dit keer enkel op 1440p en 1080p-resolutie. Ook hier haalt de RTX 3080 significant hogere framerates dan de Turing-generatie, 26 procent sneller dan de 2080 Ti en 56 procent sneller dan de 2080 Super.

  • 1440p
  • 1440p (99p)
  • 1440p (99,9p)
  • 1080p
  • 1080p (99p)
  • 1080p (99,9p)
Metro Exodus - 2560x1440 - Ultra (DXR - High)
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
80,6
GeForce RTX 2080 Ti
63,8
GeForce RTX 2080 Super
51,7
GeForce RTX 2070 Super
43,8
Metro Exodus - 2560x1440 - Ultra (DXR - High) (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
21,51
GeForce RTX 2080 Ti
25,32
GeForce RTX 2080 Super
27,47
GeForce RTX 2070 Super
35,84
Metro Exodus - 2560x1440 - Ultra (DXR - High) (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
24,8
GeForce RTX 2080 Super
28,6
GeForce RTX 2080 Ti
30,0
GeForce RTX 2070 Super
53,2
Metro Exodus - 1920x1080 - Ultra (DXR - High)
Videokaart Gemiddelde framerate in fps (hoger is beter)
GeForce RTX 3080
92,7
GeForce RTX 2080 Ti
86,8
GeForce RTX 2080 Super
72,4
GeForce RTX 2070 Super
60,7
Metro Exodus - 1920x1080 - Ultra (DXR - High) (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 3080
17,21
GeForce RTX 2080 Super
18,35
GeForce RTX 2080 Ti
21,98
GeForce RTX 2070 Super
27,86
Metro Exodus - 1920x1080 - Ultra (DXR - High) (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GeForce RTX 2080 Super
19,0
GeForce RTX 3080
20,8
GeForce RTX 2080 Ti
26,3
GeForce RTX 2070 Super
38,7

Stroomverbruik

De prestaties van de RTX 3080 zijn niet alleen toegenomen ten opzichte van de Turing-generatie, ook het verbruik komt hoger uit. De nieuwe Ampere-kaart komt op 320 watt uit voor in-game totaalverbruik, wat betekent dat de opgegeven tdp keurig wordt aangehouden, maar eveneens dat de koeler een hoop extra warmte moet afvoeren.

Een paar pagina's terug zagen we in de prestatiescore dat de RTX 3080 gemiddeld ongeveer 25 procent sneller is dan de RTX 2080 Ti in games zonder raytracing, maar daar staat wel een 17 procent hoger verbruik tegenover. Tegenover de 2080 Super ligt het verbruik 30 procent hoger terwijl de prestaties 50 procent zijn toegenomen, en ten opzichte van de RTX 2070 Super ligt het verbruik 52 procent hoger voor 68 procent betere prestaties. Dat maakt de RTX 3080 weliswaar efficiënter in de zin van prestaties-per-watt, maar toch is het absolute verbruik van deze proporties niet de uitkomst die het koelen van een gamesysteem er gemakkelijker op maakt.

In het idle-verbruik kwamen we intussen amper wijzigingen tegen ten opzichte van eerdere high-end kaarten. Het verbruik is zonder belasting niet bepaald laag, maar buitensporig kunnen we het zeker niet noemen.

Opgenomen vermogen ingame
Videokaart Gemiddelde vermogen in watt (lager is beter)
GeForce GTX 1080
181,1
GeForce RTX 2070 Super
210,3
Radeon RX 5700XT
212,7
GeForce RTX 2080 Super
245,1
GeForce GTX 1080 Ti
256,9
GeForce RTX 2080 Ti
273,6
GeForce RTX 3080
320,3
Opgenomen vermogen idle
Videokaart Gemiddelde vermogen in watt (lager is beter)
GeForce GTX 1080
8,4
Radeon RX 5700XT
9,1
GeForce RTX 2070 Super
10,6
GeForce RTX 2080 Super
11,3
GeForce RTX 2080 Ti
13,7
GeForce RTX 3080
14,3
GeForce GTX 1080 Ti
15,6
  • 12V PEG1 - load
  • 12V PEG2 - load
  • 12V PCIE - load
Opgenomen vermogen 12V PEG1 - load
Videokaart Gemiddelde vermogen in watt (lager is beter)
GeForce RTX 2070 Super
54,8
Radeon RX 5700XT
58,1
GeForce RTX 2080 Super
64,2
GeForce RTX 2080 Ti
114,3
GeForce GTX 1080 Ti
136,4
GeForce GTX 1080
139,6
GeForce RTX 3080
153,1
Opgenomen vermogen 12V PEG2 - load
Videokaart Gemiddelde vermogen in watt (lager is beter)
GeForce GTX 1080 Ti
68,6
GeForce RTX 2070 Super
108,4
Radeon RX 5700XT
110,9
GeForce RTX 2080 Ti
111,2
GeForce RTX 3080
112,7
GeForce RTX 2080 Super
126,3
Opgenomen vermogen 12V PCIE - load
Videokaart Gemiddelde vermogen in watt (lager is beter)
Radeon RX 5700XT
39,0
GeForce GTX 1080
41,2
GeForce RTX 2070 Super
47,0
GeForce RTX 2080 Ti
48,3
GeForce GTX 1080 Ti
51,4
GeForce RTX 3080
54,4
GeForce RTX 2080 Super
54,6

Pci-express 3.0 versus 4.0

Een grote stap voor de geheugenbandbreedte van GeForce-gpu’s is natuurlijk de komst van pci-express 4.0. AMD kwam hier al iets eerder mee met de RX 5000-serie; nu is Nvidia ook overgestapt op de nieuwste pci-e-standaard. Bij velen komt nu de vraag op of pci-e 4.0 nodig is om wat gaming betreft alles uit een RTX 3080 te halen en de prestaties niet te beperken door de lagere snelheid van pci-e 3.0. Om die vraag te beantwoorden, hebben we een aantal benchmarks gedraaid met daarbij op ons testsysteem pci-e 4.0 en 3.0 geactiveerd. Ter validatie hebben we de tests ook gedraaid op een systeem dat pci-e 3.0 als maximale interfacesnelheid heeft.

Niet geheel verrassend beginnen we met 3DMarks pci-express bandwidth-test. Met deze test meten we de geheugenbandbreedte die beschikbaar is voor de gpu. Hieruit blijkt dat zowel de RTX 3080 als de RX 5700 XT daadwerkelijk meer bandbreedte ter beschikking heeft op pci-e 4.0, grofweg twee keer zoveel: precies zoals de specificatie belooft.

3DMark

Pci-express bandwidth-test

Pci-e 3.0 Pci-e 4.0 Verschil
GeForce RTX 3080 13,07GB/s 26,28GB/s +101,1%
Radeon RX 5700 XT 14,15GB/s 25,89GB/s +83,1%

Dat de geheugenbandbreedte uit bovenstaande test hoger blijkt, is leuk, maar levert het ook wat op in de praktijk? In onderstaande tabellen vergelijken we onze resultaten van benchmarks en games. In de geteste games hebben we wat resolutie betreft gekozen voor de uitersten, 1080p en 4k, om te kijken of er verschillen zitten tussen een hoge framerate en een veeleisende resolutie.

Benchmark (RTX 3080) Pci-e 3.0 Pci-e 4.0 Verschil
Fire Strike 31095 31118 +0,07%
Fire Strike Graphics 41146 41285 +0,34%
Fire Strike Extreme 19818 19892 +0,37%
Fire Strike Extreme Graphics 20811 20936 +0,6%
Fire Strike Ultra 10958 10957 -0,01%
Fire Strike Ultra Graphics 10764 10795 +0,29%
Time Spy 16850 16794 -0,33%
Time Spy Graphics 17620 17619 -0,01%
Port Royal 11288 11340 +0,46%
Port Royal fps 52,3fps 52,5fps +0,38%

De resultaten vormen haast een anticlimax; in geen van onze tests komen we significante verschillen tegen. Daarmee lijkt pci-e 4.0 in games zelfs voor een RTX 3080 momenteel nog geen meerwaarde te bieden. Dat wil overigens niet zeggen dat dit in de toekomst niet kan veranderen. Toekomstige spellen zullen veeleisender worden, waarbij de geheugenbandbreedte dan een beperkende factor kan vormen. Dit is echter speculeren en lijkt voorlopig nog niet relevant op de RTX 3080. Of dit voor de RTX 3090 wel het geval zal zijn, zullen we in de desbetreffende review eveneens uitzoeken.

Benchmark (RTX 3080) Pci-e 3.0 Pci-e 4.0 Verschil
Doom Eternal 1080p Ultra 347,2fps 350,7fps +1,01%
Doom Eternal 4k Ultra 179,1fps 178,1fps -0,56%
Ghost Recon Breakpoint 1080p Ultra 126,1fps 126,5fps +0,32%
Ghost Recon Breakpoint 4k Ultra 81,1fps 82,1fps +1,23%
Shadow of the Tomb Raider 1080p Ultra 151,5fps 150,3fps -0,79%
Shadow of the Tomb Raider 4k Ultra 80,8fps 77,9fps -3,59%

Founders Edition: koeling en geluidsproductie

In deze review hebben we de RTX 3080 puur als 3d-chip (gpu) getest, maar je kunt de Founders Edition vanaf 17 september natuurlijk ook gewoon zelf bestellen. Deze videokaart is voorzien van Nvidia’s eigen koelerontwerp, dat een futuristischere uitstraling heeft dan de Founders Edition-kaarten uit de RTX 2000-serie. De fabrikant belooft daarbij bovendien een dubbel zo goede koeling in vergelijking met de Founders Editions van de Turing-generatie.

Nvidia GeForce RTX 3080 Founders Edition eigen foto

Bij nadere inspectie van de RTX 3080 Founders Edition valt direct op hoe hoogstaand en knap het ontwerp van de kaart eigenlijk is. We hebben hier immers een kaart voor ons die al gauw richting de 300 watt verbruikt en een flinke gpu met een behoorlijk hoog geklokt werkgeheugen bevat. Aan het formaat van het pcb zou je dat niet snel zeggen. Elke vierkante millimeter van dit pcb lijkt te zijn benut om de printplaat tot bescheiden proporties te beperken.

RTX 3080 FE PCB

Het kleine pcb zal misschien het pronken met vakmanschap als bijkomstigheid hebben, maar het V-vormige uiteinde heeft daadwerkelijk een functie in het ontwerp. De achterste ventilator van de RTX 3080 Founders Edition zuigt lucht aan vanuit de onderkant van de kaart, door de koelvinnen heen naar boven toe. Dankzij het ontwerp zit hier dus geen pcb in de weg dat de luchtstroom naar boven toe blokkeert.

De voorste ventilator is als het ware een hybride vorm tussen de blower style- en open air-koeloplossingen. Deze ventilator blaast nog steeds lucht richting het pcb, maar in het ontwerp is ervoor gezorgd dat de lucht vervolgens via de i/o-kant de behuizing verlaat en daarmee overige componenten zo min mogelijk opwarmt. Het valt nog te bezien of veel fabrikanten deze constructie zullen overnemen. Wij zijn in ieder geval al fan van het idee dat dergelijke innovatieve koeloplossingen verder komen dan de tekentafel.

RTX 3080 FE koelconcept

Bekijken we verder het pcb van de RTX 3080 FE zelf, dan treffen we een stroomvoorziening aan met achttien fasen voor de gpu, gekoppeld aan de inmiddels veelbesproken twaalfpinsconnector van Nvidia. Bij de Founders Edition heeft de fabrikant vermoedelijk vanuit esthetisch oogpunt voor deze stekker gekozen. Een adapter van twee reguliere achtpins-peg-stekkers naar deze twaalfpins wordt meegeleverd in de doos. De kaart is verder ‘ingepakt’ in een nauwkeurig vormgegeven behuizing waarop de backplate naadloos aansluit. Het GeForce RTX-logo en de X boven op de kaart zijn voorzien van verlichting.

Testresultaten: koeling en geluidsproductie

Als we ruim tien minuten onafgebroken gamen in AC:Odyssey, stabiliseert de kloksnelheid van de gpu al snel op 1950MHz, met zo nu en dan een kleine daling naar 1935MHz. De gpu-temperatuur loopt niet verder op dan tot 75 graden, een keurig resultaat, zeker voor een referentiekaart met een verbruik van 320W.

RTX 3080 grafiek duurtest

Voor liefhebbers van een stille pc is het goed nieuws dat Nvidia eindelijk een '0dB-modus' heeft toegevoegd aan de Founders Edition van de RTX 3080. Dat betekent dat de ventilatoren blijven stilstaan totdat de gpu actief wordt belast. Eerdere referentiemodellen waarmee we in onderstaande grafiek vergeljiken, hadden een dergelijke modus nog niet, wat voor velen een belangrijke reden was om voor een model van een andere fabrikant te gaan.

Onder belasting meten we op 30cm afstand tijdens AC: Odyssey 50dB(A). Voor een referentiekaart is dat alleszins aardig. We zouden hem tijdens het gamen zeker niet muisstil noemen, maar een verbetering is het wel. De RTX 2080 Ti was bijvoorbeeld luidruchtiger, terwijl het stroomverbruik van die kaart veel lager lag dan dat van de RTX 3080. Ook met de ventilator op maximale snelheid is de geluidsdruk van de RTX 3080 Founders Edition wat lager dan bij veel andere referentiekaarten.

Geluidsmeting - 30 cm - Asassins Creed Odyssey

  • Geluidsdruk idle
  • Geluidsdruk load in-game
  • Geluidsdruk 100% fan
Geluidsdruk idle (10cm)
Videokaart Gemiddelde geluidsdruk in dB(A) (lager is beter)
GeForce RTX 3080
18,0
GeForce GTX 1080
30,0
GeForce GTX 1080 Ti
30,5
Radeon RX 5700XT
34,1
GeForce RTX 2080 Super
34,4
GeForce RTX 2070 Super
35,1
GeForce RTX 2080 Ti
37,4
Geluidsdruk load ingame (10cm)
Videokaart Gemiddelde geluidsdruk in dB(A) (lager is beter)
GeForce RTX 2070 Super
43,2
GeForce RTX 2080 Super
44,3
GeForce GTX 1080
46,3
GeForce RTX 3080
50,8
GeForce RTX 2080 Ti
53,0
GeForce GTX 1080 Ti
55,2
Radeon RX 5700XT
58,7
Geluidsdruk 100% fan (10cm)
Videokaart Gemiddelde geluidsdruk in dB(A) (lager is beter)
GeForce GTX 1080
61,3
GeForce RTX 3080
61,8
GeForce RTX 2080 Ti
62,8
GeForce RTX 2070 Super
63,4
GeForce RTX 2080 Super
63,8
GeForce GTX 1080 Ti
65,2
Radeon RX 5700XT
69,4

Conclusie

Na twee jaar wachten is het eindelijk zover; Nvidia’s nieuwste generatie GeForce-videokaarten is gearriveerd. In een live gestreamde aankondiging deed de fabrikant op 1 september de verwachtingen hoog oplopen. Met flink meer CUDA-cores en significant sneller geheugen wekte Nvidia in zijn presentatie de indruk dat Ampere veel betere prestaties zou leveren dan Turing, een verdubbeling zelfs. Of deze claims waargemaakt worden, kunnen we aan het einde van deze review eindelijk beantwoorden.

Hoe snel is de RTX 3080?

Tot de beloofde dubbele prestaties ten opzichte van een RTX 2080 komen we gemiddeld niet in onze eigen benchmarks, maar dat neemt niet weg dat Nvidia een enorme stap zet. Kijken we naar de prestaties op 4k-resolutie met Ultra-settings, zonder tierlantijnen als RTX en DLSS, dan is de RTX 3080 gemiddeld 25 procent sneller dan de RTX 2080 Ti en zelfs 50 procent sneller dan zijn directe voorloper: de RTX 2080 Super. Ook de RTX 2070 Super wordt met 68 procent winst voorbijgestreefd. Geen verdubbeling van prestaties, maar wel een flinke toename. Kortom, voor hetzelfde geld krijg je na vandaag opeens veel betere prestaties.

De RTX 3080 laat gemiddeld dus indrukwekkende prestaties zien, maar de prestatiewinst in sommige games spreken nog meer tot de verbeelding. In Control is de Ampere-gpu bijvoorbeeld 67,5 procent sneller dan een 2080 Super. En in games met ondersteuning voor raytracing is de winst ook groot. Opnieuw niet zó groot als Nvidia claimt, maar wel significant. In spellen met DXR-support komt de RTX 3080 op 1440p-resolutie met prima framerates voor de dag, wat het vlaggenschip van de vorige generatie nog niet lukte. Combineren we dit met DLSS, dan wordt het verlies in framerate meestal gecompenseerd en lijkt het erop dat 4k-gaming ook tot de mogelijkheden gaat behoren. Wel blijft het nog altijd noodzakelijk dat elke game ondersteuning voor specifiek deze technieken krijgt ingebouwd.

rtx 3080

Prestaties nemen toe, stroomverbruik ook

Is het dan alleen maar rozengeur en maneschijn? Niet helemaal, want al die extra prestaties hebben een prijs als we naar het stroomverbruik kijken. De RTX 3080 verbruikt significant meer dan zijn voorganger en hoewel de prestaties dusdanig zijn toegenomen dat de efficiëntie alsnog is verbeterd, staat de RTX 3080 in absolute zin garant voor een enorme bak hitte. Nvidia slaat natuurlijk al flink op de trom over zijn nieuwe koelconcept voor de Founders Edition, maar reken maar dat ook andere fabrikanten alles uit de kast moeten trekken om hun nieuwe kaarten goed te koelen.

De RTX 3080 Founders Edition

Niet al te lang geleden wilde je alleen een referentiemodel als je waterkoeling ging installeren en de koeler toch niet zou gebruiken. Met de afgelopen generaties timmert Nvidia echter hard aan de weg. We kunnen zeker stellen dat de RTX 3080 Founders Edition de beste referentiekaart is die Nvidia tot nu toe heeft gemaakt. De gulzige gpu wordt uitstekend koel gehouden bij een redelijke geluidsproductie, terwijl er ook voor het eerst een semipassieve modus is toegevoegd. De verscheidene Nvidia-partners zullen ongetwijfeld modellen kunnen bouwen die onder belasting nog stiller zijn, maar of ze dat ook voor een soortgelijke prijs kunnen doen… Wij vragen het ons af. Nvidia verkoopt de Founders Edition echter alleen via zijn eigen website en van de vorige generatie weten we dat voorraad daar absoluut geen gegeven is. In hoeverre fabrikanten van custom-RTX 3080's zich zorgen moeten gaan maken, valt dus te bezien.

Concurrentie?

Zolang AMD’s volgende generatie alleen nog op papier bestaat, blijft Nvidia op eenzame hoogte. Niet alleen de Radeons, maar ook de vorige ‘Turing’ GeForce-generatie verbleekt bij Ampere. En als je al onder de indruk bent van de prestaties van deze GeForce RTX 3080, bedenk dan dat de nog snellere RTX 3090 nog moet komen.

RTX 3000 lineup

Lees meer

Reacties (625)

625
602
309
28
2
202
Wijzig sortering
Geweldige post, kerel! +3

Echter is er nog 1 ding die ze niet kunnen reviewen en dat is RTX IO. Dat beloofd echt heel veel goeds voor laadtijden van games. Alleen RTX IO is wel een van de beste, zo niet de beste feature van deze kaart. RTX IO wordt dus volgend jaar via Direct X uitgerold en ik kan 'als ik naar mezelf kijk' bijna niet wachten op een nieuwe PC mét deze kaart. Mijn systeem is nu 13 maanden oud met een RTX2080 en dat was snel; nu is er de weg vrij om over een goed jaar over te stappen.

Er is geen weg meer naar 4K gaming nodig, die is er sinds vandaag officieel. Deze RTX3080 zit te slapen op 4Kp60. Dus ik vermoed dat de G-Sync modellen op 4K nu meer op voorraad komen. Zelf game ik op 1440p144, dat is ook mooi hoor. Ik kom nog van het Commodore 64 tijdperk.

Verder noem ik het geen upgrade ofzo, maar wereldnieuws voor de gamers onder ons. Ik heb genoten van de eerste aflevering van Tech hub, in het dubbele zelfs.

PS: Een tijdje terug waren er nogal wat discussies over dat PC gaming dood zou bloeden. Nou, nu al helemaal niet meer ;)
HDMI 2.1 hebben zo ook helemaal niet getest. Helemaal nergens. Werkt de Auto Low Latency Mode, werkt VRR goed met niet standaard refresh rates, werkt HDR pass through?
Eigenlijk weten we nu nog niets/veel nieuws.
Bovendien zijn de founders edities slecht verkrijgbaar en hebben bovengemiddelde koelventilatoren, die niet gebruikt worden met andere edities of andere fabrikanten.

[Reactie gewijzigd door ariekanari op 22 juli 2024 14:49]

Dat viel mij ook al op; ze reviewen allemaal dezelfde aspecten, alsof ze het bestaan van HDMI 2.1 en het belang ervan vergeten zijn.
RTX IO is geen exclusieve feature van deze kaart. Er is al bevestigd dat dit ook uitgerold gaat worden op RTX 2000 series.
Nou, als je RTX aan zet bij nieuwe titels ben je blij als je nog 60FPS haalt bij 4K
RTX is erg zwaar, weet ik.
Nu The Witcher 3 komt met een RTX patch ben ik ook benieuwd hoe de prestaties gaan zijn. We wachten het af :)
De weg naar 4K gaming was er al jaren. Speel ik wel voornamelijk de wat lichtere titels (Trials, SOR IV, Mother Russia, War Thunder) op 75Hz maar dan nog.

Enige wat me wel kan verleiden naar een upgrade is de laadtijden, ben wel benieuwd naar de winst op dat vlak.

[Reactie gewijzigd door lezzmeister op 22 juli 2024 14:49]

Hebben videokaarten invloed op de laadtijd?
Dit vraag ik mij dus ook af. want zover ik weet is over het algemeen hier het opslag medium de bottleneck.
Staat in de review, onder RTX IO.
"gecomprimeerde textures rechtstreeks inladen naar het videogeheugen, waardoor knelpunten bij de processor en het opslagmedium worden omzeild". Dus binnenkort wel ja. Nog niet. En als er grote winsten zijn, dan wil ik m'n oudere kaart wel inwisselen, maar voor amper meetbaar doe ik het niet.
Deze verdient ook nog wat extra aandacht:
https://www.tomshardware....re-cpu-scaling-benchmarks

Op 4K ultra in het 99ste percentiel is de Ryzen 3900X gemiddeld 2 fps sneller dan de 3600. Voor 250 euro extra..
De 3900X is een CPU dat voordelen heeft voor encoding, video bewerking, compilatie, streaming+gaming enz. Voor de meeste games is de 3900X gewoon overkill en word er nauwelijks 1 CCD ( 6 Cores ) gebruikt. De andere CCD staat vaak idle bij gaming want cross CCD communicatie is duur. Die andere CCD doet dan andere taken ( je browser in de achtegrond, achtergrond taken, enz ).

Die 250 Euro extra betaal je voor 2 maal 3600 in op je moederbord te hebben. Aka, zoals een Dual Socket CPU te hebben. Mensen dat enkel naar de cores kijken en dan klagen over gaming prestatie, zijn vaak die dat geen benul hebben van wat de echte troeven zijn van de 3900X/3950X.

Als ik bijvoorbeeld compile, dan word de load over alle 12 cores verdeeld. Een voordeel tegenover de 6 cores dat de 3600 enkel heeft.

En ja, te veel mensen kopen 3900X's met de gedachte meer cores = goed voor gaming, terwijl dat eigenlijk niets uitmaakt ( soms zelf een nadeel als data over de 2 CCD's gaat ). Zijn er games dat meer dan 8 cores kunnen gebruiken: Ja, maar het zijn er niet veel. Over het algemeen zijn de meeste games nog altijd geoptimaliseerd voor 4 Cores ( de grootte meerderheid van mensen zitten nog op oudere 4 cores cpu's. Zie Steam statistieken ). Ik denk met de nieuwe consoles, dat we meer naar de 8 Cores als standaard gaan maar dat is een inhaal beweging over jaren. Tegen dan zitten we mogelijk aan 6900X met 24 cores of zo.
ik zie idd in heel veel games dat mijn x3900 niet veel verder komt dan 2 cores en soms 4 cores.

maar als je render taken gaat doen komt de kracht los en ben je zo een uur minder tijd aan renderen of code compilen.

Unreal engine project compiled nu in 10 min ipv 2 uur op mijn oude I7.
"De 3900X is een CPU dat voordelen heeft voor encoding, video bewerking, compilatie, streaming+gaming enz."

Precies.

"Voor de meeste games is de 3900X gewoon overkill"

Nou, als je de door Blackice09 gegeven link ( https://www.tomshardware....re-cpu-scaling-benchmarks ) nader bekijkt, dan lijkt de 3900X zelfs een bottleneck t.o.v. de 9900K.
De 3080 is toch echt een videokaart voor 4K gaming, en daar is het verschil tussen CPU's zo klein dat zelfs een i3 geen bottleneck is!

Of ga jij wel een 3080 kopen om op 1080p medium te gamen? ;)

Edit:
fps op 4K ultra, 9 game average
Poeh poeh, wat een CPU bottleneck zeg...
Of heb ik een aantal op 1080p gamende toekomstige 3080 eigenaren (more=better!) beledigd? :+

[Reactie gewijzigd door HuisRocker op 22 juli 2024 14:49]

En waarom niet voor 1080p?
Afgaande van de eindresultaten van Tweakers gaat op 1080p Ultra je fps van 85 naar 145 als je nu op de GTX 1080 zit. Lijkt me een goede bump wanneer je een 144+Hz scherm hebt.

[Reactie gewijzigd door jhnddy op 22 juli 2024 14:49]

Gemiddeld geven 1080p 144+Hz spelers weinig tot helemaal niks om ultra instellingen. Je hebt het dan al snel over bijvoorbeeld een competitive shooter zoals CSGO o.i.d. waarbij je 'met een aardappel als videokaart' al de 144 haalt...

De hier (en ook in het geval van de meeste andere reviews) geteste games zijn grafisch flink zwaarder dan de gemiddelde game library van 1080p 'high fps' spelers, je vergelijking is dus krom. De GTX1080 haalt in de werkelijke game library van de 1080p 'high fps' spelers veel meer dan 85 fps gemiddeld omdat daar, in tegenstelling tot bij deze review, geen games als Control, TWS:Troy, SotTR en RDR2 bij zitten!

Edit: Was Control nog vergeten...

[Reactie gewijzigd door HuisRocker op 22 juli 2024 14:49]

maarja de 360hz schermen komen binnenkort uit en daar kan je deze kaart dan wel weer voor gebruiken op 1080p ;)

al heb ik liever de 1440p 360hz maar die zal er vast nog niet komen :(
Competieve gamers mijden meestal 4K schermen vanwege:
- hoge input lag
- framerate
- gebrek aan meerwaarde van 4K resolutie bij 144 Hz t.o.v. 1440p

144Hz 1440p en ja, ook 144 Hz 1080p schermen zijn daartegen zeer gewild.

En als we naar het aantal minimum frames kijkt bij 2560*1440 9 game gemiddelde kijken zien we:

i3 10100: 113.5
R5 3600: 120.4
R9 3900X: 132.0
i9-9900K: 146.5
i9-10900K: 150.0

Kortom CPU maakt een duidelijke verschil en ja er is sprake van een CPU bottleneck.

"Of ga jij wel een 3080 kopen om op 1080p medium te gamen?"

Nee, als ik al een 3080 koop dan niet primair voor 3D games maar vanwege de CUDA cores voor Lc0 e.d. Wat 3D games betreft, Diablo II LOD zit op 800*600 resolutie ;)
De 3080 is toch echt gepositioneerd als videokaart voor 4K gaming.
Vandaar mijn bottleneck opmerking, die is er dus niet op 4K, dat is gewoon 100% juist.

Dat er op 1080p/1440p bij high fps (dikke videokaart) al snel een CPU bottleneck is weten we al jaren, da's niks nieuws.

En wat is er nog relevant aan je opmerking "competieve gamers mijden meestal 4K schermen vanwege: ..." als je daarbij simpelweg voor het gemak eventjes vergeet dat 'competitieve gamers' de geteste games helemaal niet spelen?

Dit artikel gaat over de 3080, niet over low res high fps gaming, de tests voor deze reviews (games) zijn daar duidelijk niet op gericht, daardoor niet relevant voor deze groep en discussie daarover is daarmee ook niet relevant... Waar wil je heen?
Dat zoals ik in mijn eerste post al aangaf de 3900X niet gewoon overkill is maar een bottleneck.

"De 3080 is toch echt gepositioneerd als videokaart voor 4K gaming."

Natuurlijk zet de Nvidia marketing de 3080 als 4K neer, daar is de prestatiewinst procentueel het grootst t.o.v. ander kaarten. En voor 1024 * 768 hoeft de gamer zijn huidige videokaart niet naar een 3080 te upgraden.

" niet over low res high fps gaming"

Sinds wanneer zijn 1080 en 1440P low res? En al helemaal niet met 21:9 schermen. Ik durf rustig te stellen dan van de mensen die de komende 12 maanden een 3080 kopen slechts een minderheid op de 4K monitor gamed. De veeleisende gamer heeft meer plezier van een 144Hz 1440p scherm dan van een 60Hz 4K monitor.
Waar noem ik 1440p low-res? Dat verzin je ter plekke...

En verder, jij trekt 1080p toch in de discussie onder een artikel over de 3080? Daar ging uiteraard mijn "low-res" opmerking over.
Het antwoord op je vraag, maar dan voor 1080p, is; sinds al een tijdje. Het is simpelweg een feit dat het de laagst verkrijgbare resolutie voor gaming is tegenwoordig.

Hoeveel schermen kan je überhaupt tegenwoordig nog nieuw kopen die op een resolutie lager dan 1080p zitten? Het zijn er 380 tegenover 2391 (1080p of hoger) in de pricewatch, en van die 380 is er voor zover ik kan zien niet 1 gericht op gaming.

Je kan het dus wel of niet leuk vinden, maar tegenwoordig is 1080p low-, 1440p mid- en 2160p (4K) high-res. v.w.b. 16:9 (2179 stuks in de PW, dus duidelijk de norm), voor ultrawide en 'ultrabreedbeeldmonitoren' is dat uiteraard iets anders.

Ook is het geen 'denigrerende opmerking van mij naar 1080p gamers' o.i.d., ik zit zelf nota bene nu ook gewoon nog op 1080p (wel ultrawide) te gamen! Met een tweedehands RX 480 overigens waarmee je in bijvoorbeeld CS:GO (speel ik incidenteel en casual) of Assetto Corsa (speel ik vaak en redelijk fanatiek) al boven de 144 fps gemiddeld zit.
Waarmee ik nogmaals aan wil geven; een RTX 3080 voor 1080p? Dan is je doel duidelijk om de allerzwaarste nieuwe AAA games met hoge/de hoogste settings op relatief hoge framerates te spelen. De catch hierin; dat is dus niet wat competitieve high fps spelers doen... Die spelen toch echt veel lichtere games en gaan daarom nog een aantal jaren geen 3080 power nodig hebben om hun framerates te halen en daarmee competitief te blijven. En zeer waarschijnlijk ook niet als ze recent naar 1440p zijn overgestapt want ook daar haalt de 3080 met gemak zeer hoge framerates in competitieve games.

De fout die je hier telkens maakt is dat je de lijst met geteste games, en de resultaten van de testen, van deze review behandeld alsof deze representatief zijn voor een andere doelgroep die andere games speelt (al dan niet competitief), en dat is dus, nogmaals, niet het geval...
En ja, te veel mensen kopen 3900X's met de gedachte meer cores = goed voor gaming, terwijl dat eigenlijk niets uitmaakt ( soms zelf een nadeel als data over de 2 CCD's gaat ).
Inderdaad te veel gamers die niet weten wat ze kopen. Het zal AMD overigens een worst wezen waarom iemand een CPU koopt. "For the world's elite gamers" staat bovenaan op AMD's officiële productpagina voor de 3900X. Ik vind het een slechte ontwikkeling, vandaar dat ik deze test graag wou delen. Daarnaast zal het één van de meest gestelde vragen zijn: "moet ik mijn systeem upgraden"?

[Reactie gewijzigd door Blackice09 op 22 juli 2024 14:49]

Bij het werken met te veel cores krijg je by complexere physics berekeningen al snel timings problemen met andere processen.
wat is eigenlijk de beste keus kwa proc? { voor game's }

[Reactie gewijzigd door noway op 22 juli 2024 14:49]

Zelf ben ik een fan van Guru3D , ik vertrouw al zolang op hun reviews.
Wat wel grappig is; is dat hun niet boven 38 dBA uitkomen met hun 100% load test kwa noise en T.net daar keihard overheen gaat 50.8 wat echt een significant verschil is.
Het ligt er ook aan van hoe dichtbij je de meting doet. Je moet het daarom ook meer in verhouding tot de andere kaarten zien, dan als absolute getallen.

[Reactie gewijzigd door Immanent Ike op 22 juli 2024 14:49]

Maakt qua info niet superveel uit, zolang je maar weet wat de variabelen zijn, wat in deze dus vooral afstand tot de ventilator is, op welke plek de meting wordt afgenomen en welke fans er allemaal nog meer draaien. Zolang je dat weet en dit een constante gelijke afstand is etc dan kun je daar redelijke conclusies uit trekken, of dat nu op 1m of 1cm afstand is. Ik heb liefst een op realistische afstand voor mijzelf, dus ongeveer 1 meter. Ik heb de kast niet naast mij staan dus
Houd daarbij rekening dat decibel (dB) een logaritmische schaal is. Dus verschillende afstanden tot de bron kan tot een hoger/lager verschil in dB tussen kaarten leiden.
Tering..was al blij dat ik deze (uitstekende) review uit had.
Maar serieus, fantastische bronvermelding. Bedankt!
Tweakers is er flink op vooruit gegaan door de "merger". Je ziet alleen dat ze bij bv TPU nog net wat meer tijd erin steken met o.a. een volledige teardown van de koeler. Vandaar dat die ook bovenaan staat.
Geen tech youtuber, maar wel iemand die veel gedetaileerde filmpjes heeft gemaakt over DLSS en daarmee waarschijnlijk zijn review kopie heeft weten te scoren:
2kliksphilip - https://www.youtube.com/watch?v=SwX_eKUOyFg
daar mist de digital foundry review bovenaan de youtube lijst :P
https://youtu.be/k7FlXu9dAMU
Ik begreep anders van het AMD fanboy meubilair in CJ's Radeon topic dat Digital Foundry absoluut niet geloofwaardig is. Althans, door de rood gekleurde bril heen :+

@whyz ;)
En dat klopte uiteindelijk dus ook. ;)
Zijn resultaten waren niet in lijn met de onafhankelijke reviewers.
Handig linkje, maar ik sorteer ze liever op kwaliteit dan op alfabet :p.
Hardware.info had bovenaan gestaan.....r.i.p. :(
Waarom zou je die site bovenaan willen hebben dan? :P
Omdat HWI reviews van zeer hoge kwaliteit hadden, en ook daadwerkelijk luisterde naar website bezoekers als die de volgende keer meer diepgang wouden op dit of dat, lees eens recencies op ''grote'' reviews op tweakers de afgelopen paar jaar, veel commentaar van veel bezoekers.
Helaas vind ik de reviews van HWi niks meer dan belabberd. Staan altijd vol met spelfouten en een zinsopbouw waarbij je gerust de schrijfkwaliteit Nederlands van de redacteur in twijfel kan trekken.
Newsflash: Dit is de review die anders bij Hardware.info had gestaan....
Nieuwsflash:
Tomas en Reinoud zijn de Hardware.info redacteuren die altijd moederborden en videokaart reviews op hardware.info geschreven hebben.
Inderdaad, ik dacht dat o.a. Ch3cker de reviewer was aangezien die nogal veel in de ik en wij vorm hier reageerd.
Ik ben benieuwd waarom Linus tech tips onderaan staat in kwaliteit, ja de reviews zijn minder in-depth dan die van Gamer nexus maar focussen meer op je gemiddelde consument die gewoon denkt "hoe snel draait dit games " en dit op een leuke manier gepresenteerd wilt hebben.
Hij moet eigenlijk Antony meer laten doen. Die gast is geniaal.
Ja en nee, Linus heeft meer ervaring met reviews maken en met hardware kloten terwijl Anthony Imo beter is in software en ook goed is met hardware.
Het zal mij niks verbazen als de tests door Anthony is gedaan. Linus eeft meerdere malen laten weten dat hij het schrijven van scripts leuker vind en vind zich zelf een "Writer" en is dus ook de "Senior Writer" van zijn bedrijf, wel is hij nog vaak de host maar ook dit wil hij gaande weg veranderen en andere team leden een kans geven dit te kunnen doen
Anthony idd, een baken van kennis. En presenteren kan hij geweldig.
oh laat maar was al gepost.

[Reactie gewijzigd door Jelle Brolnir op 22 juli 2024 14:49]

Niet erg leuk voor de redactie van Tweakers als de eerste comment een verwijzing naar vele andere reviews is..
https://www.reddit.com/r/...ke_any_3080_fe_available/

Heeft er iemand een FE kaart kunnen bestellen, behalve wat reviewers?
Maken ze de verwachtingen waar? Antwoord nee. nVidia heeft de chips te veel gehyped en de prestaties zitten onder wat nVidia je wil doen geloven. Ja ze zijn efficienter dan Turing maar dat is slechts 8% tov de 2080 Ti dat is heel wat anders dan de 90% die mensen wilde geloven aan de hand van de slides al heb ik toen ook al meerdere keren geroepen dat mensen even goed moeten kijken naar die grafiek en hoe nVidia die claim maakt.

Dit alles neemt niet weg dat het wel een mooie stap vooruit is (Avg 32% tov de 2080 Ti). Performance per watt is omhoog. De totale prestaties zijn beter en de prijs prestatie verhouding is beter dan Turing. (maar dat zegt meer over hoe overpriced turing was)

Al met al is dit voor gamers wel goede generatie zeker als je al van plan was te upgraden. Nu hopen dat er genoeg zijn. De geruchten hebben het over kleine aantallen en dat ze lang niet genoeg hebben om aan de vraag te voldoen.

Ik ben wel benieuwd wat de 3090 straks laat zien ik verwacht zelf 15-20% sneller dan de 3080.

[Reactie gewijzigd door Astennu op 22 juli 2024 14:49]

Verwachtingen van gebruikers die maar het halve verhaal vertellen kunnen ze (natuurlijk) niet waar maken. Deze review tegenover hun eigen verwachtingen heb ik weinig grote verrassingen in gezien.

90% efficienter zonder verdere condities is ook niet geclaimed. Ze hebben geclaimed dat voor hetzelfde performance level als Turing, dat Ampere 1.9x perf/w heeft. Echter bij hetzelfde vermogen volgens deze plot is dat nog maar 50%, en met 320W blijft er nog minder van over.

Je kan dat ook narekenen. Volgens de gelinkte plot: Turing 60fps bij 240W (0.25fps/W), en Ampere 105fps bij 320W (0.33fps/W). Resultaat: 31% meer efficient.

Pakken we de tweakers getallen er bij: de 3080 verbruikt 31% meer stroom dan een 2080S (250W TGP), terwijl deze 66% meer FPS behaald in Control 4K met RTX. Daarmee is de efficientie verbetering ca. 1.66/1.31 = 1.26x (26% meer efficient).

Ditzelfde kan je voor de prestaties doen die bvb door DigitalFoundry op aankondigingsdag zijn vrijgegeven. Bvb 70% meer FPS in Shadow of the Tomb Raider 4K, wederom: 3080 vs 2080S +57.7% in dit artikel. 2080S vs 2080 +3.9% in Super kaarten review. Gecombineerde verbetering: +64%

Er zijn wel enkele outliers te vinden (Doom Eternal volgens TechPowerUp review bijvoorbeeld), maar het ontloopt elkaar niet orde groottes. De generatie is een mooie stap voorwaarts, hoewel je wel een beetje terugziet dat de chips erg hard gepushed worden om een "4K 60FPS" experience te kunnen leveren. Ik vraag mij af hoe erg dat gaat zijn bij de 3090 om "8K Gaming" te kunnen waarmaken. Ik denk dat het leuk staat als "First 8K GPU" maar verder puur een parade paardje is..
Het gaat er om dat nVidia focus legt op 1,9X performance per watt en dat is niet realistisch.
Ze vergelijken Turining pushed to the max dus ver boven het meest efficiënte punt van die chip en vergelijken het met Ampere die in zijn sweetspot draait.

Als je de meest efficiënte Turing GPU pakt: de 2080 Ti is dat verschil in de reviews ineens niet zo groot. En het is nog maar de vraag of de 3090 veel efficiënter gaat zijn gezien het TDP van die kaart.
Dus ik vind dit wel een valide vergelijking.

Zoals ik hier boven ook al aan geef ik zou willen dat de tech bedrijven dus niet alleen nVidia maar de andere ook een wat meer realistische presentatie geven. Daar is ook niets mis mee. Deze kaarten doen het veel beter dan de Turing generatie. Waarom moet je het dan nog mooier laten lijken dan het is terwijl de daadwerkelijke prestaties gewoon top zijn gezien de prijs van de kaarten? Dat vind ik gewoon storend en ze proberen gamers gewoon te misleiden.
Waar legt Nvidia de focus op 1.9x performance per watt, op een manier die gamers misleid? Ik heb die informatie alleen gezien in een presentatie waar in een grafiek duidelijk wordt uitgelegd wat ze er mee bedoelen?

[Reactie gewijzigd door cnieuweboer op 22 juli 2024 14:49]

Letterlijke woorden van Jensen:
Ampere is an incredible two times the performance and energy efficiency of turning)
https://youtu.be/E98hC9e__Xs?t=1103

Beide claims zijn niet waar. En die grafiek laat het ook zien. Maar later in de slide komen ze ook weer met 1.9X en dat klopt gewoon niet.
Het verschil bij vergelijkbaar verbruik volgens de grafiek is 50 vs 60 FPS bij 120 watt. En dat is ook een mooie verbetering als ze dat zo hadden laten zien en het hadden over 20% betere performance per watt helemaal goed en mooi maar de claims die ze maken kloppen niet. Ze zijn ampere in het beste licht aan het zetten en turing in het slechtste. En als je naar de reviews kijkt zie je inderdaad dat er helemaal niets klopt van de claim van Jensen. het is geen 2x efficiency en ook geen 2x performance. Not by a long shot.
Ok, dit gaat dus om een presentatie waar ze gewoon exact uitleggen wat ze met 1.9x bedoelen. Duidelijk dan waar we het over hebben. Als je daar perse iets anders in wil lezen dan wat Nvidia bedoeld, inclusief uitleg van Nvidia, moet je dat verder zelf maar weten.

En als je "tot 2x" wilt lezen als "gemiddeld 2x" ben je naar iets op zoek. Nvidia heeft in hun eigen presentatie al laten zien dat je dit lang niet in alle workloads hoeft te verwachten. Je wist al lang al dat dit cherrypicked resultaten zijn, op games/resoluties waar Ampere de extra floating point performance goed kwijt kan. Daar heb je de afgelopen week dagelijks over geklaagd.

Wat ik eigenlijk nog wel interessanter vind. Hoe heb ik een paar minuten na je reactie al 2x een 2+ moderatie? Onder een nieuws item van een dag oud, met 400+ reacties, terwijl andere oudere reacties volledig genegeerd worden. En dat bij een post waar je woorden cherrypicked, veel meer nog dan Nvidia dat met test resultaten gedaan heeft.
Zou je mij dan voorbeelden willen geven waar Jensen aangeeft dat dit gemiddeld anders is? ik zie dat in zijn presentatie niet terug.
Ook zijn claims over de grote prestatie verbeteringen zijn extreem cherry picked waar ze games en settings gebruiken die meer dan 8GB VRAM gebruiken waardoor de 2080 helemaal onderuit gaat. Als je dan een 30 game benshmark gaat doen krijg je een totaal ander beeld.

Ik wil er niet perse iets anders in lezen dit is wat Jensen zelf zegt en wat heel veel nieuws sites waaronder tweakers 1:1 overgenomen hebben. Ook mensen op fora namen die claims over 1.9x en 2x als waar aan. Of kwamen met hogere waardes dan we nu bij de uiteindelijke reviews zien.
Dus ja ik heb toen aan verwachting managment gedaan en gezegd dan men even beter naar de grafieken en slides moet kijken want tov die slides kan het gaan tegenvallen. En dat is nu ook gebleken.

Ik zeg dus niet dat Ampere slecht is. Integendeel. Maar ze hadden de cijfers niet op hoeven te blazen. Ampere is as is goed genoeg de performance per watt is duidelijk omhoog gegaan. De prijs is lager. De prestaties tov de vorige generatie zijn meer dan prima. Dus waarom het dan toch mooier proberen te maken dan het is? waarom niet de daadwerkelijke gemiddeldes noemen die mensen ook echt gaan zien?
Wat ik eigenlijk nog wel interessanter vind. Hoe heb ik een paar minuten na je reactie al 2x een 2+ moderatie? Onder een nieuws item van een dag oud, met 400+ reacties, terwijl andere oudere reacties volledig genegeerd worden. En dat bij een post waar je woorden cherrypicked, veel meer nog dan Nvidia dat met test resultaten gedaan heeft.
Wat probeer je hier mee te zeggen?
En welke woorden cherrypick ik dan? ik quite Jensen gewoon letterlijk. Jij gaf aan dat nVidia dat niet gezegd heeft. Ik geef je de letterlijke quote van de CEO waar uit blijkt dat dat wel zo is.

Zelf kom je vervolgens niet met bewijs. Dus ik nodig je uit net als mij met duidelijke slides, quotes en youtube timestamps te komen waaruit blijkt dat nVidia de boel niet mooier probeerde te maken dan het daadwerkelijk is.
Sorry maar ik ga niet op je hele verhaal reageren. Zo veel tijd wil ik hier niet in steken.
Dat mag maar op deze manier zeggen je woorden hierboven dus niets meer. Je wil het bewijs niet leveren.
Zonder bewijs kan iedereen van alles claimen. Dit gebeurd heel vaak ook en als je dan naar bewijs vraagt komt het niet.
En het is niet dat ik perse mijn gelijk wil halen. Als ik het verkeerd heb wil ik dat met alle liefde toegeven ik ben ook maar een mens en kan wat over het hoofd gezien hebben.
In die presentatie staan gewoon grafieken, waar je kunt zien wat er met "tot x2 prestaties" bedoeld wordt
Dat zijn compute workloads geen games. Maar ook de geclaimde game percentages (dacht 80% tov de 2080) worden in reviews niet gehaald in praktijk zijn die 10-15% lager.
Maar goed als nVidia dat met 2x bedoelt leuk maar totaal de verkeerde doelgroep dat is meer wat voor de quadro launch dit was gericht op gamers.
Waar heb ik dat gedaan? Ik vroeg alleen alleen waar je de focus van Nvidia op de 1.9x performance/watt gezien hebt, om dat ik dit alleen in de presentatie heb gezien. En in die presentatie staat gewoon wat ze daar mee bedoelen. Maar als dat bijvoorbeeld zonder verdere uitleg op ergens op nvidia.com staat zou dat wel kwalijk zijn.
Je hebt gelijk je zei:
Waar legt Nvidia de focus op 1.9x performance per watt, op een manier die gamers misleid? Ik heb die informatie alleen gezien in een presentatie waar in een grafiek duidelijk wordt uitgelegd wat ze er mee bedoelen?
Het gaat mij om deze slide:
https://images.anandtech.com/doci/16057/Ampere_PPW_575px.jpg

Waar ze 1,9x Perf/W claimen. Wat er staat klopt wel maar kijk ook naar de curve van turing die begint af te vlakken omdat die tot de max gepushed wordt of tegen een bottelnek aan loopt.
Als je bv een 120 of 200 watt vergelijking gaat maken krijg je een totaal ander beeld.

Waarom ik dit ook zeg is dat veel nieuws sites en mensen op foa of in comments die claim van nVidia over namen en er in geloofden. Ik had gewoon liever gezien dat nVidia een wat meer realistische vergelijking had gemaakt dus bv at same power 20% faster compared to turing. Daarnaast laten ze niet zien welke GPU dit is ze geven alleen aan dat het Control at 4K betreft.
Kijk je nu naar reviews en de power efficiency tests daar valt dat gewoon tegen tov de 2080 Ti. Dus ben daar wel beniewd of de 3090 dat beter kan doen.
Dat 2 personen (of accounts) enorm vooringenomen en doelgericht aan het modereren zijn.
Dat soort mensen heb je helaas altijd. Je post heeft onterecht een -1 gekregen. Maar zo te zien is dat al weer recht gezet. Je posts zijn gewoon on topic.
Je hebt zeker een punt hoor.
Als je kijkt naar de grafiek zie je dat Nvidia de winst claimt bij een (gecapte?) 60 FPS.
De grafiek laat zien dat het energieverbruik inderdaad de helft is van de 2080.
Maar dat scenario is helemaal niet realistisch. In de echte wereld is de Perf/W veel lager, eerder in de buurt van 20-30 %.
Dus misleiding.... JA,daar kan je zeker van spreken in dit geval,is mijn mening.
En ik denk dat de (misleidende) claim juist is gedaan om mensen zand in de ogen te gooien,juist omdat het het energieverbruik zo hoog is.
Voor mij heel duidelijk marketing geneuzel,maar bij de gemiddelde gamer gaat het er in als roze koeken.....
En daarvan is Nvidia bewust natuurlijk,juist daarom is het zo belangrijk dat sites als GoT dit checken,en mensen er op wijst als claims onzinnig zijn. (wat dus,ook bij GoT niet gebeurt).
Als je de 2080Ti qua prestaties per watt vergelijkt dan zijn de resultaten op zijn zachts gezegd niet bijzonder... Pak je bijvoorbeeld 1440p ultra gemiddeld van deze review en dan het stroomverbruik dan kom je op een verbetering van circa 2% wat imo erg slecht is gezien de node schrink.

Bij de reviews die ik tot dusver heb gezien kom ik tot hetzelfde resultaat.

[Reactie gewijzigd door Pietjeball op 22 juli 2024 14:49]

Helemaal eens. Prestaties zijn indrukwekkend en de prijs is aardig, maar daarvoor hebben ze echt ingeleverd op prestaties per watt. AdoredTV heeft net een video online gezet waarin hij speculeert dat Nvidia per se de prijs omlaag wilde hebben en daarom op Samsung gegokt hebben, waarbij NV waarschijnlijk niet van tevoren had kunnen bevroeden dat die 8nm node van Samsung zóveel energie zou slurpen. 320 watt, en daar een groot deel je kast van inblazen, dat lijkt mij niet het beoogde eindresultaat van een bedrijf dat zijn reputatie behaalt heeft op zuinig, stil en koel.
Dank. Tis nogal een lang verhaal en hij doet wel redelijk wat aannames. Hoewel ik het niet echt oneens ben met hem had hij feitelijk ook gewoon kunnen zeggen: 'De prestaties / watt zijn slecht, we weten dat Samsungs 8 nm node slechte prestaties / watt heeft maar super goedkoop is, ergo heeft Nvidia voor Samsung gekozen vanwege de lage kosten'. Dat had geen 32 minuten hoeven duren.

[Reactie gewijzigd door Dorstlesser op 22 juli 2024 14:49]

Mooie reactie erg informative. Ik vraag mij persoonlijk aff of ik voor een rtx 3070 ga of 3080. Ik ben well van plan op 4k 144hz te gamen.

Mijn vraag aan u is zou ik met een 3070 cyberpunk op max settings kunnen spelen denkje of heb ik dan de 3080 of 3090 nodig. Ik weet dat job dat vast niet zekere weet maar als je een schatting deed wat zou je antwoord zijn?
Er zijn nog geen Cyberpunk reviews uit. Als je kijkt naar de huidige games is er nogal een verschil tussen de framerates bij games die RTX en DLSS gebruiken. Dus het is heel moeilijk te zeggen of je een goede framerate gaat halen. Control is bv super zwaar qua RTX. BF5 aanzienlijk minder.

3070 zie ik sowieso niet als een 4K RTX kaart meer als 1080/1440P RTX of 4K zonder.
Als je echt alles max wilt en je hebt het budget zal de 3090 de beste keuze zijn.

Maar qua prijs prestatie verhouding zijn de 3070 en 3080 aanzienlijk beter en dan zou ik voor de 3080 gaan.

Maar goed nVidia kan zo maar met een 3070 Ti 16GB gaan komen en 3080 Ti met 20GB tegen de tijd dat AMD met RDNA2 chips komt.
En dan kan het hele speelveld weer anders worden.

Je kan daar op gaan wachten maar volgens mij komt Cyberpunk begin nov uit en gezien hoeveel mensen nieuwe kaarten willen is er dan een kans dat zowel de nVidia als AMD kaarten uitverkocht zijn en je dan niets hebt. Dus wil je zekerheid kan je beter zo snel mogelijk iets halen of een 2e hands 2080 Ti voor een leuke prijs.
Zelf zou ik toch afwachten. Dan het spel maar wat later spelen. In het begin zijn er vaak ook storende bugs dus een paar weken wachten is dan vaak wel goed dan hebben ze het ea kunnen patchen. Alleen moet je dan niet te veel op internet gaan lezen want dan krijg je te veel spoilers ^^
Heel erg bedankt voor je tijd om dese reactie te schrijven. Is precies de soort reactie die ik wou😀.

Ik weet nu zekere dat ik ga proberen de founders edition 3080 te halen, lukt dit niet dan wacht ik lekker aff. Heb namelijk gehoord (moores law) dat bij nvidia de prijzen in october flink omhoog geschroeved worden. Nou nogmaalgs bedankt voor de reactie en pray for me dat ik we rtx 3080 man krijgje aangezien nvdia een zogenoemde paper launch heeft.
Your welcome.

Ja ik ben erg benieuwd naar de beschikbaarheid van de Ampere kaarten. En inderdaad of die prijs stelling wel klopt. We hebben het eerder ook al gezien met de 2080 Ti die heeft de MSRP amper gehaald heeft er meestal boven gezeten. Dat kan hier ook gebeuren en dat zou wel erg jammer zijn als dat het geval is.

Het is dan nog steeds een goede deal tov Turing maar dan wel minder goed als je er niet meteen op dag 1 bij was.
Geloof het of niet ik het on het moment nog een 750ti er in zitten in combination met een and phenom😂😂😂. Dus mijn performance increase zall hoe dan ook erg merkzaam zijn denk ik zelf zodra ik ook mijn cpu upgrade uiteraard.

Als het op cpu's aankomt way you je dan adviseren. Wachten op de nieuwe amd?
Dan moet je de CPU inderdaad wel upgraden ja anders kan die 3080 zijn ding niet gaan doen.

De nieuwe Zen3 CPU's worden 3 oktober aangekondigd. Ik denk wel dat dat the way to go zal zijn op dit moment. Ik vraag me alleen wel af of ze ook meteen met een 6 core komen of in het begin alleen 8 cores en meer.
Ik denk dat qua prijs prestatie verhouding de 3600 de beste zal blijven. En als je op 4K gaat gamen is de CPU iets minder belangrijk. Dan is de GPU de bottelneck.

Dus als je haast hebt nu een B550 + 3600 halen je kan er altijd later een 4700 of 5700 cpu in gooien (geruchten hebben het er nu over dat Zen3 Ryzen 5000 gaat worden).
Maar je kan natuurlijk ook 3 Okt even afwachten. Dan een 3600 kopen kan altijd nog die zijn er genoeg. Kan wel zijn dat er daar na een run komt op B550 en X570 borden als mensen willen upgraden naar een nieuwe AMD setup. Maar misschien valt dat ook wel mee omdat veel mensen toch al een B450 of nieuwer bord hebben en dus geen nieuw bord nodig hebben.
Het zou fijn zijn als zen3 Ryzen 5000 gaat worden voor de desktop, maar ik betwijfel het. Dat wordt gewoon 4000 anders heeft de consument te snel door dat de laptop cpus nog op de voorlaatste generatie gebaseerd zijn, en de 5000 serie voor laptops zal nog wel even op zich laten wachten.
In de VS hebben wat mensen problemen met een 3080 FE bestellen tot nu toe:
https://www.reddit.com/r/...ke_any_3080_fe_available/
Massive scam AMD HERE I COME
Ik denk dat je deze niet moet vergelijken met een 2080 Ti. Tuurlijk, dit heeft nVdia wel gedaan, maar als je kijkt naar de prijsklasse kun je deze beter vergelijken met een 2080 Super. Als je ziet dat de 3080 ongeveer 50% sneller is dan een 2080 Super (uitzonderingen daar gelaten) vind ik dat echt erg indrukwekkend.

Ik ga mijn 2070 (niet-super) in ieder geval upgraden naar de 3070.
Klopt en de 3080 is ook gewoon de opvolger van de 2080S en niet van de Ti.
Persoonlijk zou ik (als je het bedrag kan ophoesten) voor een RTX3080 gaan of wachten op een RTX3080TI.
Als je op langere termijn kijkt kan je zo vaak een generatie overslaan waardoor je op het einde van de rit even veel hebt betaald en dezelfde prestaties hebt behouden maar dan met 2 high end kaarten ipv 3 lower end.

Overigens zit je met RTX2070 vs 3070 nog steeds met 8GB Vram..
Goed punt! Ga ik denk ik zeker doen.
Maat ook dat is niet wat nVidia je wilde laten geloven die strooide met persentages van 80% die niet gehaald worden. Dus mijn punt is en blijft valide.

Ik zou willen dat al deze tech bedrijven wat meer realistische presentaties geven van hun producten en niet altijd maat extreem veel moeite doen om de extreme gevallen er uit te lichten.
Die 2x blijkt te zijn in full RT games (minecraft RTX) kinda verwacht van Nvidia om games te Cherry picken voor de performance nummers
Voor de mensen die de 1000 serie nog hebben is het een geweldige upgrade. Mijn 1080ti koste rond de 1100,-. Nu heb ik straks voor een stuk minder geld de dubbele snelheid.
Want die magere 30% van de 2080ti was me niet nog eens 1100+ euro waard.
Helemaal mee eens.
Het ligt er ook een beetje aan wat je doet. Als je nu 1440P120 of 144 hebt hoef je de 1080Ti eigenlijk nog helemaal niet te vervangen (of je moet perse RayTracing willen).

Wil je 4K dan is het een ander verhaal en dan is het zeker de moeite om voor een 3080 of eventueel RX6900 te gaan.

Dit zijn vooral hele interessante upgrades voor mensen met een 980/980Ti of zelfs 780Ti.
Ik heb een 780 ti. Wat maakt deze 3xxxx generaties so interessant voor mij?
Afhankelijk van de resolutie waar je op speelt en de games die je wilt spelen is het een grote performance upgrade. Als je nu een 1080 Ti of 2080 hebt is het verschil niet zo heel groot.

De 2080 Ti is al meer dan 2x zo snel:
https://www.gamersnexus.n...evisit-in-2019-benchmarks
Dus als je meer prestaties nodig hebt is de 3000 of AMD 6000 generatie interessant.

Maar als de 780 Ti voor jou nog steeds moet wat hij moet doen en de games draaien soepel gewoon lekker blijven gebruiken natuurlijk :)

[Reactie gewijzigd door Astennu op 22 juli 2024 14:49]

Voor de claims van Nvidia moet je eens kijken naar de resultaten in Blender en V-ray in de video van LTT.
In games zijn de prestaties niet zo imposant als geclaimd, maar in Blender en V-ray is de 3080 2 tot 2,5 keer sneller dan de 2080.
Die toename in prestaties is echt extreem
Mja dat is leuk maar gamers gebruiken dat niet. Dat is meer voor mensen die quadro en firegl kaarten gebruiken. Dus in mijn ogen niet relevant en misleidend in een presentatie die gericht is op gamers.
In de conclusie wordt onterecht gesuggereerd dat deze founders editie een referentiekaart is:
Niet al te lang geleden wilde je alleen een referentiemodel als je waterkoeling ging installeren en de koeler toch niet zou gebruiken. Met de afgelopen generaties timmert Nvidia echter hard aan de weg. We kunnen zeker stellen dat de RTX 3080 Founders Edition de beste referentiekaart is die Nvidia tot nu toe heeft gemaakt.
Dat is onjuist. Nvidia heeft in de Founders Edition dit keer een custom PCB gemaakt, de PG133, terwijl de referentiekaart de PG132 is. Bron.

Dat is belangrijk als je van plan bent om zelf een custom waterkoeler te kopen: deze gaan niet persé passen op het PCB in de Founders Edition.
De verbeterde Tensor-cores in de RTX 3080 laten in deze DLSS-test hun meerwaarde zien.
Dat ze verbeterd zijn zie je niet terug in de benchmarks. De relatieve verschillen tussen met en zonder DLSS zijn niet groter dan bij de RTX 2080 Ti. Met andere woorden, de 2080 Ti behaalt met DLSS percentueel grofweg dezelfde winst t.o.v. zonder DLSS.
Dit bevestigt ook Computerbase.de, vertaald vanuit Duits:
DLSS brengt geen grotere boost voor Ampere dan Turing, blijkbaar brengen de betere tensorcores voor AI-upsampling geen voordelen op het gebied van prestaties. De GeForce RTX 3080 stijgt met 87 procent in de selectie van games via DLSS, terwijl de GeForce RTX 2080 Ti 88 procent is. Het resultaat komt niet alleen tot uiting in de rating, maar ook in de individuele games zijn er geen verschillen in de DLSS benchmarks tussen Turing en Ampere. Zelfs in Death Stranding, dat DLSS aanbiedt maar geen ray tracing, is er geen verschil.
Zijn hier het aantal tensor-cores hier ook bij meegenomen? De 3080 heeft er 272 waar de 2080ti er 544 heeft. Als er met de helft van de cores een vergelijkbare prestatie (percentueel) wordt gehaald is dat dan niet een enorme verbetering?
Terecht punt. Ik zie nu trouwens dat het ook in deze review van Tweakers wordt genoemd:
Ook aan de Tensor-core is gesleuteld voor Ampere. Om te beginnen is het goed om te weten dat het aantal Tensor-cores is teruggebracht van acht naar vier per sm, maar dat ze per stuk wel een verdubbelde rekenkracht hebben.
Ze weten dus bij de RTX 3080 met de helft van de tensor cores dezelfde prestatiewinst te bereiken als bij een RTX 2080 Ti, inderdaad een verdubbeling van de prestaties per tensor core.

[Reactie gewijzigd door Degrader op 22 juli 2024 14:49]

Jammer dat Flight Simulator 2020 niet is meegenomen in de review! Dè game bij uitstek om te testen hedendaags!
Zeker! Dat had een mooie toevoeging geweest. Helaas zit deze game op dit moment niet in onze benchmarksuite, en hebben we daar dus ook nog geen benchmark voor ontwikkeld. Ook is Flight Simulator een game die zeer sterk CPU afhankelijk is, en daarmee minder interessant om te gebruiken voor een 3d-chip review. Wellicht dat we in de toekomst nog eens in de benodigde hardware voor FS kunnen duiken!
Wellicht? FS2020 is de game waarvoor reikhalzend naar de 3000-serie is uitgekeken omdat die erg verlegen zit om meer grafische rekenkracht. Dat gonst al heel lang op het internet. :?

En als totale leek ben ik niet onder de indruk van deze benchmarks. Ik had echt geen verdubbeling in prestaties verwacht maar gemiddeld 50% meer had toch wel gemogen, zeker gezien de flinke toename in opgenomen vermogen van de kaart. Maar wellicht is het ook nog een kwestie van driver optimalisatie de komende maanden.
In de benchmark van GamersNexus is die meegenomen en daar zie je op 4K maar een minimaal verschil door de enorme CPU bottleneck. Op lagere resoluties is er wel absoluut een sprong zichtbaar.
MSFS2020 presteert ruim beter, LTT.
Is toch 50% meer? Je moet het vergelijken met de RTX 2080, niet met de RTX 2080ti, die zal met de 3090 moeten vergeleken worden.
Nee, die 3090 zal met de Titan vergelijken moeten worden. De 2080Ti heeft geen directe opvolger. Waarschijnlijk komt er nog wel een 3080Ti, en dat wordt dan de opvolger van de 2080Ti.
Ook fout, aangezien er óók een nieuwe Titan in de maak is. De 3090 start een nieuw segment die tot nu toe niet bestond. De 3080 kun je het best vergelijken met de 2080.

De verwachting is in het algemeen dat er nog een 3080ti komt... Maar misschien ook wel een 3090ti... We weten het simpelweg nog niet :)
De directeur van NVidia bracht het in zijn presentatie also de 3090 de Titan opvolgt. Wat er nog gaat volgen in de 30-serie... Zoals je al zegt, we weten het nog niet.
De correcte quote was, dat de 3090 'Titan like performance' krijgt - niet dat het de nieuwe Titan is. Groot verschil is de focus van de kaart - de 3090 is veel meer gericht op gaming dan de Titan.
Aan al de mensen die riepen dat FS niet cpu bottlenecked is..
Hier is het resultaat, de game wordt niet overal getest omdat het de gemiddelde cijfers doet kelderen..
10 mensen onder jouw posten het zelfde en krijgen +1 :S
Dat vind ik behoorlijk onterecht.

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 14:49]

Ik had het over de comments in de voorgaande artikels omtrent FS2020.

Telkens weer opnieuw fans die uitriepen dat het een goede multi-threaded game is omdat al hun cpu cores benut worden.
De traagste schakel is de simulatie berekening die helemaal niet geoptimaliseerd is, en waarschijnlijk zelfs draait op een aangepaste port van de FSX engine.
Microsoft ESP is daar dan weer de grondslag van, die dateert al van 2007. Dat is het jaar dat Crysis uitkwam.

MSFS is een topgame, maar ik wil meer performance zien en het doet me pijn in het hart dat de VR update uitbundig gebruik gaat maken van misselijkmakende frame creation truukjes.
Op mijn pc r5 3600/rtx2060s is die vooral gpu limited op 1440p. Dus het was wel interessant geweest hoe die zou draaien op een rtx3080
Klopt, wat sommige reviewers doen is FS2020 alleen op 4K Ultra reviewen, waar je wel een GPU bottleneck hebt zelfs met de 3080
Daar zijn al vragen over gesteld in het FS2020 topic, daar is de redactie mee bezig. Maar er zijn nogal wat factoren om een betrouwbare benchmark te doen.

Die benchmark test komt dus, maar niet specifiek om de RTX3000 serie, maar meer met het idee 'hoe haal je het beste uit FS2020'.
Dat is goed om te horen. Tip: wacht echt even met het benchmarken zelf tot na de nieuwe patch. Anders kun je alles weer opnieuw doen :P
De verwachte patch gaat niks doen voor de prestaties
Zeker wel:

As far as the patch is concerned, some of the significant offerings that will be arriving through the update are as follows:
  • Performance improvements
  • ATC updates
  • UI updates
  • Aerodynamic updates
  • Aircraft updates
  • Cockpit visuals and animation updates
  • General aviation system updates
  • General aviation avionic updated
  • Airliner system updates
  • Airliner avionic updates
  • Live Weather updates – (e.g. 225/3kt wind fixed, persistency fixed, etc.)
  • Upgraded multiplayer servers
  • Marketplace updates
  • Content Manager updates
  • Localization updates
  • Accessibility updates
  • Camera updates
  • Bush Trip updates (e.g. completion trigger fixed/Completionist achievement fixed)
  • World updates
https://www.neowin.net/ne...nveiled-release-imminent/

En hier nog een mooi plaatje: https://msfs-cdn.azureedg...oads/2020/09/FS-09.03.jpg

[Reactie gewijzigd door Saekerhett op 22 juli 2024 14:49]

Dat is allemaal content gerelateerd, wellicht heeft het indirect invloed op de prestaties. Maar het is niet het doel van de update
En die indirecte invloed is wel belangrijk. Er wordt een heleboel gefixed. Spelers zullen per se deze upgrade willen. Als dat de prestaties erg naar beneden drukt, mag dat best bekend zijn.
40 FPS on 4K Ultra present. Aldus Linus :)
Oef, dat valt me eigenlijk wel tegen. Nou is FS2020 natuurlijk echt een grafische krachtpatser, maar ik had niet verwacht dat hij de 3080 op de knieeen zou krijgen.

Ik lees in het FS topic op GoT echter ook dat hele hoge framerates voor FlightSims minder relevant zijn dan bijvoorbeeld shooters, en dat 30FPS prima speelbaar is. Het kan maar zo zijn dat ze daarom ech tot het gaatje gaan qua grafische pracht en praal omdat ze gewoon meer speelruimte hebben.
FS 2020 is ook heel erg cpu afhankelijk. Wellicht zijn de huidige cpu's gewoon een bottleneck voor de 3080.
FS2020 is vooral vooralsnog een DX11 game. De verschillen tussen DX11 en DX12 zijn huge, zeker als het op CPU single/multi threading aankomt. Eigenlijk zit je met DX11 zowel bij Intel als AMD aan een limiet, en zijn alleen de absurd single threaded CPU's een verbetering.

Dagelijks leven draai ik een Threadripper en ik speel nu al ~15 jaar een game die van DX7 naar DX12 is gegaan. World of Warcraft. Blizzard heeft deze expansion vooral rond de ~8.2 tijd enorm veel gezet in betere GPU scheduling door juist DX12 en nieuwe CPU's te gebruiken. Ik zie dus nu dat WoW heel veel meer cores is gaan gebruiken, maar, belangrijker, m'n FPS is bijna verdubbeld zonder de settings te verlagen in een drukke zone als Boralus harbour.

FS2020 zal ook nog een DX12 upgrade krijgen, en ik heb er goeie hoop voor. Dat terzijde... FS2020 is misschien het soort spel wat niet persé >100FPS nodig heeft, en nog controversiëler: misschien is 30 zelfs wel genoeg...
Volgens mij is dat echter niet bij iedere game zo, bij WoW is DX11 v.s. 12 inderdaad goed merkbaar in bepaalde situaties / configuraties, echter in een game als Total War: Warhammer 2 maakte het dan weer vrijwel geen verschil, sterker nog, DX11 was regelmatig een stuk sneller.
Omdat het daar meer een bolt on was. Bij de nieuwere versies van Total War maak het wel meer uit dacht ik (ik heb ze helaas niet liggen alleen Total Warhammer 1 en 2). Sowieso waren Total War spellen eigenlijk altijd CPU limited. Dat ze eindelijke de stap naar DX12 hebben gemaakt is gewoon goed.

In context, mijn cpu heeft maar een paar cores die belast zijn met Total Warhammer 2 en mijn gpu zit uit zijn neus te vreten op de world map. Tijdens gevechten wordt hij meer belast, maar nog steeds maar max 80%. Getest met een 3950x en 5700XT.

[Reactie gewijzigd door Sp3ci3s8472 op 22 juli 2024 14:49]

30 genoeg? Potentieel.

Meer = beter? dat is zeker. Dus waarom ook niet vernieuwen naar DX12?
60 FPS lijkt me wel beter want ook in een 'trage' sim wil je dat alle beweging er gesmeerd uitziet. Als met DX12 en andere softwarematige verbeteringen gemiddeld 60 FPS wordt gehaald op 4k ultra dan hebben we denk ik een sweet spot te pakken namelijk een fijne frame rate zonder absurd dure hardware te hoeven kopen.
Hier moet ik wel op toevoegen dat in dit soort spellen 30FPS al als behoorlijk smooth en vaak zelfs goed genoeg gezien wordt. Historisch is zelfs dat al erg lastig en is 40-60FPS in een FS die er zó goed uitziet al ongehoord knap.
Daar ben ik het mee eens, maar 50-60FPS op Ultra settings en 4K door alleen een update lijkt me niet erg bereikbaar ;)
In deze review zitten ook twee DX11 spellen...
Hangt er natuurlijk een beetje vanaf hoe je FS gebruikt. Met een beetje stuntvliegen is het veel leuker om soepel, vloeiend beeld te hebben.

Veel fps is nog belangrijker als je - in de toekomst - VR wilt gaan gebruiken. Dan is 30fps echt niet meer genoeg, dan wil je 8-90fps.

Wanneer de Cpu geen bottleneck is, zou een 3090 dat toch wel moeten kunnen leveren.
Valt mee. Met de reviews van de 2080 Ti staat een 12 core CPU redelijk rustig aan te draaien. Af en toe loads naar 70% op alle cores, maar meestal wel rond de 30 tot 40%, dus ik betwijfel of een 3080 zoiets dan dicht kan trekken.
Het is prima mogelijk om in FS2020 50-60 fps te halen door de opties iets te tweaken. 99% van de mensen zal het verschil niet eens zien in de settings die er echt toe doen qua fps. Dus zo erg is het nou ook weer niet met dat spel :) . Zie een recent filmpje van Jayztwocents over welke settings het dan gaat.
Vooral de bomen een klein tikje terug. :-)
40 FPS op 4k Ultra noem ik nou niet bepaald 'op zijn knieen'. Maar misschien heeft ie niet 's nachts over de windmolens in Nevada gevlogen. ;)
Overdag op JFK met multiplayer aan en bewolkt/regen
Dat zal ook wel werken, ja!
Digital foundry heeft een erg goede analyse van MSFS, als je dat interessant vindt
Je moet niet alleen naar Linus kijken, kijk ook (vooral) naar GamersNexus. Die had rond de 52-53 fps met alle details die je nodig hebt.
Volgens mij hadden ze niet alles maxed maar geprobeert zoveel mogelijk de cpu bottleneck weg te halen. Dat behandelen ze o.a. in hun video daarvoor waar ze hun manier van testen uitleggen.
https://www.guru3d.com/ar...80_founder_review,21.html
prestatiewinst in die game valt tegen, lijkt erg CPU limited?
Daar lijkt het op ja, maar FS2020 is ook niet zo heel goed geoptimaliseerd voor processors met veel cores en relatief lage kloksnelheden. Toch was ik heel benieuwd. Deze week verschijnt trouwens patch #2 die aanzienlijke performanceverbeteringen moet meebrengen. Dus wellicht handig om tegen die tijd opnieuw te benchmarken.
Die zijn ze nog aan het downloaden ;)
Net boven de 40 fps in 4k
Dus speelbaar 😊
In de review van LTT wordt hij besproken
Gamers nexus heeft wat tests, pas met 4K niet meer cpu limited op een 5.1 Ghz intel met supersnel memory.
flight sim is cpu limited ivm dx11, zelfs op 4k
Linus tech tips heeft een leuk grafiekje met 4K ultra:

https://youtu.be/AG_ZHi3tuyk?t=168
Ik denk precies hetzelfde! Deze nieuwe 4k game was perfect geweest! Doodzonde dit. Gauw op zoek naar een andere review
Zo slecht, de keuze om deze kaart niet met een 10900k te testen. Je wil toch de snelst mogelijke game cpu om deze game gpu maximaal van data per tijdseenheid te voorzien? (Zeker bij de sub-4k-tests.)

[Reactie gewijzigd door Roy81NL op 22 juli 2024 14:49]

Er is een hele goede reden om deze kaart op Ryzen te testen, namelijk PCie 4.0 welke intel niet ondersteund. Je wilt de maximale performance van een GPU testen, dat gaat op 4K met PCie 4.0 en een CPU met genoeg performance.
tja, en ook in hetzelfde artikel tonen ze aan dat PCIe 4.0 er niet toe doet.

Dus toch ook effe op een i9 lopen nu we weten dat PCIe 3.0 goed genoeg is? :D
Om dat te testen moet je het wel ondersteunen :)

HardwareUnboxed heeft in hun review een vergelijking en geeft aan dat het verschil tussen Intel en AMD slechts een paar procent is, en ook alleen op lagere resoluties. Op 4K is de performance identiek.
ja idd, dat was ook te verwachten. 4k ultra is nog altijd GPU limited (wat je hier wilt, voor een GPU test), alvast met deze kaarten (straks mss niet meer met RTX3090?).

Voor lagere resoluties/settings, is het mogelijk om CPU limited te zijn. Gemakkelijker met DX11 trouwens.

Het zou leuk zijn zou je een indicatie hebben "CPU limited" of "GPU limited" bij een resultaat, maar het staat er in de tekst soms. Voor je eigen PC thuis zou een tooltje handig zijn om het aan te geven.
Midden in het Ryzen Era? Dikke 3900, of een Threadripper als je echt de stoer mijnheer/mevrouw uit wil hangen. :Y)
Pci-E 3.0 vs Pci-E 4.0 maakt minder uit dan het verschil in cpu kracht tussen Intel en AMD.

Een Intel platform is alsnog sneller qua cpu kracht.

Edit: ik bedoelde dus in gaming.

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 14:49]

Over de 3080: "The gap between current AMD and Intel CPUs at 4K is basically nonexistent. In fact, minor differences in board design, firmware, or just 1% variability in benchmark runs all become factors."

https://www.tomshardware....re-cpu-scaling-benchmarks
Tja, wel logisch op 4k... meer een gpu bottleneck dan een cpu bottleneck.

Niet iedereen wil op 4k 60 fps gamen ;)
Dan kan de i7 4770k ook nog wel meekomen...

Ik speel zelf op 1080p low (cpu bottleneck scenario) om zo dicht mogelijk bij- en stabiele 144fps (144hz monitor) te halen... 60 fps of 75 fps vind ik gewoon waardeloos.
Dat heeft allemaal met input lag / latency te maken.
Vanuit ervaring kan ik vertellen dat Intel gewoon merkbaar sneller is in dat scenario. (Hunt: Showdown... nogal een cpu heavy game.)
En ook niet voor niets dat mijn 9700k op 5ghz all cores werkt en mijn 3600 cl15 ram op cl14 (beide overgeklokt).
Alle beetjes helpen.

Maarja dat had je aan de 1080p resultaten op de gelinkte website zelf ook kunnen zien ;)

Feit is dat Intel gewoon nog steeds sneller is in games... als je kijkt naar de gelinkte website dan zijn de verschillen tussen de AMD 3900x en de Intel cpu's op 1080p nogal significant!

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 14:49]

Klopt maar we moeten dus wel degelijk onderscheid maken tussen 4K en lagere resoluties wanneer het gaat om verschillen in CPU's.
in gaming*

In elk ander vak rekent een AMD van dezelfde prijs de intel eruit.
Dat klopt inderdaad, ik staar me daar op blind :P
dat valt dus wel tegen, ligt helemaal aan de software en geheugen gebruik. Ik heb een overstromingsmodel dat heel veel matrix berekeningen doet en de code is parallel gemaakt met openmp (sourceforge/openlisem). Het blijkt dat mijn overklokte 3900x met alle 24 threads bijna net zo snel is als de i7-1064 met 8 threads van mijn werk surface pro 7! En dat schaalt gelijk met 1,2,4,8 cores. Het blijkt doordat de code niet geoptimaliseerd is, de cores helemaal niet op 4200MHz draaien, de bottleneck is veel te veel lees en schrijf werk van en naar 2D pointer arrays met doubles.

mijn code is misschien bagger hoor, maar mijn punt is dat het er helemaal aan ligt hoever de software geoptimaliseerd is voor parallele berekeningen. En dat is volgens mij lang niet alle software.
Tsja dat lijkt echt gewoon aan je geheugensnelheid te liggen en dus aan jouw code of manier van rekenen. Dat de cores niet omhoog klokken is omdat ze niks te doen hebben, dus daar gaat ook een snellere CPU je niet bij helpen. Waarschijnlijk haal je met een 3700x dan net zoveel performance. De meeste serieuze software waarbij dit een verschil maakt is daar goed genoeg voor geoptimaliseerd, anders kies je het pakket van de concurrent welke sneller is. Gelukkig is er in de benchmarks en real-world software beter over nagedacht dan jouw n=1. Beetje onterecht om op basis daarvan een algemeen correct bevonden claim als onjuist te bestempelen.
ik weet niet waarom je je zo aangevallen voelt, ik geef alleen maar aan dat de software een grote rol speelt. natuurlijk kan mijn code bagger zijn. maar ik geloof er niks van dat alle software geoptimaliseerd is voor parallelle computing en dus is het blind aannemen dat de 3900x rondjes draait om de intel niet terecht.
Ik voel me niet aangevallen, maar jij maakt een onterechte vergelijking. Een Ferrari is ook bloedsnel maar voor een "race" over de trajectcontrole op de A2 (je memory-bottleneck, of misschien een beter voorbeeld: in de file) tegen een eco-boodschappenkarretje zal in een behoorlijk gelijkspel eindigen. Dus "blind aannemen" dat een Ferrari sneller is dan een random eco-boodschappenkarretje is niet terecht?
Gaming is vaak minder geoptimaliseerd voor parallelle computing, dus daar zie je inderdaad dat Intel vaak iets beter presteert met een lagere corecount. Alle andere gebieden maakt het of niet uit (brieven tikken in Word) of is de boel wel fatsoenlijk geoptimaliseerd voor parallelle taken (compilen, rendering, fotobewerking, videoconversie, wetenschappelijke berekeningen) of desnoods heb je singlethreaded workloads die niet memory-starved zijn op een grote queue waardoor je ze ook parallel uit kan voeren en je met een hogere corecount dus alsnog meer winst hebt dan hogere singlethreaded-snelheid oplevert. Ten slotte heb je de software waarbij het wel uitmaakt maar die alleen maar singlethreaded werkt, en dan is de overstap naar een concurrerend pakket waarmee je 24x zoveel werk gedaan krijgt in dezelfde tijd echt heel erg snel gemaakt. Kijk nog eens naar de benchmarks die gebruikt worden en wat ze testen. Daaruit volgt dat de claim dat de nieuwe Ryzens over het algemeen beter presteren dan de nieuwe Intels. Natuurlijk hangt dat van je workload af, dus in sommige gevallen kies je inderdaad voor Intel. In jouw geval maak je dus geen keuze (of boeit die niet) en dat is helaas puur te wijten aan de kwaliteit van je software. Het klinkt alsof jouw probleem veel baat kan hebben bij een hoge corecount, maar dan moet je iets aan je memory-bottleneck doen, waarschijnlijk door je berekeningen op een iets andere/slimmere manier uit te voeren zodat de data waarmee je werkt in de CPU-cache kan in plaats van elke keer uit het geheugen moet komen waar je met alle cores tegelijk aan het strijden bent om bandbreedte. Als je dat issue gefixt krijgt weet ik zeker dat "de 3900x rondjes draait om de intel".

Late edit: Ik kan ook slechte software maken die bijvoorbeeld op een Geforce RTX 3080 20fps haalt en op een Geforce 256 ook. Met die software zeg je dan ook helemaal niks nuttigs over de prestaties van beide kaarten ten opzichte van elkaar. Daarom test je ook met fatsoenlijk geschreven software die op een bepaald werkgebied de maximaal mogelijke prestatie uit de aangeboden chip zal halen, en gebruik je verschillende van dat soort stukken software om een gewogen oordeel te kunnen vellen over veel verschillende werkgebieden.

[Reactie gewijzigd door DataGhost op 22 juli 2024 14:49]

Gebruik je een Intel compiler? In dat geval mag je de performance niet vergelijken met AMD: Intel weigert sinds jaar en dag SSE2+ instructies te ondersteunen voor concurrerende processors in hun compiler (laat staan AVX+) waardoor software op concurrerende hardware geniepig een stuk slechter werkt.

Zie bijvoorbeeld: https://www.agner.org/optimize/blog/read.php?i=49#49 of de piepkleine disclaimer onderaan https://software.intel.co...s/parallel-studio-xe.html (Intel's compilers may or may not optimize to the same degree for non-Intel microprocessors for optimizations that are not unique to Intel microprocessors...)
ik gebruik mingw g++, met Qt? ik weet niet of dit geoptimaliseerd is voor intel?
Zonder de Intel compiler ben je meestal veilig voor de cripple AMD functies, dan is dat waarschijnlijk niet de reden voor je performanceverschil.

Tenzij je ergens in je project of keten werkt met de Intel Math Kernel Library (MKL). Het wordt verdacht als je mkl*.dll/lib of libiomp5md.dll/lib tegenkomt ;)
Ligt er een beetje aan of je AVX512 gebruikt of niet. Zoja, dan wint Intel, anders wint AMD. Nou is AVX512 voor een hoop rekenwerk best de moeite waard.
Het maakt voor een RTX 3080 niet uit of deze in een pci 3 of 4 slot zit, het verschil is maximaal 1% of minder.

Intel blijft performancekoning op alle resoluties, alleen ligt die op 4K zo dicht tegen AMD aan dat het niet meer uitmaakt welk merk cpu je hebt waardoor AMD de interessantste wordt.

[Reactie gewijzigd door oef! op 22 juli 2024 14:49]

Dat wisten we pas nadat dit getest is. Makkelijk praten weer. Ik vind het heel slim van Tweakers om dit zo te testen. Kunnen ze ook meteen ervaring op doen en dat kan alleen maar voordelen opleveren bij komende producten die hier wel gebruik van maken.
Er zal vast wel ergens een review komen waar men met een Intel platform op 1080p test.
Ik gok op een review van een 360Hz monitor.
Voor 4K maakt het sowieso niks uit bij deze kaart, en voor 4K had het wél uit kunnen maken of we PCI-e 4.0 of 3.0 hadden gebruikt. Daarom is de keuze gemaakt om met de 3900XT icm PCI-e 4.0 te testen. Uiteraard betekent dit dat er bij een gering aantal games, vooral bij Far Cry New Dawn, een CPU-bottleneck optreed bij de lagere resoluties. We wilden liever een eventuele bottleneck op 4K voorkomen, dan een bottleneck op 1080p.
Interessant genoeg als we de cijfers van mindfactory.de ( de grootste PC winkel in DE ) bekijken, dan is AMD verkoop 78% tot 91% ( https://imgur.com/a/kr4nNqG#kOtyUV7 ) vs Intel's 9% tot 23% in het afgelopen jaar.

Blijkbaar kopen mensen Intel niet enkel meer voor die "gaming" CPU en hebben ze geen enkel probleem om die paar procent extra of te offeren voor goedkopere prijs of meer cores.

Voeg daarbij dat AMD de enige zijn dat PCIe 4.0 aankunnen. En ja, zelf al geeft PCIe4.0 weinig voordeel, dat ontdekt je enkel als je ... AMD gebruikt in je tests.
Mee eens!
Op 1080p maakt Intel (ook de 9900k) gehakt van de 3900x.
Enkel in Red Dead Redemption 2 zijn de verschillen "klein".
Ik zal het er geen doekjes om winden; ik vrees dat een deel van deze review linea recta de prullenbak in kan:

f1 2020 @ 1440p
Techpowerup : 136.9 fps 2070 super vs 240 fps @ 3080 = 175%
tweakers 137.5 fps @ 2070 super vs 181.1 fps @ 3080 = 131% 8)7

Dat zijn enorme verschillen! Hiermee onstaat overduidelijk een verkeerd beeld. De oorzaak is snel gevonden:
Voor deze review van de GeForce RTX 3080 hebben we een compleet nieuw testsysteem in gebruik genomen dat geschikt is voor pci-express 4.0. AMD is op dit moment de enige die de nieuwste pci-e-standaard ondersteunt, dus de keuze viel al snel op AMD’s snelste game-cpu: de Ryzen 9 3900XT. Om het boostgedrag van de cpu uit te sluiten als variatiefactor, hebben we de multiplier vastgezet op 42.
Beetje jammer dit. Leuk idee dat PCI 4.0 wellicht belangrijker is dan PCI 3.0, maar dit kun je testen. Sterker nog het is al getest en de conclusie is ook duidelijk; het is nu niet belangrijker.
  • 3900XT PCI 3.0 220.6 fps
  • 3900XT PCI 4.0 224.4 fps (+1.7%)
  • 10900K 236.3 FPS
  • 10900K (max PL) 238 fps
  • 9900K OC 240.1 fps (+8.8%)
Dit zou verder geen verrasing moeten zijn. Binnen de context van de historie van videokaarten heeft het altijd járen geduurd voordat x16 op de nieuwste PCI generatie echt een significant resultaat ging opleveren. Er is geen reden om aan te nemen dat dit met PCI 4.0 anders gaat zijn, en het blijkt ook dat dit niet anders gaat dan met PCI 2.0 en PCI 3.0.

Tegelijkertijd hebben we regelmatig periodes gehad waarbij de cpu de bottleneck werd. Zo lang het gros van de games niet perfect schaalt met een hoog aantal threads blijft het testen van de nieuwste generatie videokaarten dan ook voorbehouden voor de modellen met de beste performance op (semi) single threaded. Wat bedoel ik dan met semi single threaded? Dat is de hoogste uitkomst van GHZ * IPC maar dan met in acht neming van een minimum hoeveelheid threads. Dat minimum lijkt in 2020 8 threads te zijn.

Jammer! Testen van de snellere GTX 3090 met een cpu die op 4.2 Ghz is vastgezet zal natuurlijk nog problematischer worden. Dan is dat maar alvast gezegd.

Laten we hopen dat AMD opschiet met Ryzen 4xxx, dit is hét moment om het (gaming) gat met Intel te dichten. Geeft meteen kopers van Ryzen 3xxx een reden te upgraden.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:49]

Wij testen F1 2020 met de slechtst mogelijke weersomstandigheden, zoals ook in de review aangegeven. Dat heeft uiteraard invloed op de scores. Ook het gekozen circuit heeft invloed op de scores. Gezien TPU al deze settings achterwege laat is het vrijwel onmogelijk om de resultaten eerlijk te vergelijken.

Op 4K, waar deze kaart voor bedoelt is, is er geen verschil tussen de 3900XT en de 10900K, ook niet volgens TPU. Omdat er wél een verschil had kunnen zijn tussen pci-e 3.0 en 4.0 op de 4K resolutie, de resolutie waar we deze kaart op willen beoordelen, is er voor gekozen om voor de 3900XT te gaan.

XFR is daarbij uitgeschakeld omdat dit extreme variaties geeft in de scores tijdens het benchmarken.

Intel heeft simpelweg nog geen platform beschikbaar met pci-e 4.0. Gezien de 3090 nóg sneller is dan de 3080, zou het zomaar kunnen dat deze kaart wel profijt heeft bij pci-e 4.0.

De keuze was dus : gaan we voor de hoogst mogelijk scores op de lagere resoluties, of gaan we voor de hoogst mogelijke scores op de hogere resoluties. Omdat dit kaarten zijn die je wilt beoordelen op basis van de hogere resoluties, zijn we voor dat laatste gegaan en hebben we twee systemen met pci-e 4.0 gebouwd, met dus een AMD processor.
Op 4K, waar deze kaart voor bedoelt is,
Is dat zo? Of kwam die bewering Nvidia goed uit gegeven de huidige generatie processoren? Ik tel op 6 van de 10 door jullie geteste games resultaten onder de 120/144 Hz op 1440p (al dan niet door die cpu bottleneck!). Low latency gaming is het voorlopig aan het winnen van 4K. Natuurlijk is het mooi dat we straks 144 Hz op 4K kunnen gamen maar voorlopig is dat nog een lastig verhaal, al is het maar door de prijs van een dergelijke monitor die begint bij een euro of 900 een doorloopt tot dik in de 2000 euro.

Er zijn al boze tongen die beweren dat deze kaart te weinig vram heeft voor een toekomst in 4K. Maar goed wat dat betreft ben ik meer van eerst zien dan geloven.
Wij testen F1 2020 met de slechtst mogelijke weersomstandigheden, zoals ook in de review aangegeven. Dat heeft uiteraard invloed op de scores. Ook het gekozen circuit heeft invloed op de scores. Gezien TPU al deze settings achterwege laat is het vrijwel onmogelijk om de resultaten eerlijk te vergelijken.

Op 4K, waar deze kaart voor bedoelt is, is er geen verschil tussen de 3900XT en de 10900K, ook niet volgens TPU. Omdat er wél een verschil had kunnen zijn tussen pci-e 3.0 en 4.0 op de 4K resolutie, de resolutie waar we deze kaart op willen beoordelen, is er voor gekozen om voor de 3900XT te gaan.

XFR is daarbij uitgeschakeld omdat dit extreme variaties geeft in de scores tijdens het benchmarken.

Intel heeft simpelweg nog geen platform beschikbaar met pci-e 4.0. Gezien de 3090 nóg sneller is dan de 3080, zou het zomaar kunnen dat deze kaart wel profijt heeft bij pci-e 4.0.

De keuze was dus : gaan we voor de hoogst mogelijk scores op de lagere resoluties, of gaan we voor de hoogst mogelijke scores op de hogere resoluties. Omdat dit kaarten zijn die je wilt beoordelen op basis van de hogere resoluties, zijn we voor dat laatste gegaan en hebben we twee systemen met pci-e 4.0 gebouwd, met dus een AMD processor.
Maar het punt was nu juist dat die hypothetische trade off tussen pci 4.0 en 3.0 niet bestaat. Ook op 4K laat TechPowerUP zien dat het Intel systeem sneller is op 4K. Dus je keuze was helemaal niet 4K resultaten óf lagere resuloties. Er was geen reden om de 1440p (en lagere) resultaten te compromiteren.
Intel heeft simpelweg nog geen platform beschikbaar met pci-e 4.0. Gezien de 3090 nóg sneller is dan de 3080, zou het zomaar kunnen dat deze kaart wel profijt heeft bij pci-e 4.0.
Al zou dit de meest waarschijnlijke uitkomst zijn, dat is het wat mij betreft niet, dan nog ga je dat dat éérst vaststellen vóór je een algemene review gaat maken. Sterker nog, dan heb je meteen materiaal voor een review die uitzoekt wat het nut is van PCI 4.0.

Verder gaat het niet om Intel vs AMD, het gaat om het platform waar je de snelste resultaten mee haalt. TPU heeft laten zien dat voor élk scenario dat momenteel 'toevallig' het platform van Intel is, ondanks PCI 3.0. De kans is aanzienlijk dat dit met Ryzen 4xxx niet langer het geval is, niet wanneer de boel daar 300 Mhz stijgt in combinatie met een +15% IPC. Vervoglens is de kans aanzienlijk dat wanneer Intel in 2021 met rocket lake komt de boel weer omdraait (nieuwe architectuur). Dat hoort er een beetje bij.

edit: Naast TPU heeft eurogamer (digital foundry) ook getest met pci4 vs pci4 vs intel 10th gen en ook die heeft geconcludeerd dat ook voor 4k de prestaties op het Intel platform beter waren: https://youtu.be/k7FlXu9dAMU?t=348

[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:49]

Er zijn al boze tongen die beweren dat deze kaart te weinig vram heeft voor een toekomst in 4K. Maar goed wat dat betreft ben ik meer van eerst zien dan geloven.
Er komt nog een 3080 met 20GB geheugen, en een 3070 met 16GB geheugen. Dus als je je zorgen maakt kan je nog even wachten op die uitvoeringen.
Goed punt inderdaad, bij een videokaart test willen we vooral zien wat die kaart kan zonder dat andere hardware een beperkende factor is.
Maar als je kijkt naar de resultaten van Techpowerup met een AMD 3900XT op 1440 en met PCIe 4 dan halen ze daar ook 222,4 fps. Dus ze zullen de resultaten ook op een iets andere manier berekend hebben dan ze hier bij Tweakers/HWI hebben gedaan.
Goed punt inderdaad, bij een videokaart test willen we vooral zien wat die kaart kan zonder dat andere hardware een beperkende factor is.
Maar als je kijkt naar de resultaten van Techpowerup met een AMD 3900XT op 1440 en met PCIe 4 dan halen ze daar ook 222,4 fps. Dus ze zullen de resultaten ook op een iets andere manier berekend hebben dan ze hier bij Tweakers/HWI hebben gedaan.
Dat komt hoogst waarschijnlijk omdat ze daar de cpu lekker laten boosten (3900XT is max 4.7) en niet kunstmatig vertragen.

Edit: Bevestigd
AMD Ryzen 9 3900XT 3.9 to 4.7 GHz
(Zen 2, 64 MB Cache)
Intel Core i9-10900K 3.7 to 5.3 GHz
(Comet Lake, 20 MB Cache)
Intel Core i9-9900K @ 5.0 GHz
(Coffee Lake, 16 MB Cache)

De 10900K op een vaste x52/x53 OC zal op dit moment de beste resultaten geven.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:49]

De 3080 haalt maar 13GB/s op PCI-e 3.0?

Zouden ze PCI-e 3.0 afknijpen om vervolgens te kunnen zeggen dat PCI-e 4.0 in toekomstige titels beter werkt?
Dit is gelukkig niet het geval, we hebben dit op een native 3.0 gedubbel checked.
Op 3.0 native platformen haal je ook 13+-GB/s
Ik ben sowieso over. Voor 750 euro een 2080TI on steriods. Ik kom van de 1080TI dus dat zal sowieso een grote stap zijn.
Voor een 1080ti is het zeker een goede overstap. Met mijn 2080ti op 1440p is het een stuk minder...en denk ik dat ik het zo even hou.
Ik snap ook echt die mensen in V&A niet. Heb je de beste videokaart die er te krijgen was, ga je die met dik verlies na een jaar verkopen, want je MOET de RTX30xx hebben. Kan je beter de 2080Ti "opgebruiken" totdat die vervangen moet worden. Je kunt toch zeker nog 2 a 3 jaar heel veel plezier hebben van een 2080Ti. Je zou wel gek zijn om die voor €500 te dumpen, terwijl je €1200 hebt neergelegd.
Sommige mensen kunnen de extra fps toch gebruiken. Ik speel bijvoorbeeld veel race sims in VR waarbij ik afhankelijk van de game toch nog aardig wat settings omlaag moet zetten. Met de HP Reverb G2 wat een veel hogere resolutie heeft zal dit nog veel meer het geval zijn. Het is dus zeker niet altijd een kwestie van per se het nieuwste moeten hebben.

Ik weet overigens nog niet of het mij waard is om van een 2080 ti naar een 3080 te upgraden, hier ga ik me nog eens over bedenken. Het is maar net wat je er voor over hebt en wat je te besteden hebt he.
Precies. Ik game zelf op 1440p en als ik zie dat deze kaart daar maar gemiddeld 18% meer performance levert, is dat eigenlijk teleurstellend. (ze gaven aan dat die 2x zo snel als een 2080 zou zijn, maar dat haalt die bij lange na niet)

Ik heb gelukkig niet 1200 maar 870 bij de outlet betaald, maar dan nog ga ik niet upgraden naar de 3080.
Je zou maar je rtx2080ti hebben verkocht en voornamelijk op 1080 of 1440p gamen, dan ben je wel sneller natuurlijk...maar of het dan de moeite waard is?
Die 200 euro dat je extra moet investeren krijg je deels ook weer terug als je later naar de 3080ti of 4080 upgrade :D

Maargoed ik laat mijn 2080ti nog wel even zitten, toch wel nieuwsgierig naar AMD want de 3080 valt mij iig wat tegen en de 3090 is het geld niet waard (want dan heb ik over 2 jaar weer hetzelfde als nu met de 2080ti).

[Reactie gewijzigd door watercoolertje op 22 juli 2024 14:49]

Ik snap ook echt die mensen in V&A niet. Heb je de beste videokaart die er te krijgen was, ga je die met dik verlies na een jaar verkopen, want je MOET de RTX30xx hebben. Kan je beter de 2080Ti "opgebruiken" totdat die vervangen moet worden. Je kunt toch zeker nog 2 a 3 jaar heel veel plezier hebben van een 2080Ti. Je zou wel gek zijn om die voor €500 te dumpen, terwijl je €1200 hebt neergelegd.
Als je gaat praten over zinnig geld investeren in videokaarten dan koop je per definitie geen kaart van 1200 euro. De prestatie per euro van de tragere kaarten zijn altijd veel beter. Een dure kaart kopen in de hoop er vervolgens 4-5 jaar met top of the line performance te zitten is gokken tegen de ontwikkeling in.

Wie rationeel een 2080Ti koopt wil persé de beste prestaties en is bereid daarvoor een X bedrag aan uit te geven. Diezelfde groep kan prima upgraden zodra er iets anders nóg sneller is.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:49]

980TI hiero op 1920x1200..., als ik kijk dan wacht ik nog wel een generatie... 4K hoeft van mij echt niet.

Speel toch meer minecraft, GPU snelheid is best nutteloos hiero
en RPG's... Waar FPS niet echt een super-must is. Als het maar boven de 30 blijft.
En met die resolutie kan ik met een vrij hoge zekerheid wel stellen dat het bij de 60 FPS ook wel ophoudt voor je monitor :D
8 jaar oud beestie, :+

*aait*, doet het gewoon goed...
Het is best mooi hoor, om Minecraft te spelen met 144hz en een render distance van 64 chunks :)

Hoewel daar het geheugen/processors ook enorme bottlenecks zijn.
Of iets slimmer zijn zoals mij en voor de persconferentie €900 vangen voor de TI. Ik ga er lekker makkelijk op vooruit😁
Die gozer voelt zich een kneus nu zeg.
Maarja goed gedaan! je gaat er 25% op vooruit en je kan van het verschil paar dikke titels kopen of 2x met je vriendin lekker uit eten.
Hm... niet helemaal! Bekijk het anders: voor minder dan 25% (€250 o.i.d., in ieder geval onder de €300) extra haal je 25% hogere prestaties. Of je dat dan ook moet doen is een keus, ik kan me ook best voorstellen dat de hard-core gamer met grote beurs van de 2080ti naar de 3090 gaat. Dat dat dan wellicht wat duur is interesseert die mensen dan minder...
Eindelijk iemand die verstandig antwoord, hoeveel 2080ti's ik hier wel niet zie @vraagenaanbod voor de premium hoofdprijs is echt te gek voor woorden...
Ik zou even wachten totdat Nvidia een 3080Ti uitbrengt. Dat zal voor 2080Ti gebruikers veel interessanter zijn.
Idem hier. De 2080 (super) en Ti's waren héél duur voor een marginale winst. Op 1440p is deze gemiddeld (als ik het grafiekje hier goed gelezen heb) zo'n 63% sneller. Dat is zéker de moeite. De OC kaarten van de 3rd parties zijn mogelijks zelfs nog ietsje sneller.
Dit dus inderdaad. Heb zelf een 1070 TI dus een 3080 wordt dan echt wel weer een beste upgrade :). Nou nog hopen op goede beschikbaarheid de komende weken.
Heb een 1070, dus ik sta ook in de rij om te upgraden. Ik wacht nog even testen van de verschillende varianten af, bijvoorbeeld de MSI kaarten. De rest van de pc is vorig jaar geupgrade, dus zal een aardige sprong gaan maken, excited!
Zelfde hier! Ook een 1070 maar vorig jaar een 3950X gekocht dus kan ook niet wachten. Veel plezier alvast :)
Jammer de Palit kaarten nu van die decoratiemeukjes boven de fangaten hebben gemaakt. Dat was altijd mijn favoriet. Ik ga deze ronde eens voor zo'n KFA2 kaart.
Ik kom van 960 4GB....wie wat bewaart heeft wat! :*)
Ik heb een R9 380 uit 2015. Telkens als ik teleurgestelde commentaren lees moet ik mij er aan herinneren dat men het met de 2080 Ti vergelijkt, en een upgrade naar de 3080 voor mij eigenlijk altijd het geld wel waard zal zijn. Het is immers niet erg nozel om een 2080 Ti nieuw of afgeragd te kopen, en ik zou niet weten welke andere optie in de buurt komt.

Ik ga morgen in ieder geval een poging wagen om een FE te bemachtigen. Lukt dat niet, dan kijk ik wat AMD doet, maar zelfs als ze iets soeps op de markt brengen, lijkt het me stug dat ze Nvidia dermate weten te overtreffen dat je spijt krijgt van je 3080.

Men heeft het over CPU bottlenecks, en ik ben benieuwd wat er nodig is om dat zoveel mogelijk te voorkomen. Ik kijk op dit moment uit naar de Zen 3 opvolger van de 3900XT, dat zal hoe dan ook wel een verbetering zijn ten opzichte van mijn huidige Phenom II X6 1090T :+

[Reactie gewijzigd door ThePendulum op 22 juli 2024 14:49]

Wacht nauw eerst nog even de AMD aankondiging af. Je mag verwachten dat ze daar ook grote stappen hebben gezet qua performance maar de Radeon kaarten worden gegooid ik op 7nm van TSMC gebakken, wat nogal wat zuiniger zou moeten zijn dan het 8nm procedé van Samsung. Sowieso is het altijd goed even af te wachten wat de concurrentie doet.
Heb vorig jaar december de 2080 Gaming gekocht voor bijna e 900, als ik dit zo lees is die geen fluit meer waard tov de 3080... :-(
Maar goed as kerst maar de 3080 aanschaffen :-)
Joh, je hebt nog steeds een heel prima kaart waar je nog jaren mee vooruit kan. Upgraden met een 5080, over een paar jaar. :Y)
Gelukkig heb ik mijn 2080ti nog niet verkocht, en heb ik eerst dit afgewacht. Ik heb het al eerder gemeld, dat ik vermoedde dat ze een AMD'tje zouden doen, en dat blijkt zo!

Natuurlijk krijg je veel voor een stuk minder geld. Een 3080 zal zeker zijn geld waard zijn, maar als ik kijk naar 1440p waar ik op game is net 18% t.o.v mijn 2080ti niet schokkend!

Nvidia heeft dus eigenlijk flink zitten te liegen met hun dubbele prestaties...terwijl het meer naar net 50% gaat...dat is toch wel een flinke hoop minder.

Tevens is het verbruik ook erg hoog...320 watt ingame...dat is zeer fors!
Tegenvallend op het punt dat ze het beter doen geloeven.

Ik ben benieuwd naar de AMD kaarten, want daar verwacht ik nu nog meer van eerlijk gezegd!
Een 3070 zal dus helemaal niet sneller zijn dan een 2080ti, en ook nog eens 3gb minder ram hebben...

Lol, je zou je 2080ti maar verkocht hebben voor een lage prijs...wordt je dubbel genaaid door ze.
Wel een mooie kaart verder, maar het stroomverbruik is wel eng aan het worden.
De vergelijking van Nvidia is tussen de reguliere 2080, niet de 2080 super of ti. De 3080 is wel een heel stuk sneller dan de 2080. :)

De overstap van de Ti naar de 3080 is niet bijster groot. Enkel de 2080ti is volledig zijn waarde kwijt met de komst van deze kaart. Laat staan als de 3070 het waar maakt om even snel of nipt sneller te zijn als de Ti.
Klopt, dan zitten ze 55 tot 60%...maar dat is niet 100% zoals Nvidia beloofde...

Ik ben blij dat ik gewoon heb afgewacht en niet mijn 2080ti heb verkocht. De 3080 vreet stroom...nog een stuk meer dan mijn 2080ti, en heeft nog meer warmte. Dus moet je eigenlijk al een waterkoeling hebben om dit fatsoenlijk te koelen tijdens gamen, of accepteren dat je veel lawaai hebt...en dat laatste is voor mij onacceptabel..
De 3080 vreet stroom...nog een stuk meer dan mijn 2080ti, en heeft nog meer warmte. Dus moet je eigenlijk al een waterkoeling hebben om dit fatsoenlijk te koelen tijdens gamen, of accepteren dat je veel lawaai hebt...en dat laatste is voor mij onacceptabel..
Je springt hier wel erg snel op conclusies, hoor.

van r/nvidia GamersNexus review thread:
75c at load, well below 93c thermal limit

fans at 1500-1900rpm

2080ti at load hits 43DBA, 3080 peak appears to be 42 (10:27). [edit: Guru3d had 38DBA peaks for 3080, so the data from other reviews is also good]

so it would appear that FE thermals and acoustics are good, despite the higher power requirement of the card.
En met de AIBs die beweren dat ze verbeteringen hebben aangebracht aan hun cooling design, gaan de temps en noise reproduction op die hun modellen misschien en hopelijk niet meteen pijlsnel de hoogte inschieten.

[Reactie gewijzigd door Burning02 op 22 juli 2024 14:49]

Dit soort tests worden tegenwoordig nagenoeg altijd in een open omgeving gedaan. Daarmee bedoel ik dat ze op een open testbench staan, en niet in een case!

En de cijfers worden heel anders als je ze in een case plaatst! Zeker weten. Ik begrijp wel dat ze dit doen omdat er zoveel cases zijn, maar eigenlijk zou men het ook moeten testen in een wat mindere kast.

Ik heb zelf een crystal x570 van Corsair, maar als ik game, haalt die totaal niet de beloofde DB.
En mijn 2080ti heb ik zelfs met een lagere powerlimiet ingesteld.

In een open omgeving kan die zijn warmte wel kwijt, maar in een case is het dus een ander verhaal. En als je dan opeens 320 watt moet afvoeren, gaan die leuke theoretische cijfers gelijk de deur uit helaas.
Tjah, ik zou zeggen: bekijk eens de video review van o.a. Gamers Nexus en Linus eens. Daarin testen ze in een closed chassis, en is er geen groot verschil in heat output tussen de 3080 en 2080 Ti.

Nogmaals, niet zomaar tot conclusies komen zoals "je hebt waterkoeling nodig voor de 3080 te koelen!" of "ze testen enkel en alleen in open benches!".
Er is wel een groot verschil in output, want het TDP en verbruik is gewoon hoger. De RTX 3080 heeft gewoon een betere koeler dan de RTX 2080 Ti.

Ik denk dat je met het FE model prima zit; of dit ook zo zal zijn met de partner modellen is nog even afwachten.
Dat dit een 4k-gerichte kaart is was al wel duidelijk. Ik had op 1440p ook geen gigantisch verschil verwacht
Klopt, dat is zo, maar laten we eerlijk zijn, er zijn maar weinig mensen die op 4K gamen..

dat is nog steeds maar een 5% of zelfs minder. Ik had al verwacht dat ze het goed opbliezen...en als je kijkt naar performance per watt, dan doen ze eigenlijk het gewoon slecht. 320 watt onder load, en maar 25% sneller dan de 2080ti die een stuk minder verbruikt...dan is de Samsung 8NM niet echt een grote stap vooruit, of ze hebben de kaart gemaakt in de hoop dat er veel mee gemind gaat worden.
Dan heb je niet doorgedacht. deze kaart wordt misschien aan 1% verkocht, laat die 5% nou net een doelgroep zijn, maar meer nog mensen die een nieuw systeem en monitor aanschaffen om weer helemaal bij te zijn.

Dat AMD nVidia gaat overtreffen in het hoogste segment lijkt me erg onwaarschijnlijk. Ik denk eerder de nVidia zijn voorsprong heeft vergroot. Geen nood voor AMD omdat hier de grootste verkopen niet liggen. We zullen het zien als het op de dag van de aangekondigde aankondiging bekend wordt. Dit soort ontwijkend gedrag lijkt er op te duiden dat AMD nog druk bezig is na te denken hoe ze hun nieuwe kaarten moeten positioneren na dit nVidia-geweld.
Denk je niet dat deze kaart populairder gaat zijn? De prijs is vergeleken met eerdere generaties toch veel aardiger.

Ik vraag me ook af wat AMD bekokstooft; aan de ene kant zou je denken dat ze toch eerder met iets naar buiten zouden willen komen als ze echt wat moois te tonen hadden, maar aan de andere kant weten ze bij AMD ook wel dat ze niet overhaast hun roadmap moeten versnellen alleen maar om het niet te laten lijken alsof ze geen weerwoord hebben. Voor ze het weten zitten ze bij AMD dan weer met een stuntelige presentatie waar de demo crasht of iets dergelijks. Uiteindelijk worden toch de meeste kaarten voor de kerst verkocht; dan kunnen ze beter op 28 oktober volgens plan aankondigen dan hals over kop met een mindere presentatie komen.

Daarnaast zag ik een aardige berekening over het verbruik van de RDNA 2 GPU+RAM in de Xbox Series X, waar uit kwam dat 170 watt daarvoor geen onrealistische schatting is. Dat is iets meer dan de helft van het verbruik van de RTX 3080. Nu zal de RTX 3080 ook een stuk sneller zijn dan de GPU van de XSX, maar bijna twee keer zo snel? Daarnaast gebruikt AMD nu het TSMC proces waar Nvidia met de vorige generaties zulke fantastische prestaties per watt mee neerzette.

Hoewel ik niet verwacht dat AMD Nvidia voorbij zal streven heb ik toch wel goede hoop dat ze het gat aardig dichtlopen.
Nvidia heeft dus eigenlijk flink zitten te liegen met hun dubbele prestaties...terwijl het meer naar net 50% gaat...dat is toch wel een flinke hoop minder.
Nvidia schreef 60% tot 100% sneller dan de originele 2080. En natuurlijk dat is voor reguliere spellen meer rond de 60%, terwijl RTX zaken grotere verschillen hebben. Dat mensen dan denken dat alles 100% sneller zou zijn, tja, dan zet je jezelf ook wel erg op voor teleurstelling.
Ja maar mensen blijven de 3080 maar wegzetten tegenover de 2080 Ti......zet de 3080 eens eerlijk weg tegenover de 2080/2080s. Dat zijn het toch wel echt forse upgrades.

Ik heb bewust de 2080 Ti overgeslagen omdat ik 1300 euro echt krankzinnig vind voor een videokaart. En toen was het echt een mega dikke kaart nu koop ik voor de helft van een 2080 Ti een kaart die ook nog eens 25% sneller ks.

Ik vind het zelf een knappe prestatie. Het is zuur voor de 2080 Ti bezitters, maar eigenlijk hebben ze zich wel beetje laten naaien door Nvidia omdat er totaal geen concurrentie was.
Same, had hem bewust veel te duur te koop gezet, biedingen liepen wel uiteen van 250 tot 600 euro. 550/600 lijkt mij vrij redelijk, ben ook overtuigd dat ie het beter doet dan de 3070 dus hij mag ook duurder zijn :)
Natuurlijk krijg je veel voor een stuk minder geld. Een 3080 zal zeker zijn geld waard zijn, maar als ik kijk naar 1440p waar ik op game is net 18% t.o.v mijn 2080ti niet schokkend!
Tegenover de 2080, niet de 2080 ti. Niet dat ze dat waar kunnen maken zonder DLSS/Raytracing, maar dat maakt de overdrijving wel wat kleiner.

[Reactie gewijzigd door watercoolertje op 22 juli 2024 14:49]

Klopt, maar zelfs op een 2080 is het verschil niet eens zo groot als ze zeiden...de 100% wordt nooit gehaald. En dat is wel misleidend.

Tevens is raytracing in de nieuwe kaart eigenlijk ook niet zo veel beter. Enkel met dlss en op 4K.
En natuurlijk is de prijs zeker de kaart wel waard.

maar ik heb zelf een 2080ti, die doe ik hier de deur niet voor uit. Het heeft dan niet zoveel zin lijkt mij. En een referentie model zie ik zelf niet zitten met de gekke powerplug in het midden.

Dan is de vraag wat doen de andere fabrikanten...
Same, had hem bewust veel te duur te koop gezet, biedingen liepen wel uiteen van 250 tot 600 euro. 550/600 lijkt mij vrij redelijk, ben ook overtuigd dat ie het beter doet dan de 3070 dus hij mag ook duurder zijn :)
De 3070 wordt waarschijnlijk iets van 15% langzamer in de meeste games, maar ongeveer even snel in compute heavy of raytracing games. (als ik uitga van 25% sneller dan 2080Ti en 48% sneller dan 3070)

Ik zou als 2ehands koper toch een groter verschil in bang/buck willen zien voor een kaart met veel kortere garantie. Maar ik zou sowieso nooit zo veel besteden aan een 2ehands computeronderdeel.
Met 3 jaar garantie waarvan een klein jaar af is zit ik waarschijnlijk boven de meeste nieuwe kaarten, behalve degene waar je veel meer voor gaat betalen (asus rog strix), maar dan is mijn prijs weer veel lager :)

[Reactie gewijzigd door watercoolertje op 22 juli 2024 14:49]

De perfomance per wat is ten opzichte van de 2080ti maar met 8% gestegen.
Gemiddeld 25% meer fps tegen een verhoging van 17% in gebruik.
Nu de beloofde 2x 2080 prestaties bij lange na niet gehaald wordt ben ik zeer benieuwd wat Amd te brengen heeft.
Kwa prijs is de 3080 leuk, maat had zelf ook erg gehoopt op FS2020 benchmarks
Stroomverbruik is inderdaad zeer opvallend! Je kan de 3080 dus eigenlijk niet gebruiken zonder waterkoeling of zonder (een deel van) de hitte de kast uit te blazen! Dus alle standaard AIB koelers zullen de temperaturen in je kast flink opdrijven. In de praktijk zou de 3070 wel eens een interessantere kaart kunnen zijn aangezien het verbruik daarvan ongetwijfeld een stuk lager zal liggen; 250 watt? Stel je voor, het is 2020 en een midrangekaart verstookt 250 watt in game! Dat is Titan-verbruik!

Ik hoop dat AMD dit beter doet, al is dat normaalgesproken natuurlijk juist hun zwakke punt.
Nee hoor, waait gewoon lekker met de airflow van de kast mee naar buiten.

Op dit item kan niet meer gereageerd worden.