Eindelijk is het zover; we mogen je alles vertellen over de Nvidia GeForce RTX 3080, inclusief alle benchmarks die we in ons eigen testlab hebben gedraaid. Na twee jaar zijn de opvolgers van Nvidia’s RTX 2000-serie werkelijkheid.
GeForce RTX 3000: grote beloften
De GeForce RTX 3000-serie is een belangrijke reeks voor Nvidia. De vorige generatie introduceerde weliswaar nieuwe technologie, zoals raytracing, maar was als je daarvan gebruikmaakte, niet noemenswaardig sneller dan de 10-serie. De belofte van de RTX 3000-reeks is een forse stap in prestaties, zelfs met alle nieuwe technieken ingeschakeld. In zijn presentatie stelde Nvidia’s ceo Jensen Huang de eigenaren van een Pascal-videokaart gerust: ‘it’s safe to upgrade now’.
Alles over de GeForce RTX 3080
Sinds de GeForce RTX 3080 vorige week arriveerde in ons testlab, zijn we druk bezig geweest met het testen van Nvidia’s langverwachte eerste gamevideokaart op basis van de Ampere-architectuur. In deze review lees je alles over de RTX 3080, de achtergrond van de architectuur met specificaties en natuurlijk de prestaties.
De Ampere-architectuur
Al enige generaties maakt Nvidia aparte architecturen voor consumenten, lees: gamers, en zakelijke klanten: servers, datacenters, renderfarms enzovoort. Hoewel Nvidia beide architecturen nu onder de Ampere-noemer schaart, verschillen ze behoorlijk in opbouw. Op bepaalde fronten zijn er zeker wijzigingen doorgevoerd aan de Ampere-architectuur zoals die voor de RTX 3000-kaarten wordt gebruikt. In de basis is die echter erg vergelijkbaar met Turing, terwijl de server-Ampere juist duidelijk een doorontwikkeling is van Volta.
Een blokdiagram van de GA102-gpu zoals aanwezig in de GeForce RTX 3080
Extreem veel CUDA-cores dankzij FP32-truc
De indeling van één Ampere-sm
De Ampere-gpu’s zijn verdeeld in shading multiprocessors, kortweg sm’s. Eén sm bevat vier clusters van elk 32 CUDA-cores en een Tensor-core. Bij Turing was dat nog maar de helft van het aantal CUDA-cores, hoewel Nvidia geen heel grote wijzigingen heeft doorgevoerd. Waar Turing gescheiden units had voor fp32-berekeningen (32bit-berekeningen met zwevendekommagetallen) en int32-berekeningen (32bit-berekeningen met gehele getallen), kunnen de int32-cores bij Ampere óók fp32-berekeningen uitvoeren.
Nvidia telt voor het aantal CUDA-cores in de specificaties simpelweg het totale aantal cores op dat geschikt is voor fp32-instructies, maar het addertje onder het gras is dat de gedeelde shaders niet tegelijk fp32- en int32-berekeningen kunnen uitvoeren. Laat staan dat er binnen zo’n blok van gedeelde shaders géén combinaties kunnen worden uitgevoerd binnen dezelfde kloktik. Eén int32-instructie zorgt ervoor dat alle zestien gedeelde CUDA-cores uitsluitend andere int32-berekeningen kunnen doen tot de volgende kloktik. Kortom: als er int32-instructies moeten worden verwerkt, lever je in aan fp32-rekenkracht.
Gebruikers hoeven dus geen verdubbeling van de prestaties te verwachten, wat het verdubbelde aantal cores en overigens ook de verdubbelde bandbreedte naar de L1-cache kunnen doen vermoeden. Hoewel de intensiteit van de diverse typen instructies volgens Nvidia flink varieert van game tot game, liet het bedrijf zich op vragen van Tweakers toch een uitspraak ontlokken over de gemiddelde prestatiewinst. Die zou 'across the board' ruim 30 procent zijn ten opzichte van een ontwerp waarbij de int32-cores in z'n geheel geen fp32-instructies kunnen verwerken, zoals Turing.
Verbeterde raytracing- en Tensor-cores
Naast de reguliere shader-cores heeft Nvidia ook de raytracing- en Tensor-cores van een update voorzien. De gpu-ontwerper spreekt van de tweede generatie rt-cores en de derde generatie Tensor-cores, aangezien die laatste voor Turing ook al in de Volta-serverarchitectuur zaten.
De rt-core werd bij Turing geïntroduceerd als hardwarematige versnelling voor het volgen van lichtstralen en het berekenen waar die een object raken. De daadwerkelijke grafische uitwerking daarvan, zoals reflectie en schaduw, wordt door de gewone shader-cores berekend. Specifiek het uittekenen van lichtstralen kunnen rt-cores veel sneller dan generieke CUDA-cores, terwijl laatstgenoemde bovendien beschikbaar blijven voor andere taken.
Er zijn twee belangrijke aanpassingen gedaan aan de rt-cores van Ampere. De eerste is dat de eenheid die lichtstraalkruisingen berekent, nu twee keer zo snel werkt, oftewel twee keer zoveel kruisingen kan berekenen als bij Turing. Als tweede is een hardwarematige methode toegevoegd om de locaties van lichtstraalkruisingen te interpoleren. In feite kan hiermee bewegingsonscherpte worden gecreëerd. In een specifiek voorbeeld van een Blender-render met motionblur is een Ampere-rt-core acht keer zo snel als zijn voorganger.
Ook aan de Tensor-core is gesleuteld voor Ampere. Om te beginnen is het goed om te weten dat het aantal Tensor-cores is teruggebracht van acht naar vier per sm, maar dat ze per stuk wel een verdubbelde rekenkracht hebben. Bij reguliere machinelearning op basis van een dense matrix is het totale aantal fma-berekeningen dat per kloktik op halve precisie kan worden uitgevoerd, daardoor gelijk gebleven op 512 per sm (128 per Tensor-core).
In de praktijk komt het echter vaak voor dat van veel mogelijke uitkomsten al vaststaat dat ze geen rol gaan spelen in het antwoord, waardoor sprake is van een dataset waarin nullen in de meerderheid zijn: een sparse matrix. Dit type machinelearningberekeningen kan bij Ampere op dubbele snelheid worden uitgevoerd, dus met 1024 berekeningen per sm, of 256 per Tensor-core. Mits daarvan gebruik wordt gemaakt, kunnen de Tensor-cores in Ampere dus dubbel zoveel werk verzetten.
RTX IO: texture-decompressie in de gpu
Onder de naam RTX IO maakt Nvidia zijn Ampere-gpu’s geschikt voor de nieuwe Microsoft-api DirectStorage, die volgend jaar beschikbaar komt via DirectX. Kort gezegd kunnen gameontwikkelaars met deze api gecomprimeerde textures rechtstreeks inladen naar het videogeheugen, waardoor knelpunten bij de processor en het opslagmedium worden omzeild. Vooral de laadtijden als je een game start of een nieuwe omgeving laadt, moeten daardoor flink verkort kunnen worden.
Tot nu toe had een gameontwikkelaar in feite twee opties. De eerste was om grafische data ongecomprimeerd op te slaan, maar dat kost veel opslagruimte en levert eerder opslagknelpunten op doordat je in absolute zin meer data aan het rondpompen bent. Optie twee is compressie toepassen, wat beide problemen oplost. Decomprimeren moet echter in het systeemgeheugen gebeuren door de processor. Hoe hoger de bandbreedte van de opslag, hoe meer data moet worden verwerkt en dus hoe hoger de cpu-belasting. Je kunt stellen dat snellere (pci-e 4.0-) ssd’s dit probleem dus alleen maar verergeren.
In een game die gebruikmaakt van DirectStorage, wordt gecomprimeerde data van de ssd via pci-e naar het videogeheugen getransporteerd om pas binnen de videokaart uitgepakt te worden. In theorie lost dit alle bovengenoemde nadelen op, alleen moeten gameontwikkelaars er dus wel bewust gebruik van gaan maken. Zoals gezegd komt de api pas ergens volgend jaar beschikbaar, dus de eerste games die er gebruik van maken, zullen nog een eind weg zijn.
De oplettende lezer valt het wellicht op dat de pci-e-controller tegenwoordig natuurlijk in de processor zit en Nvidia’s diagram dus niet volledig correct is. Navraag leert ons dat Nvidia hier met ‘cpu’ echt doelt op de processorkernen in het kader van decompressie en niet op de fysieke processor als geheel. Daar gaan de data immers alsnog doorheen.
Gddr6x-geheugen
Niet alleen de architectuur is nieuw bij videokaarten op basis van de Ampere-architectuur, ook het gebruikte geheugen is aangepast. Althans, dit geldt voor de RTX 3080 en RTX 3090. Door het flink toegenomen aantal CUDA-cores werd de noodzaak voor sneller geheugen steeds groter; die moeten immers ook allemaal van data worden voorzien. Nvidia en geheugenfabrikant Micron hebben zich gezamenlijk gericht op het doorontwikkelen van gddr6.
Met slechts een x als toevoeging aan de naam lijkt er niet veel spannends te zijn gebeurd, maar dat is wel het geval. Onder de streep betekent gddr6x een flinke toename in bandbreedte ten opzichte van gddr6, maar dit is niet bereikt door simpelweg de kloksnelheid van het geheugen verder op te schroeven. De nieuwe geheugentechniek, overigens vooralsnog géén Jedec-standaard, maakt gebruik van pulse amplitude modulation, ofwel pam4, en doet dat op vier niveaus. Met die levels kunnen twee bit data per kloktik worden verwerkt, wat twee keer zoveel is als eerdere geheugenstandaarden, zoals gddr6. Dat is knap, maar de kans op fouten neemt hiermee ook sterk toe. Daarom zegt Nvidia zowel de geheugencontroller als het geheugen zelf elk van een eigen powerrail te hebben voorzien om daarmee de interferentie te minimaliseren.
Gddr6x is sneller maar ook duurder
Micron zegt zelf al te hebben geëxperimenteerd met pam4 sinds 2006 en het bedrijf ziet mogelijkheden voor gddr, dram en zelfs hbm. Voor die laatste standaard zou zelfs pam8 realiteit kunnen worden en het bedrijf heeft het patent ervoor al aangevraagd. Voor nu is gddr6x met pam4, wat sinds 2017 in ontwikkeling is, echter nog het neusje van de zalm. Dat betekent eveneens dat de kosten hoger liggen dan bij het implementeren van normaal gddr6-geheugen.
Niet alleen de kosten, ook het verbruik van gddr6x ligt op een hoger niveau, althans als we kijken naar de RTX 3080. Per pin is de nieuwe standaard efficiënter dan gddr6, maar Nvidia heeft er bij zijn high-end Ampere-kaarten voor gekozen om de geheugensnelheid flink op te schroeven en zo veel winst in geheugenbandbreedte te behalen ten opzichte van de Turing-generatie. De RTX 3080 komt met een geheugensnelheid van 19Gbit per seconde op een 320bit-geheugenbus uit op een geheugenbandbreedte van 760GB per seconde. Dat is bijna 70 procent meer dan bij de RTX 2080, al is die kaart voorzien van een smallere geheugenbus van 256bit.
Samsung 8nm, specificaties en prijzen
Alle Ampere-gpu’s die Nvidia tot nu toe heeft aangekondigd, dus de GA102 en GA104, worden geproduceerd op Samsungs 8nm-proces. Daarmee maakt Nvidia een opvallende switch na jarenlang te hebben vertrouwd op TSMC als vaste leverancier van in elk geval de high-end chips.
Samsungs 8nm-proces is eigenlijk al best een oudje. In 2018 rolden de eerste chips op basis van dit procedé uit de machines. Je kunt zelfs stellen dat het proces nog een jaar ouder is, want het was slechts een kleine verbetering ten opzichte van het technisch grotendeels identieke 10nm-proces, waarop Samsung al sinds 2017 Exynos-socs bakte. Ten opzichte van de eerste generatie 10nm zou het 8nm-proces ongeveer 10 procent efficiënter zijn.
8nm is Samsungs kleinste proces waarvoor het geen gebruikmaakt van euv-belichting, een dure productiemethode die nog altijd de nodige beperkingen heeft, bijvoorbeeld als het gaat om de snelheid waarmee wafers gemaakt kunnen worden. Vorig jaar schreven we nog een uitgebreid achtergrondartikel over euv-lithografie.
Het 8nm-procedé dat Samsung twee jaar geleden aankondigde, heette 8LPU (Low Power Ultimate) en werd destijds gepresenteerd als ‘het ideale alternatief voor chips met hoge klokfrequenties en een grote transistordichtheid’. Nvidia zegt nu samen met Samsung een eigen '8N’-proces te hebben ontwikkeld, eveneens verwijzend naar een hogere dichtheid en een efficiëntiewinst van 10 procent. Of hiermee simpelweg 8LPU wordt bedoeld of dat daarbovenop nóg eens 10 procent extra efficiëntie wordt vrijgespeeld, is niet duidelijk. Nvidia wilde ons hier geen verdere details over geven.
Specificaties en prijzen
Opvallend is hoe Nvidia de verschillende Ampere-chips op het 8nm-procedé gebruikt om zijn line-up van de RTX 3000-serie te segmenteren. Zoals voor Nvidia gebruikelijk is, worden verschillende chips voor het portfolio voorzien van een codenaam waarbij de cijfers een indicatie geven van de relatieve prestaties en het formaat. Hoe hoger het laatste getal, des te lager de positionering. Bij de vorige Turing-kaarten werd TU104 al gebruikt voor de RTX 2080 en zelfs TU106 voor de RTX 2070. Met Ampere zet Nvidia hoog in door voor de RTX 3080 een GA102 te gebruiken en een GA104 op de RTX 3070.
GA102 heeft een oppervlakte van 628,4mm², wat ondanks het kleinere formaat dan de enorme 754mm² van TU102 alsnog een flinke chip is. Samsung heeft in vergelijking met TSMC relatief weinig ervaring met dergelijke grote chips en misschien zullen de yields daaronder te lijden hebben. Des te opvallender is het dat Nvidia voor de GA102-bevattende RTX 3080 ‘slechts’ 699 dollar vraagt, terwijl de RTX 2080 Ti met TU102 nog voor 1199 dollar over de toonbank ging.
Hoewel het bij beide kaarten niet om een volledig geactiveerde chip gaat, zijn op de GA102 van de RTX 3080 naar verhouding veel meer cores uitgeschakeld dan op de TU102 van de RTX 2080 Ti. Dit zou eventuele lage yields enigszins kunnen compenseren, waarbij de besproken herinrichting van de CUDA-core nog steeds een prestatiewinst oplevert.
Videokaart
RTX 3080
RTX 2080 Ti
RTX 2080
GTX 1080 Ti
Gpu
GA102
TU102
TU104
GP102
Architectuur
Ampere
Turing
Turing
Pascal
Procedé
8nm
12nm
12nm
16nm
Die-size
628,4mm²
754mm²
545mm²
471mm²
Transistors
28 miljard
18,6 miljard
13,6 miljard
12 miljard
CUDA-cores
8704
4352
2944
3584
Tensor-cores
272
544
368
0
RT-cores
68
68
46
0
Texture-units
272
272
184
224
Rops
96
88
64
88
Baseclock
1440MHz
1350MHz
1515MHz
1480MHz
Boostclock
1710MHz
1545MHz 1635MHz (FE)
1710MHz 1800MHz (FE)
1582MHz
Vram
10GB gddr6x
11GB gddr6
8GB gddr6
11GB gddr5x
Geheugensnelheid
19Gbit/s
14Gbit/s
14Gbit/s
11Gbit/s
Geheugenbus
320bit
352bit
256bit
352bit
Bandbreedte
760GB/s
616GB/s
448GB/s
484GB/s
Tdp
320W
250W
215W
250W
Adviesprijs FE (bij introductie)
719 euro
1259 euro
849 euro
825 euro
Video, display en streaming
Nvidia gebruikt voor de Ampere-kaarten dezelfde video-encoder als in Turing zat, waardoor er op dat vlak geen nieuwe mogelijkheden zijn. De decoder heeft wél een upgrade gekregen, met als belangrijkste resultaat dat video die met de av1-codec is gecodeerd, nu hardwarematig kan worden gedecodeerd. Het heeft er alle schijn van dat av1, als opvolger van Googles vp9, in de komende jaren een grote rol gaat spelen in de wereld van videostreaming.
Hdmi 2.1
Een andere belangrijke specificatie van de RTX 3000-serie is ondersteuning voor hdmi 2.1. Op televisies is deze standaard inmiddels niet écht meer gloednieuw; wat videokaarten betreft is deze reeks Ampere-kaarten de eerste die er gebruik van maakt. En juist voor het prestatieniveau van de RTX 3080 en hoger zullen de mogelijkheden van hdmi 2.1 van belang zijn: 4k tot 144Hz of zelfs 8k op 60Hz. Bij laatstgenoemde resolutie en framerate is display stream compression overigens wel nodig.
Broadcast: RTX Voice is nu geen bèta meer
Noemenswaardig is verder Nvidia Broadcast, de definitieve naam van de eerder uitgebrachte RTX Voice-bèta. De door kunstmatige intelligentie aangestuurde geluidsfiltering heeft nu drie profielen en zou nog maar een prestatie-impact van 3,6 procent hebben, waar dat tijdens de bèta nog 8,5 procent was. Het ai-algoritme wordt uiteraard uitgevoerd op de Tensor-cores. Er zijn ook enkele compleet nieuwe features toegevoegd aan de definitieve release van Broadcast, zoals het vervangen van de achtergrond en een autoframefunctie voor je webcam.
Testverantwoording
Voor deze review van de GeForce RTX 3080 hebben we een compleet nieuw testsysteem in gebruik genomen dat geschikt is voor pci-express 4.0. AMD is op dit moment de enige die de nieuwste pci-e-standaard ondersteunt, dus de keuze viel al snel op AMD’s snelste game-cpu: de Ryzen 9 3900XT. Om het boostgedrag van de cpu uit te sluiten als variatiefactor, hebben we de multiplier vastgezet op 42.
De processor installeren we op een MSI MEG X570 Godlike-moederbord, net als 32GB aan G.Skill Trident Z Royal-geheugen (2x 16GB in dualchannel) op een snelheid van 3600mt/s en een tweetal ssd’s: een Samsung 970 Evo 250GB als bootdrive en een Kioxia Exceria+ 2TB waarop alle games zijn geïnstalleerd. Verder bestaat het systeem uit een be quiet Dark Power Pro 12 1500W-voeding en een uitgebreide waterkoelset van Alphacool. Als besturingssysteem is uiteraard de nieuwste versie van Windows 10 Pro 64bit geïnstalleerd.
Testsysteem
Processor
AMD Ryzen 9 3900XT @ 4,2GHz
Moederbord
MSI MEG X570 Godlike (bios v1.9)
Werkgeheugen
G.Skill Trident Z Royal 32GB DDR4-3600 CL16-16-16-36
Ssd
Samsung 970 Evo 250GB (OS) + Kioxia Exceria 2TB (games)
Voeding
be quiet Dark Power Pro 12 1500W
Koeling
Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, be quiet Pure Wings 2-ventilatoren
Besturingssysteem
Windows 10 Pro 64bit May 2020 Update (2004)
Drivers en meetmethode
Alle Nvidia-gpu’s hebben we voor deze review getest met dezelfde driver: 456.16. Deze driver biedt naast de RTX 3080 ook ondersteuning voor eerdere generaties, waardoor het verschil tussen een launchdriver en een normale driver in deze vergelijking geen rol meer speelt.
Voor de AMD Radeon RX 5700 XT hebben we gebruikgemaakt van Radeon Adrenalin 20.8.3, wat op het moment van schrijven de recentste driver uit het rode kamp is.
Met behulp van PresentMon meten we in elke geteste game de prestaties, waaruit we zowel de gemiddelde framerates (fps) als de frametimes van het 99e en 99,9e percentiel berekenen en die laatste twee in milliseconden rapporteren.
In de grafieken op de volgende pagina's vind je telkens in eerste instantie gemiddelde framerates, oftewel het gemiddelde aantal beelden per seconde dat een videokaart kan berekenen. De frametimes geven geen beeld van de gemiddelde framerate, maar van de uitschieters in negatieve zin, die ervoor kunnen tot gevolg hebben dat een game ondanks een goed gemiddelde niet vloeiend aanvoelt.
De tijd die het kost om beelden binnen een 3d-game en dus binnen onze benchmark te renderen, varieert van frame tot frame. Bij onze frametime-meting worden de rendertijden van alle individuele frames opgeslagen. Daarna gooien we de 1 procent langzaamste frames weg. De hoogste rendertijd van de resterende 99 procent van de frames, oftewel het langzaamste frame, is het 99e percentiel frametime.
Op verzoek van enkele lezers hebben we ook de 99,9e-percentielwaarden toegevoegd. Hiervoor laten we dus slechts de 0,1 procent langzaamste frames buiten beschouwing. In theorie is dit nog preciezer, maar in de praktijk gooien incidentele oorzaken en meetfouten soms roet in het eten. Voor nu hebben we ze vermeld in de review, maar houd dat dus in het achterhoofd bij het bekijken van deze resultaten.
Gameselectie
Zoals je van ons gewend bent, testen we gpu’s met een selectie van tien games, die zorgvuldig is samengesteld om een zo representatief mogelijk beeld te geven. Hierbij hebben we onder meer rekening gehouden met de api, de engine, het genre, de AMD/Nvidia-verhouding, de leeftijd en de technische benchmarkdetails van elke game. Voorafgaand aan elke test wordt de videokaart opgewarmd, bijvoorbeeld door 3DMark te draaien of in het menu van de game als dat in real time gerenderde graphics bevat.
Game
Verschijningsdatum
Api
Engine
Control
Augustus 2019
DX12
Northlight Engine
Doom Eternal
Maart 2020
Vulkan
id Tech 7
F1 2020
Juli 2020
DX12
EGO Engine 4.0
Far Cry: New Dawn
Februari 2019
DX11
Dunia 2.0
Ghost Recon: Breakpoint
Oktober 2019
DX12
Anvil Next 2.0
Metro Exodus
Februari 2019
DX12
4A Engine
Project Cars 3
Augustus 2020
DX11
Madness
Red Dead Redemption 2
November 2019
Vulkan
RAGE
Shadow of the Tomb Raider
September 2018
DX12
Foundation
Total War Saga: Troy
Augustus 2020
DX12
TW Engine 3
Geluidsproductie en stroomverbruik
Naast de prestaties meten we ook de geluidsproductie en het stroomverbruik van videokaarten. De meting van de geluidsproductie doen we in een geluiddichte doos op een afstand van 30cm, met de decibelmeter schuin op de videokaart gericht. De drempelwaarde voor onze metingen is 18dB(A); dat mag je opvatten als volledig stil. Tijdens de idle-test wordt de videokaart vanzelfsprekend niet belast. De load-test is gebaseerd op een verlengde gametest van tien minuten, zodat de videokaart tijd heeft om op te warmen en zijn maximale geluidsproductie te bereiken.
De stroommeting voeren we uit met een zogenaamde riserkaart van fabrikant Adex, die we tussen het pci-express-slot en de videokaart in plaatsen. Op die manier kunnen we niet alleen de stroom meten die door de losse stroomkabels loopt, maar ook het vermogen dat de videokaart rechtstreeks uit het pci-e-slot betrekt. Voor de meting zelf vertrouwen we op verschillende exemplaren van de Tinkerforge Voltage/Current Bricklet 2.0. Voor de slotmeting is de riserkaart met zo’n bricklet uitgerust. Om de stroom van de peg-kabel te meten, is de bricklet samen met de benodigde connectors op een speciaal voor onze test ontworpen printplaat geplaatst. Afhankelijk van het aantal stroomkabels dat een videokaart vereist, gebruiken we uiteraard diverse meters.
3DMark Time Spy en Fire Strike
3DMark heeft een hele suite aan benchmarks waarvan wij Time Spy en Fire Strike standaard draaien. Fire Strike maakt gebruik van de DX11-api, Time Spy van DirectX 12. Beide benchmarks berekenen een totaalscore op basis van de gpu- en cpu-prestaties, waarbij de grafische score het zwaarst meeweegt. De Graphics-scores staan zoveel mogelijk los van de prestaties van de andere componenten en deze score kun je dus ook het best gebruiken als indicatie voor gpu-prestaties onafhankelijk van de rest van het systeem.
In Time Spy loopt de RTX 3080 ruim 23 procent voor op de RTX 2080 Ti in de Graphics-score, met Fire Strike Ultra neemt de voorsprong toe tot 33 procent. In Fire Strike Extreme is het verschil weer iets kleiner. Tegenover de RTX 2080 Super doet de 3080 het ruim 50 tot zelfs 60 procent beter.
Superposition is een benchmark van Unigine en is in zowel OpenGL als DirectX 11 te draaien. Voor onze tests maken wij gebruik van DX11 en twee van de aanwezige grafische presets.
Op 1080p High loopt de RTX 3080 respectievelijk 17,5 en 43,8 procent voor op de RTX 2080 Ti en 2080 Super. Dat is al een goede voorsprong, maar deze wordt groter als we overstappen naar de 4k Optimized-preset. Strikt genomen zijn de kwaliteitsinstellingen op deze preset iets lager, maar het aantal pixels ligt vier keer zo hoog. Dat gaat de 3080 nog wat beter af dan de oudere kaarten.
Control is een thirdpersonshooter uit 2019 en draait in DirectX 12 op de Northlight Engine. Onze benchmark bestaat uit een handmatig gelopen vaste route door de Central Executive-ruimte van het spel.
De RTX 3080 loopt hier goed uit op de Turings en daarbij valt op dat dit ook op lagere resoluties en lagere kwaliteitsinstellingen met vergelijkbare marges het geval is. Een voorsprong van ruim 30 procent op de RTX 2080 Ti lijkt de norm in Control voor de RTX 3080 en tegenover de 2080 Super is dat al gauw het dubbele.
Doom Eternal, onderdeel van de zeer bekende serie firstpersonshooters, draait in de Vulkan-api op de relatief nieuwe idTech 7-engine en kwam in maart van dit jaar uit. De benchmark bestaat uit een 60 seconden-durende vaste route door de Hell on Earth-map van het spel.
In Doom Eternal behaalt de RTX 3080 bijzonder hoge framerates, zelfs op 4k Ultra. Hoe hoger de resolutie, hoe meer de Ampere-kaart uitloopt op de rest met op 4k Medium de grootste winst. Toch is het ook op 1080p indrukwekkend dat de 3080 de 2080 Ti zover voor weet te blijven.
F1 2020 is als een van de bekendste racegames ook onderdeel van ons testprocotol. De serie draait al de nodige jaren op de EGO-engine, waarvan we inmiddels de vierde iteratie gebruiken. We maken gebruik van de DirectX 12-api en de ingebouwde benchmark van het spel, met daarbij de cockpitview en de 'very wet'-weersinstelling geactiveerd op het circuit van Zandvoort.
In dit spel is de voorsprong op 4k opnieuw aanzienlijk: ruim 30 procent sneller dan de 2080 Ti en bijna 60 procent sneller dan de RTX 2080 Super. Op 1440p zijn de verschillen al kleiner en op 1080p is onmiddellijk duidelijk dat eerder de engine en processor de beperkende factor zijn dan de gpu.
Far Cry: New Dawn is een van Ubisofts meest vooraanstaande firstpersonshooters en de Far Cry-serie draait al de nodige tijd op de Dunia-engine. Voor New Dawn wordt daarvan versie 2.0 gebruikt, die het nog altijd met de DirectX 11-api moet doen. We maken gebruik van de ingebouwde benchmark van het spel.
In Far Cry: New Dawn is de voorsprong van de RTX 3080 op de andere videokaarten niet zo groot als in de games die we tot nu toe hebben gezien. De combinatie van een Ryzen-processor en deze game speelt hierin een rol, de Dunia-engine is niet bijzonder goed geoptimaliseerd voor de Zen-architectuur. Toch zijn ook hier de prestatieverbeteringen van de RTX 3080 tegenover de 2080 Ti en 2080 Super significant, op 4k althans. Op lagere resoluties wordt de processor al snel de beperkende factor.
Tom Clancy's Ghost Recon: Breakpoint is een openworldgame en draait door middel van de Anvil Next 2.0-engine in de DirectX 11-api en Vulkan. Voor deze game gebruiken we ook de ingebouwde benchmark.
Het spel komt op 4k Ultra met een RTX 3080 op een 23 procent hogere framerate uit dan op de 2080 Ti, de voorsprong ten opzichte van de RTX 2080 Super gaat intussen richting de 50 procent. Net als bij veel andere games zien we op lagere resoluties en ook met lagere instellingen minder grote, maar nog steeds significante verschillen.
Metro Exodus is een firstpersonshooter die draait op de 4A Engine. Voor onze tests in deze game maken wij gebruik van de DirectX 12-api en de vrij zware ingebouwde benchmark.
In Metro Exodus loopt op 4k Ultra de RTX 3080 nagenoeg 20 procent voor op de 2080 Ti en bijna 45 procent op de 2080 Super. De 3080 komt op deze instellingen bovendien net gemiddeld boven de 60fps uit, wat op lagere resoluties uiteraard meer is, terwijl de verschillen tussen de kaarten daar weer kleiner zijn.
Project Cars 3 is een recente racegame van Slightly Mad Studios en draait in DirectX 11 op de Madness-engine. De benchmark bestaat uit een negentig seconden durende replay op de Nordschleife die in real time wordt gerenderd.
Red Dead Redemption 2 is Rockstars bekende openworldgame van eind 2019 en draait in de Rockstar Advanced Game Engine. Het spel valt met zowel DirectX12 als de Vulkan-api te draaien en omdat DX12 op ons testsysteem problemen geeft, maken we gebruik van Vulkan, dat wel probleemloos werkt. Voor deze test zetten we de ingebouwde benchmark van het spel in, waarbij we enkel de laatste (en langste) scène gebruiken.
In deze game is de RTX 3080 op 4k Ultra bijna 23 procent sneller dan de RTX 2080 Ti en komt hij op deze instellingen bovendien comfortabel boven de 60fps uit. Daarnaast wordt de 2080 Super met ruim 40 procent voorbijgestreefd. Op 1440p Ultra zien we deze Ampere bijna de 100fps halen, maar ook met deze lagere resoluties worden de verschillen tussen de gpu's kleiner.
Shadow of the Tomb Raider maakt als laatste deel van de bekende adventureserie gebruik van de Foundation-engine. Het spel kan in zowel DX11 als DX12 gedraaid worden. Wij maken gebruik van laatstgenoemde api en van de ingebouwde benchmark.
Waar de RTX 2080 Ti op 4k Ultra nog krap boven de 60fps uitkwam, zit de RTX 3080 met deze instellingen al comfortabel richting de 80 frames per seconde. De winst is 30 procent, terwijl de Ampere-kaart ruim 50 procent voorloopt op de 2080 Super. Op 1440p zijn de verschillen ook nog significant; op 1080p is dat al een stuk minder het geval.
4k
4k Ultra
4k Ultra (99p)
4k Ultra (99,9p)
4k Medium
4k Medium (99p)
4k Medium (99,9p)
Shadow of the Tomb Raider (DX12) - 3840x2160 - Ultra
Total War Saga: Troy is een recente realtime strategygame en draait op DirectX12 in de TW Engine 3. Het spel biedt drie ingebouwde benchmark, wij gebruiken de Battle-scene voor onze tests.
In Troy komt op 4k Ultra de RTX 3080 al aardig in de buurt van de 60fps, terwijl de 2080 Ti niet verder komt dan 44 beelden per seconde. De winst van 24,1 en 53,8 procent voor respectievelijk de 2080 Ti en 2080 Super is groot en ook op 1440p zien we nog een aardige voorsprong.
Om in één oogopslag te zien hoe de verschillende gpu's zich tot elkaar verhouden, berekenen we vanuit de tien gebruikte en hiervoor besproken games op basis van de resultaten gewogen gemiddelden. Deze prestatiescores berekenen we op de geteste resoluties en kwaliteitsinstellingen.
De prestatiescore in 4k Ultra komt voor de 3080 uit op 81,3fps, wat betekent dat de RTX 3080 gemiddeld 25 procent sneller is dan de RTX 2080 Ti en zo'n 50 procent sneller dan de RTX 2080 Super. De RTX 2070 Super wordt met een voorsprong van zo'n 65 procent ruim verslagen. Ook ten opzichte van het oudere Pascal-vlaggenschip is de winst groot; de RTX 3080 is gemiddeld 78 procent sneller dan de GTX 1080 Ti in de tien geteste games. Tegenover de RX 5700 XT doet de RTX 3080 het 85 procent beter en de GTX 1080 wordt zelfs met meer dan 120 procent voorbij gestreefd.
Ook op 1440p-resolutie is de RTX 3080 ruim sneller dan de RTX 2080 Ti: ruim 19 procent. Gemiddeld komt de RTX 3080 hier uit op 125,5fps, wat de videokaart ook interessant maakt voor gamers met een 1440p-monitor met hogere refreshrate.
Niet alleen hebben we een hele reeks games getest volgens conventionele rendertechnieken (rasterization), we hebben ook enkele extra tests gedraaid om de raytracingprestaties te kunnen vergelijken.
3DMark Port Royal
Port Royal is 3DMarks benchmark waarin raytracingprestaties worden gemeten. Het betreft een synthetische test waar zowel een score als een gemiddelde framerate uitkomt. Hier zien we dat de nieuwe Ampere-kaart vrijwel 30 procent sneller is dan de 2080 Ti en zelfs 70 procent hoger eindigt dan de RTX 2080 Super. De GeForce-kaarten uit de 1000-serie kunnen dankzij ondersteuning vanuit de driver hun ongebruikte cores inzetten voor raytracing, maar wegens het gebrek aan aparte hardwareversnelling liggen de scores behoorlijk wat lager dan bij de RTX-kaarten.
In Control hebben we ook een aantal tests gedraaid, waaronder raytracing met RTX die gebruikmaakt van de DXR-api in Windows 10. Ten opzichte van de RTX 2080 Ti ziet de RTX 3080 een prestatieverbetering van zo'n 40 procent, ongeacht de resolutie. Op 4k betekent dit het verschil tussen wel en niet speelbaar, op 1440p komt de RTX 3080 intussen comfortabel boven de 60fps, wat de Turing-generatie nog niet lukte.
De verbeterde Tensor-cores in de RTX 3080 laten in deze DLSS-test hun meerwaarde zien. Op zowel 4k als 1440p liggen de prestaties duidelijk hoger. Op deze specifieke instellingen produceert de RTX 2080 Ti echter ook nog een prima speelbare framerate, maar de prestatiewinst van de 3080 kan nog altijd gebruikt worden om instellingen nog verder omhoog te schroeven.
Als we zowel raytracing als DLSS inschakelen, zien we bijna een verdubbeling van de framerate ten opzichte van DXR zonder DLSS. De meerwaarde van de upscalingtechniek om voor het prestatieverlies van raytracing te corrigeren, is hiermee duidelijk, zeker op hogere resoluties.
Ten slotte hebben we ook raytracing getest in Exodus, dit keer enkel op 1440p en 1080p-resolutie. Ook hier haalt de RTX 3080 significant hogere framerates dan de Turing-generatie, 26 procent sneller dan de 2080 Ti en 56 procent sneller dan de 2080 Super.
De prestaties van de RTX 3080 zijn niet alleen toegenomen ten opzichte van de Turing-generatie, ook het verbruik komt hoger uit. De nieuwe Ampere-kaart komt op 320 watt uit voor in-game totaalverbruik, wat betekent dat de opgegeven tdp keurig wordt aangehouden, maar eveneens dat de koeler een hoop extra warmte moet afvoeren.
Een paar pagina's terug zagen we in de prestatiescore dat de RTX 3080 gemiddeld ongeveer 25 procent sneller is dan de RTX 2080 Ti in games zonder raytracing, maar daar staat wel een 17 procent hoger verbruik tegenover. Tegenover de 2080 Super ligt het verbruik 30 procent hoger terwijl de prestaties 50 procent zijn toegenomen, en ten opzichte van de RTX 2070 Super ligt het verbruik 52 procent hoger voor 68 procent betere prestaties. Dat maakt de RTX 3080 weliswaar efficiënter in de zin van prestaties-per-watt, maar toch is het absolute verbruik van deze proporties niet de uitkomst die het koelen van een gamesysteem er gemakkelijker op maakt.
In het idle-verbruik kwamen we intussen amper wijzigingen tegen ten opzichte van eerdere high-end kaarten. Het verbruik is zonder belasting niet bepaald laag, maar buitensporig kunnen we het zeker niet noemen.
Een grote stap voor de geheugenbandbreedte van GeForce-gpu’s is natuurlijk de komst van pci-express 4.0. AMD kwam hier al iets eerder mee met de RX 5000-serie; nu is Nvidia ook overgestapt op de nieuwste pci-e-standaard. Bij velen komt nu de vraag op of pci-e 4.0 nodig is om wat gaming betreft alles uit een RTX 3080 te halen en de prestaties niet te beperken door de lagere snelheid van pci-e 3.0. Om die vraag te beantwoorden, hebben we een aantal benchmarks gedraaid met daarbij op ons testsysteem pci-e 4.0 en 3.0 geactiveerd. Ter validatie hebben we de tests ook gedraaid op een systeem dat pci-e 3.0 als maximale interfacesnelheid heeft.
Niet geheel verrassend beginnen we met 3DMarks pci-express bandwidth-test. Met deze test meten we de geheugenbandbreedte die beschikbaar is voor de gpu. Hieruit blijkt dat zowel de RTX 3080 als de RX 5700 XT daadwerkelijk meer bandbreedte ter beschikking heeft op pci-e 4.0, grofweg twee keer zoveel: precies zoals de specificatie belooft.
3DMark
Pci-express bandwidth-test
Pci-e 3.0
Pci-e 4.0
Verschil
GeForce RTX 3080
13,07GB/s
26,28GB/s
+101,1%
Radeon RX 5700 XT
14,15GB/s
25,89GB/s
+83,1%
Dat de geheugenbandbreedte uit bovenstaande test hoger blijkt, is leuk, maar levert het ook wat op in de praktijk? In onderstaande tabellen vergelijken we onze resultaten van benchmarks en games. In de geteste games hebben we wat resolutie betreft gekozen voor de uitersten, 1080p en 4k, om te kijken of er verschillen zitten tussen een hoge framerate en een veeleisende resolutie.
Benchmark (RTX 3080)
Pci-e 3.0
Pci-e 4.0
Verschil
Fire Strike
31095
31118
+0,07%
Fire Strike Graphics
41146
41285
+0,34%
Fire Strike Extreme
19818
19892
+0,37%
Fire Strike Extreme Graphics
20811
20936
+0,6%
Fire Strike Ultra
10958
10957
-0,01%
Fire Strike Ultra Graphics
10764
10795
+0,29%
Time Spy
16850
16794
-0,33%
Time Spy Graphics
17620
17619
-0,01%
Port Royal
11288
11340
+0,46%
Port Royal fps
52,3fps
52,5fps
+0,38%
De resultaten vormen haast een anticlimax; in geen van onze tests komen we significante verschillen tegen. Daarmee lijkt pci-e 4.0 in games zelfs voor een RTX 3080 momenteel nog geen meerwaarde te bieden. Dat wil overigens niet zeggen dat dit in de toekomst niet kan veranderen. Toekomstige spellen zullen veeleisender worden, waarbij de geheugenbandbreedte dan een beperkende factor kan vormen. Dit is echter speculeren en lijkt voorlopig nog niet relevant op de RTX 3080. Of dit voor de RTX 3090 wel het geval zal zijn, zullen we in de desbetreffende review eveneens uitzoeken.
Benchmark (RTX 3080)
Pci-e 3.0
Pci-e 4.0
Verschil
Doom Eternal 1080p Ultra
347,2fps
350,7fps
+1,01%
Doom Eternal 4k Ultra
179,1fps
178,1fps
-0,56%
Ghost Recon Breakpoint 1080p Ultra
126,1fps
126,5fps
+0,32%
Ghost Recon Breakpoint 4k Ultra
81,1fps
82,1fps
+1,23%
Shadow of the Tomb Raider 1080p Ultra
151,5fps
150,3fps
-0,79%
Shadow of the Tomb Raider 4k Ultra
80,8fps
77,9fps
-3,59%
Founders Edition: koeling en geluidsproductie
In deze review hebben we de RTX 3080 puur als 3d-chip (gpu) getest, maar je kunt de Founders Edition vanaf 17 september natuurlijk ook gewoon zelf bestellen. Deze videokaart is voorzien van Nvidia’s eigen koelerontwerp, dat een futuristischere uitstraling heeft dan de Founders Edition-kaarten uit de RTX 2000-serie. De fabrikant belooft daarbij bovendien een dubbel zo goede koeling in vergelijking met de Founders Editions van de Turing-generatie.
Bij nadere inspectie van de RTX 3080 Founders Edition valt direct op hoe hoogstaand en knap het ontwerp van de kaart eigenlijk is. We hebben hier immers een kaart voor ons die al gauw richting de 300 watt verbruikt en een flinke gpu met een behoorlijk hoog geklokt werkgeheugen bevat. Aan het formaat van het pcb zou je dat niet snel zeggen. Elke vierkante millimeter van dit pcb lijkt te zijn benut om de printplaat tot bescheiden proporties te beperken.
Het kleine pcb zal misschien het pronken met vakmanschap als bijkomstigheid hebben, maar het V-vormige uiteinde heeft daadwerkelijk een functie in het ontwerp. De achterste ventilator van de RTX 3080 Founders Edition zuigt lucht aan vanuit de onderkant van de kaart, door de koelvinnen heen naar boven toe. Dankzij het ontwerp zit hier dus geen pcb in de weg dat de luchtstroom naar boven toe blokkeert.
De voorste ventilator is als het ware een hybride vorm tussen de blower style- en open air-koeloplossingen. Deze ventilator blaast nog steeds lucht richting het pcb, maar in het ontwerp is ervoor gezorgd dat de lucht vervolgens via de i/o-kant de behuizing verlaat en daarmee overige componenten zo min mogelijk opwarmt. Het valt nog te bezien of veel fabrikanten deze constructie zullen overnemen. Wij zijn in ieder geval al fan van het idee dat dergelijke innovatieve koeloplossingen verder komen dan de tekentafel.
Bekijken we verder het pcb van de RTX 3080 FE zelf, dan treffen we een stroomvoorziening aan met achttien fasen voor de gpu, gekoppeld aan de inmiddels veelbesproken twaalfpinsconnector van Nvidia. Bij de Founders Edition heeft de fabrikant vermoedelijk vanuit esthetisch oogpunt voor deze stekker gekozen. Een adapter van twee reguliere achtpins-peg-stekkers naar deze twaalfpins wordt meegeleverd in de doos. De kaart is verder ‘ingepakt’ in een nauwkeurig vormgegeven behuizing waarop de backplate naadloos aansluit. Het GeForce RTX-logo en de X boven op de kaart zijn voorzien van verlichting.
Testresultaten: koeling en geluidsproductie
Als we ruim tien minuten onafgebroken gamen in AC:Odyssey, stabiliseert de kloksnelheid van de gpu al snel op 1950MHz, met zo nu en dan een kleine daling naar 1935MHz. De gpu-temperatuur loopt niet verder op dan tot 75 graden, een keurig resultaat, zeker voor een referentiekaart met een verbruik van 320W.
Voor liefhebbers van een stille pc is het goed nieuws dat Nvidia eindelijk een '0dB-modus' heeft toegevoegd aan de Founders Edition van de RTX 3080. Dat betekent dat de ventilatoren blijven stilstaan totdat de gpu actief wordt belast. Eerdere referentiemodellen waarmee we in onderstaande grafiek vergeljiken, hadden een dergelijke modus nog niet, wat voor velen een belangrijke reden was om voor een model van een andere fabrikant te gaan.
Onder belasting meten we op 30cm afstand tijdens AC: Odyssey 50dB(A). Voor een referentiekaart is dat alleszins aardig. We zouden hem tijdens het gamen zeker niet muisstil noemen, maar een verbetering is het wel. De RTX 2080 Ti was bijvoorbeeld luidruchtiger, terwijl het stroomverbruik van die kaart veel lager lag dan dat van de RTX 3080. Ook met de ventilator op maximale snelheid is de geluidsdruk van de RTX 3080 Founders Edition wat lager dan bij veel andere referentiekaarten.
Na twee jaar wachten is het eindelijk zover; Nvidia’s nieuwste generatie GeForce-videokaarten is gearriveerd. In een live gestreamde aankondiging deed de fabrikant op 1 september de verwachtingen hoog oplopen. Met flink meer CUDA-cores en significant sneller geheugen wekte Nvidia in zijn presentatie de indruk dat Ampere veel betere prestaties zou leveren dan Turing, een verdubbeling zelfs. Of deze claims waargemaakt worden, kunnen we aan het einde van deze review eindelijk beantwoorden.
Hoe snel is de RTX 3080?
Tot de beloofde dubbele prestaties ten opzichte van een RTX 2080 komen we gemiddeld niet in onze eigen benchmarks, maar dat neemt niet weg dat Nvidia een enorme stap zet. Kijken we naar de prestaties op 4k-resolutie met Ultra-settings, zonder tierlantijnen als RTX en DLSS, dan is de RTX 3080 gemiddeld 25 procent sneller dan de RTX 2080 Ti en zelfs 50 procent sneller dan zijn directe voorloper: de RTX 2080 Super. Ook de RTX 2070 Super wordt met 68 procent winst voorbijgestreefd. Geen verdubbeling van prestaties, maar wel een flinke toename. Kortom, voor hetzelfde geld krijg je na vandaag opeens veel betere prestaties.
De RTX 3080 laat gemiddeld dus indrukwekkende prestaties zien, maar de prestatiewinst in sommige games spreken nog meer tot de verbeelding. In Control is de Ampere-gpu bijvoorbeeld 67,5 procent sneller dan een 2080 Super. En in games met ondersteuning voor raytracing is de winst ook groot. Opnieuw niet zó groot als Nvidia claimt, maar wel significant. In spellen met DXR-support komt de RTX 3080 op 1440p-resolutie met prima framerates voor de dag, wat het vlaggenschip van de vorige generatie nog niet lukte.Combineren we dit met DLSS, dan wordt het verlies in framerate meestal gecompenseerd en lijkt het erop dat 4k-gaming ook tot de mogelijkheden gaat behoren. Wel blijft het nog altijd noodzakelijk dat elke game ondersteuning voor specifiek deze technieken krijgt ingebouwd.
Prestaties nemen toe, stroomverbruik ook
Is het dan alleen maar rozengeur en maneschijn? Niet helemaal, want al die extra prestaties hebben een prijs als we naar het stroomverbruik kijken. De RTX 3080 verbruikt significant meer dan zijn voorganger en hoewel de prestaties dusdanig zijn toegenomen dat de efficiëntie alsnog is verbeterd, staat de RTX 3080 in absolute zin garant voor een enorme bak hitte. Nvidia slaat natuurlijk al flink op de trom over zijn nieuwe koelconcept voor de Founders Edition, maar reken maar dat ook andere fabrikanten alles uit de kast moeten trekken om hun nieuwe kaarten goed te koelen.
De RTX 3080 Founders Edition
Niet al te lang geleden wilde je alleen een referentiemodel als je waterkoeling ging installeren en de koeler toch niet zou gebruiken. Met de afgelopen generaties timmert Nvidia echter hard aan de weg. We kunnen zeker stellen dat de RTX 3080 Founders Edition de beste referentiekaart is die Nvidia tot nu toe heeft gemaakt. De gulzige gpu wordt uitstekend koel gehouden bij een redelijke geluidsproductie, terwijl er ook voor het eerst een semipassieve modus is toegevoegd. De verscheidene Nvidia-partners zullen ongetwijfeld modellen kunnen bouwen die onder belasting nog stiller zijn, maar of ze dat ook voor een soortgelijke prijs kunnen doen… Wij vragen het ons af. Nvidia verkoopt de Founders Edition echter alleen via zijn eigen website en van de vorige generatie weten we dat voorraad daar absoluut geen gegeven is. In hoeverre fabrikanten van custom-RTX 3080's zich zorgen moeten gaan maken, valt dus te bezien.
Concurrentie?
Zolang AMD’s volgende generatie alleen nog op papier bestaat, blijft Nvidia op eenzame hoogte. Niet alleen de Radeons, maar ook de vorige ‘Turing’ GeForce-generatie verbleekt bij Ampere. En als je al onder de indruk bent van de prestaties van deze GeForce RTX 3080, bedenk dan dat de nog snellere RTX 3090 nog moet komen.
Echter is er nog 1 ding die ze niet kunnen reviewen en dat is RTX IO. Dat beloofd echt heel veel goeds voor laadtijden van games. Alleen RTX IO is wel een van de beste, zo niet de beste feature van deze kaart. RTX IO wordt dus volgend jaar via Direct X uitgerold en ik kan 'als ik naar mezelf kijk' bijna niet wachten op een nieuwe PC mét deze kaart. Mijn systeem is nu 13 maanden oud met een RTX2080 en dat was snel; nu is er de weg vrij om over een goed jaar over te stappen.
Er is geen weg meer naar 4K gaming nodig, die is er sinds vandaag officieel. Deze RTX3080 zit te slapen op 4Kp60. Dus ik vermoed dat de G-Sync modellen op 4K nu meer op voorraad komen. Zelf game ik op 1440p144, dat is ook mooi hoor. Ik kom nog van het Commodore 64 tijdperk.
Verder noem ik het geen upgrade ofzo, maar wereldnieuws voor de gamers onder ons. Ik heb genoten van de eerste aflevering van Tech hub, in het dubbele zelfs.
PS: Een tijdje terug waren er nogal wat discussies over dat PC gaming dood zou bloeden. Nou, nu al helemaal niet meer
HDMI 2.1 hebben zo ook helemaal niet getest. Helemaal nergens. Werkt de Auto Low Latency Mode, werkt VRR goed met niet standaard refresh rates, werkt HDR pass through?
Eigenlijk weten we nu nog niets/veel nieuws.
Bovendien zijn de founders edities slecht verkrijgbaar en hebben bovengemiddelde koelventilatoren, die niet gebruikt worden met andere edities of andere fabrikanten.
[Reactie gewijzigd door ariekanari op 22 juli 2024 14:49]
De weg naar 4K gaming was er al jaren. Speel ik wel voornamelijk de wat lichtere titels (Trials, SOR IV, Mother Russia, War Thunder) op 75Hz maar dan nog.
Enige wat me wel kan verleiden naar een upgrade is de laadtijden, ben wel benieuwd naar de winst op dat vlak.
[Reactie gewijzigd door lezzmeister op 22 juli 2024 14:49]
Staat in de review, onder RTX IO.
"gecomprimeerde textures rechtstreeks inladen naar het videogeheugen, waardoor knelpunten bij de processor en het opslagmedium worden omzeild". Dus binnenkort wel ja. Nog niet. En als er grote winsten zijn, dan wil ik m'n oudere kaart wel inwisselen, maar voor amper meetbaar doe ik het niet.
De 3900X is een CPU dat voordelen heeft voor encoding, video bewerking, compilatie, streaming+gaming enz. Voor de meeste games is de 3900X gewoon overkill en word er nauwelijks 1 CCD ( 6 Cores ) gebruikt. De andere CCD staat vaak idle bij gaming want cross CCD communicatie is duur. Die andere CCD doet dan andere taken ( je browser in de achtegrond, achtergrond taken, enz ).
Die 250 Euro extra betaal je voor 2 maal 3600 in op je moederbord te hebben. Aka, zoals een Dual Socket CPU te hebben. Mensen dat enkel naar de cores kijken en dan klagen over gaming prestatie, zijn vaak die dat geen benul hebben van wat de echte troeven zijn van de 3900X/3950X.
Als ik bijvoorbeeld compile, dan word de load over alle 12 cores verdeeld. Een voordeel tegenover de 6 cores dat de 3600 enkel heeft.
En ja, te veel mensen kopen 3900X's met de gedachte meer cores = goed voor gaming, terwijl dat eigenlijk niets uitmaakt ( soms zelf een nadeel als data over de 2 CCD's gaat ). Zijn er games dat meer dan 8 cores kunnen gebruiken: Ja, maar het zijn er niet veel. Over het algemeen zijn de meeste games nog altijd geoptimaliseerd voor 4 Cores ( de grootte meerderheid van mensen zitten nog op oudere 4 cores cpu's. Zie Steam statistieken ). Ik denk met de nieuwe consoles, dat we meer naar de 8 Cores als standaard gaan maar dat is een inhaal beweging over jaren. Tegen dan zitten we mogelijk aan 6900X met 24 cores of zo.
De 3080 is toch echt een videokaart voor 4K gaming, en daar is het verschil tussen CPU's zo klein dat zelfs een i3 geen bottleneck is!
Of ga jij wel een 3080 kopen om op 1080p medium te gamen?
Edit: fps op 4K ultra, 9 game average
Poeh poeh, wat een CPU bottleneck zeg...
Of heb ik een aantal op 1080p gamende toekomstige 3080 eigenaren (more=better!) beledigd?
[Reactie gewijzigd door HuisRocker op 22 juli 2024 14:49]
En waarom niet voor 1080p?
Afgaande van de eindresultaten van Tweakers gaat op 1080p Ultra je fps van 85 naar 145 als je nu op de GTX 1080 zit. Lijkt me een goede bump wanneer je een 144+Hz scherm hebt.
[Reactie gewijzigd door jhnddy op 22 juli 2024 14:49]
Gemiddeld geven 1080p 144+Hz spelers weinig tot helemaal niks om ultra instellingen. Je hebt het dan al snel over bijvoorbeeld een competitive shooter zoals CSGO o.i.d. waarbij je 'met een aardappel als videokaart' al de 144 haalt...
De hier (en ook in het geval van de meeste andere reviews) geteste games zijn grafisch flink zwaarder dan de gemiddelde game library van 1080p 'high fps' spelers, je vergelijking is dus krom. De GTX1080 haalt in de werkelijke game library van de 1080p 'high fps' spelers veel meer dan 85 fps gemiddeld omdat daar, in tegenstelling tot bij deze review, geen games als Control, TWS:Troy, SotTR en RDR2 bij zitten!
Edit: Was Control nog vergeten...
[Reactie gewijzigd door HuisRocker op 22 juli 2024 14:49]
Kortom CPU maakt een duidelijke verschil en ja er is sprake van een CPU bottleneck.
"Of ga jij wel een 3080 kopen om op 1080p medium te gamen?"
Nee, als ik al een 3080 koop dan niet primair voor 3D games maar vanwege de CUDA cores voor Lc0 e.d. Wat 3D games betreft, Diablo II LOD zit op 800*600 resolutie
De 3080 is toch echt gepositioneerd als videokaart voor 4K gaming.
Vandaar mijn bottleneck opmerking, die is er dus niet op 4K, dat is gewoon 100% juist.
Dat er op 1080p/1440p bij high fps (dikke videokaart) al snel een CPU bottleneck is weten we al jaren, da's niks nieuws.
En wat is er nog relevant aan je opmerking "competieve gamers mijden meestal 4K schermen vanwege: ..." als je daarbij simpelweg voor het gemak eventjes vergeet dat 'competitieve gamers' de geteste games helemaal niet spelen?
Dit artikel gaat over de 3080, niet over low res high fps gaming, de tests voor deze reviews (games) zijn daar duidelijk niet op gericht, daardoor niet relevant voor deze groep en discussie daarover is daarmee ook niet relevant... Waar wil je heen?
Dat zoals ik in mijn eerste post al aangaf de 3900X niet gewoon overkill is maar een bottleneck.
"De 3080 is toch echt gepositioneerd als videokaart voor 4K gaming."
Natuurlijk zet de Nvidia marketing de 3080 als 4K neer, daar is de prestatiewinst procentueel het grootst t.o.v. ander kaarten. En voor 1024 * 768 hoeft de gamer zijn huidige videokaart niet naar een 3080 te upgraden.
" niet over low res high fps gaming"
Sinds wanneer zijn 1080 en 1440P low res? En al helemaal niet met 21:9 schermen. Ik durf rustig te stellen dan van de mensen die de komende 12 maanden een 3080 kopen slechts een minderheid op de 4K monitor gamed. De veeleisende gamer heeft meer plezier van een 144Hz 1440p scherm dan van een 60Hz 4K monitor.
Waar noem ik 1440p low-res? Dat verzin je ter plekke...
En verder, jij trekt 1080p toch in de discussie onder een artikel over de 3080? Daar ging uiteraard mijn "low-res" opmerking over.
Het antwoord op je vraag, maar dan voor 1080p, is; sinds al een tijdje. Het is simpelweg een feit dat het de laagst verkrijgbare resolutie voor gaming is tegenwoordig.
Hoeveel schermen kan je überhaupt tegenwoordig nog nieuw kopen die op een resolutie lager dan 1080p zitten? Het zijn er 380 tegenover 2391 (1080p of hoger) in de pricewatch, en van die 380 is er voor zover ik kan zien niet 1 gericht op gaming.
Je kan het dus wel of niet leuk vinden, maar tegenwoordig is 1080p low-, 1440p mid- en 2160p (4K) high-res. v.w.b. 16:9 (2179 stuks in de PW, dus duidelijk de norm), voor ultrawide en 'ultrabreedbeeldmonitoren' is dat uiteraard iets anders.
Ook is het geen 'denigrerende opmerking van mij naar 1080p gamers' o.i.d., ik zit zelf nota bene nu ook gewoon nog op 1080p (wel ultrawide) te gamen! Met een tweedehands RX 480 overigens waarmee je in bijvoorbeeld CS:GO (speel ik incidenteel en casual) of Assetto Corsa (speel ik vaak en redelijk fanatiek) al boven de 144 fps gemiddeld zit.
Waarmee ik nogmaals aan wil geven; een RTX 3080 voor 1080p? Dan is je doel duidelijk om de allerzwaarste nieuwe AAA games met hoge/de hoogste settings op relatief hoge framerates te spelen. De catch hierin; dat is dus niet wat competitieve high fps spelers doen... Die spelen toch echt veel lichtere games en gaan daarom nog een aantal jaren geen 3080 power nodig hebben om hun framerates te halen en daarmee competitief te blijven. En zeer waarschijnlijk ook niet als ze recent naar 1440p zijn overgestapt want ook daar haalt de 3080 met gemak zeer hoge framerates in competitieve games.
De fout die je hier telkens maakt is dat je de lijst met geteste games, en de resultaten van de testen, van deze review behandeld alsof deze representatief zijn voor een andere doelgroep die andere games speelt (al dan niet competitief), en dat is dus, nogmaals, niet het geval...
En ja, te veel mensen kopen 3900X's met de gedachte meer cores = goed voor gaming, terwijl dat eigenlijk niets uitmaakt ( soms zelf een nadeel als data over de 2 CCD's gaat ).
Inderdaad te veel gamers die niet weten wat ze kopen. Het zal AMD overigens een worst wezen waarom iemand een CPU koopt. "For the world's elite gamers" staat bovenaan op AMD's officiële productpagina voor de 3900X. Ik vind het een slechte ontwikkeling, vandaar dat ik deze test graag wou delen. Daarnaast zal het één van de meest gestelde vragen zijn: "moet ik mijn systeem upgraden"?
[Reactie gewijzigd door Blackice09 op 22 juli 2024 14:49]
Zelf ben ik een fan van Guru3D , ik vertrouw al zolang op hun reviews.
Wat wel grappig is; is dat hun niet boven 38 dBA uitkomen met hun 100% load test kwa noise en T.net daar keihard overheen gaat 50.8 wat echt een significant verschil is.
Het ligt er ook aan van hoe dichtbij je de meting doet. Je moet het daarom ook meer in verhouding tot de andere kaarten zien, dan als absolute getallen.
[Reactie gewijzigd door Immanent Ike op 22 juli 2024 14:49]
Maakt qua info niet superveel uit, zolang je maar weet wat de variabelen zijn, wat in deze dus vooral afstand tot de ventilator is, op welke plek de meting wordt afgenomen en welke fans er allemaal nog meer draaien. Zolang je dat weet en dit een constante gelijke afstand is etc dan kun je daar redelijke conclusies uit trekken, of dat nu op 1m of 1cm afstand is. Ik heb liefst een op realistische afstand voor mijzelf, dus ongeveer 1 meter. Ik heb de kast niet naast mij staan dus
Houd daarbij rekening dat decibel (dB) een logaritmische schaal is. Dus verschillende afstanden tot de bron kan tot een hoger/lager verschil in dB tussen kaarten leiden.
Tweakers is er flink op vooruit gegaan door de "merger". Je ziet alleen dat ze bij bv TPU nog net wat meer tijd erin steken met o.a. een volledige teardown van de koeler. Vandaar dat die ook bovenaan staat.
Geen tech youtuber, maar wel iemand die veel gedetaileerde filmpjes heeft gemaakt over DLSS en daarmee waarschijnlijk zijn review kopie heeft weten te scoren:
2kliksphilip - https://www.youtube.com/watch?v=SwX_eKUOyFg
Ik begreep anders van het AMD fanboy meubilair in CJ's Radeon topic dat Digital Foundry absoluut niet geloofwaardig is. Althans, door de rood gekleurde bril heen
Omdat HWI reviews van zeer hoge kwaliteit hadden, en ook daadwerkelijk luisterde naar website bezoekers als die de volgende keer meer diepgang wouden op dit of dat, lees eens recencies op ''grote'' reviews op tweakers de afgelopen paar jaar, veel commentaar van veel bezoekers.
Helaas vind ik de reviews van HWi niks meer dan belabberd. Staan altijd vol met spelfouten en een zinsopbouw waarbij je gerust de schrijfkwaliteit Nederlands van de redacteur in twijfel kan trekken.
Ik ben benieuwd waarom Linus tech tips onderaan staat in kwaliteit, ja de reviews zijn minder in-depth dan die van Gamer nexus maar focussen meer op je gemiddelde consument die gewoon denkt "hoe snel draait dit games " en dit op een leuke manier gepresenteerd wilt hebben.
Het zal mij niks verbazen als de tests door Anthony is gedaan. Linus eeft meerdere malen laten weten dat hij het schrijven van scripts leuker vind en vind zich zelf een "Writer" en is dus ook de "Senior Writer" van zijn bedrijf, wel is hij nog vaak de host maar ook dit wil hij gaande weg veranderen en andere team leden een kans geven dit te kunnen doen
Maken ze de verwachtingen waar? Antwoord nee. nVidia heeft de chips te veel gehyped en de prestaties zitten onder wat nVidia je wil doen geloven. Ja ze zijn efficienter dan Turing maar dat is slechts 8% tov de 2080 Ti dat is heel wat anders dan de 90% die mensen wilde geloven aan de hand van de slides al heb ik toen ook al meerdere keren geroepen dat mensen even goed moeten kijken naar die grafiek en hoe nVidia die claim maakt.
Dit alles neemt niet weg dat het wel een mooie stap vooruit is (Avg 32% tov de 2080 Ti). Performance per watt is omhoog. De totale prestaties zijn beter en de prijs prestatie verhouding is beter dan Turing. (maar dat zegt meer over hoe overpriced turing was)
Al met al is dit voor gamers wel goede generatie zeker als je al van plan was te upgraden. Nu hopen dat er genoeg zijn. De geruchten hebben het over kleine aantallen en dat ze lang niet genoeg hebben om aan de vraag te voldoen.
Ik ben wel benieuwd wat de 3090 straks laat zien ik verwacht zelf 15-20% sneller dan de 3080.
[Reactie gewijzigd door Astennu op 22 juli 2024 14:49]
Verwachtingen van gebruikers die maar het halve verhaal vertellen kunnen ze (natuurlijk) niet waar maken. Deze review tegenover hun eigen verwachtingen heb ik weinig grote verrassingen in gezien.
90% efficienter zonder verdere condities is ook niet geclaimed. Ze hebben geclaimed dat voor hetzelfde performance level als Turing, dat Ampere 1.9x perf/w heeft. Echter bij hetzelfde vermogen volgens deze plot is dat nog maar 50%, en met 320W blijft er nog minder van over.
Je kan dat ook narekenen. Volgens de gelinkte plot: Turing 60fps bij 240W (0.25fps/W), en Ampere 105fps bij 320W (0.33fps/W). Resultaat: 31% meer efficient.
Pakken we de tweakers getallen er bij: de 3080 verbruikt 31% meer stroom dan een 2080S (250W TGP), terwijl deze 66% meer FPS behaald in Control 4K met RTX. Daarmee is de efficientie verbetering ca. 1.66/1.31 = 1.26x (26% meer efficient).
Ditzelfde kan je voor de prestaties doen die bvb door DigitalFoundry op aankondigingsdag zijn vrijgegeven. Bvb 70% meer FPS in Shadow of the Tomb Raider 4K, wederom: 3080 vs 2080S +57.7% in dit artikel. 2080S vs 2080 +3.9% in Super kaarten review. Gecombineerde verbetering: +64%
Er zijn wel enkele outliers te vinden (Doom Eternal volgens TechPowerUp review bijvoorbeeld), maar het ontloopt elkaar niet orde groottes. De generatie is een mooie stap voorwaarts, hoewel je wel een beetje terugziet dat de chips erg hard gepushed worden om een "4K 60FPS" experience te kunnen leveren. Ik vraag mij af hoe erg dat gaat zijn bij de 3090 om "8K Gaming" te kunnen waarmaken. Ik denk dat het leuk staat als "First 8K GPU" maar verder puur een parade paardje is..
Het gaat er om dat nVidia focus legt op 1,9X performance per watt en dat is niet realistisch.
Ze vergelijken Turining pushed to the max dus ver boven het meest efficiënte punt van die chip en vergelijken het met Ampere die in zijn sweetspot draait.
Als je de meest efficiënte Turing GPU pakt: de 2080 Ti is dat verschil in de reviews ineens niet zo groot. En het is nog maar de vraag of de 3090 veel efficiënter gaat zijn gezien het TDP van die kaart.
Dus ik vind dit wel een valide vergelijking.
Zoals ik hier boven ook al aan geef ik zou willen dat de tech bedrijven dus niet alleen nVidia maar de andere ook een wat meer realistische presentatie geven. Daar is ook niets mis mee. Deze kaarten doen het veel beter dan de Turing generatie. Waarom moet je het dan nog mooier laten lijken dan het is terwijl de daadwerkelijke prestaties gewoon top zijn gezien de prijs van de kaarten? Dat vind ik gewoon storend en ze proberen gamers gewoon te misleiden.
Waar legt Nvidia de focus op 1.9x performance per watt, op een manier die gamers misleid? Ik heb die informatie alleen gezien in een presentatie waar in een grafiek duidelijk wordt uitgelegd wat ze er mee bedoelen?
[Reactie gewijzigd door cnieuweboer op 22 juli 2024 14:49]
Beide claims zijn niet waar. En die grafiek laat het ook zien. Maar later in de slide komen ze ook weer met 1.9X en dat klopt gewoon niet.
Het verschil bij vergelijkbaar verbruik volgens de grafiek is 50 vs 60 FPS bij 120 watt. En dat is ook een mooie verbetering als ze dat zo hadden laten zien en het hadden over 20% betere performance per watt helemaal goed en mooi maar de claims die ze maken kloppen niet. Ze zijn ampere in het beste licht aan het zetten en turing in het slechtste. En als je naar de reviews kijkt zie je inderdaad dat er helemaal niets klopt van de claim van Jensen. het is geen 2x efficiency en ook geen 2x performance. Not by a long shot.
Ok, dit gaat dus om een presentatie waar ze gewoon exact uitleggen wat ze met 1.9x bedoelen. Duidelijk dan waar we het over hebben. Als je daar perse iets anders in wil lezen dan wat Nvidia bedoeld, inclusief uitleg van Nvidia, moet je dat verder zelf maar weten.
En als je "tot 2x" wilt lezen als "gemiddeld 2x" ben je naar iets op zoek. Nvidia heeft in hun eigen presentatie al laten zien dat je dit lang niet in alle workloads hoeft te verwachten. Je wist al lang al dat dit cherrypicked resultaten zijn, op games/resoluties waar Ampere de extra floating point performance goed kwijt kan. Daar heb je de afgelopen week dagelijks over geklaagd.
Wat ik eigenlijk nog wel interessanter vind. Hoe heb ik een paar minuten na je reactie al 2x een 2+ moderatie? Onder een nieuws item van een dag oud, met 400+ reacties, terwijl andere oudere reacties volledig genegeerd worden. En dat bij een post waar je woorden cherrypicked, veel meer nog dan Nvidia dat met test resultaten gedaan heeft.
Zou je mij dan voorbeelden willen geven waar Jensen aangeeft dat dit gemiddeld anders is? ik zie dat in zijn presentatie niet terug.
Ook zijn claims over de grote prestatie verbeteringen zijn extreem cherry picked waar ze games en settings gebruiken die meer dan 8GB VRAM gebruiken waardoor de 2080 helemaal onderuit gaat. Als je dan een 30 game benshmark gaat doen krijg je een totaal ander beeld.
Ik wil er niet perse iets anders in lezen dit is wat Jensen zelf zegt en wat heel veel nieuws sites waaronder tweakers 1:1 overgenomen hebben. Ook mensen op fora namen die claims over 1.9x en 2x als waar aan. Of kwamen met hogere waardes dan we nu bij de uiteindelijke reviews zien.
Dus ja ik heb toen aan verwachting managment gedaan en gezegd dan men even beter naar de grafieken en slides moet kijken want tov die slides kan het gaan tegenvallen. En dat is nu ook gebleken.
Ik zeg dus niet dat Ampere slecht is. Integendeel. Maar ze hadden de cijfers niet op hoeven te blazen. Ampere is as is goed genoeg de performance per watt is duidelijk omhoog gegaan. De prijs is lager. De prestaties tov de vorige generatie zijn meer dan prima. Dus waarom het dan toch mooier proberen te maken dan het is? waarom niet de daadwerkelijke gemiddeldes noemen die mensen ook echt gaan zien?
Wat ik eigenlijk nog wel interessanter vind. Hoe heb ik een paar minuten na je reactie al 2x een 2+ moderatie? Onder een nieuws item van een dag oud, met 400+ reacties, terwijl andere oudere reacties volledig genegeerd worden. En dat bij een post waar je woorden cherrypicked, veel meer nog dan Nvidia dat met test resultaten gedaan heeft.
Wat probeer je hier mee te zeggen?
En welke woorden cherrypick ik dan? ik quite Jensen gewoon letterlijk. Jij gaf aan dat nVidia dat niet gezegd heeft. Ik geef je de letterlijke quote van de CEO waar uit blijkt dat dat wel zo is.
Zelf kom je vervolgens niet met bewijs. Dus ik nodig je uit net als mij met duidelijke slides, quotes en youtube timestamps te komen waaruit blijkt dat nVidia de boel niet mooier probeerde te maken dan het daadwerkelijk is.
Sorry maar ik ga niet op je hele verhaal reageren. Zo veel tijd wil ik hier niet in steken.
Dat mag maar op deze manier zeggen je woorden hierboven dus niets meer. Je wil het bewijs niet leveren.
Zonder bewijs kan iedereen van alles claimen. Dit gebeurd heel vaak ook en als je dan naar bewijs vraagt komt het niet.
En het is niet dat ik perse mijn gelijk wil halen. Als ik het verkeerd heb wil ik dat met alle liefde toegeven ik ben ook maar een mens en kan wat over het hoofd gezien hebben.
In die presentatie staan gewoon grafieken, waar je kunt zien wat er met "tot x2 prestaties" bedoeld wordt
Dat zijn compute workloads geen games. Maar ook de geclaimde game percentages (dacht 80% tov de 2080) worden in reviews niet gehaald in praktijk zijn die 10-15% lager.
Maar goed als nVidia dat met 2x bedoelt leuk maar totaal de verkeerde doelgroep dat is meer wat voor de quadro launch dit was gericht op gamers.
Waar heb ik dat gedaan? Ik vroeg alleen alleen waar je de focus van Nvidia op de 1.9x performance/watt gezien hebt, om dat ik dit alleen in de presentatie heb gezien. En in die presentatie staat gewoon wat ze daar mee bedoelen. Maar als dat bijvoorbeeld zonder verdere uitleg op ergens op nvidia.com staat zou dat wel kwalijk zijn.
Je hebt gelijk je zei:
Waar legt Nvidia de focus op 1.9x performance per watt, op een manier die gamers misleid? Ik heb die informatie alleen gezien in een presentatie waar in een grafiek duidelijk wordt uitgelegd wat ze er mee bedoelen?
Waar ze 1,9x Perf/W claimen. Wat er staat klopt wel maar kijk ook naar de curve van turing die begint af te vlakken omdat die tot de max gepushed wordt of tegen een bottelnek aan loopt.
Als je bv een 120 of 200 watt vergelijking gaat maken krijg je een totaal ander beeld.
Waarom ik dit ook zeg is dat veel nieuws sites en mensen op foa of in comments die claim van nVidia over namen en er in geloofden. Ik had gewoon liever gezien dat nVidia een wat meer realistische vergelijking had gemaakt dus bv at same power 20% faster compared to turing. Daarnaast laten ze niet zien welke GPU dit is ze geven alleen aan dat het Control at 4K betreft.
Kijk je nu naar reviews en de power efficiency tests daar valt dat gewoon tegen tov de 2080 Ti. Dus ben daar wel beniewd of de 3090 dat beter kan doen.
Dat 2 personen (of accounts) enorm vooringenomen en doelgericht aan het modereren zijn.
Dat soort mensen heb je helaas altijd. Je post heeft onterecht een -1 gekregen. Maar zo te zien is dat al weer recht gezet. Je posts zijn gewoon on topic.
Je hebt zeker een punt hoor.
Als je kijkt naar de grafiek zie je dat Nvidia de winst claimt bij een (gecapte?) 60 FPS.
De grafiek laat zien dat het energieverbruik inderdaad de helft is van de 2080.
Maar dat scenario is helemaal niet realistisch. In de echte wereld is de Perf/W veel lager, eerder in de buurt van 20-30 %.
Dus misleiding.... JA,daar kan je zeker van spreken in dit geval,is mijn mening.
En ik denk dat de (misleidende) claim juist is gedaan om mensen zand in de ogen te gooien,juist omdat het het energieverbruik zo hoog is.
Voor mij heel duidelijk marketing geneuzel,maar bij de gemiddelde gamer gaat het er in als roze koeken.....
En daarvan is Nvidia bewust natuurlijk,juist daarom is het zo belangrijk dat sites als GoT dit checken,en mensen er op wijst als claims onzinnig zijn. (wat dus,ook bij GoT niet gebeurt).
Als je de 2080Ti qua prestaties per watt vergelijkt dan zijn de resultaten op zijn zachts gezegd niet bijzonder... Pak je bijvoorbeeld 1440p ultra gemiddeld van deze review en dan het stroomverbruik dan kom je op een verbetering van circa 2% wat imo erg slecht is gezien de node schrink.
Bij de reviews die ik tot dusver heb gezien kom ik tot hetzelfde resultaat.
[Reactie gewijzigd door Pietjeball op 22 juli 2024 14:49]
Helemaal eens. Prestaties zijn indrukwekkend en de prijs is aardig, maar daarvoor hebben ze echt ingeleverd op prestaties per watt. AdoredTV heeft net een video online gezet waarin hij speculeert dat Nvidia per se de prijs omlaag wilde hebben en daarom op Samsung gegokt hebben, waarbij NV waarschijnlijk niet van tevoren had kunnen bevroeden dat die 8nm node van Samsung zóveel energie zou slurpen. 320 watt, en daar een groot deel je kast van inblazen, dat lijkt mij niet het beoogde eindresultaat van een bedrijf dat zijn reputatie behaalt heeft op zuinig, stil en koel.
Dank. Tis nogal een lang verhaal en hij doet wel redelijk wat aannames. Hoewel ik het niet echt oneens ben met hem had hij feitelijk ook gewoon kunnen zeggen: 'De prestaties / watt zijn slecht, we weten dat Samsungs 8 nm node slechte prestaties / watt heeft maar super goedkoop is, ergo heeft Nvidia voor Samsung gekozen vanwege de lage kosten'. Dat had geen 32 minuten hoeven duren.
[Reactie gewijzigd door Dorstlesser op 22 juli 2024 14:49]
Mooie reactie erg informative. Ik vraag mij persoonlijk aff of ik voor een rtx 3070 ga of 3080. Ik ben well van plan op 4k 144hz te gamen.
Mijn vraag aan u is zou ik met een 3070 cyberpunk op max settings kunnen spelen denkje of heb ik dan de 3080 of 3090 nodig. Ik weet dat job dat vast niet zekere weet maar als je een schatting deed wat zou je antwoord zijn?
Er zijn nog geen Cyberpunk reviews uit. Als je kijkt naar de huidige games is er nogal een verschil tussen de framerates bij games die RTX en DLSS gebruiken. Dus het is heel moeilijk te zeggen of je een goede framerate gaat halen. Control is bv super zwaar qua RTX. BF5 aanzienlijk minder.
3070 zie ik sowieso niet als een 4K RTX kaart meer als 1080/1440P RTX of 4K zonder.
Als je echt alles max wilt en je hebt het budget zal de 3090 de beste keuze zijn.
Maar qua prijs prestatie verhouding zijn de 3070 en 3080 aanzienlijk beter en dan zou ik voor de 3080 gaan.
Maar goed nVidia kan zo maar met een 3070 Ti 16GB gaan komen en 3080 Ti met 20GB tegen de tijd dat AMD met RDNA2 chips komt.
En dan kan het hele speelveld weer anders worden.
Je kan daar op gaan wachten maar volgens mij komt Cyberpunk begin nov uit en gezien hoeveel mensen nieuwe kaarten willen is er dan een kans dat zowel de nVidia als AMD kaarten uitverkocht zijn en je dan niets hebt. Dus wil je zekerheid kan je beter zo snel mogelijk iets halen of een 2e hands 2080 Ti voor een leuke prijs.
Zelf zou ik toch afwachten. Dan het spel maar wat later spelen. In het begin zijn er vaak ook storende bugs dus een paar weken wachten is dan vaak wel goed dan hebben ze het ea kunnen patchen. Alleen moet je dan niet te veel op internet gaan lezen want dan krijg je te veel spoilers ^^
Heel erg bedankt voor je tijd om dese reactie te schrijven. Is precies de soort reactie die ik wou😀.
Ik weet nu zekere dat ik ga proberen de founders edition 3080 te halen, lukt dit niet dan wacht ik lekker aff. Heb namelijk gehoord (moores law) dat bij nvidia de prijzen in october flink omhoog geschroeved worden. Nou nogmaalgs bedankt voor de reactie en pray for me dat ik we rtx 3080 man krijgje aangezien nvdia een zogenoemde paper launch heeft.
Ja ik ben erg benieuwd naar de beschikbaarheid van de Ampere kaarten. En inderdaad of die prijs stelling wel klopt. We hebben het eerder ook al gezien met de 2080 Ti die heeft de MSRP amper gehaald heeft er meestal boven gezeten. Dat kan hier ook gebeuren en dat zou wel erg jammer zijn als dat het geval is.
Het is dan nog steeds een goede deal tov Turing maar dan wel minder goed als je er niet meteen op dag 1 bij was.
Geloof het of niet ik het on het moment nog een 750ti er in zitten in combination met een and phenom😂😂😂. Dus mijn performance increase zall hoe dan ook erg merkzaam zijn denk ik zelf zodra ik ook mijn cpu upgrade uiteraard.
Als het op cpu's aankomt way you je dan adviseren. Wachten op de nieuwe amd?
Dan moet je de CPU inderdaad wel upgraden ja anders kan die 3080 zijn ding niet gaan doen.
De nieuwe Zen3 CPU's worden 3 oktober aangekondigd. Ik denk wel dat dat the way to go zal zijn op dit moment. Ik vraag me alleen wel af of ze ook meteen met een 6 core komen of in het begin alleen 8 cores en meer.
Ik denk dat qua prijs prestatie verhouding de 3600 de beste zal blijven. En als je op 4K gaat gamen is de CPU iets minder belangrijk. Dan is de GPU de bottelneck.
Dus als je haast hebt nu een B550 + 3600 halen je kan er altijd later een 4700 of 5700 cpu in gooien (geruchten hebben het er nu over dat Zen3 Ryzen 5000 gaat worden).
Maar je kan natuurlijk ook 3 Okt even afwachten. Dan een 3600 kopen kan altijd nog die zijn er genoeg. Kan wel zijn dat er daar na een run komt op B550 en X570 borden als mensen willen upgraden naar een nieuwe AMD setup. Maar misschien valt dat ook wel mee omdat veel mensen toch al een B450 of nieuwer bord hebben en dus geen nieuw bord nodig hebben.
Het zou fijn zijn als zen3 Ryzen 5000 gaat worden voor de desktop, maar ik betwijfel het. Dat wordt gewoon 4000 anders heeft de consument te snel door dat de laptop cpus nog op de voorlaatste generatie gebaseerd zijn, en de 5000 serie voor laptops zal nog wel even op zich laten wachten.
Ik denk dat je deze niet moet vergelijken met een 2080 Ti. Tuurlijk, dit heeft nVdia wel gedaan, maar als je kijkt naar de prijsklasse kun je deze beter vergelijken met een 2080 Super. Als je ziet dat de 3080 ongeveer 50% sneller is dan een 2080 Super (uitzonderingen daar gelaten) vind ik dat echt erg indrukwekkend.
Ik ga mijn 2070 (niet-super) in ieder geval upgraden naar de 3070.
Persoonlijk zou ik (als je het bedrag kan ophoesten) voor een RTX3080 gaan of wachten op een RTX3080TI.
Als je op langere termijn kijkt kan je zo vaak een generatie overslaan waardoor je op het einde van de rit even veel hebt betaald en dezelfde prestaties hebt behouden maar dan met 2 high end kaarten ipv 3 lower end.
Overigens zit je met RTX2070 vs 3070 nog steeds met 8GB Vram..
Maat ook dat is niet wat nVidia je wilde laten geloven die strooide met persentages van 80% die niet gehaald worden. Dus mijn punt is en blijft valide.
Ik zou willen dat al deze tech bedrijven wat meer realistische presentaties geven van hun producten en niet altijd maat extreem veel moeite doen om de extreme gevallen er uit te lichten.
Voor de mensen die de 1000 serie nog hebben is het een geweldige upgrade. Mijn 1080ti koste rond de 1100,-. Nu heb ik straks voor een stuk minder geld de dubbele snelheid.
Want die magere 30% van de 2080ti was me niet nog eens 1100+ euro waard.
Helemaal mee eens.
Het ligt er ook een beetje aan wat je doet. Als je nu 1440P120 of 144 hebt hoef je de 1080Ti eigenlijk nog helemaal niet te vervangen (of je moet perse RayTracing willen).
Wil je 4K dan is het een ander verhaal en dan is het zeker de moeite om voor een 3080 of eventueel RX6900 te gaan.
Dit zijn vooral hele interessante upgrades voor mensen met een 980/980Ti of zelfs 780Ti.
Afhankelijk van de resolutie waar je op speelt en de games die je wilt spelen is het een grote performance upgrade. Als je nu een 1080 Ti of 2080 hebt is het verschil niet zo heel groot.
Voor de claims van Nvidia moet je eens kijken naar de resultaten in Blender en V-ray in de video van LTT.
In games zijn de prestaties niet zo imposant als geclaimd, maar in Blender en V-ray is de 3080 2 tot 2,5 keer sneller dan de 2080.
Die toename in prestaties is echt extreem
Mja dat is leuk maar gamers gebruiken dat niet. Dat is meer voor mensen die quadro en firegl kaarten gebruiken. Dus in mijn ogen niet relevant en misleidend in een presentatie die gericht is op gamers.
In de conclusie wordt onterecht gesuggereerd dat deze founders editie een referentiekaart is:
Niet al te lang geleden wilde je alleen een referentiemodel als je waterkoeling ging installeren en de koeler toch niet zou gebruiken. Met de afgelopen generaties timmert Nvidia echter hard aan de weg. We kunnen zeker stellen dat de RTX 3080 Founders Edition de beste referentiekaart is die Nvidia tot nu toe heeft gemaakt.
Dat is onjuist. Nvidia heeft in de Founders Edition dit keer een custom PCB gemaakt, de PG133, terwijl de referentiekaart de PG132 is. Bron.
Dat is belangrijk als je van plan bent om zelf een custom waterkoeler te kopen: deze gaan niet persé passen op het PCB in de Founders Edition.
De verbeterde Tensor-cores in de RTX 3080 laten in deze DLSS-test hun meerwaarde zien.
Dat ze verbeterd zijn zie je niet terug in de benchmarks. De relatieve verschillen tussen met en zonder DLSS zijn niet groter dan bij de RTX 2080 Ti. Met andere woorden, de 2080 Ti behaalt met DLSS percentueel grofweg dezelfde winst t.o.v. zonder DLSS.
Dit bevestigt ook Computerbase.de, vertaald vanuit Duits:
DLSS brengt geen grotere boost voor Ampere dan Turing, blijkbaar brengen de betere tensorcores voor AI-upsampling geen voordelen op het gebied van prestaties. De GeForce RTX 3080 stijgt met 87 procent in de selectie van games via DLSS, terwijl de GeForce RTX 2080 Ti 88 procent is. Het resultaat komt niet alleen tot uiting in de rating, maar ook in de individuele games zijn er geen verschillen in de DLSS benchmarks tussen Turing en Ampere. Zelfs in Death Stranding, dat DLSS aanbiedt maar geen ray tracing, is er geen verschil.
Zijn hier het aantal tensor-cores hier ook bij meegenomen? De 3080 heeft er 272 waar de 2080ti er 544 heeft. Als er met de helft van de cores een vergelijkbare prestatie (percentueel) wordt gehaald is dat dan niet een enorme verbetering?
Terecht punt. Ik zie nu trouwens dat het ook in deze review van Tweakers wordt genoemd:
Ook aan de Tensor-core is gesleuteld voor Ampere. Om te beginnen is het goed om te weten dat het aantal Tensor-cores is teruggebracht van acht naar vier per sm, maar dat ze per stuk wel een verdubbelde rekenkracht hebben.
Ze weten dus bij de RTX 3080 met de helft van de tensor cores dezelfde prestatiewinst te bereiken als bij een RTX 2080 Ti, inderdaad een verdubbeling van de prestaties per tensor core.
[Reactie gewijzigd door Degrader op 22 juli 2024 14:49]
Zeker! Dat had een mooie toevoeging geweest. Helaas zit deze game op dit moment niet in onze benchmarksuite, en hebben we daar dus ook nog geen benchmark voor ontwikkeld. Ook is Flight Simulator een game die zeer sterk CPU afhankelijk is, en daarmee minder interessant om te gebruiken voor een 3d-chip review. Wellicht dat we in de toekomst nog eens in de benodigde hardware voor FS kunnen duiken!
Wellicht? FS2020 is de game waarvoor reikhalzend naar de 3000-serie is uitgekeken omdat die erg verlegen zit om meer grafische rekenkracht. Dat gonst al heel lang op het internet.
En als totale leek ben ik niet onder de indruk van deze benchmarks. Ik had echt geen verdubbeling in prestaties verwacht maar gemiddeld 50% meer had toch wel gemogen, zeker gezien de flinke toename in opgenomen vermogen van de kaart. Maar wellicht is het ook nog een kwestie van driver optimalisatie de komende maanden.
In de benchmark van GamersNexus is die meegenomen en daar zie je op 4K maar een minimaal verschil door de enorme CPU bottleneck. Op lagere resoluties is er wel absoluut een sprong zichtbaar.
Nee, die 3090 zal met de Titan vergelijken moeten worden. De 2080Ti heeft geen directe opvolger. Waarschijnlijk komt er nog wel een 3080Ti, en dat wordt dan de opvolger van de 2080Ti.
Ook fout, aangezien er óók een nieuwe Titan in de maak is. De 3090 start een nieuw segment die tot nu toe niet bestond. De 3080 kun je het best vergelijken met de 2080.
De verwachting is in het algemeen dat er nog een 3080ti komt... Maar misschien ook wel een 3090ti... We weten het simpelweg nog niet
De directeur van NVidia bracht het in zijn presentatie also de 3090 de Titan opvolgt. Wat er nog gaat volgen in de 30-serie... Zoals je al zegt, we weten het nog niet.
De correcte quote was, dat de 3090 'Titan like performance' krijgt - niet dat het de nieuwe Titan is. Groot verschil is de focus van de kaart - de 3090 is veel meer gericht op gaming dan de Titan.
Aan al de mensen die riepen dat FS niet cpu bottlenecked is..
Hier is het resultaat, de game wordt niet overal getest omdat het de gemiddelde cijfers doet kelderen..
Ik had het over de comments in de voorgaande artikels omtrent FS2020.
Telkens weer opnieuw fans die uitriepen dat het een goede multi-threaded game is omdat al hun cpu cores benut worden.
De traagste schakel is de simulatie berekening die helemaal niet geoptimaliseerd is, en waarschijnlijk zelfs draait op een aangepaste port van de FSX engine.
Microsoft ESP is daar dan weer de grondslag van, die dateert al van 2007. Dat is het jaar dat Crysis uitkwam.
MSFS is een topgame, maar ik wil meer performance zien en het doet me pijn in het hart dat de VR update uitbundig gebruik gaat maken van misselijkmakende frame creation truukjes.
Daar zijn al vragen over gesteld in het FS2020 topic, daar is de redactie mee bezig. Maar er zijn nogal wat factoren om een betrouwbare benchmark te doen.
Die benchmark test komt dus, maar niet specifiek om de RTX3000 serie, maar meer met het idee 'hoe haal je het beste uit FS2020'.
En die indirecte invloed is wel belangrijk. Er wordt een heleboel gefixed. Spelers zullen per se deze upgrade willen. Als dat de prestaties erg naar beneden drukt, mag dat best bekend zijn.
Oef, dat valt me eigenlijk wel tegen. Nou is FS2020 natuurlijk echt een grafische krachtpatser, maar ik had niet verwacht dat hij de 3080 op de knieeen zou krijgen.
Ik lees in het FS topic op GoT echter ook dat hele hoge framerates voor FlightSims minder relevant zijn dan bijvoorbeeld shooters, en dat 30FPS prima speelbaar is. Het kan maar zo zijn dat ze daarom ech tot het gaatje gaan qua grafische pracht en praal omdat ze gewoon meer speelruimte hebben.
FS2020 is vooral vooralsnog een DX11 game. De verschillen tussen DX11 en DX12 zijn huge, zeker als het op CPU single/multi threading aankomt. Eigenlijk zit je met DX11 zowel bij Intel als AMD aan een limiet, en zijn alleen de absurd single threaded CPU's een verbetering.
Dagelijks leven draai ik een Threadripper en ik speel nu al ~15 jaar een game die van DX7 naar DX12 is gegaan. World of Warcraft. Blizzard heeft deze expansion vooral rond de ~8.2 tijd enorm veel gezet in betere GPU scheduling door juist DX12 en nieuwe CPU's te gebruiken. Ik zie dus nu dat WoW heel veel meer cores is gaan gebruiken, maar, belangrijker, m'n FPS is bijna verdubbeld zonder de settings te verlagen in een drukke zone als Boralus harbour.
FS2020 zal ook nog een DX12 upgrade krijgen, en ik heb er goeie hoop voor. Dat terzijde... FS2020 is misschien het soort spel wat niet persé >100FPS nodig heeft, en nog controversiëler: misschien is 30 zelfs wel genoeg...
Volgens mij is dat echter niet bij iedere game zo, bij WoW is DX11 v.s. 12 inderdaad goed merkbaar in bepaalde situaties / configuraties, echter in een game als Total War: Warhammer 2 maakte het dan weer vrijwel geen verschil, sterker nog, DX11 was regelmatig een stuk sneller.
Omdat het daar meer een bolt on was. Bij de nieuwere versies van Total War maak het wel meer uit dacht ik (ik heb ze helaas niet liggen alleen Total Warhammer 1 en 2). Sowieso waren Total War spellen eigenlijk altijd CPU limited. Dat ze eindelijke de stap naar DX12 hebben gemaakt is gewoon goed.
In context, mijn cpu heeft maar een paar cores die belast zijn met Total Warhammer 2 en mijn gpu zit uit zijn neus te vreten op de world map. Tijdens gevechten wordt hij meer belast, maar nog steeds maar max 80%. Getest met een 3950x en 5700XT.
[Reactie gewijzigd door Sp3ci3s8472 op 22 juli 2024 14:49]
60 FPS lijkt me wel beter want ook in een 'trage' sim wil je dat alle beweging er gesmeerd uitziet. Als met DX12 en andere softwarematige verbeteringen gemiddeld 60 FPS wordt gehaald op 4k ultra dan hebben we denk ik een sweet spot te pakken namelijk een fijne frame rate zonder absurd dure hardware te hoeven kopen.
Hier moet ik wel op toevoegen dat in dit soort spellen 30FPS al als behoorlijk smooth en vaak zelfs goed genoeg gezien wordt. Historisch is zelfs dat al erg lastig en is 40-60FPS in een FS die er zó goed uitziet al ongehoord knap.
Valt mee. Met de reviews van de 2080 Ti staat een 12 core CPU redelijk rustig aan te draaien. Af en toe loads naar 70% op alle cores, maar meestal wel rond de 30 tot 40%, dus ik betwijfel of een 3080 zoiets dan dicht kan trekken.
Het is prima mogelijk om in FS2020 50-60 fps te halen door de opties iets te tweaken. 99% van de mensen zal het verschil niet eens zien in de settings die er echt toe doen qua fps. Dus zo erg is het nou ook weer niet met dat spel . Zie een recent filmpje van Jayztwocents over welke settings het dan gaat.
Volgens mij hadden ze niet alles maxed maar geprobeert zoveel mogelijk de cpu bottleneck weg te halen. Dat behandelen ze o.a. in hun video daarvoor waar ze hun manier van testen uitleggen.
Daar lijkt het op ja, maar FS2020 is ook niet zo heel goed geoptimaliseerd voor processors met veel cores en relatief lage kloksnelheden. Toch was ik heel benieuwd. Deze week verschijnt trouwens patch #2 die aanzienlijke performanceverbeteringen moet meebrengen. Dus wellicht handig om tegen die tijd opnieuw te benchmarken.
Zo slecht, de keuze om deze kaart niet met een 10900k te testen. Je wil toch de snelst mogelijke game cpu om deze game gpu maximaal van data per tijdseenheid te voorzien? (Zeker bij de sub-4k-tests.)
[Reactie gewijzigd door Roy81NL op 22 juli 2024 14:49]
Er is een hele goede reden om deze kaart op Ryzen te testen, namelijk PCie 4.0 welke intel niet ondersteund. Je wilt de maximale performance van een GPU testen, dat gaat op 4K met PCie 4.0 en een CPU met genoeg performance.
HardwareUnboxed heeft in hun review een vergelijking en geeft aan dat het verschil tussen Intel en AMD slechts een paar procent is, en ook alleen op lagere resoluties. Op 4K is de performance identiek.
ja idd, dat was ook te verwachten. 4k ultra is nog altijd GPU limited (wat je hier wilt, voor een GPU test), alvast met deze kaarten (straks mss niet meer met RTX3090?).
Voor lagere resoluties/settings, is het mogelijk om CPU limited te zijn. Gemakkelijker met DX11 trouwens.
Het zou leuk zijn zou je een indicatie hebben "CPU limited" of "GPU limited" bij een resultaat, maar het staat er in de tekst soms. Voor je eigen PC thuis zou een tooltje handig zijn om het aan te geven.
Over de 3080: "The gap between current AMD and Intel CPUs at 4K is basically nonexistent. In fact, minor differences in board design, firmware, or just 1% variability in benchmark runs all become factors."
Tja, wel logisch op 4k... meer een gpu bottleneck dan een cpu bottleneck.
Niet iedereen wil op 4k 60 fps gamen
Dan kan de i7 4770k ook nog wel meekomen...
Ik speel zelf op 1080p low (cpu bottleneck scenario) om zo dicht mogelijk bij- en stabiele 144fps (144hz monitor) te halen... 60 fps of 75 fps vind ik gewoon waardeloos.
Dat heeft allemaal met input lag / latency te maken.
Vanuit ervaring kan ik vertellen dat Intel gewoon merkbaar sneller is in dat scenario. (Hunt: Showdown... nogal een cpu heavy game.)
En ook niet voor niets dat mijn 9700k op 5ghz all cores werkt en mijn 3600 cl15 ram op cl14 (beide overgeklokt).
Alle beetjes helpen.
Maarja dat had je aan de 1080p resultaten op de gelinkte website zelf ook kunnen zien
Feit is dat Intel gewoon nog steeds sneller is in games... als je kijkt naar de gelinkte website dan zijn de verschillen tussen de AMD 3900x en de Intel cpu's op 1080p nogal significant!
[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 14:49]
dat valt dus wel tegen, ligt helemaal aan de software en geheugen gebruik. Ik heb een overstromingsmodel dat heel veel matrix berekeningen doet en de code is parallel gemaakt met openmp (sourceforge/openlisem). Het blijkt dat mijn overklokte 3900x met alle 24 threads bijna net zo snel is als de i7-1064 met 8 threads van mijn werk surface pro 7! En dat schaalt gelijk met 1,2,4,8 cores. Het blijkt doordat de code niet geoptimaliseerd is, de cores helemaal niet op 4200MHz draaien, de bottleneck is veel te veel lees en schrijf werk van en naar 2D pointer arrays met doubles.
mijn code is misschien bagger hoor, maar mijn punt is dat het er helemaal aan ligt hoever de software geoptimaliseerd is voor parallele berekeningen. En dat is volgens mij lang niet alle software.
Tsja dat lijkt echt gewoon aan je geheugensnelheid te liggen en dus aan jouw code of manier van rekenen. Dat de cores niet omhoog klokken is omdat ze niks te doen hebben, dus daar gaat ook een snellere CPU je niet bij helpen. Waarschijnlijk haal je met een 3700x dan net zoveel performance. De meeste serieuze software waarbij dit een verschil maakt is daar goed genoeg voor geoptimaliseerd, anders kies je het pakket van de concurrent welke sneller is. Gelukkig is er in de benchmarks en real-world software beter over nagedacht dan jouw n=1. Beetje onterecht om op basis daarvan een algemeen correct bevonden claim als onjuist te bestempelen.
ik weet niet waarom je je zo aangevallen voelt, ik geef alleen maar aan dat de software een grote rol speelt. natuurlijk kan mijn code bagger zijn. maar ik geloof er niks van dat alle software geoptimaliseerd is voor parallelle computing en dus is het blind aannemen dat de 3900x rondjes draait om de intel niet terecht.
Ik voel me niet aangevallen, maar jij maakt een onterechte vergelijking. Een Ferrari is ook bloedsnel maar voor een "race" over de trajectcontrole op de A2 (je memory-bottleneck, of misschien een beter voorbeeld: in de file) tegen een eco-boodschappenkarretje zal in een behoorlijk gelijkspel eindigen. Dus "blind aannemen" dat een Ferrari sneller is dan een random eco-boodschappenkarretje is niet terecht?
Gaming is vaak minder geoptimaliseerd voor parallelle computing, dus daar zie je inderdaad dat Intel vaak iets beter presteert met een lagere corecount. Alle andere gebieden maakt het of niet uit (brieven tikken in Word) of is de boel wel fatsoenlijk geoptimaliseerd voor parallelle taken (compilen, rendering, fotobewerking, videoconversie, wetenschappelijke berekeningen) of desnoods heb je singlethreaded workloads die niet memory-starved zijn op een grote queue waardoor je ze ook parallel uit kan voeren en je met een hogere corecount dus alsnog meer winst hebt dan hogere singlethreaded-snelheid oplevert. Ten slotte heb je de software waarbij het wel uitmaakt maar die alleen maar singlethreaded werkt, en dan is de overstap naar een concurrerend pakket waarmee je 24x zoveel werk gedaan krijgt in dezelfde tijd echt heel erg snel gemaakt. Kijk nog eens naar de benchmarks die gebruikt worden en wat ze testen. Daaruit volgt dat de claim dat de nieuwe Ryzens over het algemeen beter presteren dan de nieuwe Intels. Natuurlijk hangt dat van je workload af, dus in sommige gevallen kies je inderdaad voor Intel. In jouw geval maak je dus geen keuze (of boeit die niet) en dat is helaas puur te wijten aan de kwaliteit van je software. Het klinkt alsof jouw probleem veel baat kan hebben bij een hoge corecount, maar dan moet je iets aan je memory-bottleneck doen, waarschijnlijk door je berekeningen op een iets andere/slimmere manier uit te voeren zodat de data waarmee je werkt in de CPU-cache kan in plaats van elke keer uit het geheugen moet komen waar je met alle cores tegelijk aan het strijden bent om bandbreedte. Als je dat issue gefixt krijgt weet ik zeker dat "de 3900x rondjes draait om de intel".
Late edit: Ik kan ook slechte software maken die bijvoorbeeld op een Geforce RTX 3080 20fps haalt en op een Geforce 256 ook. Met die software zeg je dan ook helemaal niks nuttigs over de prestaties van beide kaarten ten opzichte van elkaar. Daarom test je ook met fatsoenlijk geschreven software die op een bepaald werkgebied de maximaal mogelijke prestatie uit de aangeboden chip zal halen, en gebruik je verschillende van dat soort stukken software om een gewogen oordeel te kunnen vellen over veel verschillende werkgebieden.
[Reactie gewijzigd door DataGhost op 22 juli 2024 14:49]
Gebruik je een Intel compiler? In dat geval mag je de performance niet vergelijken met AMD: Intel weigert sinds jaar en dag SSE2+ instructies te ondersteunen voor concurrerende processors in hun compiler (laat staan AVX+) waardoor software op concurrerende hardware geniepig een stuk slechter werkt.
Zonder de Intel compiler ben je meestal veilig voor de cripple AMD functies, dan is dat waarschijnlijk niet de reden voor je performanceverschil.
Tenzij je ergens in je project of keten werkt met de Intel Math Kernel Library (MKL). Het wordt verdacht als je mkl*.dll/lib of libiomp5md.dll/lib tegenkomt
Ligt er een beetje aan of je AVX512 gebruikt of niet. Zoja, dan wint Intel, anders wint AMD. Nou is AVX512 voor een hoop rekenwerk best de moeite waard.
Het maakt voor een RTX 3080 niet uit of deze in een pci 3 of 4 slot zit, het verschil is maximaal 1% of minder.
Intel blijft performancekoning op alle resoluties, alleen ligt die op 4K zo dicht tegen AMD aan dat het niet meer uitmaakt welk merk cpu je hebt waardoor AMD de interessantste wordt.
[Reactie gewijzigd door oef! op 22 juli 2024 14:49]
Dat wisten we pas nadat dit getest is. Makkelijk praten weer. Ik vind het heel slim van Tweakers om dit zo te testen. Kunnen ze ook meteen ervaring op doen en dat kan alleen maar voordelen opleveren bij komende producten die hier wel gebruik van maken.
Voor 4K maakt het sowieso niks uit bij deze kaart, en voor 4K had het wél uit kunnen maken of we PCI-e 4.0 of 3.0 hadden gebruikt. Daarom is de keuze gemaakt om met de 3900XT icm PCI-e 4.0 te testen. Uiteraard betekent dit dat er bij een gering aantal games, vooral bij Far Cry New Dawn, een CPU-bottleneck optreed bij de lagere resoluties. We wilden liever een eventuele bottleneck op 4K voorkomen, dan een bottleneck op 1080p.
Interessant genoeg als we de cijfers van mindfactory.de ( de grootste PC winkel in DE ) bekijken, dan is AMD verkoop 78% tot 91% ( https://imgur.com/a/kr4nNqG#kOtyUV7 ) vs Intel's 9% tot 23% in het afgelopen jaar.
Blijkbaar kopen mensen Intel niet enkel meer voor die "gaming" CPU en hebben ze geen enkel probleem om die paar procent extra of te offeren voor goedkopere prijs of meer cores.
Voeg daarbij dat AMD de enige zijn dat PCIe 4.0 aankunnen. En ja, zelf al geeft PCIe4.0 weinig voordeel, dat ontdekt je enkel als je ... AMD gebruikt in je tests.
Voor deze review van de GeForce RTX 3080 hebben we een compleet nieuw testsysteem in gebruik genomen dat geschikt is voor pci-express 4.0. AMD is op dit moment de enige die de nieuwste pci-e-standaard ondersteunt, dus de keuze viel al snel op AMD’s snelste game-cpu: de Ryzen 9 3900XT. Om het boostgedrag van de cpu uit te sluiten als variatiefactor, hebben we de multiplier vastgezet op 42.
Beetje jammer dit. Leuk idee dat PCI 4.0 wellicht belangrijker is dan PCI 3.0, maar dit kun je testen. Sterker nog het is al getest en de conclusie is ook duidelijk; het is nu niet belangrijker.
3900XT PCI 3.0 220.6 fps
3900XT PCI 4.0 224.4 fps (+1.7%)
10900K 236.3 FPS
10900K (max PL) 238 fps
9900K OC 240.1 fps (+8.8%)
Dit zou verder geen verrasing moeten zijn. Binnen de context van de historie van videokaarten heeft het altijd járen geduurd voordat x16 op de nieuwste PCI generatie echt een significant resultaat ging opleveren. Er is geen reden om aan te nemen dat dit met PCI 4.0 anders gaat zijn, en het blijkt ook dat dit niet anders gaat dan met PCI 2.0 en PCI 3.0.
Tegelijkertijd hebben we regelmatig periodes gehad waarbij de cpu de bottleneck werd. Zo lang het gros van de games niet perfect schaalt met een hoog aantal threads blijft het testen van de nieuwste generatie videokaarten dan ook voorbehouden voor de modellen met de beste performance op (semi) single threaded. Wat bedoel ik dan met semi single threaded? Dat is de hoogste uitkomst van GHZ * IPC maar dan met in acht neming van een minimum hoeveelheid threads. Dat minimum lijkt in 2020 8 threads te zijn.
Jammer! Testen van de snellere GTX 3090 met een cpu die op 4.2 Ghz is vastgezet zal natuurlijk nog problematischer worden. Dan is dat maar alvast gezegd.
Laten we hopen dat AMD opschiet met Ryzen 4xxx, dit is hét moment om het (gaming) gat met Intel te dichten. Geeft meteen kopers van Ryzen 3xxx een reden te upgraden.
[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:49]
Wij testen F1 2020 met de slechtst mogelijke weersomstandigheden, zoals ook in de review aangegeven. Dat heeft uiteraard invloed op de scores. Ook het gekozen circuit heeft invloed op de scores. Gezien TPU al deze settings achterwege laat is het vrijwel onmogelijk om de resultaten eerlijk te vergelijken.
Op 4K, waar deze kaart voor bedoelt is, is er geen verschil tussen de 3900XT en de 10900K, ook niet volgens TPU. Omdat er wél een verschil had kunnen zijn tussen pci-e 3.0 en 4.0 op de 4K resolutie, de resolutie waar we deze kaart op willen beoordelen, is er voor gekozen om voor de 3900XT te gaan.
XFR is daarbij uitgeschakeld omdat dit extreme variaties geeft in de scores tijdens het benchmarken.
Intel heeft simpelweg nog geen platform beschikbaar met pci-e 4.0. Gezien de 3090 nóg sneller is dan de 3080, zou het zomaar kunnen dat deze kaart wel profijt heeft bij pci-e 4.0.
De keuze was dus : gaan we voor de hoogst mogelijk scores op de lagere resoluties, of gaan we voor de hoogst mogelijke scores op de hogere resoluties. Omdat dit kaarten zijn die je wilt beoordelen op basis van de hogere resoluties, zijn we voor dat laatste gegaan en hebben we twee systemen met pci-e 4.0 gebouwd, met dus een AMD processor.
Is dat zo? Of kwam die bewering Nvidia goed uit gegeven de huidige generatie processoren? Ik tel op 6 van de 10 door jullie geteste games resultaten onder de 120/144 Hz op 1440p (al dan niet door die cpu bottleneck!). Low latency gaming is het voorlopig aan het winnen van 4K. Natuurlijk is het mooi dat we straks 144 Hz op 4K kunnen gamen maar voorlopig is dat nog een lastig verhaal, al is het maar door de prijs van een dergelijke monitor die begint bij een euro of 900 een doorloopt tot dik in de 2000 euro.
Er zijn al boze tongen die beweren dat deze kaart te weinig vram heeft voor een toekomst in 4K. Maar goed wat dat betreft ben ik meer van eerst zien dan geloven.
Wij testen F1 2020 met de slechtst mogelijke weersomstandigheden, zoals ook in de review aangegeven. Dat heeft uiteraard invloed op de scores. Ook het gekozen circuit heeft invloed op de scores. Gezien TPU al deze settings achterwege laat is het vrijwel onmogelijk om de resultaten eerlijk te vergelijken.
Op 4K, waar deze kaart voor bedoelt is, is er geen verschil tussen de 3900XT en de 10900K, ook niet volgens TPU. Omdat er wél een verschil had kunnen zijn tussen pci-e 3.0 en 4.0 op de 4K resolutie, de resolutie waar we deze kaart op willen beoordelen, is er voor gekozen om voor de 3900XT te gaan.
XFR is daarbij uitgeschakeld omdat dit extreme variaties geeft in de scores tijdens het benchmarken.
Intel heeft simpelweg nog geen platform beschikbaar met pci-e 4.0. Gezien de 3090 nóg sneller is dan de 3080, zou het zomaar kunnen dat deze kaart wel profijt heeft bij pci-e 4.0.
De keuze was dus : gaan we voor de hoogst mogelijk scores op de lagere resoluties, of gaan we voor de hoogst mogelijke scores op de hogere resoluties. Omdat dit kaarten zijn die je wilt beoordelen op basis van de hogere resoluties, zijn we voor dat laatste gegaan en hebben we twee systemen met pci-e 4.0 gebouwd, met dus een AMD processor.
Maar het punt was nu juist dat die hypothetische trade off tussen pci 4.0 en 3.0 niet bestaat. Ook op 4K laat TechPowerUP zien dat het Intel systeem sneller is op 4K. Dus je keuze was helemaal niet 4K resultaten óf lagere resuloties. Er was geen reden om de 1440p (en lagere) resultaten te compromiteren.
Intel heeft simpelweg nog geen platform beschikbaar met pci-e 4.0. Gezien de 3090 nóg sneller is dan de 3080, zou het zomaar kunnen dat deze kaart wel profijt heeft bij pci-e 4.0.
Al zou dit de meest waarschijnlijke uitkomst zijn, dat is het wat mij betreft niet, dan nog ga je dat dat éérst vaststellen vóór je een algemene review gaat maken. Sterker nog, dan heb je meteen materiaal voor een review die uitzoekt wat het nut is van PCI 4.0.
Verder gaat het niet om Intel vs AMD, het gaat om het platform waar je de snelste resultaten mee haalt. TPU heeft laten zien dat voor élk scenario dat momenteel 'toevallig' het platform van Intel is, ondanks PCI 3.0. De kans is aanzienlijk dat dit met Ryzen 4xxx niet langer het geval is, niet wanneer de boel daar 300 Mhz stijgt in combinatie met een +15% IPC. Vervoglens is de kans aanzienlijk dat wanneer Intel in 2021 met rocket lake komt de boel weer omdraait (nieuwe architectuur). Dat hoort er een beetje bij.
edit: Naast TPU heeft eurogamer (digital foundry) ook getest met pci4 vs pci4 vs intel 10th gen en ook die heeft geconcludeerd dat ook voor 4k de prestaties op het Intel platform beter waren: https://youtu.be/k7FlXu9dAMU?t=348
[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:49]
Er zijn al boze tongen die beweren dat deze kaart te weinig vram heeft voor een toekomst in 4K. Maar goed wat dat betreft ben ik meer van eerst zien dan geloven.
Er komt nog een 3080 met 20GB geheugen, en een 3070 met 16GB geheugen. Dus als je je zorgen maakt kan je nog even wachten op die uitvoeringen.
Goed punt inderdaad, bij een videokaart test willen we vooral zien wat die kaart kan zonder dat andere hardware een beperkende factor is.
Maar als je kijkt naar de resultaten van Techpowerup met een AMD 3900XT op 1440 en met PCIe 4 dan halen ze daar ook 222,4 fps. Dus ze zullen de resultaten ook op een iets andere manier berekend hebben dan ze hier bij Tweakers/HWI hebben gedaan.
Goed punt inderdaad, bij een videokaart test willen we vooral zien wat die kaart kan zonder dat andere hardware een beperkende factor is.
Maar als je kijkt naar de resultaten van Techpowerup met een AMD 3900XT op 1440 en met PCIe 4 dan halen ze daar ook 222,4 fps. Dus ze zullen de resultaten ook op een iets andere manier berekend hebben dan ze hier bij Tweakers/HWI hebben gedaan.
Dat komt hoogst waarschijnlijk omdat ze daar de cpu lekker laten boosten (3900XT is max 4.7) en niet kunstmatig vertragen.
Edit: Bevestigd
AMD Ryzen 9 3900XT 3.9 to 4.7 GHz
(Zen 2, 64 MB Cache)
Intel Core i9-10900K 3.7 to 5.3 GHz
(Comet Lake, 20 MB Cache)
Intel Core i9-9900K @ 5.0 GHz
(Coffee Lake, 16 MB Cache)
De 10900K op een vaste x52/x53 OC zal op dit moment de beste resultaten geven.
[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:49]
Ik snap ook echt die mensen in V&A niet. Heb je de beste videokaart die er te krijgen was, ga je die met dik verlies na een jaar verkopen, want je MOET de RTX30xx hebben. Kan je beter de 2080Ti "opgebruiken" totdat die vervangen moet worden. Je kunt toch zeker nog 2 a 3 jaar heel veel plezier hebben van een 2080Ti. Je zou wel gek zijn om die voor €500 te dumpen, terwijl je €1200 hebt neergelegd.
Sommige mensen kunnen de extra fps toch gebruiken. Ik speel bijvoorbeeld veel race sims in VR waarbij ik afhankelijk van de game toch nog aardig wat settings omlaag moet zetten. Met de HP Reverb G2 wat een veel hogere resolutie heeft zal dit nog veel meer het geval zijn. Het is dus zeker niet altijd een kwestie van per se het nieuwste moeten hebben.
Ik weet overigens nog niet of het mij waard is om van een 2080 ti naar een 3080 te upgraden, hier ga ik me nog eens over bedenken. Het is maar net wat je er voor over hebt en wat je te besteden hebt he.
Precies. Ik game zelf op 1440p en als ik zie dat deze kaart daar maar gemiddeld 18% meer performance levert, is dat eigenlijk teleurstellend. (ze gaven aan dat die 2x zo snel als een 2080 zou zijn, maar dat haalt die bij lange na niet)
Ik heb gelukkig niet 1200 maar 870 bij de outlet betaald, maar dan nog ga ik niet upgraden naar de 3080.
Je zou maar je rtx2080ti hebben verkocht en voornamelijk op 1080 of 1440p gamen, dan ben je wel sneller natuurlijk...maar of het dan de moeite waard is?
Die 200 euro dat je extra moet investeren krijg je deels ook weer terug als je later naar de 3080ti of 4080 upgrade
Maargoed ik laat mijn 2080ti nog wel even zitten, toch wel nieuwsgierig naar AMD want de 3080 valt mij iig wat tegen en de 3090 is het geld niet waard (want dan heb ik over 2 jaar weer hetzelfde als nu met de 2080ti).
[Reactie gewijzigd door watercoolertje op 22 juli 2024 14:49]
Ik snap ook echt die mensen in V&A niet. Heb je de beste videokaart die er te krijgen was, ga je die met dik verlies na een jaar verkopen, want je MOET de RTX30xx hebben. Kan je beter de 2080Ti "opgebruiken" totdat die vervangen moet worden. Je kunt toch zeker nog 2 a 3 jaar heel veel plezier hebben van een 2080Ti. Je zou wel gek zijn om die voor €500 te dumpen, terwijl je €1200 hebt neergelegd.
Als je gaat praten over zinnig geld investeren in videokaarten dan koop je per definitie geen kaart van 1200 euro. De prestatie per euro van de tragere kaarten zijn altijd veel beter. Een dure kaart kopen in de hoop er vervolgens 4-5 jaar met top of the line performance te zitten is gokken tegen de ontwikkeling in.
Wie rationeel een 2080Ti koopt wil persé de beste prestaties en is bereid daarvoor een X bedrag aan uit te geven. Diezelfde groep kan prima upgraden zodra er iets anders nóg sneller is.
[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:49]
Die gozer voelt zich een kneus nu zeg.
Maarja goed gedaan! je gaat er 25% op vooruit en je kan van het verschil paar dikke titels kopen of 2x met je vriendin lekker uit eten.
Hm... niet helemaal! Bekijk het anders: voor minder dan 25% (€250 o.i.d., in ieder geval onder de €300) extra haal je 25% hogere prestaties. Of je dat dan ook moet doen is een keus, ik kan me ook best voorstellen dat de hard-core gamer met grote beurs van de 2080ti naar de 3090 gaat. Dat dat dan wellicht wat duur is interesseert die mensen dan minder...
Eindelijk iemand die verstandig antwoord, hoeveel 2080ti's ik hier wel niet zie @vraagenaanbod voor de premium hoofdprijs is echt te gek voor woorden...
Idem hier. De 2080 (super) en Ti's waren héél duur voor een marginale winst. Op 1440p is deze gemiddeld (als ik het grafiekje hier goed gelezen heb) zo'n 63% sneller. Dat is zéker de moeite. De OC kaarten van de 3rd parties zijn mogelijks zelfs nog ietsje sneller.
Dit dus inderdaad. Heb zelf een 1070 TI dus een 3080 wordt dan echt wel weer een beste upgrade . Nou nog hopen op goede beschikbaarheid de komende weken.
Heb een 1070, dus ik sta ook in de rij om te upgraden. Ik wacht nog even testen van de verschillende varianten af, bijvoorbeeld de MSI kaarten. De rest van de pc is vorig jaar geupgrade, dus zal een aardige sprong gaan maken, excited!
Jammer de Palit kaarten nu van die decoratiemeukjes boven de fangaten hebben gemaakt. Dat was altijd mijn favoriet. Ik ga deze ronde eens voor zo'n KFA2 kaart.
Ik heb een R9 380 uit 2015. Telkens als ik teleurgestelde commentaren lees moet ik mij er aan herinneren dat men het met de 2080 Ti vergelijkt, en een upgrade naar de 3080 voor mij eigenlijk altijd het geld wel waard zal zijn. Het is immers niet erg nozel om een 2080 Ti nieuw of afgeragd te kopen, en ik zou niet weten welke andere optie in de buurt komt.
Ik ga morgen in ieder geval een poging wagen om een FE te bemachtigen. Lukt dat niet, dan kijk ik wat AMD doet, maar zelfs als ze iets soeps op de markt brengen, lijkt het me stug dat ze Nvidia dermate weten te overtreffen dat je spijt krijgt van je 3080.
Men heeft het over CPU bottlenecks, en ik ben benieuwd wat er nodig is om dat zoveel mogelijk te voorkomen. Ik kijk op dit moment uit naar de Zen 3 opvolger van de 3900XT, dat zal hoe dan ook wel een verbetering zijn ten opzichte van mijn huidige Phenom II X6 1090T
[Reactie gewijzigd door ThePendulum op 22 juli 2024 14:49]
Wacht nauw eerst nog even de AMD aankondiging af. Je mag verwachten dat ze daar ook grote stappen hebben gezet qua performance maar de Radeon kaarten worden gegooid ik op 7nm van TSMC gebakken, wat nogal wat zuiniger zou moeten zijn dan het 8nm procedé van Samsung. Sowieso is het altijd goed even af te wachten wat de concurrentie doet.
Heb vorig jaar december de 2080 Gaming gekocht voor bijna e 900, als ik dit zo lees is die geen fluit meer waard tov de 3080...
Maar goed as kerst maar de 3080 aanschaffen :-)
Gelukkig heb ik mijn 2080ti nog niet verkocht, en heb ik eerst dit afgewacht. Ik heb het al eerder gemeld, dat ik vermoedde dat ze een AMD'tje zouden doen, en dat blijkt zo!
Natuurlijk krijg je veel voor een stuk minder geld. Een 3080 zal zeker zijn geld waard zijn, maar als ik kijk naar 1440p waar ik op game is net 18% t.o.v mijn 2080ti niet schokkend!
Nvidia heeft dus eigenlijk flink zitten te liegen met hun dubbele prestaties...terwijl het meer naar net 50% gaat...dat is toch wel een flinke hoop minder.
Tevens is het verbruik ook erg hoog...320 watt ingame...dat is zeer fors!
Tegenvallend op het punt dat ze het beter doen geloeven.
Ik ben benieuwd naar de AMD kaarten, want daar verwacht ik nu nog meer van eerlijk gezegd!
Een 3070 zal dus helemaal niet sneller zijn dan een 2080ti, en ook nog eens 3gb minder ram hebben...
Lol, je zou je 2080ti maar verkocht hebben voor een lage prijs...wordt je dubbel genaaid door ze.
Wel een mooie kaart verder, maar het stroomverbruik is wel eng aan het worden.
De vergelijking van Nvidia is tussen de reguliere 2080, niet de 2080 super of ti. De 3080 is wel een heel stuk sneller dan de 2080.
De overstap van de Ti naar de 3080 is niet bijster groot. Enkel de 2080ti is volledig zijn waarde kwijt met de komst van deze kaart. Laat staan als de 3070 het waar maakt om even snel of nipt sneller te zijn als de Ti.
Klopt, dan zitten ze 55 tot 60%...maar dat is niet 100% zoals Nvidia beloofde...
Ik ben blij dat ik gewoon heb afgewacht en niet mijn 2080ti heb verkocht. De 3080 vreet stroom...nog een stuk meer dan mijn 2080ti, en heeft nog meer warmte. Dus moet je eigenlijk al een waterkoeling hebben om dit fatsoenlijk te koelen tijdens gamen, of accepteren dat je veel lawaai hebt...en dat laatste is voor mij onacceptabel..
De 3080 vreet stroom...nog een stuk meer dan mijn 2080ti, en heeft nog meer warmte. Dus moet je eigenlijk al een waterkoeling hebben om dit fatsoenlijk te koelen tijdens gamen, of accepteren dat je veel lawaai hebt...en dat laatste is voor mij onacceptabel..
Je springt hier wel erg snel op conclusies, hoor.
van r/nvidia GamersNexus review thread:
75c at load, well below 93c thermal limit
fans at 1500-1900rpm
2080ti at load hits 43DBA, 3080 peak appears to be 42 (10:27). [edit: Guru3d had 38DBA peaks for 3080, so the data from other reviews is also good]
so it would appear that FE thermals and acoustics are good, despite the higher power requirement of the card.
En met de AIBs die beweren dat ze verbeteringen hebben aangebracht aan hun cooling design, gaan de temps en noise reproduction op die hun modellen misschien en hopelijk niet meteen pijlsnel de hoogte inschieten.
[Reactie gewijzigd door Burning02 op 22 juli 2024 14:49]
Dit soort tests worden tegenwoordig nagenoeg altijd in een open omgeving gedaan. Daarmee bedoel ik dat ze op een open testbench staan, en niet in een case!
En de cijfers worden heel anders als je ze in een case plaatst! Zeker weten. Ik begrijp wel dat ze dit doen omdat er zoveel cases zijn, maar eigenlijk zou men het ook moeten testen in een wat mindere kast.
Ik heb zelf een crystal x570 van Corsair, maar als ik game, haalt die totaal niet de beloofde DB.
En mijn 2080ti heb ik zelfs met een lagere powerlimiet ingesteld.
In een open omgeving kan die zijn warmte wel kwijt, maar in een case is het dus een ander verhaal. En als je dan opeens 320 watt moet afvoeren, gaan die leuke theoretische cijfers gelijk de deur uit helaas.
Tjah, ik zou zeggen: bekijk eens de video review van o.a. Gamers Nexus en Linus eens. Daarin testen ze in een closed chassis, en is er geen groot verschil in heat output tussen de 3080 en 2080 Ti.
Nogmaals, niet zomaar tot conclusies komen zoals "je hebt waterkoeling nodig voor de 3080 te koelen!" of "ze testen enkel en alleen in open benches!".
Klopt, dat is zo, maar laten we eerlijk zijn, er zijn maar weinig mensen die op 4K gamen..
dat is nog steeds maar een 5% of zelfs minder. Ik had al verwacht dat ze het goed opbliezen...en als je kijkt naar performance per watt, dan doen ze eigenlijk het gewoon slecht. 320 watt onder load, en maar 25% sneller dan de 2080ti die een stuk minder verbruikt...dan is de Samsung 8NM niet echt een grote stap vooruit, of ze hebben de kaart gemaakt in de hoop dat er veel mee gemind gaat worden.
Dan heb je niet doorgedacht. deze kaart wordt misschien aan 1% verkocht, laat die 5% nou net een doelgroep zijn, maar meer nog mensen die een nieuw systeem en monitor aanschaffen om weer helemaal bij te zijn.
Dat AMD nVidia gaat overtreffen in het hoogste segment lijkt me erg onwaarschijnlijk. Ik denk eerder de nVidia zijn voorsprong heeft vergroot. Geen nood voor AMD omdat hier de grootste verkopen niet liggen. We zullen het zien als het op de dag van de aangekondigde aankondiging bekend wordt. Dit soort ontwijkend gedrag lijkt er op te duiden dat AMD nog druk bezig is na te denken hoe ze hun nieuwe kaarten moeten positioneren na dit nVidia-geweld.
Denk je niet dat deze kaart populairder gaat zijn? De prijs is vergeleken met eerdere generaties toch veel aardiger.
Ik vraag me ook af wat AMD bekokstooft; aan de ene kant zou je denken dat ze toch eerder met iets naar buiten zouden willen komen als ze echt wat moois te tonen hadden, maar aan de andere kant weten ze bij AMD ook wel dat ze niet overhaast hun roadmap moeten versnellen alleen maar om het niet te laten lijken alsof ze geen weerwoord hebben. Voor ze het weten zitten ze bij AMD dan weer met een stuntelige presentatie waar de demo crasht of iets dergelijks. Uiteindelijk worden toch de meeste kaarten voor de kerst verkocht; dan kunnen ze beter op 28 oktober volgens plan aankondigen dan hals over kop met een mindere presentatie komen.
Daarnaast zag ik een aardige berekening over het verbruik van de RDNA 2 GPU+RAM in de Xbox Series X, waar uit kwam dat 170 watt daarvoor geen onrealistische schatting is. Dat is iets meer dan de helft van het verbruik van de RTX 3080. Nu zal de RTX 3080 ook een stuk sneller zijn dan de GPU van de XSX, maar bijna twee keer zo snel? Daarnaast gebruikt AMD nu het TSMC proces waar Nvidia met de vorige generaties zulke fantastische prestaties per watt mee neerzette.
Hoewel ik niet verwacht dat AMD Nvidia voorbij zal streven heb ik toch wel goede hoop dat ze het gat aardig dichtlopen.
Nvidia heeft dus eigenlijk flink zitten te liegen met hun dubbele prestaties...terwijl het meer naar net 50% gaat...dat is toch wel een flinke hoop minder.
Nvidia schreef 60% tot 100% sneller dan de originele 2080. En natuurlijk dat is voor reguliere spellen meer rond de 60%, terwijl RTX zaken grotere verschillen hebben. Dat mensen dan denken dat alles 100% sneller zou zijn, tja, dan zet je jezelf ook wel erg op voor teleurstelling.
Ja maar mensen blijven de 3080 maar wegzetten tegenover de 2080 Ti......zet de 3080 eens eerlijk weg tegenover de 2080/2080s. Dat zijn het toch wel echt forse upgrades.
Ik heb bewust de 2080 Ti overgeslagen omdat ik 1300 euro echt krankzinnig vind voor een videokaart. En toen was het echt een mega dikke kaart nu koop ik voor de helft van een 2080 Ti een kaart die ook nog eens 25% sneller ks.
Ik vind het zelf een knappe prestatie. Het is zuur voor de 2080 Ti bezitters, maar eigenlijk hebben ze zich wel beetje laten naaien door Nvidia omdat er totaal geen concurrentie was.
Same, had hem bewust veel te duur te koop gezet, biedingen liepen wel uiteen van 250 tot 600 euro. 550/600 lijkt mij vrij redelijk, ben ook overtuigd dat ie het beter doet dan de 3070 dus hij mag ook duurder zijn
Natuurlijk krijg je veel voor een stuk minder geld. Een 3080 zal zeker zijn geld waard zijn, maar als ik kijk naar 1440p waar ik op game is net 18% t.o.v mijn 2080ti niet schokkend!
Tegenover de 2080, niet de 2080 ti. Niet dat ze dat waar kunnen maken zonder DLSS/Raytracing, maar dat maakt de overdrijving wel wat kleiner.
[Reactie gewijzigd door watercoolertje op 22 juli 2024 14:49]
Klopt, maar zelfs op een 2080 is het verschil niet eens zo groot als ze zeiden...de 100% wordt nooit gehaald. En dat is wel misleidend.
Tevens is raytracing in de nieuwe kaart eigenlijk ook niet zo veel beter. Enkel met dlss en op 4K.
En natuurlijk is de prijs zeker de kaart wel waard.
maar ik heb zelf een 2080ti, die doe ik hier de deur niet voor uit. Het heeft dan niet zoveel zin lijkt mij. En een referentie model zie ik zelf niet zitten met de gekke powerplug in het midden.
Same, had hem bewust veel te duur te koop gezet, biedingen liepen wel uiteen van 250 tot 600 euro. 550/600 lijkt mij vrij redelijk, ben ook overtuigd dat ie het beter doet dan de 3070 dus hij mag ook duurder zijn
De 3070 wordt waarschijnlijk iets van 15% langzamer in de meeste games, maar ongeveer even snel in compute heavy of raytracing games. (als ik uitga van 25% sneller dan 2080Ti en 48% sneller dan 3070)
Ik zou als 2ehands koper toch een groter verschil in bang/buck willen zien voor een kaart met veel kortere garantie. Maar ik zou sowieso nooit zo veel besteden aan een 2ehands computeronderdeel.
Met 3 jaar garantie waarvan een klein jaar af is zit ik waarschijnlijk boven de meeste nieuwe kaarten, behalve degene waar je veel meer voor gaat betalen (asus rog strix), maar dan is mijn prijs weer veel lager
[Reactie gewijzigd door watercoolertje op 22 juli 2024 14:49]
De perfomance per wat is ten opzichte van de 2080ti maar met 8% gestegen.
Gemiddeld 25% meer fps tegen een verhoging van 17% in gebruik.
Nu de beloofde 2x 2080 prestaties bij lange na niet gehaald wordt ben ik zeer benieuwd wat Amd te brengen heeft.
Kwa prijs is de 3080 leuk, maat had zelf ook erg gehoopt op FS2020 benchmarks
Stroomverbruik is inderdaad zeer opvallend! Je kan de 3080 dus eigenlijk niet gebruiken zonder waterkoeling of zonder (een deel van) de hitte de kast uit te blazen! Dus alle standaard AIB koelers zullen de temperaturen in je kast flink opdrijven. In de praktijk zou de 3070 wel eens een interessantere kaart kunnen zijn aangezien het verbruik daarvan ongetwijfeld een stuk lager zal liggen; 250 watt? Stel je voor, het is 2020 en een midrangekaart verstookt 250 watt in game! Dat is Titan-verbruik!
Ik hoop dat AMD dit beter doet, al is dat normaalgesproken natuurlijk juist hun zwakke punt.