In deze turbulente tijden van grote hardwaretekorten, mininghypes en een nog altijd voortdurende pandemie brengt Nvidia een nieuwe videokaart uit: de GeForce RTX 3060. Dit nieuwe lid van de Ampere-familie heeft als doel de nieuwste GeForce-architectuur naar een betaalbaarder prijspunt te brengen. In theorie heeft de RTX 3060 de papieren om als mainstreamvideokaart in de voetsporen te treden van zijn uiterst populaire voorgangers, de RTX 2060 en GTX 1060. Dat de praktijk er momenteel compleet anders uitziet, wordt bij een scan van de Pricewatch snel duidelijk. Desondanks bekijken we in deze review waartoe de nieuwe GeForce RTX 3060 in staat is, en wat de fabrikant voor ogen heeft met dit model.
Ampere voor iedereen
Toen in september vorig jaar de eerste RTX 30-serie videokaarten werd aangekondigd, deed de ceo van Nvidia dat met een boodschap aan de gamers met een videokaart uit de GTX 10-serie: "My Pascal friends, it is safe to upgrade now." Met de komst van de RTX 3060 grijpt de fabrikant nu de mogelijkheid aan om specifiek de eigenaren van een GTX 1060 een fictief duwtje in de rug te geven met 'de ultieme upgrade'. De RTX 3060 zou gemiddeld genomen, over een reeks games met en zonder raytracing, 30 procent sneller zijn dan een RTX 2060, twee keer zo snel zijn als een GTX 1060 en grofweg op hetzelfde prestatieniveau als een RTX 2070 uitkomen.
Nvidia stelt dat de GTX 1060 in 2016 de Pascal-architectuur naar elke gamer bracht en dat de RTX 3060 de Ampere-architectuur naar iedereen zal brengen. Dat er in het laatste geval niet meer over gamers wordt gesproken, is vast onbewust. Waarvoor zou je in 2021 immers nog meer een GeForce-videokaart gebruiken dan alleen voor gaming?
Omdat er van de RTX 3060 geen Founders Edition bestaat, hebben we voor deze review de Gigabyte Gaming OC getest.
Een afgedankte laptopchip
Met de RTX 3060 brengt Nvidia binnen de Ampere-architectuur voor het eerst een 106-chip naar de desktop. Deze chip is kleiner, eenvoudiger te produceren en dus goedkoper dan de grotere 104-chips die voor de RTX 3060 Ti en RTX 3070 worden gebruikt. Geheel nieuw is de GA106, die we op de RTX 3060 vinden, niet omdat deze gpu eerder dit jaar al op laptops werd geïntroduceerd onder dezelfde naam, maar dan als mobiele chip.
Om het nog erger te maken, heeft de desktopversie van de RTX 3060 minder cores ingeschakeld; 3584 in plaats van de 3840 die de laptop-gpu krijgt, een verschil van 7 procent. Oneerbiedig gezegd krijg je met de desktop RTX 3060 dus een afgedankte laptopchip, al beschikt ook die laatste niet meer over alle 4096 cores waaruit de GA106 bestaat.
Uiteraard is dat niet het hele verhaal; dankzij de stroomvoorziening en koelingsmogelijkheden op de desktop komen de kloksnelheden wel flink hoger uit. Dat in deze situatie juist de versie met meer actieve cores naar laptops gaat is niet gek, want daarin speelt efficiëntie een grotere rol, en meer cores activeren is doorgaans een efficiëntere optie om een bepaald prestatieniveau te bereiken dan de kloksnelheden verhogen.
Meer geheugen dan luxere kaarten
De hoeveelheid werkgeheugen op de RTX 3060 is met 12GB niet alleen twee keer zo groot als op de laptopversie, ook heeft de kaart hiermee 50 procent meer vram dan de RTX 3070 en 3060 Ti, die elk van 8GB zijn voorzien. Daarmee valt de RTX 3060 op een vreemde plaats ten opzichte van zijn familieleden. Andere specificaties, zoals het aantal rekenkernen, de geheugenbus en -bandbreedte, vallen bij deze luxere modellen hoger uit. De 3060 heeft wel sneller werkgeheugen, maar ook een smallere geheugenbus, waardoor de bandbreedte onder de streep dus lager uitkomt.
Vanwege de opbouw en werking van de GDDR-geheugenbus kan er zonder grote ingrepen geen willekeurige hoeveelheid geheugen gebruikt worden. Met de 192bit-geheugenbus van de RTX 3060 had Nvidia realistisch gezien de keuze uit 6 of 12GB vram. Hoewel er geruchten rondgaan dat er alsnog een 6GB-versie van de RTX 3060 zal komen, komt de kaart voor nu alleen uit in een 12GB-uitvoering. Aangezien moderne games steeds meer vram vereisen, is die keuze begrijpelijk. Voor cryptomining en de daarin groeiende dag-sizes is dit eveneens goed nieuws, want het maakt de kaart wat toekomstvaster.
Videokaart
RTX 3070
RTX 3060 Ti
RTX 3060
RTX 2070
RTX 2060
GTX 1060 6GB
Gpu
GA104
GA104
GA106
TU106
TU106
GP106
Architectuur
Ampere
Ampere
Ampere
Turing
Turing
Pascal
Procedé
8nm
8nm
8nm
12nm
12nm
16nm
Diesize
392,5mm²
392,5mm²
276mm²
445mm²
445mm²
200mm²
Transistors
17,4 miljard
17,4 miljard
13,25 miljard
10,8 miljard
10,8 miljard
4,4 miljard
CUDA-cores
5888
4864
3584
2304
1920
1280
Tensor-cores
184
152
112
288
240
0
RT-cores
46
38
28
36
30
0
Texture-units
184
152
112
144
120
80
Rops
96
80
48
64
48
48
Baseclock
1500MHz
1410MHz
1320MHz
1410MHz
1365MHz
1506MHz
Boostclock
1730MHz
1665MHz
1777MHz
1620MHz
1680MHz
1709MHz
Vram
8GB GDDR6
8GB GDDR6
12GB GDDR6
8GB GDDR6
6GB GDDR6
6GB GDDR5
Geheugensnelheid
14Gbit/s
14Gbit/s
15Gbit/s
14Gbit/s
14Gbit/s
8Gbit/s
Geheugenbus
256bit
256bit
192bit
256bit
192bit
192bit
Bandbreedte
448GB/s
448GB/s
360GB/s
448GB/s
336GB/s
192GB/s
Tgp
220W
200W
170W
175W
160W
120W
Adviesprijs (bij introductie)
519 euro (FE)
419 euro (FE)
349 euro (custom)
519 euro
369 euro (FE)
283 euro (custom)
Uitgebracht
27 oktober 2020
2 december 2020
25 februari 2021
27 september 2018
7 januari 2019
10 juni 2016
Driverdilemma's
Of de huidige mininghype Nvidia daadwerkelijk een doorn in het oog is, omdat die zou voorkomen dat de GeForce-kaarten in de handen van gamers eindigen, is uiteraard een punt van discussie. Ondanks de tekorten maakte Nvidia vannacht immers nog bekend een absoluut recordkwartaal achter de rug te hebben, met niet eerder vertoonde omzet én winst.
Wel deed de gpu-ontwerper kortgeleden de aankondiging GeForce-videokaarten onaantrekkelijk te willen maken voor cryptomining. Het eerste wapenfeit is de nieuwe driver die samen met de RTX 3060 beschikbaar komt. Met deze driver, die zoals gebruikelijk vereist is om de nieuwe videokaart te kunnen gebruiken, kan een ethereum-miningalgoritme worden herkend, waardoor de hashrate binnen enkele minuten met 50 procent wordt verlaagd. Dat geldt niet voor eerder uitgebrachte RTX 30-kaarten - dan zouden miners gewoon een oudere driver kunnen draaien - en ook niet voor andere cryptovaluta dan ethereum, al is die cryptomunt op dit moment veruit de winstgevendste om met videokaarten te minen.
Deze miningblokkade moet elk geval miners hun interesse in de RTX 3060 laten verliezen, wat ertoe moet leiden dat de videokaarten beter beschikbaar komen voor ‘normale’ consumenten. Of deze maatregel het begin is van een actief antiminingbeleid voor de op gamers gerichte GeForce-videokaarten, of slechts symboolpolitiek om in elk geval iets aan de situatie te doen, moet de toekomst uitwijzen.
Tien jaar van Nvidia's x60-serie
In onderstaande tabel zie je de voorgaande midrangevideokaarten met een modelnummer eindigend op 60 sinds de GTX 560 uit 2011. De beschikbaarheid van een sneller Ti-model is niet bepaald een unicum, zo blijkt al snel, maar bij de Turing-generatie valt op dat Nvidia de x60-serie opsplitste tussen GTX-kaarten zonder raytracingcores en RTX-kaarten die ze wel aan boord hadden. De TU106-gpu in de RTX 2060 (Super) was daardoor met afstand de grootste gpu sinds de Fermi-generatie, wat hem ook duur om te produceren zal hebben gemaakt.
De GA106-gpu in de RTX 3060 is behoorlijk kleiner dan die in de RTX 3060 Ti. Hij meet 276mm² en daarmee is hij veel beter te vergelijken met de gpu in de GTX 1660-kaarten dan die in de RTX 2060-serie. Wel valt op dat de tdp aan de hoge kant is, maar dat is een karakteristiek van vrijwel de hele RTX 30-line-up.
Videokaart
Chip (% gpu-cores actief)
Architectuur
Procedé
Die-size
Tgp
Uitgebracht
RTX 3060 Ti
GA104 (79,2%)
Ampere
8nm
392,5mm²
200W
December 2020
RTX 3060
GA106 (87,5%)
Ampere
8nm
276mm²
170W
Februari 2021
RTX 2060 Super
TU106 (94,4%)
Turing
12nm
445mm²
175W
Juli 2019
RTX 2060
TU106 (83,3%)
Turing
12nm
445mm²
160W
Januari 2019
GTX 1660 Ti
TU116 (100%)
Turing
12nm
284mm²
120W
Februari 2019
GTX 1660 Super
TU116 (91,7%)
Turing
12nm
284mm²
125W
Oktober 2019
GTX 1660
TU116 (91,7%)
Turing
12nm
284mm²
120W
Maart 2019
GTX 1060 6GB
GP106 (100%)
Pascal
16nm
200mm²
120W
Juli 2016
GTX 1060 3GB
GP106 (90%)
Pascal
16nm
200mm²
120W
December 2016
GTX 960
GM206 (100%)
Maxwell
28nm
228mm²
120W
Januari 2015
GTX 760
GK104 (75%)
Kepler
28nm
294mm²
170W
Juni 2013
GTX 660 Ti
GK104 (87,5%)
Kepler
28nm
294mm²
150W
Augustus 2012
GTX 660
GK106 (100%)
Kepler
28nm
221mm²
140W
September 2012
GTX 560 Ti
GF110 (87,5%)
Fermi
40nm
520mm²
210W
November 2011
GTX 560
GF114 (87,5%)
Fermi
40nm
332mm²
150W
Mei 2011
Testverantwoording
Ons uitgangspunt bij gpu-tests is altijd dat we de rest van het systeem een zo klein mogelijke bottleneck willen laten vormen voor de rest van het systeem. Momenteel heeft AMD met zijn Ryzen 5000-processors nog steeds de gamingprestatiekroon in handen. Daarom hebben we ervoor gekozen om alle videokaarten te testen met de Ryzen 9 5950X als processor.
De exacte specificaties van het testsysteem zijn in de tabel hieronder te vinden.
Testsysteem gpu's
Processor
AMD Ryzen 9 5950X @ 4,65GHz all-core
Moederbord
ASUS ROG Crosshair VIII Hero (bios 2502, AGESA 1.1.0.0 Patch C, Resizeable BAR support geactiveerd)
Werkgeheugen
G.Skill Trident Z Royal 32GB (2x 16GB) DDR4-3600 CL16-16-16-36
Ssd
Samsung 970 EVO 250GB (OS) + Kioxia Exceria+ 2TB (games)
Voeding
Be quiet Dark Power Pro 12 1500W
Koeling
Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, be quiet Pure Wings 2-ventilators
Besturingssysteem
Windows 10 Pro 64bit May 2020 Update (2004)
Gebruikte videokaarten
Voor onze gpu-tests gebruiken we altijd referentiekaarten of Founders Editions, tenzij de desbetreffende gpu niet als een dergelijk model is uitgebracht of wij er geen beschikbaar hebben. In dat geval gebruiken we een custom model dat wat kloksnelheden betreft zo dicht mogelijk bij de referentiespecificatie zit. Voor deze review hebben we de volgende kaarten gebruikt:
Nvidia GeForce RTX 3070 Founders Edition
AMD Radeon RX 6800 referentiekaart
Nvidia GeForce RTX 3060 Ti Founders Edition
AMD Radeon RX 5700 XT referentiekaart
Nvidia GeForce GTX 1080 Ti Founders Edition
PNY GeForce RTX 2070 XLR8 Gaming OC Twin Fan
Gigabyte GeForce RTX 3060 Gaming OC 12G
Nvidia GeForce RTX 2060 Super Founders Edition
AMD Radeon RX 5700 referentiekaart
Nvidia GeForce RTX 2060 Founders Edition
Gigabyte Radeon RX 5600 XT Gaming OC 6G
AMD Radeon RX Vega 64 referentiekaart
Nvidia GeForce GTX 1070 Founders Edition
Sapphire Pulse RX 5500 XT 4G GDDR6
Sapphire Nitro+ Radeon RX 580 8G
Nvidia GeForce GTX 1060 Founders Edition
Drivers en meetmethode
We hebben alle Nvidia-gpu’s in deze review getest met driver 461.64 en hebben gebruikgemaakt van de Radeon Adrenalin-driver 21.2.2. Met behulp van PresentMon meten we in elke geteste game de prestaties, waaruit we zowel de gemiddelde framerates (fps) als de frametimes van het 99e en 99,9e percentiel berekenen en die laatste twee in milliseconden rapporteren.
In de grafieken op de volgende pagina's vind je telkens in eerste instantie gemiddelde framerates, oftewel het gemiddelde aantal beelden per seconde dat een videokaart kan berekenen. De frametimes geven geen beeld van de gemiddelde framerate, maar van de uitschieters in negatieve zin. Die kunnen immers tot gevolg hebben dat een game ondanks een goed gemiddelde niet vloeiend aanvoelt.
De tijd die het kost om beelden binnen een 3d-game en dus binnen onze benchmark te renderen, varieert van frame tot frame. Bij onze frametimemeting worden de rendertijden van alle individuele frames opgeslagen. Daarna gooien we de 1 procent langzaamste frames weg. De hoogste rendertijd van de resterende 99 procent van de frames, oftewel het langzaamste frame, is het 99e percentiel frametime.
Op verzoek van enkele lezers hebben we ook de 99,9e-percentielwaarden toegevoegd. Hiervoor laten we dus slechts de 0,1 procent langzaamste frames buiten beschouwing. In theorie is dit nog preciezer, maar in de praktijk gooien incidentele oorzaken en meetfouten soms roet in het eten. Voor nu hebben we ze vermeld in de review, maar houd dat dus in het achterhoofd bij het bekijken van deze resultaten.
Gameselectie
Zoals je van ons gewend bent, testen we gpu’s met een selectie van tien games, zorgvuldig samengesteld om een zo representatief mogelijk beeld te geven. Hierbij hebben we onder meer rekening gehouden met de api, de engine, het genre, de AMD/Nvidia-verhouding, de leeftijd en de technische benchmarkdetails van elke game. Voorafgaand aan elke test wordt de videokaart opgewarmd, bijvoorbeeld door 3DMark te draaien of in het menu van de game als dat in real time gerenderde graphics bevat.
Game
Verschijningsdatum
Api
Engine
Control
Augustus 2019
DX12
Northlight Engine
Doom Eternal
Maart 2020
Vulkan
Id Tech 7
F1 2020
Juli 2020
DX12
EGO Engine 4.0
Far Cry: New Dawn
Februari 2019
DX11
Dunia 2.0
Ghost Recon: Breakpoint
Oktober 2019
DX11
Anvil Next 2.0
Metro Exodus
Februari 2019
DX12
4A Engine
Project Cars 3
Augustus 2020
DX11
Madness
Red Dead Redemption 2
November 2019
Vulkan
RAGE
Shadow of the Tomb Raider
September 2018
DX12
Foundation
Total War Saga: Troy
Augustus 2020
DX12
TW Engine 3
Geluidsproductie en stroomverbruik
Naast de prestaties meten we de geluidsproductie en het stroomverbruik van videokaarten. De meting van de geluidsproductie doen we in een geluiddichte doos op een afstand van 30cm, met de decibelmeter schuin op de videokaart gericht. De drempelwaarde voor onze metingen is 18dB(A); dat mag je opvatten als volledig stil. Tijdens de Idle-test wordt de videokaart vanzelfsprekend niet belast. De loadtest is gebaseerd op een verlengde gametest van tien minuten, zodat de videokaart tijd heeft om op te warmen en zijn maximale geluidsproductie te bereiken.
De stroommeting voeren we uit met een zogenaamde riserkaart van fabrikant Adex, die we tussen het PCIe-slot en de videokaart in plaatsen. Op die manier kunnen we niet alleen de stroom meten die door de losse stroomkabels loopt, maar ook het vermogen dat de videokaart rechtstreeks uit het PCIe-slot betrekt. Voor de meting zelf gebruiken we verschillende exemplaren van de Tinkerforge Voltage/Current Bricklet 2.0. Voor de slotmeting is de riserkaart met zo’n bricklet uitgerust. Om de stroom van de PEG-kabel te meten, is de bricklet samen met de benodigde connectors op een speciaal voor onze test ontworpen printplaat geplaatst. Afhankelijk van het aantal stroomkabels dat een videokaart vereist, gebruiken we uiteraard diverse meters.
3DMark Time Spy en Fire Strike
3DMark heeft een hele suite aan benchmarks, waarvan we Time Spy en Fire Strike standaard draaien. Fire Strike maakt gebruik van de DX11-api, Time Spy van DirectX 12. Beide benchmarks berekenen een totaalscore op basis van de gpu- en cpu-prestaties, waarbij de grafische score het zwaarst meeweegt. De Graphics-scores staan zoveel mogelijk los van de prestaties van de andere componenten en deze score kun je dus ook het best gebruiken als indicatie voor gpu-prestaties onafhankelijk van de rest van het systeem.
In Time Spy eindigt de RTX 3060 precies tussen de 2060 Super en 2070. De score ligt daarmee ruim twee keer zo hoog als op een GTX 1060, maar minder dan 20 procent hoger dan op een RTX 2060. Ook in de Fire Strike-benchmarks is het zo goed als gelijkspel met de RTX 2060 Super, terwijl deze wat oudere benchmark relatief gezien een stuk milder is voor de GTX 1060.
Superposition is een benchmark van Unigine en is in zowel OpenGL als DirectX 11 te draaien. Voor onze tests maken we gebruik van DX11 en twee van de aanwezige grafische presets.
Ook in Superposition is de RTX 3060 zeer vergelijkbaar met de RTX 2060 Super. Op beide resoluties komen deze kaarten nagenoeg gelijk uit. De RTX 3060 gaat richting de twee keer zo snel als een GTX 1060, maar weet in deze benchmark net niet ver genoeg voor te lopen om dit echt waar te maken.
Control is een thirdpersonshooter uit 2019 en draait in DirectX 12 op de Northlight Engine. Onze benchmark bestaat uit een handmatig gelopen, vaste route door de Central Executive-ruimte van het spel.
In Control zet de hele Ampere-architectuur hoge framerates neer ten opzichte van de eerdere generatie. De RTX 3060 is een paar procent sneller dan de 2070, die op zijn beurt weer iets sneller is dan de 2060 Super. De 3060 is daarnaast op 1440p en 1080p ruim 20 procent sneller dan de RTX 2060 en zelfs tweeënhalf keer zo snel als de GTX 1060. Op 4k hebben de kaarten met minder dan 8GB vram last van een geheugentekort. Voor de RTX 3060 is dat niet het geval, al leidt de hoge resolutie tot een stuk minder speelbare framerates dan we op 1440p zien.
Doom Eternal, onderdeel van de zeer bekende serie firstpersonshooters, draait in de Vulkan-api op de relatief nieuwe idTech 7-engine en kwam in maart van dit jaar uit. De benchmark bestaat uit een zestig seconden durende vaste route door de Hell on Earth-map van het spel.
Ook in Doom zet de RTX 3060 een prima score neer, ruim 10 procent hoger dan de RTX 2070. De prestaties van een RX 5700 XT worden net niet gehaald, maar de RTX 3060 is wel meer dan 30 procent sneller dan de RTX 2060 op 1440p. Op hogere resoluties loopt de voorsprong op de GTX 1060 sterk uit, waarbij de twee keer zo grote geheugenbuffer goed van pas komt.
F1 2020 is als een van de bekendste racegames ook onderdeel van ons testprocotol. De serie draait al de nodige jaren op de EGO-engine, waarvan we inmiddels de vierde iteratie gebruiken. We maken gebruik van de DirectX 12-api en de ingebouwde benchmark van het spel, met daarbij de cockpitview en de 'very wet'-weersinstelling geactiveerd op het circuit van Zandvoort.
In F1 is de RTX 3060 tussen de 20 en 25 procent sneller dan de RTX 2060, afhankelijk van de resolutie. Hoe lager deze ligt, hoe beter de kaart ook de strijd met de GTX 1080 Ti aankan. Tegenover het rode kamp zet de nieuwste Ampere-kaart scores neer die consistent tussen de RX 5700 en 5700 XT in vallen.
Far Cry: New Dawn is een van Ubisofts meest vooraanstaande firstpersonshooters en de Far Cry-serie draait al de nodige tijd op de Dunia-engine. Voor New Dawn wordt daarvan versie 2.0 gebruikt, die het nog altijd met de DirectX 11-api moet doen. We maken gebruik van de ingebouwde benchmark van het spel.
In Far Cry: New Dawn is de RTX 3060 iets sneller dan de RTX 2070, ongeacht de resolutie. Zelfs op 4k Ultra is de RTX 3060 nog in staat om speelbare framerates te produceren. In deze game is de RTX 3060 tot 20 procent sneller dan de RTX 2060 en tot twee keer zo snel als de GTX 1060.
Tom Clancy's Ghost Recon: Breakpoint is een openworldgame en draait door middel van de Anvil Next 2.0-engine in de DirectX 11-api en Vulkan. Voor deze game gebruiken we ook de ingebouwde benchmark.
In Ghost Recon: Breakpoint scoort de RTX 3060, zoals inmiddels haast kan worden verwacht, enkele procenten sneller dan een RTX 2070. In dit spel is de kaart keurig respectievelijk 10, 20 en 30 procent sneller dan een RTX 2060 op 1080p, 1440p en 4k. De winst op de GTX 1060 loopt uiteen van zo'n 70 procent tot een verdubbeling van prestaties op de hoogste resolutie.
Metro Exodus is een firstpersonshooter die draait op de 4A Engine. Voor onze tests in deze game maken we gebruik van de DirectX 12-api en de vrij zware, ingebouwde benchmark.
In Metro Exodus zien we de RTX 3060 erg vergelijkbaar met de RTX 2070 presteren, ongeacht de resolutie. Daarmee is de 3060 in de verschillende benchmarks 15 tot zo'n 20 procent sneller dan een RTX 2060 en tot twee keer zo snel als de GTX 1060.
Project Cars 3 is een recente racegame van Slightly Mad Studios en draait in DirectX 11 op de Madness-engine. De benchmark bestaat uit een negentig seconden durende replay op de Nordschleife die in real time wordt gerenderd.
Ook in Project Cars 3 loopt de RTX 3060 ongeacht de resolutie enkele procenten voor op de RTX 2070. De kaart is op hogere resoluties zo'n 20 procent sneller dan de RTX 2060 en verslaat de GTX 1060 met een voorsprong van 70 tot 80 procent.
Red Dead Redemption 2 is Rockstars bekende openworldgame van eind 2019 en draait in de Rockstar Advanced Game Engine. Het spel valt met zowel DirectX12 als de Vulkan-api te draaien en omdat DX12 op ons testsysteem problemen geeft, maken we gebruik van Vulkan, dat wel probleemloos werkt. Voor deze test zetten we de ingebouwde benchmark van het spel in, waarbij we enkel de laatste (en langste) scène gebruiken.
In RDR2 zien we opnieuw de RTX 3060 zeer vergelijkbaar met de RTX 2070 presteren. Op 1080p en ook 1440p zet de 3060 met Ultra-instellingen nog prima speelbare framerates neer. Op 4k is het grafisch geweld iets te veel voor de gpu.
Shadow of the Tomb Raider maakt als laatste deel van de bekende adventureserie gebruik van de Foundation-engine. Het spel kan in zowel DX11 als DX12 gedraaid worden. Wij maken gebruik van laatstgenoemde api en van de ingebouwde benchmark.
De RTX 3060 weet wat beter raad met deze veeleisende game dan de RTX 2070. De gemiddelde framerates van de nieuwe Ampere-kaart komen op de drie geteste resoluties enkele procenten hoger uit, terwijl de voorsprong op de RTX 2060 20 tot 30 procent is. Met uitzondering van 4k Ultra levert dit gemiddelde framerates van 60fps of daarboven op. In alle benchmarks is de RTX 3060 daarnaast ruim twee keer zo snel als de GTX 1060.
1440p
1440p Ultra
1440p Ultra (99p)
1440p Ultra (99,9p)
1440p Medium
1440p Medium (99p)
1440p Medium (99,9p)
Shadow of the Tomb Raider (DX12) - 2560x1440 - Ultra
Total War Saga: Troy is een recente realtime strategygame en draait op DirectX12 in de TW Engine 3. Het spel biedt drie ingebouwde benchmarks; wij gebruiken de Battle-scène voor onze tests.
In Troy is het vrijwel gelijkspel tussen de 3060 en 2070, op zowel de hogere als de lagere resoluties. Het spel staat niet bekend om zijn hoge framerates bij Ultra-instellingen, wat voor een strategygame ook minder noodzakelijk is. Zolang de RTX 3060 op 1080p of 1440p wordt gebruikt, levert dat in dit spel nog keurige framerates op.
Om in één oogopslag te zien hoe de verschillende gpu's zich tot elkaar verhouden, berekenen we gewogen gemiddelden vanuit de tien gebruikte en hiervoor besproken games op basis van de resultaten. Deze prestatiescores berekenen we met de geteste resoluties en kwaliteitsinstellingen.
Volgens onze prestatiescore is de RTX 3060 op Ultra een paar procent sneller dan de RTX 2070 en al gauw 20 procent sneller dan de RTX 2060. Daarnaast behaalt de RTX 3060 gemiddelde framerates die ruim twee keer zo hoog liggen als die van de GTX 1060 6GB. De prestatiescore laat zien dat de RTX 3060 een geschikte videokaart is voor gaming op zowel 1080p als 1440p, maar dat vloeiend spellen draaien op 4k iets te hoog gegrepen is.
Niet alleen hebben we een hele reeks games getest volgens conventionele rendertechnieken (rasterization), we hebben ook enkele extra tests gedraaid om de raytracingprestaties te kunnen vergelijken.
3DMark Port Royal
Port Royal is 3DMarks benchmark waarin raytracingprestaties worden gemeten. Het betreft een synthetische test waar zowel een score als een gemiddelde framerate uitkomt. De RTX 3060 komt precies tussen de RTX 2060 Super en RTX 2070 uit in deze benchmark.
In Control hebben we ook een aantal tests gedraaid, waaronder raytracing met RTX die gebruikmaakt van de DXR-api in Windows 10. Hier zien we de RTX 3060 wat verder uitlopen op de Turing-voorlopers, net zoals de RTX 3060 Ti ook verder uitloopt op de vorige generatie.
Als we zowel raytracing als DLSS inschakelen in Control, komt de RTX 3060 zelfs op 1440p ultra precies op 60 fps uit. Op 1080p zorgt deze technologie ervoor dat de kaart bijna 90 fps aantikt, wat ruim boven de RTX 3070 zonder DLSS uitkomt.
In Cyberpunk heeft de RTX 3060 het op 1080p ultra met raytracing ingeschakeld maar wat zwaar, de gemiddelde framerate komt dan amper boven de 30 uit. Zodra we DLSS inschakelen, valt de framerate voor deze kaart zoveel hoger uit dat hij ruim boven de 60 fps eindigt. Ook de RTX 2060 ziet zijn gemiddelde framerates meer dan verdubbelen dankzij DLSS wanneer raytracing is ingeschakeld.
Ten slotte hebben we ook raytracing getest in Exodus op 1440p- en 1080p-resolutie. Hier behaalt de RTX 3060 een kleine winst op de RTX 2070, vergelijkbaar met wat we in andere benchmarks hebben gezien.
Het stroomverbruik in-game meten we tijdens belasting in de benchmark van Shadow of the Tomb Raider. Het verbruik van de RTX 3060 komt onder belasting uit op zo'n 170 watt. De kaart houdt zich daarmee netjes aan de opgegeven tgp, zoals we bij de meeste kaarten tegenwoordig zien. Het idle verbruik is met iets onder de 10 watt niet opvallend, maar ook niet indrukwekkend.
Met het gemeten stroomverbruik onder load in Shadow of the Tomb Raider en de prestaties in deze specifieke game berekenen we ook de prestaties per watt. Daarmee wordt inzichtelijk hoe efficiënt bepaalde gpu's zijn voor gamingworkloads.
De RTX 3060 zet duidelijk betere prestaties per watt neer dan zijn voorgangers. Toch blijft hij nog iets achter bij de RTX 3060 Ti en RTX 3070, die beide gebaseerd zijn op de GA104-gpu. AMD's RX 6800 op basis van de Navi-gpu blijft al helemaal buiten bereik voor de RTX 3060 als het op efficiëntie aankomt.
De Nvidia GeForce RTX 3060 is het nieuwste lid van de RTX 30-serie videokaarten voor de desktop, waarmee Nvidia in een uitdagende periode een gamingkaart op de markt brengt. Door een combinatie van omstandigheden zijn videokaarten momenteel bijzonder lastig verkrijgbaar, waarbij de opnieuw opgeleefde mininghype een significante rol speelt. Als gevolg van deze perikelen sneeuwt de RTX 3060 als videokaart tijdens zijn introductie wat onder.
Vanuit een 'normale' situatie met acceptabele voorraden, prijzen en verkrijgbaarheid is de RTX 3060 een voorspelbare aanvulling op de Ampere-line-up van Nvidia. Voor deze videokaart is de GA106-gpu gebruikt, de vuurdoop voor deze chip op de desktopmarkt. Alle bijbehorende specificaties zijn zoals verwacht als je de RTX 3060 afzet tegen de snellere RTX 30-kaarten, met als grote uitzondering de hoeveelheid videogeheugen. De 12GB vram op de RTX 3060 is flink meer dan de 8GB die je op een RTX 3060 Ti en RTX 3070 krijgt. Dat zal de kaart iets toekomstvaster maken en daarmee aantrekkelijk voor wie graag lang doet met zijn hardware, al zit Nvidia momenteel natuurlijk niet bepaald om kopers verlegen.
De eerste drie GeForce RTX 3060-videokaarten in ons testlab. Van deze en hopelijk meer modellen zullen we later een round-up publiceren.
Om van alle potentiële kopers zoveel mogelijk gamers te bereiken, voert Nvidia extra maatregelen in zijn drivers door om mining minder aantrekkelijk te maken. De introductie van een nieuwe videokaart is daarvoor het aangewezen moment, want die werkt nog niet met oudere drivers zonder de blokkade. Opvallend is daarbij dat effectief alleen de prestaties van ethereummining worden aangepakt, waardoor het gebruik voor andere algoritmes nog steeds interessant kan zijn voor miners. Het is daarom afwachten hoeveel effect deze maatregel zal hebben en of de verkrijgbaarheid van de RTX 3060 daadwerkelijk beter zal zijn dan die van andere videokaarten.
Voor gamers zelf is de komst van de RTX 3060 in ieder geval niet spannend. De prestaties van de kaart zijn vergelijkbaar met die van een RTX 2070: een acceptabele generatiesprong, maar niet uitzonderlijk en zeker niet zo imposant als we bij voorgaande generaties hebben gezien. In de huidige markt is het onmogelijk dat de RTX 3060 voor een significant scherpere prijs zal worden aangeboden dan het bestaande aanbod rond hetzelfde prestatieniveau. Daarmee is de RTX 3060 een nieuw, maar net zo moeilijk bereikbaar alternatief als wat tot gisteren (on)verkrijgbaar was.
Ik denk dat de belangrijkste vraag zal zijn: Zijn er genoeg leverbaar?
De policy van Nvidia wordt door Linus grondig becritiseerd: https://www.youtube.com/watch?v=kAJAViPWR_8
[Reactie gewijzigd door PanaLover op 22 juli 2024 17:39]
Heb je de video überhaupt gekeken? Nvidia maakt zich schuldig aan anti-consumer (gamer) gedrag terwijl ze zich profileren als de 'good guys' die 'pro gaming' zijn door de huidige koers die ze varen waarin ze temidden van wereldwijde tekorten aan chips een deel van hun productiecapaciteit van GPUs exclusief reserveren voor de dik betalende miners. Het is op zijn zachtst gezegd dubieus.
Door deze exclusiviteit blijft het aanbod van (gaming) GPUs laag en de prijzen hoog. Bovendien zijn de dedicated mining GPUs waardeloos zodra ze hun mining-taak voldaan hebben en komen ze terecht op de immer uitdijende berg e-waste. Dit in tegenstelling tot wanneer nVidia deze chips had ingezet als gaming GPUs waardoor ze een veel langer leven krijgen op de 2ehands markt. Maar nVidia boeit de 2ehands markt niet, en e-waste ook niet. Sterker nog, als ze een mogelijkheid hebben om de 2ehands markt kunstmatig krap te houden doen ze dat, want dat betekent op de middellange termijn weer meer verkopen en een blijvend hoge vraag. En die manier hebben ze nu gevonden met een zogenaamd positief verhaal.
[Reactie gewijzigd door PhWolf op 22 juli 2024 17:39]
Natuurlijk boeit het ze niet. En natuurlijk proberen ze een mooi verhaal op te hangen. Echt niet spannend.
En ja, Linus interesseert zich ook niet voor de "community" maar ook voor zichzelf, en moet dus elke dag zogenaamd spannende dingen onthullen. Zelfs als die spannende onthulling is dat firma's graag geld verdienen, en daar graag een mooi verhaaltje bij verzinnen.
Ik heb je geplussed niet vanwege Linus, dat kost je bijna een minnetje , maar wel over de levering. Echt, ik vind dit zo een ondergewaardeerd punt: ze blijven nieuwe producten/reeks uitbrengen, terwijl mensen sinds nov/dec nog op de vorige reeks zitten te wachten. Ik sta al 3 (!!!) maanden in de wacht en ik heb sindsdien een paar leuke teksten voorbij zien komen over de nieuwe 30xx die uit gebracht wordt, terwijl de vorige nog niet leverbaar is.
Azerty is helemaal lekker bezig, die zijn nu 3070 kaarten voor 3080 prijzen aan het verkopen, en zo nog meer. Het is echt een smerig spelletje en Nvidia heeft hier 100% aan bijgedragen...
Tja het is in ieder geval zeker niet zo dat er sprake is van weinig productie. Pak hem beet 10 jaar geleden deed Nvidia 3.32 miljard omzet, momenteel draaien ze 14.777 miljard omzet. Ze zijn dus 445% meer omzet gaan draaien. Ook ten oprichtte van begin 2020 zijn ze flink meer gaan leveren (10.9 miljard). Tevens zitten ze nu al 2 miljard boven de vorige crypto hype.
De vraag is momenteel té groot om aan te voldoen. Zaken als gelijktijdige launches ipv geografisch verspreid en mining hypes helpen daar niet bij. Als consument niet leuk maar wel de realiteit van de globalisatie.
Hoewel je helemaal gelijk hebt met de constatering dat Nvidia de geëxplodeerde vraag naar videokaarten niet kan bijhouden, baseer je die conclusie op de verkeerde getallen. De jaaromzet over 2019 was US$ 10,9 mld en over 2020 US$ 14,8 miljard. Van die enorme omzetstijging is $ 2,2 miljard gerealiseerd door de gamingdivisie, waar de videokaarten onder vallen. De veel kleinere data center-divisie is nog veel harder gegroeid: daar is de omzet in 2020 verdubbeld, resulterend 1,7 miljard omzetstijging. Tezamen maakt dat een omzetstijging van $ 3,9 mld over 2020. Tien jaar geleden bestond die divisie nog niet; hij omvat onder andere het voormalige Mellanox, dat Nvidia in 2019 overnam voor een bedrag van $ 6,9 mld.
Een fors deel van de groei van Nvidia in de afgelopen 10 jaar is dus het gevolg van een grote overname. Dat doet niet af aan het feit dat Nivida over 2020 een enorme omzetstijging met de verkoop van videokaarten heeft gerealiseerd, maar zonder deze toelichting zou je kunnen denken dat het succes alleen aan de videokaarten te danken was.
[Reactie gewijzigd door Tomatoman op 22 juli 2024 17:39]
Beetje kip ei probleem wellicht? Nvidia is natuurlijk meer gaan doen met hun GPU tech door ook in andere markten te starten. Er is een tijd geweest dat er op gaming eigenlijk geen winst werd gemaakt en alles van Quadro kwam. Proefballonnetjes als automotive en tegra waren niet echt winstgevend. Vanaf Geforce 6xx begonnen de gaming producten winst te maken en dat heeft verdere groei en investeringen (in R&D) mogelijk gemaakt.
Maar goed verder wel een prima punt dat je maakt. Als ik Nvidia mag geloven dan hebben ze het in 2011 over 2.52 miljard omzet met de GPU business. In het meest recente verslag was dit 5.52 miljard. Dat is iets meer dan een verdubbeling.
Ik spiek even snel bij AMD om te kijken wat die nog zouden kunnen. In 2011 rapporteerde AMD 4.82 voor Computing Solutions en 1.66 voor de Graphics. AMD is helaas gestopt met het publiceren van hun GPU omzet. Momenteel doen Computing and Graphics samen 6.64. In 2019 was dat nog 4.7. Dus AMD is ook flink meer gaan omzetten, maar zijn nog niet verdubbeld.
De omzet is niet direct te vergelijken zonder de prijsstijgingen en afname in acht te nemen. Als 10% in het hogere segment de afzet gekocht heeft voor 400% meer dan 10 jaar geleden, verklaar je al een deel van het omzetverschil. Vervolgens 50% van de afzet 140% etc. etc.
Megekko zijn schaamteloze scalpers en heb ik dan ook per direct uit mijn favorieten verwijderd. Doen alsof ze geen voorraad hebben en ondertussen dit soort prijzen vragen én stiekem uitleveren
Ik heb m'n 3070 nog gewoon voor 590 geleverd gekregen. Wel 3 maanden op moeten wachten. Dat ze dat nu niet meer doen is niet zo vreemd. Waarom zou je ze voor 10% winst verkopen als je er ook 80% winst op kan maken? Wanneer zij het niet doen, dan krijg je opkopers die het voor ze doen.
Jij denkt echt dat de winkelier dat geld opstrijkt? Ik denk het niet. nVidia en AMD zullen ook ongetwijfeld hun prijzen hebben bijgesteld. En dan is er nog wat tussenhandel. En uiteraard gaat er dan ook nog een deel naar de staat vanwege de BTW (een kaart van €500 netto krijgt er nog eens €95 extra bij, dus een kaart van €750 netto gaat €142.50 opleveren).
Azerty vraagt anders ook die prijs. En Anternate heeft ook een rtx 3070 voor 1k staan. Haal je die dan ook even weg? Want ik denk dat je dan wel elke shop uit je favorieten halen.
Tja, wie is er gek: de winkel de meer vraag of de consument die meer geeft?
Mooiere graphics zijn leuk, maar als je een GTX1xxx hebt, kan je nog wel een paar maand verder tot de prijzen genormaliseerd zijn.
Maar ik zie ook bij andere dingen dat Corona rare dingen doet bij mensen.
Ik zit met een rx 580 4gb nog prima. Was van plan de upgraden naar een 3060/3060ti dan wel amd variant. Maar dat stel ik rustig uit. Wachten tot de mining bubble instort en dan een mooie ex mining kaart kopen. Heerlijk als je kan wachten.
Als ik kijk naar mijn energierekening is het wel degelijk ook hier interessant. Levert een paar euro per dag op. Op jaarbasis zal de netto winst tussen de 500 en 1.000 euro zijn afhankelijk van de koers. Mijn pc staat toch 60 procent van de tijd aan, dus qua verbruik maakt het schat ik permanent zo'n 100 watt verschil. En ik hoef mijn werkkamer niet meer te verwarmen dus het scheelt gas
Ik zit met m'n GTX 1060 ook te wachten, maar heb me er al op ingesteld dat het volgend jaar wordt voordat het een 3060 of 6700 wordt. Een ex miningkaart zou ik persoonlijk nooit voor gaan, je weet zeker dat die heel lang heel hard gewerkt heeft, dan koop ik liever nieuw (al moet ik toegeven dat dit op basis van gevoel is, niet op feiten)
Aan de andere kant, misschien gaan de zaken na de zomer/tegen het einde van het jaar wel zo goed dat ik mezelf voor kerst een 3070 of 6800 (XT) kan geven?
Ik heb nu mijn 3de ex mine kaart. Nog nooit problemen mee gehad. En ja ze werken hard. Maar meestal met een undervolt. En gaan 1 keer aan. En daarna niet meer uit. Wat ook weer gunstig is. Tevens staan ze meestal in een Stofvrije en koele omgeven. Wat veel beter is als dat ze aan het zweten zijn op iemands muffe zolder.
Maar er zijn groepen die er direct 1 kopen. En die toch liever nieuw gaan. Maar gelukkig gaat de nieuwe prijs dan meestel ook mee.
Ik heb een GTX 1070, maar wil (met nadruk op wil, dus niet moet) een RTX 3080 om mijn Valve Index beter tot z'n recht te laten komen. In de tussentijd vermaak ik me inderdaad prima met 1080p gamen op een plat scherm en een iets inferieure VR-ervaring.
In mijn mening houden de winkels en de gekken die 250%+ MSRP betalen elkaar in stand. De normale markt is op het moment gewoon even ver te zoeken.
Tja, wie is er gek: de winkel de meer vraag of de consument die meer geeft?
Mooiere graphics zijn leuk, maar als je een GTX1xxx hebt, kan je nog wel een paar maand verder tot de prijzen genormaliseerd zijn.
Maar ik zie ook bij andere dingen dat Corona rare dingen doet bij mensen.
Het probleem is dat de meeste consumenten niet zo een dure grafische kaart kopen, maar juist de mensen die cryptocurrency mining doen, en een berg grafische kaarten kopen, want wat maakt het hun uit dat de kaarten 2x zo duur zijn als ze het toch weer met +/- een half jaar het er al uit hebben, en Nvidia geeft geen bal om gamers, het is eerlijk gezegd een vies bedrijf geworden, die zeggen dat ze geven om gamers, maar daar glashard over liegen.
Ik zag ze ook.... en die blijven wat mij betreft ook te koop Het is echt van de zotte tegenwoordig. Maar ook Ryzen 5000 cpu's stijgen in prijs. Ik dacht duur uit te zijn laatst, maar hij stijgt alleen maar door, dus valt weer mee?
Ik zag ze ook.... en die blijven wat mij betreft ook te koop Het is echt van de zotte tegenwoordig. Maar ook Ryzen 5000 cpu's stijgen in prijs. Ik dacht duur uit te zijn laatst, maar hij stijgt alleen maar door, dus valt weer mee?
De AMD Ryzen 7 5800X zijn juist het zelfde gebleven sinds 13 januari, en nog steeds rond de €480, maar de AMD Ryzen 5 5600X is weer rond de €370 gegaan, en de AMD Ryzen 9 5900X is op tweakers nergens meer op voorraad, en de AMD Ryzen 9 5950X is ook nergens meer op voorraad, ben blij dat ik de AMD Ryzen 5 5600X in december gekocht heb voor maar €319,-
Triest dat het zo slecht gaat met CPU's en GPU's, 2021 is een waardeloze tijd voor gamer en video editors en zo.
[Reactie gewijzigd door AmigaWolf op 22 juli 2024 17:39]
Ja, dat is ook absoluut verdorven. Oude kaarten zijn nu ook gigantisch in vraag gestegen, waardoor de price/performance ratio van die kaarten ook steeds slechter wordt.
Mijn MSI GTX 1070, die ik bijna vijf jaar geleden voor ~€500 kocht, zie ik nu geregeld in V&A staan voor ~€250. Als je dan zo'n €80 bij zou lappen, zou je een gloednieuwe RTX 3060 voor MSRP kunnen kopen. Jammer genoeg is de markt voor nieuwe kaarten gewoon een fabeltje. Als de supplies toereikend waren, zou ik misschien hooguit €100 voor die GTX 1070 vangen.
En aan de andere kant denk ik dan ook: de GPU is kleiner en mag net iets meer defecte cores hebben. Is met andere woorden eenvoudiger te produceren en mogelijks voor vele mensen die vandaag in de wachtrij staan ook een waardig alternatief waardoor die mogelijks alsnog voor deze kaart kiezen en de wachtrijden daarmee korter worden.
Uiteindelijk zal dit op de totale vraag naar RTX30 kaarten weinig invloed hebben en zorgt de introductie dus niet noodzakelijk voor een negatieve impact en mogelijks zelfs een positieve.
Tij om op een ander algoritme te minen KaWPow is opzich ook profitable en let maar op, waar geld te verdienen valt, verhuizen de miners ook heen...Linus geeft inderdaad goeie kritiek, dit is een lachtertje en ik durf te wedden dat er dit jaar nog wel een goeie driver wordt uitgegracht voor miners door een derde partij...met of zonder malware
Ze kunnen nauwelijks leveren in theorie, maar ze hebben het beste jaar ooit acher de rug.
Ja Ja.. ze leveren gewoon enorme hoeveelheden van de 30x via hun partners naar de mining industrie.
EN ze kunnen door de schaarste bijna iedere prijs vragen die ze willen voor hun Chips.
Waar de miningboeren nu zelfs de laptops hebben ontdekt, bij gebrek aan normale GPU's.
Hallen vol laptops met 3060's worden tegenwoordig al ingezet, ook handig als je powergrid niet zo stabiel is.
Waarvoor zou je in 2021 immers nog meer een GeForce-videokaart gebruiken dan alleen voor gaming?
Ik gebruik in een typische werkdag nog best vaak mijn gpu. Een paar voorbeelden:
- Videobewerking
Davinci Resolve maakt veel gebruik van de GPU, en het werkt stukken lekkerder met gpu-acceleratie. OBS studio gebruikt de gpu ook.
- Fotobewerking
Photoshop en Lightroom werken gebruiken de GPU ook, maar het verschil is niet zo groot als bij resolve.
- Photogrammetry
Ik maak regelmatig 3D modellen op basis van foto's met Agisoft Metashape. Metashape en soortgelijke software heeft erg veel baat bij de aanwezigheid van een of meer gpus.
- Scientific computing (MATLAB / Python)
MATLAB maakt het gebruik van de GPU in code erg makkelijk, althans voor grote matrix berekeningen. Voor de juiste werklast, kan het zo een factor 10-100 schelen. In Python zijn ook tools beschikbaar om cuda gpus te gerbuiken.
- Machine learning
De meeste frameworks hebben een GPU nodig. Dit is wel een toepassing waar je makkelijk een cloud GPU in zou kunnen zetten ipv eentje in je eigen machine.
In een echt workstation zal waarschijnlijk een Quadro kaart zitten ipv een Geforce, maar nu we allemaal thuis werken moet dit vaak op de PC gedaan worden en voor veel van deze taken werkt een Geforce ook prima.
Beetje offtopic, maar het valt me erg mee hoe goed een 1080 ti presteert in het gehele lijstje. Degenen die destijds deze kaart hebben gekocht hebben toen een achteraf een mega deal gedaan.
Blijf ook lekker op mijn 1080ti zitten.. dingetje doet alles nog prima hier op 1440p. Dus ik wacht nog wel een jaar of 2 voor ik aan upgraden ga denken ;-)
Zo zit ik er ook in. Ik heb nog een tragere kaart dan die 1080 volgens mij en zelfs ik ben nog wel even tevreden zo.
Ik heb een RX570, o.a. DCS loopt als een trein op 2560x1440 dus ik houd de hand op de knip voorlopig.
Kostte toentertijd ook een dikke 800 euro. Megadeal is dus wat optimistisch. Ik blijf erbij dat kaarten rond de 400-500 euro op de sweetspot blijven zitten. Alles erboven en je betaalt significant meer voor marginaal betere prestaties.
Wordt het zo langzamerhand geen tijd om ook VR performance te testen op bv een Oculus 2, Valve Index en HP Reverb G2?
Lijkt me dat voor VR framerate en framedrops nog veel meer van belang zijn dan bij games op je scherm, aangezien je hier flink misselijk kan worden van mindere performance.
Ik kan er ook naast zitten, uiteraard. Schaalt dit lineair en kan ik gewoon de 4k resultaten als referentie of zit er toch een verschil in het renderen van 2 beelden tegelijk ipv na elkaar? Heb helaas nog niet gigantisch veel ervaring met VR. Was hiervoor eigenlijk aan het wachten op de 30x reeks maar gezien de huidige woekerprijzen voor deze kaarten zal ik blijkbaar moeten wachten tot de vraag afneemt of productie toeneemt.
Eens, zit op een 1080GTX en geen enkele behoefte te upgraden... Behalve voor VR waar ik nu over na aan het denken ben. Alles presteert nog op high met 1440p.
Denk dat Nvidia zich in zijn voet aan het schieten is momenteel. Cloud gaming is in opmars, en cloudgamers hebben geen 3080 nodig. Voor gamers die minder vaak gamen is stadia of andere gaming platformen een optie, en partijen als Google staan er om bekend dat ze zelf hardware kunnen ontwikkelen. Ze hebben de schaal, ze doen het al met opencompute hardware. Door de slechte levering van hardware en de extreme kosten is de kans groot dat het over een paar jaar EOL is voor Nvidia. Je consumenten lopen over naar cloud en cloud wil kosten en performance optimaliseren.
De 12GB vram op de RTX 3060 is flink meer dan de 8GB die je op een RTX 3060 Ti en RTX 3070 krijgt. Dat zal de kaart iets toekomstvaster maken en daarmee aantrekkelijk voor wie graag lang doet met zijn hardware
De grotere hoeveelheid VRAM gaat pas verschil maken op resoluties en instellingen die sowieso onspeelbaar zijn, simpelweg omdat de GPU daarvoor te traag is.. Het is dus een niet relevant iets voor de gemiddelde gamer en ik zou nooit een 3060 kiezen boven een 3060Ti, laat staan 3070, alleen omdat er meer VRAM op zit..
[...]
De grotere hoeveelheid VRAM gaat pas verschil maken op resoluties en instellingen die sowieso onspeelbaar zijn, simpelweg omdat de GPU daarvoor te traag is..
Naar welke resolutie en instelling refereer je dan? Want de kaart presteert op 1440p nog prima en ook op die resolutie wil je echt wel wat VRAM hebben. In nieuwere titels is 6GB al te krap en wil je echt wel minimaal 8GB hebben, blijkt uit tests van ComputerBase.
Helaas hadden we geen tijd meer om deze kaarten te testen met de nieuwste driver, vandaar dat de 2080's niet in deze review zijn opgenomen. Je kan wel zelf deze resultaten vergelijken, met dus de kanttekening dat het niet helemaal een eerlijke vergelijking is : https://tweakers.net/pric.../1235943;1430706;1660820/
De performance per watt is vergelijkbaar met andere Ampere kaarten zoals de 3070. Alle efficiëntie is performance die op de tafel is blijven liggen, dus pushen ze de chips harder indien mogelijk.
Dit had ik ook verwacht. Zeker voor een non-Ti -60 series kaart had ik anno 2021 wel verwacht dat we onder de 150W zouden zitten.
Waarschijnlijk hebben ze de TDP hoger gelaten omwille van de performance, ze moeten iets doen om de MSRP te rechtvaardigen. (Niet dat dit echt uitmaakt, het is sowieso allemaal uitverkocht.)
Edit: en we moeten natuurlijk het raytracing paradepaardje niet vergeten
[Reactie gewijzigd door Richardus27 op 22 juli 2024 17:39]
Als ik de prestatie per watt bekijk met men oude 1070, valt het enorm op Ampere gewoon een Pascal kaart is met een hogere stroom verbruik ( Als we de Tensor cores negeren en puur focusen op game FPS, niet tracing etc ).
Feit dat de 1070 een 16nm kaart is en de 3060TI een 8nm, dan zou je gewoon een verdubbeling van FPS verwachten voor dezelfde TDP. Niet 40% meer stroom verbruik voor 45% meer FPS. Je ziet hetzelfde weer met de niet TI 3060 waar er een enorme link zit met stroom vs FPS.
Is nu al 2 generaties en zie nog altijd geen nut om te upgraden. Alles draait op de 1070 en de nieuw generaties worden duurder en duurder, hogere TDP ( aka sterkere PSU nodig ) en bieden eigenlijk weinig nieuws. Ray tracing zelf zonder performance hit is niet zo spectaculair om voor te upgraden, laat staan de massieve performance hit dat het veroorzaakt.
Als ik het goed begrijp is het zo dat maar een (klein) gedeelte van de chip daadwerkelijk 8nm is, bepaalde onderdelen van de chip zitten op bv. 16 of 12nm. Een halvering van stroom gebruik zou je dan ook nooit moeten verwachten wanneer van van 16 naar 8nm gegaan wordt, zo ver ik weet.
Daarnaast zijn deze kaarten gewoon harder gepusht om een betere performance te leveren, ten koste van hun efficiëntie.
> Een halvering van stroom gebruik zou je dan ook nooit moeten verwachten wanneer van van 16 naar 8nm gegaan wordt, zo ver ik weet.
Als ik eventje vergelijk met een Ryzen 1800x @ 14nm en een 3900X @ 7nm, zie je dat men de de performance bijna verdubbeld heeft met bijna dezelfde stroom verbruik. 50% meer cores + 30% meer IPC gain. En dit is een onjuiste vergelijking want het AMD voorbeeld houd geen rekening dat de CPU cores eigenlijk "groter" geworden zijn, ondanks de shrinking, met een hoop meer cache.
Als je een pascal 16nm neemt, smijt er 50% meer cores op in 8nm, zou je verwachten om ongeveer dezelfde power gebruik te hebben met een verhoging van 50% meer cores. En dat met grotere "cores" als we het AMD voorbeeld vergelijken.
Het probleem is dat die Tensor cores ook volop stroom zuipen wanneer je ze niet gebruikt omdat ze integraal deels zijn van de 16/32 bit cores. En ik denk dat dit een deel van het probleem is.
Een 1660 TI heeft 20% minder cores dan een 2060 maar met een 20% hogere clock snelheid ( wat eigenlijk de stroom verbruik hoger kan maken als het buiten de optimale zone is maar voor eenvoud laten we zeggen dat die gelijkaardig word ).
Maar een groter verschil is een 40W drop ( 120 vs 160W ) stroom verschil zonder die tensor cores, een deel minder cores maar een hogere clock snelheid. Op hetzelfde proces! Er is een reden dat veel laptops ervoor kozen om 1660TI ipv de 2060.
Volgens mij zijn die tensor cores een deel van het probleem ook bij de 3000 series want eigenlijk is het ontwerp niet veel veranderd tussen de 2000 en 3000 serie.
Ik had het natuurlijk over videokaarten, niet CPUs, dus ik denk dat het beeld dat je tussen een 1800X en een 3900X schetst niet helemaal doorgetrokken kan worden naar videokaarten.
Series in Nanometers:
700 series | 40nm | TSMC 28nm
900 series | 27nm | TSMC 28nm
1000 series | 18nm* | TSMC 16nm / Samsung 14nm
2000 series | 14nm* | TSMC 12nm
3000 series | 10nm* | Samsung 8nm
Wattage:
Nvidia GeForce GTX 770** | 230W |
Nvidia GeForce GTX 970 | 145W | -59% gebruik in watt t.o.v. voorganger
Nvidia GeForce GTX 1070 | 150W | +3% gebruik in watt t.o.v. voorganger
Nvidia GeForce GTX 2070 | 175W | +17% gebruik in watt t.o.v. voorganger
Nvidia GeForce GTX 2070 | 220W | +26% gebruik in watt t.o.v. voorganger
Mag ik vragen waarom de RTX3070 niet in de gaming-performance vergelijking staat en wat het geheugengebruik is ten opzichte van een 3060Ti (heeft de consument nu al iets aan de 12GB op de 3060?)? Het lijkt mij dat de meeste lezers hier wel een antwoord op zouden willen.
Interessant genoeg lijkt de 3060Ti ook een stuk beter te zijn qua fps/per euro. Dit geeft AMD volgende week met de lancering van de RX6700(XT) best een mogelijkheid om goed voor de dag te komen.
[Reactie gewijzigd door zzzzz op 22 juli 2024 17:39]
Met een harde refresh zou het cache moeten verversen en ook de RTX 3070 moeten verschijnen in de grafieken. Wat betreft het geheugengebruik is er een verschil tussen de allocatie en hoeveel er daadwerkelijk nodig is om een spel vloeiend te draaien. Het geheugengebruik (vram) dat af te lezen is met verschillende tools is daarom niet geschikt om uitspraken te doen over wat nodig of nuttig is.
Geheugen is meer dan alleen d eheoveelheid en veel vergeten dit in deze vergelijkingen. Hoe hoe snel is het geheugen, hoe is de bandwidth etc. De 3080RTX heeft dan bijvoorbeeld "maar" 10GB maar is wel meteen het snelste geheugen deze generatie. Je kan wel bijvoorbeeld 16GB vram hebben, maar als het niet snel is houdt het nogsteeds de prestaties omlaag.