Door Reinoud Dik

Redacteur

Nvidia GeForce RTX 3060 Review

Een videokaart exclusief voor gamers?

25-02-2021 • 15:11

150

Singlepage-opmaak

Conclusie

De Nvidia GeForce RTX 3060 is het nieuwste lid van de RTX 30-serie videokaarten voor de desktop, waarmee Nvidia in een uitdagende periode een gamingkaart op de markt brengt. Door een combinatie van omstandigheden zijn videokaarten momenteel bijzonder lastig verkrijgbaar, waarbij de opnieuw opgeleefde mininghype een significante rol speelt. Als gevolg van deze perikelen sneeuwt de RTX 3060 als videokaart tijdens zijn introductie wat onder.

Vanuit een 'normale' situatie met acceptabele voorraden, prijzen en verkrijgbaarheid is de RTX 3060 een voorspelbare aanvulling op de Ampere-line-up van Nvidia. Voor deze videokaart is de GA106-gpu gebruikt, de vuurdoop voor deze chip op de desktopmarkt. Alle bijbehorende specificaties zijn zoals verwacht als je de RTX 3060 afzet tegen de snellere RTX 30-kaarten, met als grote uitzondering de hoeveelheid videogeheugen. De 12GB vram op de RTX 3060 is flink meer dan de 8GB die je op een RTX 3060 Ti en RTX 3070 krijgt. Dat zal de kaart iets toekomstvaster maken en daarmee aantrekkelijk voor wie graag lang doet met zijn hardware, al zit Nvidia momenteel natuurlijk niet bepaald om kopers verlegen.

RTX 3060's
De eerste drie GeForce RTX 3060-videokaarten in ons testlab. Van deze en hopelijk meer modellen zullen we later een round-up publiceren.

Om van alle potentiële kopers zoveel mogelijk gamers te bereiken, voert Nvidia extra maatregelen in zijn drivers door om mining minder aantrekkelijk te maken. De introductie van een nieuwe videokaart is daarvoor het aangewezen moment, want die werkt nog niet met oudere drivers zonder de blokkade. Opvallend is daarbij dat effectief alleen de prestaties van ethereummining worden aangepakt, waardoor het gebruik voor andere algoritmes nog steeds interessant kan zijn voor miners. Het is daarom afwachten hoeveel effect deze maatregel zal hebben en of de verkrijgbaarheid van de RTX 3060 daadwerkelijk beter zal zijn dan die van andere videokaarten.

Voor gamers zelf is de komst van de RTX 3060 in ieder geval niet spannend. De prestaties van de kaart zijn vergelijkbaar met die van een RTX 2070: een acceptabele generatiesprong, maar niet uitzonderlijk en zeker niet zo imposant als we bij voorgaande generaties hebben gezien. In de huidige markt is het onmogelijk dat de RTX 3060 voor een significant scherpere prijs zal worden aangeboden dan het bestaande aanbod rond hetzelfde prestatieniveau. Daarmee is de RTX 3060 een nieuw, maar net zo moeilijk bereikbaar alternatief als wat tot gisteren (on)verkrijgbaar was.

Reacties (150)

150
137
58
14
1
63
Wijzig sortering
Ik denk dat de belangrijkste vraag zal zijn: Zijn er genoeg leverbaar?
De policy van Nvidia wordt door Linus grondig becritiseerd:
https://www.youtube.com/watch?v=kAJAViPWR_8

[Reactie gewijzigd door PanaLover op 22 juli 2024 17:39]

https://youtu.be/XfIibTBaoMM Voornamelijk in deze video komt goed naar voren hoe krom de praktijken van Nvidia zijn.
Heb je de video überhaupt gekeken? Nvidia maakt zich schuldig aan anti-consumer (gamer) gedrag terwijl ze zich profileren als de 'good guys' die 'pro gaming' zijn door de huidige koers die ze varen waarin ze temidden van wereldwijde tekorten aan chips een deel van hun productiecapaciteit van GPUs exclusief reserveren voor de dik betalende miners. Het is op zijn zachtst gezegd dubieus.
Door deze exclusiviteit blijft het aanbod van (gaming) GPUs laag en de prijzen hoog. Bovendien zijn de dedicated mining GPUs waardeloos zodra ze hun mining-taak voldaan hebben en komen ze terecht op de immer uitdijende berg e-waste. Dit in tegenstelling tot wanneer nVidia deze chips had ingezet als gaming GPUs waardoor ze een veel langer leven krijgen op de 2ehands markt. Maar nVidia boeit de 2ehands markt niet, en e-waste ook niet. Sterker nog, als ze een mogelijkheid hebben om de 2ehands markt kunstmatig krap te houden doen ze dat, want dat betekent op de middellange termijn weer meer verkopen en een blijvend hoge vraag. En die manier hebben ze nu gevonden met een zogenaamd positief verhaal.

[Reactie gewijzigd door PhWolf op 22 juli 2024 17:39]

Natuurlijk boeit het ze niet. En natuurlijk proberen ze een mooi verhaal op te hangen. Echt niet spannend.

En ja, Linus interesseert zich ook niet voor de "community" maar ook voor zichzelf, en moet dus elke dag zogenaamd spannende dingen onthullen. Zelfs als die spannende onthulling is dat firma's graag geld verdienen, en daar graag een mooi verhaaltje bij verzinnen.
Hahaha ja, die gast zit zijn zakken goed te vullen met zn sensatie videos.
Ik heb je geplussed niet vanwege Linus, dat kost je bijna een minnetje :p, maar wel over de levering. Echt, ik vind dit zo een ondergewaardeerd punt: ze blijven nieuwe producten/reeks uitbrengen, terwijl mensen sinds nov/dec nog op de vorige reeks zitten te wachten. Ik sta al 3 (!!!) maanden in de wacht en ik heb sindsdien een paar leuke teksten voorbij zien komen over de nieuwe 30xx die uit gebracht wordt, terwijl de vorige nog niet leverbaar is.

Azerty is helemaal lekker bezig, die zijn nu 3070 kaarten voor 3080 prijzen aan het verkopen, en zo nog meer. Het is echt een smerig spelletje en Nvidia heeft hier 100% aan bijgedragen...
Tja het is in ieder geval zeker niet zo dat er sprake is van weinig productie. Pak hem beet 10 jaar geleden deed Nvidia 3.32 miljard omzet, momenteel draaien ze 14.777 miljard omzet. Ze zijn dus 445% meer omzet gaan draaien. Ook ten oprichtte van begin 2020 zijn ze flink meer gaan leveren (10.9 miljard). Tevens zitten ze nu al 2 miljard boven de vorige crypto hype.

De vraag is momenteel té groot om aan te voldoen. Zaken als gelijktijdige launches ipv geografisch verspreid en mining hypes helpen daar niet bij. Als consument niet leuk maar wel de realiteit van de globalisatie.
Hoewel je helemaal gelijk hebt met de constatering dat Nvidia de geëxplodeerde vraag naar videokaarten niet kan bijhouden, baseer je die conclusie op de verkeerde getallen. De jaaromzet over 2019 was US$ 10,9 mld en over 2020 US$ 14,8 miljard. Van die enorme omzetstijging is $ 2,2 miljard gerealiseerd door de gamingdivisie, waar de videokaarten onder vallen. De veel kleinere data center-divisie is nog veel harder gegroeid: daar is de omzet in 2020 verdubbeld, resulterend 1,7 miljard omzetstijging. Tezamen maakt dat een omzetstijging van $ 3,9 mld over 2020. Tien jaar geleden bestond die divisie nog niet; hij omvat onder andere het voormalige Mellanox, dat Nvidia in 2019 overnam voor een bedrag van $ 6,9 mld.

Een fors deel van de groei van Nvidia in de afgelopen 10 jaar is dus het gevolg van een grote overname. Dat doet niet af aan het feit dat Nivida over 2020 een enorme omzetstijging met de verkoop van videokaarten heeft gerealiseerd, maar zonder deze toelichting zou je kunnen denken dat het succes alleen aan de videokaarten te danken was.

[Reactie gewijzigd door Tomatoman op 22 juli 2024 17:39]

Beetje kip ei probleem wellicht? Nvidia is natuurlijk meer gaan doen met hun GPU tech door ook in andere markten te starten. Er is een tijd geweest dat er op gaming eigenlijk geen winst werd gemaakt en alles van Quadro kwam. Proefballonnetjes als automotive en tegra waren niet echt winstgevend. Vanaf Geforce 6xx begonnen de gaming producten winst te maken en dat heeft verdere groei en investeringen (in R&D) mogelijk gemaakt.

Maar goed verder wel een prima punt dat je maakt. Als ik Nvidia mag geloven dan hebben ze het in 2011 over 2.52 miljard omzet met de GPU business. In het meest recente verslag was dit 5.52 miljard. Dat is iets meer dan een verdubbeling.

Ik spiek even snel bij AMD om te kijken wat die nog zouden kunnen. In 2011 rapporteerde AMD 4.82 voor Computing Solutions en 1.66 voor de Graphics. AMD is helaas gestopt met het publiceren van hun GPU omzet. Momenteel doen Computing and Graphics samen 6.64. In 2019 was dat nog 4.7. Dus AMD is ook flink meer gaan omzetten, maar zijn nog niet verdubbeld.
De omzet is niet direct te vergelijken zonder de prijsstijgingen en afname in acht te nemen. Als 10% in het hogere segment de afzet gekocht heeft voor 400% meer dan 10 jaar geleden, verklaar je al een deel van het omzetverschil. Vervolgens 50% van de afzet 140% etc. etc.
Megekko heeft twee MSI 3070s te koop staan voor 1349 en 1399 euro. 8)7
Megekko zijn schaamteloze scalpers en heb ik dan ook per direct uit mijn favorieten verwijderd. Doen alsof ze geen voorraad hebben en ondertussen dit soort prijzen vragen én stiekem uitleveren :(
Ik heb m'n 3070 nog gewoon voor 590 geleverd gekregen. Wel 3 maanden op moeten wachten. Dat ze dat nu niet meer doen is niet zo vreemd. Waarom zou je ze voor 10% winst verkopen als je er ook 80% winst op kan maken? Wanneer zij het niet doen, dan krijg je opkopers die het voor ze doen.
Jij denkt echt dat de winkelier dat geld opstrijkt? Ik denk het niet. nVidia en AMD zullen ook ongetwijfeld hun prijzen hebben bijgesteld. En dan is er nog wat tussenhandel. En uiteraard gaat er dan ook nog een deel naar de staat vanwege de BTW (een kaart van €500 netto krijgt er nog eens €95 extra bij, dus een kaart van €750 netto gaat €142.50 opleveren).
Azerty vraagt anders ook die prijs. En Anternate heeft ook een rtx 3070 voor 1k staan. Haal je die dan ook even weg? Want ik denk dat je dan wel elke shop uit je favorieten halen.
Inderdaad en ze zijn er ook allemaal uit: wie gaat in deze tijd nou in een videokaart investeren 8)7
Alternate vraagt nu 650 en bijna 700 voor de RTX3060. Te grof woorden, dus ik zeg maar niets Grrrrr...
Tja, wie is er gek: de winkel de meer vraag of de consument die meer geeft?

Mooiere graphics zijn leuk, maar als je een GTX1xxx hebt, kan je nog wel een paar maand verder tot de prijzen genormaliseerd zijn.
Maar ik zie ook bij andere dingen dat Corona rare dingen doet bij mensen.
Ik zit met een rx 580 4gb nog prima. Was van plan de upgraden naar een 3060/3060ti dan wel amd variant. Maar dat stel ik rustig uit. Wachten tot de mining bubble instort en dan een mooie ex mining kaart kopen. Heerlijk als je kan wachten.
De RX580, maar dan wel de 8gb variant, is anders een van de beste mining kaarten die je kunt kopen. Die heb je na 3 maanden minen al terugverdiend 😅
Is dat zelfs het geval in NL met de electriciteitskosten die we hebben?

Ik dacht dat mining alleen maar interessant was voor mensen in Azië enzo?
Als ik kijk naar mijn energierekening is het wel degelijk ook hier interessant. Levert een paar euro per dag op. Op jaarbasis zal de netto winst tussen de 500 en 1.000 euro zijn afhankelijk van de koers. Mijn pc staat toch 60 procent van de tijd aan, dus qua verbruik maakt het schat ik permanent zo'n 100 watt verschil. En ik hoef mijn werkkamer niet meer te verwarmen dus het scheelt gas :+
Bedankt voor de reactie! Uit nieuwsgierigheid, mine je dan verschillende (niche) coins of een specifieke (mainstream) coin zoals Ethereum/Bitcoin?
Je kunt voor je eigen videokaart uitrekenen wat de meest gunstige coin is om te minen. Ethereum staat vaak hoog.

EDIT: Ik doe het met mijn RTX 2070 super nu ook als ik niet aan het gamen ben. https://minerstat.com/hardware/nvidia-rtx-2070-super

[Reactie gewijzigd door Marthyn1990 op 22 juli 2024 17:39]

Ik mine Ethereum. Dat is op dit moment ook de meest interessante.
Ik heb hem van een ex miner. Gekocht toen de boel weer instorten. Nu weer wachten😀
Ik zit met m'n GTX 1060 ook te wachten, maar heb me er al op ingesteld dat het volgend jaar wordt voordat het een 3060 of 6700 wordt. Een ex miningkaart zou ik persoonlijk nooit voor gaan, je weet zeker dat die heel lang heel hard gewerkt heeft, dan koop ik liever nieuw (al moet ik toegeven dat dit op basis van gevoel is, niet op feiten)

Aan de andere kant, misschien gaan de zaken na de zomer/tegen het einde van het jaar wel zo goed dat ik mezelf voor kerst een 3070 of 6800 (XT) kan geven? O-)
Ik heb nu mijn 3de ex mine kaart. Nog nooit problemen mee gehad. En ja ze werken hard. Maar meestal met een undervolt. En gaan 1 keer aan. En daarna niet meer uit. Wat ook weer gunstig is. Tevens staan ze meestal in een Stofvrije en koele omgeven. Wat veel beter is als dat ze aan het zweten zijn op iemands muffe zolder.

Maar er zijn groepen die er direct 1 kopen. En die toch liever nieuw gaan. Maar gelukkig gaat de nieuwe prijs dan meestel ook mee.
Wat voor kaarten heb/had je dan en hoeveel scheelt zoiets in prijs als ik vragen mag?
Een constante belasting waarbij de tempratuur gelijk blijft is denk ik beter voor de levensduur dan een kaart die steeds opwarmt en afkoelt :P
tsja hoe meer ik er nu over nadenk... had het beeld in m'n hoofd dat veel mensen zo'n pc ergens ver uit het zicht in een stoffig hoekje zouden zetten
Alleen wordt het videogeheugen vaak veeeeel warmer dan tijdens bijvoorbeeld gaming.
Ten zei je GTX1xxx kaart stuk gaat.
Dan heb je een probleem.
Ik heb een GTX 1070, maar wil (met nadruk op wil, dus niet moet) een RTX 3080 om mijn Valve Index beter tot z'n recht te laten komen. In de tussentijd vermaak ik me inderdaad prima met 1080p gamen op een plat scherm en een iets inferieure VR-ervaring.

In mijn mening houden de winkels en de gekken die 250%+ MSRP betalen elkaar in stand. De normale markt is op het moment gewoon even ver te zoeken.
Tja, wie is er gek: de winkel de meer vraag of de consument die meer geeft?

Mooiere graphics zijn leuk, maar als je een GTX1xxx hebt, kan je nog wel een paar maand verder tot de prijzen genormaliseerd zijn.
Maar ik zie ook bij andere dingen dat Corona rare dingen doet bij mensen.
Het probleem is dat de meeste consumenten niet zo een dure grafische kaart kopen, maar juist de mensen die cryptocurrency mining doen, en een berg grafische kaarten kopen, want wat maakt het hun uit dat de kaarten 2x zo duur zijn als ze het toch weer met +/- een half jaar het er al uit hebben, en Nvidia geeft geen bal om gamers, het is eerlijk gezegd een vies bedrijf geworden, die zeggen dat ze geven om gamers, maar daar glashard over liegen.

Linus heeft er een goede video over gemaakt.
Ik zag ze ook.... en die blijven wat mij betreft ook te koop :) Het is echt van de zotte tegenwoordig. Maar ook Ryzen 5000 cpu's stijgen in prijs. Ik dacht duur uit te zijn laatst, maar hij stijgt alleen maar door, dus valt weer mee?
Ik zag ze ook.... en die blijven wat mij betreft ook te koop :) Het is echt van de zotte tegenwoordig. Maar ook Ryzen 5000 cpu's stijgen in prijs. Ik dacht duur uit te zijn laatst, maar hij stijgt alleen maar door, dus valt weer mee?
De AMD Ryzen 7 5800X zijn juist het zelfde gebleven sinds 13 januari, en nog steeds rond de €480, maar de AMD Ryzen 5 5600X is weer rond de €370 gegaan, en de AMD Ryzen 9 5900X is op tweakers nergens meer op voorraad, en de AMD Ryzen 9 5950X is ook nergens meer op voorraad, ben blij dat ik de AMD Ryzen 5 5600X in december gekocht heb voor maar €319,-

Triest dat het zo slecht gaat met CPU's en GPU's, 2021 is een waardeloze tijd voor gamer en video editors en zo.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 17:39]

Bizar voor een kaart die zo rond de 550 euro moet kosten.
Hah, ik denk dat ik mijn 3080 te koop ga zetten voor dat geld, ik heb mijn kaart uiteindelijk letterlijk voor de helft gekocht. 8)7 8)7

Man man man, wat een ellende

Gelukkig lijken een aantal AMD's 5000 CPUs inmiddels wat minder slecht leverbaar te zijn.. :O
Wat dacht je van Max ICT die iets van 100 stuks 5700 XT op voorraad hebben voor 1800 euro per stuk :X
Ja, dat is ook absoluut verdorven. Oude kaarten zijn nu ook gigantisch in vraag gestegen, waardoor de price/performance ratio van die kaarten ook steeds slechter wordt.

Mijn MSI GTX 1070, die ik bijna vijf jaar geleden voor ~€500 kocht, zie ik nu geregeld in V&A staan voor ~€250. Als je dan zo'n €80 bij zou lappen, zou je een gloednieuwe RTX 3060 voor MSRP kunnen kopen. Jammer genoeg is de markt voor nieuwe kaarten gewoon een fabeltje. Als de supplies toereikend waren, zou ik misschien hooguit €100 voor die GTX 1070 vangen.
Het is echt een smerig spelletje en Nvidia heeft hier 100% aan bijgedragen...
Ik denk niet dat je (alleen) Nvidia verantwoordelijk kan houden voor de wereldwijde tekorten van chips...
En aan de andere kant denk ik dan ook: de GPU is kleiner en mag net iets meer defecte cores hebben. Is met andere woorden eenvoudiger te produceren en mogelijks voor vele mensen die vandaag in de wachtrij staan ook een waardig alternatief waardoor die mogelijks alsnog voor deze kaart kiezen en de wachtrijden daarmee korter worden.

Uiteindelijk zal dit op de totale vraag naar RTX30 kaarten weinig invloed hebben en zorgt de introductie dus niet noodzakelijk voor een negatieve impact en mogelijks zelfs een positieve.
En tel daarbij op dat de kaart ondanks de maatregelen van nVidia toch winstgevend is voor mining.
Tomshardware - RTX 3060 Still profitable mining
Tij om op een ander algoritme te minen KaWPow is opzich ook profitable en let maar op, waar geld te verdienen valt, verhuizen de miners ook heen...Linus geeft inderdaad goeie kritiek, dit is een lachtertje en ik durf te wedden dat er dit jaar nog wel een goeie driver wordt uitgegracht voor miners door een derde partij...met of zonder malware ;)
Ze kunnen nauwelijks leveren in theorie, maar ze hebben het beste jaar ooit acher de rug.
Ja Ja.. ze leveren gewoon enorme hoeveelheden van de 30x via hun partners naar de mining industrie.
EN ze kunnen door de schaarste bijna iedere prijs vragen die ze willen voor hun Chips.
Waar de miningboeren nu zelfs de laptops hebben ontdekt, bij gebrek aan normale GPU's.
Hallen vol laptops met 3060's worden tegenwoordig al ingezet, ook handig als je powergrid niet zo stabiel is.
De koptekst van de 2e alinea zegt het al: Ampere voor iedereen :+
Waarvoor zou je in 2021 immers nog meer een GeForce-videokaart gebruiken dan alleen voor gaming?

Ik gebruik in een typische werkdag nog best vaak mijn gpu. Een paar voorbeelden:

- Videobewerking
Davinci Resolve maakt veel gebruik van de GPU, en het werkt stukken lekkerder met gpu-acceleratie. OBS studio gebruikt de gpu ook.

- Fotobewerking
Photoshop en Lightroom werken gebruiken de GPU ook, maar het verschil is niet zo groot als bij resolve.

- Photogrammetry
Ik maak regelmatig 3D modellen op basis van foto's met Agisoft Metashape. Metashape en soortgelijke software heeft erg veel baat bij de aanwezigheid van een of meer gpus.

- Scientific computing (MATLAB / Python)
MATLAB maakt het gebruik van de GPU in code erg makkelijk, althans voor grote matrix berekeningen. Voor de juiste werklast, kan het zo een factor 10-100 schelen. In Python zijn ook tools beschikbaar om cuda gpus te gerbuiken.

- Machine learning
De meeste frameworks hebben een GPU nodig. Dit is wel een toepassing waar je makkelijk een cloud GPU in zou kunnen zetten ipv eentje in je eigen machine.

In een echt workstation zal waarschijnlijk een Quadro kaart zitten ipv een Geforce, maar nu we allemaal thuis werken moet dit vaak op de PC gedaan worden en voor veel van deze taken werkt een Geforce ook prima.
Ik denk dat je alleen wel in de 1% groep zit met zulk gebruik :) De meesten zullen voornamelijk gamen......
De meesten zullen voornamelijk gamen......
Minen bedoel je?
Owja, de gamers kunnen er geen kopen.....
Waarom niet beide ?
+1% (jaja, ik weet dat dat zo niet werkt) voor mij dan, iig. die 1e 3 punten ;)
Het hier bedoelde doeleinde is vanzelfsprekend mining ;)
Beetje offtopic, maar het valt me erg mee hoe goed een 1080 ti presteert in het gehele lijstje. Degenen die destijds deze kaart hebben gekocht hebben toen een achteraf een mega deal gedaan.
Blijf ook lekker op mijn 1080ti zitten.. dingetje doet alles nog prima hier op 1440p. Dus ik wacht nog wel een jaar of 2 voor ik aan upgraden ga denken ;-)
Zo zit ik er ook in. Ik heb nog een tragere kaart dan die 1080 volgens mij en zelfs ik ben nog wel even tevreden zo.
Ik heb een RX570, o.a. DCS loopt als een trein op 2560x1440 dus ik houd de hand op de knip voorlopig.
Kostte toentertijd ook een dikke 800 euro. Megadeal is dus wat optimistisch. :) Ik blijf erbij dat kaarten rond de 400-500 euro op de sweetspot blijven zitten. Alles erboven en je betaalt significant meer voor marginaal betere prestaties.
Wordt het zo langzamerhand geen tijd om ook VR performance te testen op bv een Oculus 2, Valve Index en HP Reverb G2?
Lijkt me dat voor VR framerate en framedrops nog veel meer van belang zijn dan bij games op je scherm, aangezien je hier flink misselijk kan worden van mindere performance.
Ik kan er ook naast zitten, uiteraard. Schaalt dit lineair en kan ik gewoon de 4k resultaten als referentie of zit er toch een verschil in het renderen van 2 beelden tegelijk ipv na elkaar? Heb helaas nog niet gigantisch veel ervaring met VR. Was hiervoor eigenlijk aan het wachten op de 30x reeks maar gezien de huidige woekerprijzen voor deze kaarten zal ik blijkbaar moeten wachten tot de vraag afneemt of productie toeneemt.
Eens, zit op een 1080GTX en geen enkele behoefte te upgraden... Behalve voor VR waar ik nu over na aan het denken ben. Alles presteert nog op high met 1440p.

Denk dat Nvidia zich in zijn voet aan het schieten is momenteel. Cloud gaming is in opmars, en cloudgamers hebben geen 3080 nodig. Voor gamers die minder vaak gamen is stadia of andere gaming platformen een optie, en partijen als Google staan er om bekend dat ze zelf hardware kunnen ontwikkelen. Ze hebben de schaal, ze doen het al met opencompute hardware. Door de slechte levering van hardware en de extreme kosten is de kans groot dat het over een paar jaar EOL is voor Nvidia. Je consumenten lopen over naar cloud en cloud wil kosten en performance optimaliseren.
De 12GB vram op de RTX 3060 is flink meer dan de 8GB die je op een RTX 3060 Ti en RTX 3070 krijgt. Dat zal de kaart iets toekomstvaster maken en daarmee aantrekkelijk voor wie graag lang doet met zijn hardware
De grotere hoeveelheid VRAM gaat pas verschil maken op resoluties en instellingen die sowieso onspeelbaar zijn, simpelweg omdat de GPU daarvoor te traag is.. Het is dus een niet relevant iets voor de gemiddelde gamer en ik zou nooit een 3060 kiezen boven een 3060Ti, laat staan 3070, alleen omdat er meer VRAM op zit..

Hier een video die dat nog even goed laat zien: https://www.youtube.com/watch?v=rPRqlg6l1ls
2GB vs 4GB, maar zelfde principe nu in feite met 6GB vs 12GB..
[...]
De grotere hoeveelheid VRAM gaat pas verschil maken op resoluties en instellingen die sowieso onspeelbaar zijn, simpelweg omdat de GPU daarvoor te traag is..
Naar welke resolutie en instelling refereer je dan? Want de kaart presteert op 1440p nog prima en ook op die resolutie wil je echt wel wat VRAM hebben. In nieuwere titels is 6GB al te krap en wil je echt wel minimaal 8GB hebben, blijkt uit tests van ComputerBase.
> Voor gamers zelf is de komst van de RTX 3060 in ieder geval niet spannend.

Nou... Dit is toch eindelijk een leuke opvolger voor m'n gtx1060, en ik denk dat een hoop andere gtx1060 eigenaren hetzelfde denken.

Het is alleen 2 jaar (of langer) wachten totdat ie betaalbaar is :s.
Inderdaad! Dit zou de perfecte vervanging van een 1060 zijn..... als de adviesprijs van € 350 klopt.
Mijn GT 440 houdt het nog steeds vol XD
Had ook even 2080's meegenomen. Was wel benieuwd hoe zo'n 3060 het tegen een 2080 Super had gedaan. Of een Ti in de lijst voor compleetheid.

[Reactie gewijzigd door Xfade op 22 juli 2024 17:39]

Helaas hadden we geen tijd meer om deze kaarten te testen met de nieuwste driver, vandaar dat de 2080's niet in deze review zijn opgenomen. Je kan wel zelf deze resultaten vergelijken, met dus de kanttekening dat het niet helemaal een eerlijke vergelijking is : https://tweakers.net/pric.../1235943;1430706;1660820/
Ik was vergeten dat benchmark resultaten nu in eigen vergelijkingen mee worden genomen, wat handig is. Bedankt voor de herinnering.
Teleurstellende price/performance aan MSRP, zeker voor een kaart die richting het lower-end segment gaat.
En dan nog 170W verstoken. Ik dacht eerder aan rond de 120-130W gezien zijn voorgangers *muv de RTX2060
De performance per watt is vergelijkbaar met andere Ampere kaarten zoals de 3070. Alle efficiëntie is performance die op de tafel is blijven liggen, dus pushen ze de chips harder indien mogelijk.
Dit had ik ook verwacht. Zeker voor een non-Ti -60 series kaart had ik anno 2021 wel verwacht dat we onder de 150W zouden zitten.

Waarschijnlijk hebben ze de TDP hoger gelaten omwille van de performance, ze moeten iets doen om de MSRP te rechtvaardigen. (Niet dat dit echt uitmaakt, het is sowieso allemaal uitverkocht.)

Edit: en we moeten natuurlijk het raytracing paradepaardje niet vergeten

[Reactie gewijzigd door Richardus27 op 22 juli 2024 17:39]

Als ik de prestatie per watt bekijk met men oude 1070, valt het enorm op Ampere gewoon een Pascal kaart is met een hogere stroom verbruik ( Als we de Tensor cores negeren en puur focusen op game FPS, niet tracing etc ).

Feit dat de 1070 een 16nm kaart is en de 3060TI een 8nm, dan zou je gewoon een verdubbeling van FPS verwachten voor dezelfde TDP. Niet 40% meer stroom verbruik voor 45% meer FPS. Je ziet hetzelfde weer met de niet TI 3060 waar er een enorme link zit met stroom vs FPS.

Is nu al 2 generaties en zie nog altijd geen nut om te upgraden. Alles draait op de 1070 en de nieuw generaties worden duurder en duurder, hogere TDP ( aka sterkere PSU nodig ) en bieden eigenlijk weinig nieuws. Ray tracing zelf zonder performance hit is niet zo spectaculair om voor te upgraden, laat staan de massieve performance hit dat het veroorzaakt.
Als ik het goed begrijp is het zo dat maar een (klein) gedeelte van de chip daadwerkelijk 8nm is, bepaalde onderdelen van de chip zitten op bv. 16 of 12nm. Een halvering van stroom gebruik zou je dan ook nooit moeten verwachten wanneer van van 16 naar 8nm gegaan wordt, zo ver ik weet.

Daarnaast zijn deze kaarten gewoon harder gepusht om een betere performance te leveren, ten koste van hun efficiëntie.
> Een halvering van stroom gebruik zou je dan ook nooit moeten verwachten wanneer van van 16 naar 8nm gegaan wordt, zo ver ik weet.

Als ik eventje vergelijk met een Ryzen 1800x @ 14nm en een 3900X @ 7nm, zie je dat men de de performance bijna verdubbeld heeft met bijna dezelfde stroom verbruik. 50% meer cores + 30% meer IPC gain. En dit is een onjuiste vergelijking want het AMD voorbeeld houd geen rekening dat de CPU cores eigenlijk "groter" geworden zijn, ondanks de shrinking, met een hoop meer cache.

Als je een pascal 16nm neemt, smijt er 50% meer cores op in 8nm, zou je verwachten om ongeveer dezelfde power gebruik te hebben met een verhoging van 50% meer cores. En dat met grotere "cores" als we het AMD voorbeeld vergelijken.

Het probleem is dat die Tensor cores ook volop stroom zuipen wanneer je ze niet gebruikt omdat ze integraal deels zijn van de 16/32 bit cores. En ik denk dat dit een deel van het probleem is.

Een 1660 TI heeft 20% minder cores dan een 2060 maar met een 20% hogere clock snelheid ( wat eigenlijk de stroom verbruik hoger kan maken als het buiten de optimale zone is maar voor eenvoud laten we zeggen dat die gelijkaardig word ).

Maar een groter verschil is een 40W drop ( 120 vs 160W ) stroom verschil zonder die tensor cores, een deel minder cores maar een hogere clock snelheid. Op hetzelfde proces! Er is een reden dat veel laptops ervoor kozen om 1660TI ipv de 2060.

Volgens mij zijn die tensor cores een deel van het probleem ook bij de 3000 series want eigenlijk is het ontwerp niet veel veranderd tussen de 2000 en 3000 serie.
Ik had het natuurlijk over videokaarten, niet CPUs, dus ik denk dat het beeld dat je tussen een 1800X en een 3900X schetst niet helemaal doorgetrokken kan worden naar videokaarten.

Series in Nanometers:
700 series | 40nm | TSMC 28nm
900 series | 27nm | TSMC 28nm
1000 series | 18nm* | TSMC 16nm / Samsung 14nm
2000 series | 14nm* | TSMC 12nm
3000 series | 10nm* | Samsung 8nm

Wattage:
Nvidia GeForce GTX 770** | 230W |
Nvidia GeForce GTX 970 | 145W | -59% gebruik in watt t.o.v. voorganger
Nvidia GeForce GTX 1070 | 150W | +3% gebruik in watt t.o.v. voorganger
Nvidia GeForce GTX 2070 | 175W | +17% gebruik in watt t.o.v. voorganger
Nvidia GeForce GTX 2070 | 220W | +26% gebruik in watt t.o.v. voorganger

Performance:
Nvidia GeForce GTX 770** | 5.886 punten |
Nvidia GeForce GTX 970 | 9.687 punten | +64% performance t.o.v. voorganger
Nvidia GeForce GTX 1070 | 13.357 punten | +38% performance t.o.v. voorganger
Nvidia GeForce GTX 2070 | 16.100 punten | +20% performance t.o.v. voorganger
Nvidia GeForce GTX 2070 | 21.660 punten | +34% performance t.o.v. voorganger

Kijkend naar die nummers zie ik in ieder geval niet terug wat jij tussen die 1800X en 3900X aangeeft.

* 800 serie "bestond niet", dus vandaar de 700 serie.

**nanometers is meer een marketing verhaal dan de daadwerkelijke nanometers:
Rekenhulpje van ASML - pagina 4
Uitgebreid Tweakers artikel
Mag ik vragen waarom de RTX3070 niet in de gaming-performance vergelijking staat en wat het geheugengebruik is ten opzichte van een 3060Ti (heeft de consument nu al iets aan de 12GB op de 3060?)? Het lijkt mij dat de meeste lezers hier wel een antwoord op zouden willen.
Interessant genoeg lijkt de 3060Ti ook een stuk beter te zijn qua fps/per euro. Dit geeft AMD volgende week met de lancering van de RX6700(XT) best een mogelijkheid om goed voor de dag te komen.

[Reactie gewijzigd door zzzzz op 22 juli 2024 17:39]

Met een harde refresh zou het cache moeten verversen en ook de RTX 3070 moeten verschijnen in de grafieken. Wat betreft het geheugengebruik is er een verschil tussen de allocatie en hoeveel er daadwerkelijk nodig is om een spel vloeiend te draaien. Het geheugengebruik (vram) dat af te lezen is met verschillende tools is daarom niet geschikt om uitspraken te doen over wat nodig of nuttig is.
Geheugen is meer dan alleen d eheoveelheid en veel vergeten dit in deze vergelijkingen. Hoe hoe snel is het geheugen, hoe is de bandwidth etc. De 3080RTX heeft dan bijvoorbeeld "maar" 10GB maar is wel meteen het snelste geheugen deze generatie. Je kan wel bijvoorbeeld 16GB vram hebben, maar als het niet snel is houdt het nogsteeds de prestaties omlaag.

Op dit item kan niet meer gereageerd worden.