Nvidia GeForce RTX 4060 verschijnt bij Europese webwinkel voor 349 tot 499 euro

Nvidia's GeForce RTX 4060-videokaart is voor het eerst verschenen bij een Europese webwinkel. De komende desktopvideokaart staat op een Finse webshop te koop voor 349,90 tot 499,90 euro. De videokaart komt op donderdag 29 juni officieel uit.

De Finse webwinkel in kwestie heeft vroegtijdig verschillende RTX 4060-modellen online gezet, merkte Duitse techwebsite PC Games Hardware op. Daaronder vallen varianten van ASUS en Gigabyte in verschillende prijssegmenten.

Van beide fabrikanten staat bijvoorbeeld een instapmodel van 349,90 euro in de webwinkel: een RTX 4060 Dual van ASUS en een WindForce OC-model van Gigabyte. Een ASUS ROG Strix-variant staat daarnaast in de webwinkel voor 499,90 euro. Tussen die uiterste prijzen staan verschillende andere videokaarten met prijzen tussen de 360 en 420 euro in de winkel.

Nvidia kondigde zijn komende GeForce RTX 4060 vorige maand al aan, samen met de RTX 4060 Ti. De videokaart krijgt een AD107-gpu met 3072 CUDA-cores en 8GB GDDR6-geheugen op een 128bit-geheugenbus. Nvidia zei eerder al dat de videokaart een adviesprijs krijgt vanaf 329 euro voor de instapmodellen. Het bedrijf komt zelf niet met een Founders Edition-referentiekaart van de RTX 4060. De videokaart zou aanvankelijk in juli verschijnen, maar die release werd onlangs vervroegd naar 29 juni. Er verschenen deze week al benchmarkresultaten van de RTX 4060 in Geekbench.

Nvidia GeForce RTX 4060 bij Finse webwinkel

Videokaart RTX 4060 Ti RTX 4060 RTX 3060
Gpu AD106, TSMC 4nm AD107, TSMC 4nm GA106, Samsung 8nm
Streaming multiprocessors 34 24 28
CUDA-cores 4352 3072 3584
L2-cache 32MB 24MB 3MB
Geheugen 8 of 16GB GDDR6 8GB GDDR6 12GB GDDR6
Geheugenbandbreedte 288GB/s 272GB/s 360GB/s
Tgp 160W 115W 170W
'Gemiddeld stroomverbruik
tijdens gamen'
140W 110W -
Adviesprijs (vanaf) 8GB: 449 euro
16GB: 559 euro
329 euro 329 euro

Door Daan van Monsjou

Nieuwsredacteur

22-06-2023 • 10:50

102

Lees meer

Reacties (102)

102
101
44
2
0
46
Wijzig sortering
Voor dat bedrag heb je een 3080 tweedehands, ik dacht te zien bij de eerste benchmarks dat die beter is dan de 4060.
Beter is subjectief; 40xx series heeft DLSS 3 en slurpt minder.
De 3080 is wél sneller, maar dat is de 3060Ti ook al :)

[Reactie gewijzigd door Nnoitra op 22 juli 2024 17:21]

Beter is subjectief. Efficiëntie en DLSS 3 zijn mooi, zeker, maar ik denk dat de meeste mensen ruwe performance belangrijker vinden dan de beste efficiëntie. Al wordt het nu wel langzaam belangrijker door de hogere energieprijzen.
Al wordt het nu wel langzaam belangrijker door de hogere energieprijzen.
Wat scheelt het in EUR gebaseerd op het totaalverbruik van de kaart over diens levensduur, voor een gemiddelde spelletjesspeler?

[Reactie gewijzigd door The Zep Man op 22 juli 2024 17:21]

TGP van een 3080 is zo'n 320W. Volgens deze speclist is de 4060 slechts 115W. Stel iemand gamed 20u/week, en behoud z'n kaart 3 jaar => 3128 uur. Dan:

Voor 3080: 3128*320 = 1001kWh
Voor 4060: 3128*110 = 344kWh

Met 40ct/kWh betaal je dus 400 euro elektriciteit voor de 3080, en 137 euro voor de 4060. Scheelt zo'n 263 euro.
Komt nog bovenop dat een 3080 niet blij gaat zijn met een 550W voeding. Je wilt daar liefst een goede 750W+ voeding bij zetten. Als je die ook nog moet aanschaffen, tel je ook zo nog 100+ euro extra bij.

Dus even een 3080 er in prikken kan ook nog aardig in de kosten lopen.

De prijs range van beschikbare videokaarten loopt altijd flink uiteen. Je kan een basis model kopen voor rond MSRP, of een deluxe versie met grote koeler en/of meer videopoort aansluitingen. Maar op een mid-end kaart gaat die 100-150 euro meerprijs het prijsverschil overbruggen naar de volgende kaart in de serie, en dan is dat (een deluxe kaart versie) is IMO het vaak niet waard. Want wie gaat z'n kaart tegenwoordig nog 30%+ overklokken om die stap te overbruggen? Tweedehands behouden de kaarten die meerwaarde vaak toch niet. Dat moet je dan dus echt willen en nodig hebben (bvb een stillere kaart), anders kan je net zo goed het basismodel van bvb een 4060Ti kopen (of dus tweedehands verder kijken).

[Reactie gewijzigd door Hans1990 op 22 juli 2024 17:21]

Voor de duidelijkheid: 20 uur per week is zo'n 3 uur per dag. Voor een tiener die flink wat gamet is dat misschien wel redelijk. Voor de meeste volwassenen met een full-time baan zal dat doorgaans lager liggen.
Je verbruikt ook niet constant het maximum van de kaart als je een beetje verstandig aan doet, max fps settings gelijk aan de refresh rate van je scherm doet al veel, zeker in oudere games.
En dan heb je mensen zoals ik die op dezelfde PC eerst 8 uur remote werken en dan door gaan met gamen.

Tikt aan.
Dat is een extreme minderheid, maar ook daar is het zo dat het grootste deel van de tijd de GPU's bij lange na niet op maximaal vermogen draaien en waarschijnlijk zeer dicht bij elkaar zitten qua verbruik. Tenzij je 8u gamed.
Dat is een extreme minderheid
Maar mijn kosten zijn niet gebaseerd op wat de meerderheid doet? Ik ben degene die betaalt voor de kaart en stroom.
Krijg je een thuiswerkvegoeding?
Het meeste werk belast de GPU nauwelijks en is die berekening dus niet representatief voor.
Dan gebruikt je gpu bijlange na niet de hoeveelheden energie die hierboven staan, dat is dus niet relevant.
"remote werken" :Y)

Maar, afhankelijk wat voor werk je doet, staat je videokaart waarschijnlijk niet 8 uur lang te pompen!
Gelukkig tikt je 3080 niet zijn tdp aan als je remote aan het werken bent hoop ik? Anders mag je wel een energietoeslag bij je baas vragen.
Mijn 6900XT zit ook in mijn werk pc. Idle(dus werken, niet gamen) doet dat +- 10-20 watt. Tijdens gaming tot 300-330 watt. Laten we zeggen 20 watt tijdens werken. Dus ik kan 15 uur werken voor 1 uur gamen...
Mijn werkstation is mn gaming PC. 8 uur remote werken en eventueel nog wat uurtjes gamen in de avond.

Mn 3050 maakt overuren maar ik ga inderdaad maar niet upgraden voorlopig. Het hele thuisverbruik van energie is al ongeveer 20% te wijten aan mn werkplek. Dat hoeft niet nog meer te worden.
Je zal met remote thuis werken of zelfs bepaalde games nooit de max aantikken van de powerdraw van de GPU. Het is een worst case scenario waarbij de GPU in de berekening volledig 3 uur lang onder volledige load is
Ligt er aan hoeveel en welke hobbies je hebt.

Die 20 uur per week is direct uit Steam genomen van een vriendengroep die allemaal (meer dan) full-time werken of studeren. Nee niet iedereen zal dat halen, maar de outliers (bvb 0-4u/week totaan 80 u/week) heb ik dan ook al weggehaald.

Ik vind het zelf niet onrealistisch om te denken dat iemand bvb van 21:00 t/m 23:00 een spel speelt door de week, en misschien in het weekend iets meer.
ik doe meer dan 5 uur per dag met een job
Voor mij is dat enkele uurtjes per week, vooral casual streamen naar TV of met VR. En dan hebben we het nog amper over echt raw performance.
Ik als full timer zit ook dagelijks nog minimaal 5 uur achter mijn PC thuis :o :D
De verhouding klopt totaal niet, je vergelijkt een auto met een vrachtwagen.
Een high-end kaart 3080 vergelijken met een 4060 budget kaart, de 3080 maakt gehakt van de 4060.

Ga voor de grap de 3080 eens knijpen tot de performance van een 4060 dan zal het energieverbruik ook fors minder zijn.

Nvidia>
xx60 > low-end / budget
xx70 > Mid-end
xx80 > High-end
xx90 > Ultra high-end
En de Ti serie,s zitten er tussenin, vaak zijn die een beetje verbeterd.

Een opvolgend budget/low-end kan nooit pats boem concurreren met een high-end serie van de vorige release.

Daarnaast de 320 watt hoeft niet de werkelijkheid te zijn, kan per game verschillen en minder zijn, speel je veel RTS/strategie etc dan wordt de CPU meer belast dan GPU.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 17:21]

Dat klopt. Het is dan ook onmogelijk om zoiets appels met appels te vergelijken zonder het gebruiksscenario van 1 individu te weten. Maar als je een 3080 haalt, waarom zou je die dan cripplen tot een 4060? Tuurlijk, lichte titles zullen op een 3080 niet op z'n staart trappen, terwijl een 4060 wel meer aan de bak moet. Maar zo'n 3080 doet z'n extra bang/buck ook niet gratis.

Maar al zou je de prestaties wel op elkaar gelijk ijken, dan is mijn verwachting dat een 4060 nog steeds een bak zuiniger zal zijn. Die kaart is en 1 generatie nieuwer, en de power scaling van een kaart onder bvb VSYNC valt mij altijd vies tegen. Zo'n kaart moet immers wel in een hoge power state verblijven om prestaties te blijven geven, en alleen zo'n power mode verbruikt ook veel stroom. Het verbruik zakt dan wellicht van 320W terug naar 150 tot 200W. Veel daaronder zie ik zelden. In mijn ervaring haal je veel betere resultaten met een undervolt, bijvoorbeeld.

Een ander anecdotisch voorbeeld: pas de power profielen van Windows eens aan van power saving naar high performance. Het idle verbruik van zo'n kaart kan alleen al met tientallen Watt's omhoog schieten. Als een 3080 idle 60W (en dat is geen onrealistische schatting) slurpt omdat je Windows in high performance power profile draait, dan is dat al de helft van een 4060 als TGP kan gebruiken.

[Reactie gewijzigd door Hans1990 op 22 juli 2024 17:21]

Het blijft krom, kaarten van 2 jaar oud gaan vergelijken.
Een nieuwe auto kan ook zuiniger zijn...
Daarnaast de 320 watt hoeft niet de werkelijkheid te zijn, kan per game verschillen en minder zijn, speel je veel RTS/strategie etc dan wordt de CPU meer belast dan GPU.
Daarnaast kan je ook kiezen voor presets als very high ipv ultra etc als je de visuele pracht niet nodig hebt als je vooral casual speelt. Zo speel ik op m’n tv met maximaal 60 fps, via Moonlight. Dus voor mij zal de kaart veel minder belast worden dan mensen die het op 120 FPS of hoger spelen.
De vraag van de steller is dan ook niet om 'vergelijkbare prestaties'. Dat kan sowiezo niet met die verschillende kaarten. Je vergelijkt gewoon twee gebruikers met twee verschillende kaarten met de max bruikbare settings die ze kunnen instellen. Mensen gaan niet hun high end kaart afknijpen omdat de buurman hetzelfde niet haalt. En dan kijken hoeveel dat in stroomeuro's verschilt. That's it.
Als er gevraagd was om het verbruik in euro's tussen een Fiat 500 met een Tesla voor 100 km rijden, kan ook natuurlijk. De vraag ging niet om de prestaties en de aanschafwaarde, maar om de euro's die je aftikt bij gebruik van die producten.

[Reactie gewijzigd door Fireshade op 22 juli 2024 17:21]

Deze kaarten zijn niet te vergelijken want ze hebben beide totaal andere verwachtingen.
Ik heb om deze rede mijn 3080 tuf OC van Asus weg gedaan en er een 4070 dual OC van Asus terug gekocht, scheelt echt best veel en mijn pc is nu geen kachel (letterlijk)
En een kachel in de zomer is niet fijn.
3080 werd ook undervolt met nog steeds goede resultaten...dus die tdp was ook lager.

en een echte gamer haalt geen 128b kaart met 8gb ;)
een 750W voeding koop je al rond de 125-150eur met gemak... wat is je basis prijs dan van de -550w?

sinds wanneer is TDP ook effectief verbruik in games? als je een op een vergeljikt op eenzelfde resolutie zit je veelal op X aantal FPS.. dus kan je deze evengoed in een lager power profiel zetten. Ook zijn er vaak limieten in games zelf. 4060 komt nog niet eens in de buurt van de 3080 performance.

40ct neem ik aan enkel in NL en dan zonder enig alternatief van electriciteit opbrengst?

Je kijkt te veel naar benchmarks en pure cijfers. realiteit is je verbruik een pak anders. Het grootste verschil is een high end kaart kan gemakkelijk low power werken en downscalen terwijl een budget kaart steeds constant maximum power nodig heeft om uberhaupt de frames te halen.

[Reactie gewijzigd door d3x op 22 juli 2024 17:21]

". je eigen verhaal wederom copy/paste in elke nieuwe thread...dan ben je pas zielig."
Ok dan doe ik dus daadwerkelijk even een copy/paste in deze nieuwe thread over wederom... u raadt het al... een videokaart.
Het enige 'aanvullende' van jou zijn de negatieve bittere suggesties over de personen waarop je reageert die je wederom ten toon spreid. Ik zal je reactie ten harte nemen, maar doe dat zelf dan ook :D
(Sorry deze moest even)

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 17:21]

Als we als voorbeeld de 3080 nemen. Deze gebruikt gemiddeld tijdens gamen 300W.
De RTX 4060 Ti gebruikt volgens de grafiek hierbij 140W gemiddeld. Een verschil van 160W dus.

Dan moeten we nog inschatten hoeveel er gegamed wordt. Laten dat voorzichtig inschatten: 4 uur per week. Dan heb je het dus over een meerverbruik van 0,64KWh per week.

52 weken in het jaar brengt het meerverbruik per jaar op 33,28KWh. Laten we nu uitgaan van een energieprijs van €0,37. Dan heb je het dus over €12,31 per jaar.

Levensduur is lastiger in te schatten natuurlijk. Technisch gezien kan zo'n kaart gerust 10+ jaar blijven werken. Maar hoe lang doe je met zo'n kaart? Laten we zeggen 5 jaar. Dan bespaar je dus zo'n €61,56 over 5 jaar bij gelijkblijvende energieprijzen.

Nu denk ik dat 4 uur per week erg weinig is, zeker gezien de snellere reactie hierboven.

Hierbij houd ik uiteraard geen rekening met prestaties en dergelijke. Het is enkel een hele simpele vergelijking op basis van verbruik :)

[Reactie gewijzigd door RvL op 22 juli 2024 17:21]

en jij denkt dat een 4060 kaartje in de buurt komt met performance van 3080?
de 3060 verslaat soms nog de 4060....deze kaart is een big joke
Dat zeg ik toch ook in mijn laatste alinea? Dit is een platte vergelijking op basis van verbruik. Ik beweer nergens dat de 4060 qua prestaties in de buurt komt van de 3080.

Dus is de werkelijke vergelijking veel lastiger. GPU intensieve taken (gaming nog even buiten beschouwing gelaten, waarbij je het vooral aan FPS en aanverwanten zal merken) zullen langer duren. Denk bijvoorbeeld aan foto of beeldbewerking. Dus is een 4060 effectief langer bezig.

Een goed voorbeeld van twee uitersten is de vergelijking tussen mijn stokoude RX 480 en mijn huidige GPU. De huidige verbruikt weliswaar meer stroom onder load, maar doet een taak in 5-10 seconde waar de RX 480 50 seconde op staat te stampen. Dan wordt het een heel ander verhaal.

Ergo: precies wat ik dus al zeg in mijn laatste alinea

[Reactie gewijzigd door RvL op 22 juli 2024 17:21]

ok...te snel gelezen :)
Misschien niet veel, maar de meeste mensen komen een kaart toch met een bepaald budget in gedachten.
Met 1000 uur per jaar (ongeveer 80 per maand) zou je met 100watt verschil op 100kwh per jaar uitkomen, wat dat kost hangt van je leverancier af maar uitgaande van 25 cent per kwh zit je dan op 25 euro per jaar.

Nu is 20 uur per week gamen niet echt gemiddeld, eerder een kwart daarvan dus dan kom je op een euro of 6 a 7 per jaar.

Persoonlijk zou ik daar niet naar kijken ondanks dat ik eerder 2000 uur per jaar game dan 1000 uur :D

[Reactie gewijzigd door watercoolertje op 22 juli 2024 17:21]

Je kunt de 3080 ook nog wat undervolten. Scheelt meer aan stroom dan aan performance en afhankelijk wat je speelt nog steeds bakken performance. En dan heb je de performance weer beschikbaar met een muisklik voor die ene game...

(Happy undervolt gebruiker hier, het is stiller en minder hitte is ook fijn momenteel)
3060 12GB op 120 watt hier, 875 mv voor 1890 MHz.
Subjectief bedoelde ik idd, thx :)
DLSS 3.0 (met/zonder frame generation?) zal waarschijnlijk weer 1 of 2 generaties duren alvorens geïmplementeerd in genoeg spellen.
Kijk alleen al naar de lijst van DLSS 2.0 spellen. Is een mooie grote lijst geworden, maar hoe lang heeft dat geduurd?
Is een leuke verkooppraat die DLSS 3.0, maar als je DLSS 2.0 al wonderen verricht voor vele spellen en dat kan je bereiken met (veel) goedkoperen kaarten, in hoeverre maakt DLSS 3.0 dan nu of over jaar (of 2) dan impact?
en nu is dlss3 al de reden om iets te kopen... ja het gaat echt wel vierkant mis tegenwoordig met de gedachtegang van menig budgetters.

koop een 3080 voor native performance, koop een 4060 en smijt er DLSS3 op om af en toe eens in de buurt te komen van eenzelfde performance.

8)7 8)7 8)7 8)7 8)7

en dan het zogezegde verbruik.. de helft van het jaar is er in onze regio nood aan verwarming. Ook is uit vele testen al gebleken dat je uit een zwaardere kaart met downclock een veel betere power/perf ratio kan halen dan de lagere kaarten. Mijn 6800XT's draaien allemaal met een 10-15% lagere vcore en boost clock.en geven nog steeds voldoende hoge frames om degelijk 1440p op hoge settings te spelen... kom maar af met je max verbruik+ DLSS whatever om maar in de buurt te komen met een lagere kaart en dan nog niet eens op alle games beschikbaar.

[Reactie gewijzigd door d3x op 22 juli 2024 17:21]

Dude, chill :)
Ik geef nergens aankoopadvies.

Wat ik zeg is dat de term "beter" niet helemaal de lading dekt in vergelijking met de 3080... :/
Dat is namelijk afhankelijk van waar je prio's liggen: fps (icm hoger verbruik) of features (icm lager verbruik). En dat is voor iedereen weer anders.

[Reactie gewijzigd door Nnoitra op 22 juli 2024 17:21]

DLSS 3 is alleen bruikbaar als je al goede framerates hebt. Bij lagere framerates maakt dlss 3 er een potje van.
4060 Ti, even wachten op de 16GB versie en je kan jaren vooruit, behalve met die extreme games die echt veel eisen. Dan moet je toch wat euro's bijleggen voor een 4070 Ti denk ik.
De goedkoopste 3080 tweedehands is €450. De goedkoopste hier is €350, dat lijkt mij een verschil. Natuurlijk er zijn ook duurdere, maar als je goedkope 3080 modellen erbij pakt, moet je die imo vergelijken met een goedkoop 4060 model. En dan kom je meer erop uit dat je voor dat geld een tweedehands 3070 koopt. En die lijkt (tot ietwat teleurstelling van mij) toch nog wel redelijk wat sneller te zijn. (Of nou ja, ik heb zelf een 3070 dus ik kan er ook blij mee zijn, maar uiteraard wil je een nieuwe generatie die sneller is). Tegelijk is dat wel tweedehands, waarschijnlijk zonder garantie, dus tja, ik vind die prijzen van tweedehands GPUs altijd erg hoog.
x70 is de 3070, x60 is de 4060. Dan mag je traditioneel blij zijn met soortgelijke performance. Het is al lang niet meer zo dat een x60 van een nieuwe generatie een oude x70 achter zich laat. Zelfde voor een x70 als 4070 die niet een 3080 ver achter zich laat of iets.

Wees er blij mee, en tweedehands wordt weinig voor garantie geboden merk ik ook, doe ik dan mijn voordeel mee dat tweedehands kaarten met juist nog wel factuur+garantie, hooguit een paar tientjes meer kosten. Of het moeten verwaarloosbare bedragen zijn in absolute zin, maar iets van honderden euro's zonder garantie, ik snap dat toch nooit zo. Hoeft nergens opzet te zijn, maar een beetje transportschade, extreem schudden, die kaart sterft na een paar dagen gebruik, en je bent je geld kwijt. Zal dan toch heel weinig voorkomen, gelukkig maar.
Hij presteert zelfs beter dan de 4070 dus dat lijkt me wel ja.
De 4060 presteert beter dan de 4070?
Nee, de 3080 beter dan de 4070. Dus zeker beter dan de 4060.
Ik reageerde op een ander bericht.
De 3080 en de 4070 presteren erg vergelijkbaar. Echter is de 4070 veel efficienter waardoor ik eerder de 4070 beter zou noemen dan de 3080.
Zit zeker wat in qua technologie dat zo te zien, ook naar de toekomst een voordeel van de nieuwste DLSS en zo meer.

Tegelijk is financieel zeker een tweedehands 3080 erg interessant, want een 4070 zal voorlopig nog zeer schaars zijn als tweedehands. Een nieuwe 4070 is dan weer stukken duurder. Je moet het wel kunnen betalen allemaal. Als gamer van minder dan 20 uur per week uiteraard, wanneer je GPU op vollast zit voor vele tientallen uren per week zoals sommigen, vaak jongeren, de luxe nog hebben, dan kan het eens rond rekenen qua stroomverbruik zo een hogere aanschafprijs.

[Reactie gewijzigd door OruBLMsFrl op 22 juli 2024 17:21]

Oh ja ik zie het nu. De draad was een beetje lang geworden dus ik was .. de draad kwijt :P
Maar interessant om te weten!
Verbruikt ook meer. Kan meetellen in het keuzeproces
Maarja, hoger verbruik en geen dlss3 wat de performance een stuk beter maakt dan de 3080 met dlss2.
Tweehand, dus garantie tot aan de deur.

En die kaart moet ook wel een beetje balans brengen in je systeem.
Zo'n beest van een videokaart matchen met oudere mid-range hardware heeft misschien niet eens echt zin vanwege bottlenecks.

Energieverbruik is ook wel een puntje.

[Reactie gewijzigd door Polderviking op 22 juli 2024 17:21]

Tweedehands is altijd goedkoper en meestal betere deal, je levert alleen wel nieuw, garantie, \zekerheid daarvoor in.
En die heeft dan wel meer dan twee keer de TDP van een 4060.

Wanneer je een small-form-factor build aan het maken bent of iets anders wat stil, compact of energiezuinig moet zijn dan is deze kaart een prima opvolger van de 2060 en 1660 Super die vrij populair waren op de kleinere midrange builds.

[Reactie gewijzigd door Stoney3K op 22 juli 2024 17:21]

Dat verbruik is alleen piek verbruik, het is niet zo als jij je pc opstart dat die 3080 meteen begint af te fakkelen, maar inderdaad het is wel een monsterlijke kaart qua omvang.
Daar komt bij dat de 10gb 3080 voor 4k (verschillende meningen) net genoeg is, en dan komt de 4060 weer met 8gb om de hoek. (mijn 1070 had destijds al 8gb?!)

Dus 4060 kan een prima opvolger zijn, alleen wat ik wou zeggen is dat als je een 3080 nu tweedehands net iets goedkoper kan kopen dan zit er vaak nog garantie op (ik dacht 36 maand) en bij mijn EVGA kaarten was garantie altijd gewoon netjes overdraagbaar.

Kortom, het kan zeker voor mensen lonen om even verder te kijken dan zomaar ineens een 4060 te kopen.
Dat verbruik is alleen piek verbruik, het is niet zo als jij je pc opstart dat die 3080 meteen begint af te fakkelen, maar inderdaad het is wel een monsterlijke kaart qua omvang.
Het gaat er ook vooral om dat je daar met je voeding en met je koeling wel rekening mee moet houden. Waarschijnlijk ga je er in performance wel op vooruit, maar je hebt het dan wel over een heel andere gebruikssituatie als waarvoor de 4060 bedoeld is.

Wil je puur een powerhouse voor de prijs dan loont het zich om een oudere generatie high-end kaart te kopen, maar als je een kleinere kaart zoekt om een andere reden dan zit de 4060 in een vrij goed segment.
Waarom zou je deze kopen i.p.v. een 3060ti voor dit geld?
Waarschijnlijk hoopt dat DLSS3 mensen over de streep trekt. Of het "deze is nieuwer, dus dan koop ik die!" argument wat ik vaak hoor. Veel kopers kijken niet naar benchmarks, die zoeken [videokaart + game] om te zien hoeveel FPS die geeft en kijken niet verder.
Is dat performanceverschil wat je krijgt met DLSS3 tegenover eerdere DLSS dusdanig dat je tot 150 euro meer gaat betalen voor een kaart die in de basis niet beter presteert?

Ik ben ook niet zo bij met videokaarten hoor, ondanks dat ik actief ben in de IT wereld in het dagelijkse leven. Maar ik zoek meestal toch gewoon met termen als "best value videocard 2023".

Maargoed wellicht verkopen die 30 serie kaarten ook een keer uit en heb je de keuze niet meer.
Het kan een aardig verschil maken. De RTX 4060 Ti presteerde in sommige games 50-70% beter dan de 3060 Ti met DLSS3 ingeschakeld, maar zonder DLSS (of in games die dat niet ondersteunen) zat het verschil tussen de 0 en 20%.

Nvidia probeert DLSS3 dus zo hard mogelijk te shillen, want de RTX 4060 die hier wordt gepresenteerd is zonder DLSS hoogstwaarschijnlijk inferieur aan een RTX 3060 12GB. Al helemaal met de "moderne games hebben soms niet genoeg aan 8GB VRAM" consensus die we steeds vaker zien.

Als de 3000 serie is uitverkocht zullen we wel moeten, maar dan zit Nvidia wel aardig met AMD in de nek als de non-DLSS prestaties achterwege blijven. Hoewel de prijzen bij team Red ook niet echt denderend zijn hebben zij de focus op rauwe performance in plaats van supersampling of AI.
Had die 3060ti ook DLSS aan of niet? Als dat het geval is vind ik dat inderdaad ook wel signficant.
Het enige dat DLSS 3 frame generation doet is het beeld vloeiender maken; het spel gaat er niet beter op spelen, juist slechter doordat je meer input lag krijgt. Het is dus niet voor elk spel in dezelfde mate toepasbaar. Bij een traag singleplayer spel kan het prima aan als je maar 45-60fps hebt zonder; bij een shooter zou ik het pas overwegen als ik over de 90fps heb.

Hoe lager je start fps des te groter je input lag; om die reden zal ik het zelf ook nooit aanzetten in spellen.
DLSS2, FSR2 en XeSS hebben dit nadeel niet.

Vergeet ook niet dat DLSS3 ook weeer extra geheugen pakt, iets waar deze kaart niet veel van heeft, Digital Foundry zag bij de 4060 Ti soms raar gedrag met DLSS3 omdat ze niet genoeg geheugen hadden.
Scheelt twee tientjes, zal ongeveer dezelfde prestaties hebben en de 4060 is fors efficiënter.
Maar je kunt natuurlijk beter even wachten totdat de prijs omlaag gaat want dit is toch wel flink hoger dan de adviesprijs.
Hey, wat een verrassing, geen enkele kaartenmaker hanteert de MSRP van Nvidia... Datt gebeurd nu eenmaal als je de marges voor die bedrijven flinterdun maakt...
gaat nog wel zakken. Kaart is zelfs nog niet officieel uit.
Specs tonen echt niet goed in vergelijking met de 3060. Vooral de 8GB tov de 12GB van de 3060... beter vergeleken met de 8GB versie :z
Als ik kijk bij buren zou 4060 tussen 3060 en 3060ti (meer 3060ti kant) zitten.

https://nl.hardware.info/...t-18-sneller-dan-rtx-3060
Geekbench is geen maatstaaf voor echte performance. De 4060 Ti is in Geekbench ook iets van 15+% sneller; in het echt mag je blij zijn met 5%.
Nee daar heb je gelijk ik in maar je kan voor jezelf wel beetje schatten wat voor performance het zou kunnen krijgen.

Wat mijn betreft vind ik de lag/mid tier best teleurstellend van beiden kampen om eerlijk te zijn.
Krijg beetje gevoel van 1000 serie naar 2000 serie moment.
Dus ondanks de dalende GDDR6 prijzen heeft de nieuwe kaart in deze prijscategorie 33% minder geheugen, juist in een tijd dat games (terecht of onterecht) nu die 8GiB grens beginnen te overschrijden.

Volgens deze grafiek althans. Ze plaatsen wel een kanttekening over de mogelijk hogere kosten door het gebruik van 16Gb chips in plaats van 8Gb.

[Reactie gewijzigd door Tomislav op 22 juli 2024 17:21]

Waarschijnlijk om de berg met 3000-series nog aan de straatstenen te kunnen verkopen. Ik zie veel comments met "dan koop ik liever de 3060 met 12GB", wat exact is wat ze willen. Oude stock moet weg, als dat eenmaal gebeurd is komt Nvidia met een RTX 4060 met 12/16GB en klaar.
in hoeverre zijn deze kaarten geschikt voor AI? is de snelheid van de gpu belangrijk, of is meer videogeheugen belangrijk? en zijn de oudere tesla gpu's met veel ram ook nog geschikt?
Is wel erg duur, je hebt betere alternatieven aan die prijs ...
Tsja, een downgrade t.o.v. dezelfde positie van de vorige generatie. We zien nu al games die slecht presteren bij 8 GB VRAM of zelfs glitches vertonen. Een downgcade van 12 naar 8 GB vind ik dus echt slecht van Nvidia.
Tsja, een downgrade t.o.v. dezelfde positie van de vorige generatie. We zien nu al games die slecht presteren bij 8 GB VRAM of zelfs glitches vertonen. Een downgcade van 12 naar 8 GB vind ik dus echt slecht van Nvidia.
Zo lang die game engines maar goede textures serveren moeten die drivers het wel aankunnen.

Ik verwacht een fine-wine strategie van Nvidia op de 128bit-geheugenbus, wat betreft losse dGPU's. Ik vermoed dat Nvidia liever die klanten de BGA ziet inschuiven, en dat de omzet verhuist naar GamePass (evt. aangevuld met een Cloud-GPU abbo).

Dan zijn ze net als Apple een allround appliance provider. Maar dan vanuit een gaming focus. Net iets anders, maar het is dan ook al een tijdje geleden dat ze van het Intel platform afgegooid werden.

Maar idd, 8 GB is vrij krapjes gebleken voor 1440P@60hz en de geconstrainde games zullen goed geoptimaliseerd moeten zijn.

Het is dus vooral interessant hoe deze kaart zich verhoudt tot de AMD variant op de 128bit-geheugenbus. Ik vermoed dat die eindelijk dichter bij zullen komen want het gat met Nvidia was bijna 2x zo groot als dat met Intel was. AMD aan de andere kant wil hun eigen APU business niet kannibaliseren, dus dit lowend dGPU segment zal altijd een soort ondergeschoven kindje blijven. D'r zit ook weinig rek meer in: 280GB/s met 16MB L2 Cache, en dan tegen 105W of zo. En nog naar 3nm, maar dat zie ik Nvidia pas doen als ze een nieuwe CUDA core introduceren. Maar dan wordt het echt tijd voor een AMD APU met HBM.

Hoewel, formfactor-shrinking biedt altijd mogelijkheden, waarbij Low profile en Lowheight de nieuwe standaard gaat worden. Anderen zijn de SOM (zoals de Pine64 Quartz64-singleboardcomputer met Rockchip SoC) en de e-GPU (via USB, Intel's GPU business, die zij bij TSMC laten maken).

FreeSync tov gsync blijft toch wel een voordeel voor AMD. En hun FOSS GPU drivers zijn een klasse opzich, hoewel Intel ook een aardig ecosysteem meebrengt.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 17:21]

Voor dat geld heb ik rond 2012 nog de topkaart (GTX 680) gekocht
Geen idee wat je wilt zeggen, als je het (te) duur vindt kun je dat ook gewoon zeggen met die woorden :9

Als ik nu oude high end kaarten zie dan zien ze er uit als low/mid end kaarten van nu qua uitstraling. Werkelijk alles is complexer en/of zwaarder uitgevoerd en daarmee duurder.
Dat beetje extra aluminium is echt niet waarom ze duurder zijn hoor.
Mensen betalen het gewoon.
Alsof het enkel daar op sloeg :Y)

Maargoed sterkte ermee, ik zit er verder iig niet mee en betaal het graag!
Als je nu een 1080 TI hebt, met 11 GB VRAM, en die loopt tegen de limieten aan, wat zou men dan nu aanraden, ongeacht Nvidia of AMD, met een max budget van 350. (Puur casual en vooral 1440p)
Zou zeggen probeer een RX 6800 2e hands rond die prijs te krijgen. Alternatief is 2e hands 3070ti maar daar zit je met maar 8gb vram.
Intel Arc A770 met 16GB VRAM, let op: DX11 wordt niet altijd even goed ondersteund
Heb zelf een 3060 en kan vrijwel alle games op 1440p spelen. Heb wel een gsync comp monitor dus fps schommelingen (altijd 40+, voor mij prima) storen wat minder.
Ik zou kiezen voor een RX 6700 XT (nog wat wachten, of nog 10 Eur sparen :-) begint vanaf 359 Eur)
Werd in februari & maart nog aangeraden in de Best Buy Guide als ideaal voor 1440p/60hz. Toen kostte deze nog 420 Eur, dus de prijs/prestatie verhouding is nog verbeterd sindsdien.
Heb hier inderdaad al naar gekeken. Maar elders werd weer gezegd dat het totaal geen upgrade is vanaf de 1080TI, dus vandaar dat ik zoekende ben. Als ik wil kan ik gewoon een 7xxx gen kaart halen, maar wil voor hetgeen ik doe, niet teveel uitgeven aan zulke zaken. Vandaar die prijs limit.
Dan zou ik nog even wachten.
Volgens deze grafiek (review: AMD Radeon RX 6700 XT - Nieuwe oase in de videokaartenwoestijn?) is de 6700XT toch wel een 20% sneller. 360 Euro blijft wel veel geld voor (maar?) 20% snelheidswinst

[Reactie gewijzigd door tele-n-ettertje op 22 juli 2024 17:21]

Dat gaat over de 4060TI, en dit artikel over de 4060

Maar ik denk dat de conclusie hetzelfde gaat zijn, misschien nog wel slechter
Hij heeft het ook over de RTX4060. Zijn punt is dat de RTX4060 als GPU eigenlijk niet beter is (soms) zwakker dan de RTX3040. Enkel als men ook gebruik maakt van DLSS 3 krijg je de prestaties die je eigenlijk min of meer van een RTX4060 zou mogen verwachten. Maar dan moet DLSS 3 ook wel ondersteund worden wat meestal nog niet het geval is. En van een next gen beeldkaart verwacht je toch wel meer gezien de prijs. DLSS 3 en een lager verbruik zijn de enige verbeterde punten t.o.v. de vorige generatie. Ook blijft de kaart enkel goed voor 1080p. Ga je hoger zakt je FPS zwaar. Voor een kaart anno 2023 zou je ondertussen wel wat hogere resoluties mogen aankunnen.

[Reactie gewijzigd door Niclord395 op 22 juli 2024 17:21]

Op dit item kan niet meer gereageerd worden.