Nvidia schuift release GeForce RTX 4060 naar voren, is nu te koop vanaf 29 juni

Nvidia schuift de release van de GeForce RTX 4060-videokaart naar voren. De gpu is nu vanaf 29 juni beschikbaar.

De niet-Ti-versie van de RTX 4060 zou aanvankelijk ergens in juli uitkomen, maar op social media bevestigt Nvidia dat dat nu 29 juni geworden is. Eerder lekte er al een intern document uit waarop die vervroegde datum te zien was. Deze videokaart krijgt een AD107-gpu met 3072 CUDA-cores en 24MB L2-cache. De gpu wordt standaard geleverd met 8GB geheugen en haalt een geheugenbandbreedte tot 272GB/s. De RTX 4060 moet volgens Nvidia 329 euro gaan kosten.

De 4060 Ti met 8GB aan geheugen kwam al in mei beschikbaar, maar de variant met 16GB geheugen staat nog gepland voor een release in de loop van juli.

Nvidia RTX 4060

Door Kevin Krikhaar

Redacteur

14-06-2023 • 18:23

115

Reacties (115)

Sorteer op:

Weergave:

Dat is al snel, 329 niet bizar veel, vorig jaar of het jaar ervoor waarschijnlijk nog 599 in de winkels.

Maar beyond fast... wel leuke upgrade als je nog van een 1070 of 1660 ofzo komt of 2060 misschien.
Nja mijn 1660ti heeft 6gb on board, op zijn minst zoek ik wel een kaart van 12GB om future proof te zijn
Future proof, maar ondertussen sla je deze generatie weer over om weer een jaar met je 1660 te doen?

Of wacht je tot de 4070 12GB onder de 600 duikt?
je hoeft maar een 370-450eur uit te geven om iets van 12GB te hebben, de 6700-6750xt. Onder de 600 heb je nu al een 6800XT met 16GB ram.

Kijk gewoon even wat er in de markt is of wacht wat af. Soms is er heel weinig waarde aan de net nieuwe release van een serie.

[Reactie gewijzigd door d3x op 23 juli 2024 15:13]

Intels ARC A770 is altijd ook nog een goede optie. voor 320 euro heb je 16GB VRAM. En een kaart met redelijke potentie
flaky GPU performantie en zeer afh van games... ten allen tijde trager en veelal VEEL trager dan een 6700xt of 6750xt

https://www.techspot.com/...el-arc-a770-a750-revisit/

dan verkies ik toch wel even een standvastigere en bewezen architectuur en SW drivers.
Kan ook, @Eld0 zegt nergens dat hij NVidia wil, die hebben al 16GB toch?

Oh nee 12, de 6800 (XT) heeft 16GB, die is ook nog goedkoper dan de 4070.

[Reactie gewijzigd door JDx op 23 juli 2024 15:13]

Nja mijn 1660ti heeft 6gb on board, op zijn minst zoek ik wel een kaart van 12GB om future proof te zijn
Future proof bij een GPU is erg lastig, laat staan in het budget segment. Een midrange gpu kun je in princiepe elke 2 generaties vervangen. Op dat moment is je oude GPU vaak ook nog wel wat waard.

Overigens is een 4060 Ti meer dan 2x sneller dan een 1660 (super) dus VRAM lijkt me niet je primaire zorg nu.
Ligt natuurlijk compleet aan je eigen eisen en wensen....
Ik draai nogsteeds een 970,en met de prijzen van tegenwoordig ook niet van plan te upgraden. Kijk op een gegeven moment wel naar een 2e handsje van een wat nieuwere generatie.
Speel gewoon wat oudere games en hoef niet per se het nieuwste van het nieuwste altijd. Heb nog een enorme backcatalog van games die ik wil spelen en nooit tijd voor heb gehad, die nog prima kunnen op die 970 @1080p
Maar als je dat wel wilt dan tsja, heb je wellicht gelijk maar dan kan je het ook nog gekker maken.

[Reactie gewijzigd door jozuf op 23 juli 2024 15:13]

Dat is natuurlijk prima. Alleen mijn punt is meer dat wanneer je dan eindelijk wel upgrade je niet meteen future proof hoeft te zijn. Om het simpeler te stellen; je kunt aan een videokaart beter 3x 300 euro uitgeven over 10 jaar dan 1x 1000 euro.

Overigens zou ik jezelf onderhand wel een trakteren op een GTX 1070. Die zitten rond de 100 euro en zijn bijna dubbel zo snel. De 970 kun je nog wel voor een euro of 70 kwijt dus kost je effectief dan 30 euro.
4060Ti 16gb is beter qua future proof dan
Stating the obvious - een duurdere kaart is beter qua future proof dan lower tier kaart.
Ja dat is al gauw denk ik zo.
Ik denk dat een eventuele 16 Gb versie van een 4060 misschien nog wel eens meer futureproof dan een 8 Gb versie van een 4060Ti kan zijn. Futureproof lijkt nu ook om hoeveelheden geheugen te gaan draaien. Maar tja tov 4070 is het allemaal niks natuurlijk, maar die is weer te duur! Zucht!
Nou ja, een 4060 Ti is een beetje langzamer dan een 3070, en die heeft ook gewoon 8GB. Van die kaart zijn er ook gemodde 16GB versies gemaakt, en dan zie je dat het bij heel veel games nauwelijks uitmaakt of je 8GB of 16GB hebt (op RE4 na).

Ook al laten sommige games 16GB VRAM vollopen, waardoor je denkt dat je er gebruik van maakt, is er geen performancedrop als je hem afkapt op 8GB. Is volgens mij meer een optimalisatie dingetje.
Mist toch wat features en is minder zuinig. (170W tov 100W genoemd bij de 4060)

[Reactie gewijzigd door AtariXLfanboy op 23 juli 2024 15:13]

De 4060 mist ook een belangrijke feature: 12 GB. En de 3060 is nu goedkoper dan de prijs van de 4060.

[Reactie gewijzigd door Ludewig op 23 juli 2024 15:13]

Nouja ik hoop dat er ook een 16 Gb variant komt van de 4060. Anders komt er helemaal geen nieuwe videokaart :( 170W is meer dan ik accepteer voor deze performance.
Ik zit nog met m’n 1080ti met 11 GB VRAM
RTX 2070 8GB draait nog prima hoor, wellicht minder efficiënt, maar geen 500+ euro waardig
heb je in ieder geval genoeg vram om Last of Us te spelen. :D
Die speel ik ook, maar niet super hoog, 1080ti blijft een oudje. Zit nog wel te kijken om te upgraden naar een RX 6700XT.
RX 6700xt is wel beste prijs performance kaart.
Maar een RX 6800xt zou nog beter zijn. Ben je 110% future proof. Kost wel 540 in plaats van 360 van de 6700xt.
RX 6700xt voor 360 is nu erg goed betaalbaar.
Zeker voor op 1080p, ben je ook gelijk future proof.
Op een 1440p scherm zou ik nu beter een RX 6800xt halen om future proof te zijn.
En haald ook alles boven 60 fps.
Of op de RX7800 wachten. Navi 32 hoogste word RX7800 zonder XT.
Denk dat ze de XT versie dan toch uit de 7900 chip gaan maken.
Want uit simulaties blijkt dat de navi32 maar 4% sneller is dan de 6800xt. Goed om 7800 zonder XT van te maken.
Ik denk dat de 7800xt uit de navi31 10% trager word dan 7900xt en ongeveer 20% sneller dan navi32.
RX 6700 haalt niet alles boven 60 fps op 1440p.
Maar kijk hoe diep je portemonee is.
Jij moet uiteindelijk de beslissing maken.

Ik heb een laptop gekocht van 1400 met een rx6800m erin wat eigenlijk gewoon een RX 6700xt is met ietjes minder mhz.
Ik ben wel even zoet mee. En ga mijne desktop ook verkopen.
Voorlopig even aantal jaren draaien op de laptop.
Mischien wanneer de RX9000 serie er is, ga ik weer een desktop in elkaar zetten.
En als de kaarten tegen die tijd echt onbetaalbaar zijn, dan zie ik wel wat ik dan doe.
Wat ben ik toch blij met mijn RTX 3050Ti met 4 GB, alles speel ik er mee en vaak ook nog op hoge of ultra settings. 1080p uiteraard, ik vind het wel een sport om met minimale middelen toch maximaal te genieten.
Er bestaat ook Amd RX6700xt met 12gb voor 369,-.
Tenzij je alleen maar Nvidia wil en RT, dan is het anders.
Die 6700xt is ook nog eens sneller. Is zo snel als de 4060ti. https://www.youtube.com/watch?v=_ja2GTq99us
329 is wél bizar veel voor een low-mid range kaart. Nvidia is er gewoon in geslaagd om iedereen te gaslighten en te doen geloven dat dit een normale prijs is.
Eigenlijk zou dit een 3050 moeten zijn als je naar de prestatiewinst tegenover de vorige generatie kijkt, de 4060 is niet/nauwelijks sneller dan de 3060... krimpflatie heet dat...
Maar daarmee niet eens zo gek veel duurder en zuiniger dan de RX7600 van AMD?
Die is niet echt beter helaas, ik wacht nog wel ff met upgraden van mijn 2070super totdat ik echt een dikke upgrade kan halen voor 400-500 euro
Ik heb een wat luxere 1660 super. En zit dus te denken over een 4060, maar dan wel weer een wat luxere versie. Backplate en semi passive fans wil ik eigenlijk niet meer zonder. De RGB ledjes krijg je er nou eenmaal bij. 400-500 euro is mij teveel en ik vind het stroomverbruik wel prettig laag van een 4060. 100 Watt is toch al 30% minder dan de RX7600 iig.
Praktisch alle kaarten hebben inmiddels semi-passieve fans en een backplate, ik heb er in iedergeval geen zonder gezien in de 4000 series. Zeker in het segment van de 4060 zijn de duurdere modellen niet echt aantrekkelijk. Je kan voor (bijna) hetzelfde geld dan veel beter de volgende tier kopen, daar heb je meer aan.

[Reactie gewijzigd door Raphire op 23 juli 2024 15:13]

Er zijn nog geen 4060 kaarten te koop dus dat kan ik nog niet met zekerheid zeggen. Ook daar kan de krimpflatie er voor zorgen dat fabrikanten toch weer meer budget gaan. Als ik bij de 3060 op Tweakers kijk is iets meer dan de helft met semi-passieve fan waar uiteraard dat dus bij de goedkoopste kaarten iig actieve fans hebben. Zelfs bv bij de 4070 en 4070 ti zijn er nog aardig wat kaarten met een aktieve fan.
De backplate lijkt inderdaad bij de goedkopere kaarten wat meer ingeburgerd te zijn.
En ik stel mezelf een budget en daar ga ik dus niet honderd euro over. Wat extra betalen voor meer geheugen op de kaart is wat mij betreft aantrekkelijk maar ook dat mag uiteraard niet echt veel meer zijn. Als ik me het goed herinner was bij de 960 4Gb bij een wat betere MSI kaart ook niet spectaculair duurder dan de 2Gb versie.

[Reactie gewijzigd door AtariXLfanboy op 23 juli 2024 15:13]

volgens mij heeft dit niks te maken met gaslighten maar ik snap je punt
Volgens inflatiecorrectie en conversie van USD naar EUR in 2017 was de 1060 op release €350.

(MSRP $250, maakt met conversie naar EUR €231, plus 21% maakt €280 en dan de aanname dat ze in EU altijd er nog wat bovenop gooien, maak het €290, dat converteert naar €350).
Je vergeet erbij te rekenen dat de 4060 basically een xx50 kaart is. Nvidia heeft de gehele serie naamsgewijs verschoven.
329 is wél bizar veel voor een low-mid range kaart. Nvidia is er gewoon in geslaagd om iedereen te gaslighten en te doen geloven dat dit een normale prijs is.
Huh? De vorige x60 kaart, de 3060, had een MSRP van 320 dollar. De 2060 zat op 349 dollar. Dus de 299 dollar waar nvidia nu mee komt is een kleine prijsverlaging.
De 4060 is basically een xx50 kaart.
Tja die redenaties heb ik in de loop der jaren eerder gezien. Nvidia heeft vaker gpu's kleiner gemaakt door kleinere chip en/of smallere geheugenbus toe te passen. Uiteindelijk kiest Nvidia een performance target bij een prijspunt en wordt de chip vervolgens zo klein mogelijk gemaakt. Hoe kleiner de chip, des te groter de marge. Het daarom geen zin om dit een xx50 kaart te noemen. Hoe beter de architectuur van Nvidia, des te 'simpeler' de gpu.
Zo goed als alle grote reviewers hebben de 4060ti "basically an xx50 card at xx70 prices" genoemd. Jayztwocents was een uitzondering en die hebben hun review terug getrokken.
Leuk voor Nvidia dat er nog fanboys zoals jij bestaan die hun hebzucht proberen goed te praten.
die had idd 229 moeten kosten.
want het is zowiezo eigenlijk een x50 serie.
nog steeds genoeg Nvidia fans die erin trappen.
die hebben geen eigen hersenen meer en luisterd gewoon alles wat Nvidia zegt.
Ik vind het alles behalve snel. We moeten per generatie steeds langer wachten tot we de mid-range kaarten zien. Ik heb even de laatste paar generaties er bij gepakt en gekeken hoe lang het duurt tussen wanneer de 1e kaart in de generatie gelanceerd is, en de 60 versie uit kwam.

in het geval van de 40 serie was de 4090 de eerste, verder de x80, voor de vergelijking heb ik beide mee genomen.
  • 3080 17 sep 2020, 3060 25 feb 2021 161 dagen
  • 2080 20 sep 2018, 2060 15 jan 2019 117 dagen
  • 1080 27 mei 2016, 1060 19 jul 2016 83 dagen
  • 980 18 sep 2014 , 960 22 jan 2015 126 dagen
  • 4090 12 okt 2022, 4060 29 jun 2023 260 dagen
  • 4080 16 nov 2022, 4060 29 jun 2023 225 dagen
Zoals je ziet, alles behalve snel. Dit is een van de langst lopende release cycles tot nu toe

[Reactie gewijzigd door blackdiablo op 23 juli 2024 15:13]

op die manier, ja dat wel.

Ik heb ook meteen maar even de data aangepast. ik had juli staan 8)7
de 970 was 350, inflatie erbij dan zou de 4070 op 420 mogen komen, de 960 was zo'n 220€, dus 329 vind ik echt veel te veel. Die zou zo'n 280 mogen kosten.
kijk je nog verder terug en was de gtx770 maar 250 euros toen het hier uit kwam.
En de 760 was onder de 200.
toen was de euro nog erg sterk tegenover de dollar.
de scalper-prijzen (inclusief nvidia, amd en partners) moet je niet als maatstaf nemen. Ik denk dat je niet zo'n grote upgrade krijgt als bij de vorige generaties, daarvoor hebben ze de kaartjes teveel getweaked/bottlenecked voor een hogere prijs :/
Ik zit nog op een 750ti
Laat die leuke upgrade maar komen ;)
Ik vermoed dat dit net zo interessant gaan zijn als de afgelopen paar releases. TPU schat deze kaart momenteel in op 4% beter dan de 3060 op basis van SM count e.d. waardoor het mij niet zal verbazen als deze kaart straks mogelijk in bepaalde scenario's gaat verliezen van de voorganger, want 8GB op deze kaart v.s. 12GB op de originele 3060 (en ja, ik weer dat er later ook nog slechtere 8GB 3060's uitgekomen zijn), terwijl de consument eigenlijk gen on gen normaliter minimaal 30% meer performance moet verwachten bij dezelfde prijs (en eigenlijk zelfs nog een beetje meer).

Tenzij ze nog wat met de prijs gaan doen, immers de nu al veel te dure RX 7600 van AMD (die eigenlijk niet meer dan +-€200 zou mogen kosten) wordt momenteel 22% beter geschat als dit op basis van de specificaties, gaat dit wederom een waardeloze release worden voor de consument.
De RX7600 is veel games op Full HD nauwelijks sneller dan de 3060 laat staan de 3060ti dus dat lijkt me sterk.
Het probleem is dat deze 4060 waarschijnlijk gemiddeld amper sneller is dan de 3060 (schatting nu +-4%) en dus al helemaal niet in de buurt gaat komen van de 3060Ti. Maar ook dat deze 4060, doordat deze slechts 8GB vram heeft, in bepaalde games zelfs langzamer gaat zijn dan de originele 3060 die 12GB heeft (3060 met 8 GB moet je sowieso negeren), iets dat je nu ook al ziet met de 3060 Ti en 4060 Ti, in bepaalde spellen is de 3060 Ti sneller. Wat natuurlijk uitermate slecht is.

Of die schatting van TPU 100% klopt is natuurlijk afwachten, ik zie dat ze hem al iets hebben bijgesteld naar 17% beter (zie https://www.techpowerup.com/gpu-specs/geforce-rtx-4060.c4107 ).
Maar zelfs al zou het uiteindelijk 10% langzamer zijn dan de 7600 maakt dat de 4060 nog een uitermate beroerd gepositioneerd product, immers de 7600 is al waardeloos gepositioneerd op het huidige prijspunt, en deze kaart gaat dan en langzamer en duurder zijn.

[Reactie gewijzigd door Dennism op 23 juli 2024 15:13]

Het is stuivertje wisselen tussen de 3060 en RX7600 op 1080p. Tov 3060Ti is de RX7600 over het algemeen langzamer. En dan worden de nieuw features van Nvidia nog genegeerd. Daarnaast is de 4060 dus flink zuiniger. De RX7600 begint in NL webshops op 289 euro, maar de meeste zijn daar wat boven.
De 4060 hoeft niet al te veel sneller te zijn dan de 3060 om dus de RX7600 en al je dan die 30-40 euro aan stroom over een jaar of 2 - 3 al terug hebt heb je simpelweg een kaart met meer mogelijkheden. Maar het is dus nog even koffiedik kijken.
Hier iig een vergelijk tussen de 3060 en RX7600
https://www.youtube.com/watch?v=JsvSRSmoi4M
P.S. Het is op dit moment dus ontzettend moeilijk inschatten zelfs met gemiddelden van FPS of iemands GPU in een 'favoriete game' de snelste is. De afwijkingen zijn groot tussen games met gpu's die gemiddeld bijna hetzelfde zijn. Het valt mij daarbij op dat in veel populaire games Nvidia het nogal eens beter doet en in wat meer tech demo achtige games AMD nogal eens schittert. Het wordt er iig voor de gebruiker niet eenvoudiger op!

[Reactie gewijzigd door AtariXLfanboy op 23 juli 2024 15:13]

Verschillende games is uiteraard een punt, ik zou echter niet zeggen dat Nvidia het over het algemeen beter doet in populaire games. Juist de Nvidia kaarten met 8GB vram vallen daar vaak juist door de mand terwijl AMD tegenhangers het vaak beter doen omdat AMD hun kaarten in de 6000 serie over het algemeen wat meer vram heeft gegeven. Wat dus ook een valkuil is voor de 4060 / 4060 Ti maar ook voor de AMD 7600, dit zijn gewoon allemaal kaarten die met hun huidige positionering in de markt simpelweg slecht gepositioneerd zijn omdat ze allemaal geen 'staying power' hebben voor de toekomst. In de zwaardere games lopen ze immers nu al tegen bottlenecks aan. Geen enkel van die kaarten is momenteel dus eigenlijk aan te raden, tenzij ze flink goedkoper worden.

Ik zou zelf denk ik eerder zou ik nu iets moeten kopen een RX6700 ofzo kopen dan een AMD of Nvidia 8GB kaart uit de 7000 of 4000 serie.

Ik berekende bijvoorbeeld bij de 7600 Reviews dat een 7600 eigenlijk niet meer mag kosten dan €200-219 op basis van wat de kaart brengt relatief tot N23 gebaseerde kaarten (RX6600) een performance en hoe toekomst bestendig de kaart is. Een 4060 zou ook ongeveer op dat bedrag moeten zitten (Nvidia kan natuurlijk vanwege features iets meer vragen, maar een 4060 zou echt niet rond de €300 of meer mogen zitten). En een 4060 Ti 8GB zou eigenlijk niet meer mogen kosten dan €350, maar zou eigenlijk eerder rond de €300-€319 moeten zitten.

[Reactie gewijzigd door Dennism op 23 juli 2024 15:13]

Maar sinds de RX7600 dus rond de 300 euro kost en alternatieven nog meer stroom gebruiken lijkt me juist de 4060 mogelijk alsnog een aantrekkelijkere keuze te worden. Zeker als deze dus gewoon in bijna elke game beter is dan de 3060 en dus ook met de RX7600 in de meeste benchmarks wedijvert. 219 euro of de huidige 289 euro voor de RX7600 zoals nu is nogal een groter verschil dan 300 euro of de hier genoemde 330 euro. Maar het dus nog even afwachten of niet alleen de heel erg basic 4060s in de buurt blijven van die 330 euro.
Maar dat is nu juist het probleem, de 7600 zit veel te duur in de markt, de 3060 is nog altijd veel te duur voor wat je krijgt. Wanneer de 4060 dan nog duurder in de markt gezet wordt is dat nooit een aantrekkelijke keuze, tenzij je in een vacuum aan het kijken bent naar alleen de 3060, 4060 en 7600. Die kaarten zijn op dat prijspunt hun geld niet waard en dus ook nooit aantrekkelijk.

Als je nu eens wat verder kijkt in de pricewatch zie je dat de RX6600 ronde de €199-€219 verkrijgbaar is ( categorie: Videokaarten )

Als consument moet je minimaal een 30% (en eigenlijk meer richting de 50%) gen on gen verbetering verwachten op een gelijk prijspunt, de 7600 is ballpark net geen 30% beter dan de RX6600, en zou dus ongeveer net zoveel moeten kosten als dat de RX6600 kost (waarna de RX6600 naar beneden had gemoeten, zodat we eindelijk weer een redelijke instap kaarten hebben op +-€150), tussen de €199 en €219 dus, die €289 die je nu ziet is veel en veel te duur, en alleen al daarom moet je die kaart dus op dit moment niet eens overwegen. Zonde van je geld, tussen de RX6600 en RX7600 zit gen on gen een achteruitgang qua prijs performance. Dat betekent dat een 4060 die over het algemeen langzamer zal zijn dan de 7600, maar wel iets meer features heeft ook maximaal rond dat bedrag mag zitten in een concurrerende markt als je niet teveel wil betalen.

Doordat 3060's nog op 300+ zitten, 7600's op €289 en de 4060 een net zo belachelijke instap krijgt van €329 kan je al zien dat de markt nog altijd niet hersteld is. Het beste advies op dit moment is dus simpelweg geen enkele van deze idioot geprijsde kaarten kopen, als je nu echt iets wil kopen, kies dan voor een van de weinige kaarten van de vorige generatie die enigszins OK geprijsd zijn. Want geen enkele van deze nieuw geïntroduceerde kaarten in het lagere segment is aantrekkelijk geprijsd en helaas de meeste van de vorige generatie ook nog steeds niet. Zeker de Nvidia kaarten. AMD prijst de 6000 serie kaarten over het algemeen iets aantrekkelijker, maar ook daar is het zoeken naar een goede deal (vaak N22 kaarten).

[Reactie gewijzigd door Dennism op 23 juli 2024 15:13]

Tja als je de verbeteringen (stroomverbruik, frame generation) negeert kom je al gauw uit bij een verouderde type videokaart uit tegenwoordig. Dat de prijzen niet zo zijn als ik zou willen kan ik bevestigen. Maar het is nou ook weer niet zo dramatisch slechter dan toen ik de 1660 Super kocht wat toen echt een hele goede koop was (voor de GPU Scalping en bitcoin ellende) Hopelijk dwingt het gedrag van de consument door gewoon het nog een tijdje uit te zingen met een oude kaart tot prijsverlagingen. Maar om nu alsnog een verouderde stroomzuipende kaart te kopen : Jakkes!
Frame generation is niet in alle gevallen een verbetering, De 'nep' frames verhogen immers ook de latency waardoor het al snel onbruikbaar is of voor een nadeel zal zorgen in multiplayer games, daarnaast zorgt het voor grafische artefacts in diverse games, iets wat zeer veel mensen als hinderlijk ervaren omdat het je aandacht trekt.en afleid van het gamen.

Verder zou ik me ook niet te druk maken over het stroomverbruik, zoals al gezegd, het is een voordeel de 4000 serie kaarten, maar hoe lager je gaat in de stack, hoe kleiner het voordeel wordt in absolute besparingen op de stroomrekening. Dit zal natuurlijk voor iedereen anders zijn, maar als ik even snel reken moet je gemiddeld zo'n 2 tot 2,5 jaar lang 2 uur per dag (dus 365 dagen per jaar) gamen om een 4060 terug te verdienen over een 7600 als je uitgaat van 40 euro prijsverschil en een bovengemiddeld hoge kWh prijs op dit moment (en momenteel dalen die prijzen weer, wat het mogelijk voor de toekomst minder gunstig maakt voor de 4060) en dan is de 7600 amper tot niet efficiënter dan AMD's 6000 serie. Zo 'stroomzuipend' zijn die 'oude' kaarten niet dus niet niet als het allemaal even in perspectief zet.

Neemt niet weg dat het een voordeel is, en zou de 4060 goed gepositioneerd zijn in de markt zou dat ook een voordeel moeten zijn dat je zeker moet meenemen, echter reken je dus op dat vlak niet rijk bij de huidige positionering in de markt en laat je vooral niet om zo'n reden verleiden tot het doen van een slechte aankoop. Hopelijk heb ik het mis, maar je komt namelijk wel redelijk gevoelig over voor (Nvidia's) marketing op mij, en dat is in een tijd als deze niet handig.

[Reactie gewijzigd door Dennism op 23 juli 2024 15:13]

Waarom zou frame generation in alle gevallen een verbetering moeten zijn? Het valt iig verwachten dat het in nieuwe games goed ondersteund gaat worden.
Latency is vooral een probleem bij schietspelletjes online of bij mensen met veel latency in de internetverbinding. Voor mij iig geen issue.
Een videokaart gaat bij mij een jaar of 4~5 mee tegenwoordig dus reken maar op iets van 50 euro omdat ik gemiddeld wel 1 uur per dag game savonds als de zonnepanelen geen stroom meer leveren. (Btw aangezien de gasprijzen weer stijgen zullen de stroomprijzen dat straks ook weer doen) Stroomverbruik komt voornamelijk als hitte vrij. Ik stel mijn spellen er zelfs op in dat mijn 1660Super iig in de winter de fans nauwelijks draaien. Dus voor mij is verminderde stroomverbruik ook een kwestie van fps performance.
Ah ook hier weer de kinderlijke frame over dat ik overgevoelig voor marketing zou zijn. Je zou ook kunnen zeggen dat marktpositionering van Nvidia beter aansluit op mensen die andere wensen hebben dan jij en die klaarblijkelijk een overgrote meerderheid vormen.
Wat ik hier zie is dat er nogal mensen die overgevoelig voor online verhalen zijn die opzichtig allerlei voordelen van Nvidia simpelweg als marketing afdoen. Daarom zoek ik meestal gewoon spellen die mij aanstaan met vergelijken tussen GPU's zodat ik iig niet naar lange complete biassed verhalen hoeft te luisteren/lezen.
Waarom ik enigszins hoop op het bevallen van de 4060 nog niet heb opgegeven zijn daar bij enige RT Overdrive benches in 1080p zonder nog frame generation aan( uiteraard wel met DLSS3 upscaling) uitkomen rond de 40-50fps. Als dan een 16 Gb 4060 deze op 30-40fps kan tonen gaat dat dus met frame generation naar de 60fps. Meer hoef ik niet, maar ook niet minder. Want dan stel ik de koop nog een generatie uit.

Het ingaan op 'AMD Marketing' van bitcoin loosers die hun videokaarten kwijt moeten lijkt me ook niet handig en ook niet op de marketing van webshops die nog wel flinke voorraden hebben liggen die ze zelfs met prijsverlagingen hun magazijn niet meer uitkrijgen. Ik zeg niet dat jij daaronder valt, maar je kinderachtige frame is ongeveer van hetzelfde nivo.
8GB is genoeg voor de 4060, kaart is toch niet snel genoeg voor 1440p en hoger waar meer dan 8GB nodig is.
Dat klopt al niet, er zijn immers al games geweest die zelfs op 1080P uit het vram liepen en daardoor texture issues lieten zien. Dat zijn nu nog de uitzonderingen, maar blijft dat ook zo?. Men koopt een videokaart niet alleen voor nu, bij de meeste consumenten moet zo'n ding minimaal 3 tot 5 jaar meegaan, soms zelfs langer. En dan is 8GB ram wel een (flink) risico, zoals de meeste reviewers ook al aangeven, het is totaal niet future proof. Ik vind 8GB is genoeg dan ook een wat voorbarige conclusie, of 8GB genoeg is om de komende 3-5 jaar te kunnen blijven genieten van je kaart zonder flinke consessies te moeten doen is immers maar zeer de vraag. De reviewers en andere tech enthusiasts / journalisten e.d. waarschuwen er immers niet voor niets voor dat 8GB, zelfs aan de onderkant van de markt een risico wordt en dat ze eigenlijk minimaal 12/16GB (afhankelijk van de bus) hadden willen zien op deze kaarten.

Zeker de mensen die de lagere segmenten moeten shoppen hebben immers niet de mogelijkheden om alsnog te vervangen mocht het een miskoop blijken wanneer 8GB over 2 jaar toch niet voldoende blijkt.

[Reactie gewijzigd door Dennism op 23 juli 2024 15:13]

8 Gb als je geen moderne technologie ingame aanzet, maar dan kun je haast net zo goed AMD kopen zolang het stroomverbruik geen issue vindt. Ook op 1080p zijn er dus als nieuwe spellen die met bepaalde settings over de 8 Gb gaan
Blijf het bijzonder vinden dat er een 16 gb variant komt, en ik met m’n 4070ti aan 12 zit?
Baal er nu al van :9
Zoiets hadden we met de 30-serie toch ook al? De 3060 Ti t/m de 3070 Ti kregen 8 GB, maar de 3060 had heel lang standaard 12. Dat maakt het misschien niet eens minder gek, maar het is in ieder geval niet nieuw.
Er valt ook wat voor te zeggen dat de “beter kaarten” het beter af kunnen met minder maar hogere bits (256?) ten opzichtte van de 12gb (192?)

Maar er zijn nu gewoon toepassingen die vram hongeriger zijn, ongeacht hoe vlot de kaart is. Veel nieuwe games is 16gb al snel recommended.

En zeker AI gerelateerd spul, diffusion enzo, is ook super vram hongerig. 32gb vram is niet te betalen (dan zit je aan 3090 of 4090)

Maar punt was dat meer gb vram niet per se altijd beter is, zijn andere factoren die mee spelen.

Als ze dit ding uitbrengen met een 128bit bus, dan heeft hij waarschijnlijk niet eens veel aan die 16gb, en is een 12gb 4070 nog steeds beter

[Reactie gewijzigd door Zoop op 23 juli 2024 15:13]

32gb vram is niet te betalen (dan zit je aan 3090 of 4090)??? ook die hebben geen 32gb aan vram
Veel nieuwe games is 16gb al snel recommended.??? ja intern geheugen niet het geheugen van de videokaart, bij de recommended system requirements word namelijk niet eens aangegeven hoeveel vram je moet hebben, er word gewoon gezegd welke kaart

[Reactie gewijzigd door paco2013 op 23 juli 2024 15:13]

32gb vram is niet te betalen (dan zit je aan 3090 of 4090)???
Nee joh, laat je niets wijs maken. 8GB GDDR6 kost $27.
bron: https://www.tomshardware.com/news/gddr6-vram-prices-plummet

Dus een kaart van €300 of meer moet echt minimaal 16GB hebben. Want voor het geld mag je dat er echt wel van verwachten. Mensen die nog kaarten met 8GB kopen worden gewoon keihard genaaid.

Niet kopen dus deze 8GB kaarten.
huh? je kunt beter op de gene reageren die dat zei
Had even niet gezien dat jij die tekst ge-copy/paste had van comment boven jou. Je had de quote tags kunnen gebruiken om deze verwarring te voorkomen.

Oh well. De inhoud klopt gelukkig wel. De kosten van GDDR6 zijn zo laag dat 8GB kaarten niet meer te verantwoorden zijn.
Verkeerd gelezen. Reactie verwijderd

[Reactie gewijzigd door RobertPeterson op 23 juli 2024 15:13]

Meer, maar trager. Komt door de breedte van de geheugenbus en de beschikbare formaten van geheugenmodules.
Je hebt er vrij weinig aan. Volgens mij was het gamer Nexus die bij de review van de 4060ti die volgens mij dezelfde busbreedte heeft al had onderzocht dat 16gb bij deze kaart praktisch niks uit gaat maken gezien de bus niet zoveel kan met het extra geheugen en je dus of beter gewoon geld kan besparen en voor de 8GB versie kan gaan of gewoon een heel andere kaart met 12GB of meer kan kopen.
Hoezo heb je daar weinig aan? Ik loop met een paar jaar oude Forza Horizon al tegen memory warnings aan op 4k.
Nouja, als het geheugen groter is maar de bus, waar uiteindelijk de data doorheen moet niet breed genoeg is om al dat extra geheugen te verwerken heb je er dus weinig aan. Je kan een 6 baans snelweg aan leggen en zeggen "daar kan lekker veel verkeer overheen" maar als die weg ergens in het midden over een 4 baans brug heen moet heb je er weinig aan dat het eerste deel 2 banen extra heeft.
Het is makkelijker te begrijpen als je bedenkt dat Nvidia al hun kaarten deze generatie (met uitzondering van de 4090) met één positie in het prijssegment heeft opgeschoven. Een 4070 met 16 GB was logisch geweest. Een 4060 en 4060 Ti met 12 GB waren logisch geweest. Een 4050 met 8 GB was logisch geweest. En een 4050 met 16 GB was niet nodig geweest, in tegenstelling tot de 4060 met 16 GB die we nu krijgen en die totaal niet logisch is.
Opgeschoven, geheugen karig en smal en de prijzen gestoord mij een PS5 heb doen kopen en op de gpu na (3070) een lekkere systeem upgrade gedaan (Asus X670E mini itx, 7900X)
Tja elke generatie upgraden in GPU's is naar mijn idee sowieso vreemd, of je ze nou te duur vindt of niet. Dat was sowieso echt altijd al een luxe-koop.
Deze kaartjes zijn daarom leuk voor de professionele markt. Voor gaming heb je niet zoveel aan die 16GB, maar er zijn zat applicaties die gewoon veel geheugen nodig hebben en waarbij je geen drol hebt aan de veel duurdere Quadro kaarten.
12% sneller dan de vorige generatie 3060 ti, vindt het bad value for money.

En als pro wat moet je hiermee?

[Reactie gewijzigd door Jonathan-458 op 23 juli 2024 15:13]

Ik draai Unreal, dat vreet videogeheugen maar je hebt niet persé veel performance nodig van je kaart. Ik gebruik dus momenteel die 12GB RTX 3060 en dat werkt helemaal prima.
Verder kan je denken aan dingen als videobewerken, 3D rendering, dat soort dingen. Ja, een RTX 4090 heeft meer performance maar dat kunnen we niet allemaal betalen en geheugen heb je echt nodig.
Ook Stable Diffusion werkt beter op een 12GB RTX 3060 dan op een 8GB 3070.

[Reactie gewijzigd door Wolfos op 23 juli 2024 15:13]

Diablo 4 snoept ondertussen zo 19.5 gb op van mijn 3090 :+
Is een niet merkbaar verschil qua prestaties dus denk niet dat je hoeft te balen.
wil je 4k spelen? Als je een lagere resolutie hebt loop je niet snel tegen een limiet van 12gb aan denk ik.
Ik speel al 4k. Krijg memory warnings in onder andere Forza Horizon.
dan is het idd balen. Ik speel op 1440p en heb aan mijn 3060ti met 8Gb genoeg. Ik kijk wel over een tijdje wel als de 16Gb kaarten 2ehands beschikbaar worden
Je hebt niets aan geheugen als de gpu er niets mee kan.
altijd wachten met kopen :)
nvidia doet dit geintje elke keer...dat moet/had jij kunnen weten toch?
Ja, maar ik had simpelweg niet verwacht dat ik met Forza bijv al tegen memory issues aanliep
"Beyond terrible" bedoelt Nvidia eigenlijk te zeggen. Maar een typo is ze vergeven. :+
Deze chip heeft bijna 71% van de shaders van de RTX4060Ti en mist zo te zien ook iets meer dan 5% geheugenbrandbreedte. Aardige kans dat de RTX4060Ti dan ook circa 30% sneller is. En daarmee zou de toch al erg matige RX7600 die AMD op het laatste moment verlaagde naar $269, iets sneller zijn dan de RTX4060 die $299 moet kosten.

Erger nog, ik zie de RTX4060 ergens tussen de RTX3060 12GB (de 8GB is langzamere videokaart die niemand zou moeten kopen) en de RX6700XT (30% sneller dan de RTX3060 12GB) uitkomen qua prijs en prestatieniveau. En ik denk dat beide opties van de vorige generatie, betere producten zullen blijken te zijn omdat ze tenminste 12GB aan VRAM hebben alsmede respectievelijk 88GB/s en 112GB/s meer geheugenbrandbreedte.

Deze RTX4060, tja die laat de RTX4060Ti er misschien nog goed uitzien in vergelijking. :F
Als een eventuele 16 Gb versie van de 4060 rond de 350 euro gaat kosten ga ik twijfelen. Ik zie namelijk al wel benchmarks op de 4060TI waar 8Gb overstroomt als DLSS3, frame generation en RT zijn ingeschakeld. Het geheugen op de videokaart wordt alsnog veel sneller aangesproken dan via de PCI-e 4.0 x 8 bus . Bij de 960 zei men hier ook dat 4Gb ipv 2Gb geen zin zou hebben, maar later bleek dat echt wel het geval!
je bent wel helemaal mee met de marketing termen he... DLSS3, RT, .. dat is net het probleem. Gamers gaan denken dat het een must is om dit aan te zetten bij gaming.

Ik draai 6800XT 1440p native met freesync, gpu gekocht begin 2021 aan net 600eur, geen marketing termen nodig, gewoon goeie kracht en genoeg vram. Kan je vandaag terug kopen voor eenzelfde prijs, nog steeds de betere keuze dan al die nieuwe kaarten met marketing termen (ook de 6750xt trouwens)
Wat een kinderachtige frame. Nee het zijn gewoon verbeteringen aan bestaande technologiën waar dus de AMD fans deze dus nogal eens kinderachtig negeren alsof het alleen maar marketing zou zijn en dus alleen naar situaties kijken waar deze niet gebruikt worden.
Het is simpel : Natuurlijk is het niet nodig, maar als je een game wilt speelt met hoge settings met RT op 1080p dan is dat eigenlijk alleen goed mogelijk als je DLSS3 en frame generatie.aanzet in dit segment. En dan alleen als je geen hoge FPS nodig hebt zoals de multiuser schietspelletjes nodig is. En als je daarbij stroomverbruik dus wel belangrijk vindt, wat ik dus al een jaar of 10 mee laten wegen in mijn keuze, kom je simpelweg nog steeds bij Nvidia uit. Maar 16 Gb is voor mij dus wel nodig om het te kopen. (Eventueel 12 Gb maar die verwacht ik hier niet)
P.S. Als je zo'n aversie tegen marketing hebt. Trap dan iig ook niet in subjectieve sensatiezoekers op youtube.

[Reactie gewijzigd door AtariXLfanboy op 23 juli 2024 15:13]

Tja...wie moet je dan geloven? nvidia zelf? die maakt het altijd mooier dan het is he!
Als ik de review op youtube zie en er wordt vergelijkt......komt nvidia toch slechter uit de bus he.

Dus subjectieve sensatiezoekers op youtube zegt meer dan hun eigen marketing.

p.s dit zegt iemand die zelf ook een nvidia kaart heeft { cerberus 1070ti }

Mijn kaart word ook kamp rood als deze het niet meer doet.
Youtube reviewers zijn steeds meer onderhevig aan hun inkomstenmodel en worden dus steeds meer een tell sell kanaal die producten die niet hun businessmodel bevoordelen negatief behandelen. Dat bedoel ik dus met marketing hier. Ook zijn types als Gamer Nexus overdreven negatief omdat het hun nou eenmaal meer views oplevert. Zijn review van de 4060ti was iig genant selectief in het nadeel van Nvidia. Enkele andere reviewers hadden een veel beter onderbouwd en dus minder selectief verhaal. De AMD fanboys laten horen wat ze willen is ook marketing. Aangezien die als onderliggende partij nog al fanatiek zijn en heilig overtuigd van hun superioriteit zijn zijn deze erg vatbaar voor het delen van selectieve nonsens.
In aardig wat gevallen komt Nvidia geheel normaal dus ook slechter uit de bus. Dat is dus naar wat voor instellingen je kijkt. Wat dus je use case scenario is. Maar mijn use cases zijn simpelweg oprecht en niet selectief uitgezocht. Juist enige frustratie hier dat AMD bij GPU's nog steeds niet genoeg daarvoor levert. Terwijl ik na lange tijd eindelijk weer eens een AMD CPU heb draaien.
De 1070ti is dan ook 180W ipv mijn huidige 1660Super die op 125W uitkomt. Ik weet het nog niet. Naast een game gpu ben ik op de middenlange terrein ook nog op zoek naar een silent videokaart als op opvolger voor een 1030. Wie weet wordt dat de 4050.

[Reactie gewijzigd door AtariXLfanboy op 23 juli 2024 15:13]

waarom zou je nog een 1030 hebben en overwegen naar 4050.. kijk gewoon richting de nieuwe APU en je hebt alles in een systeem. Heb je ineens een lager verbruik in totaal... maarja het is geen nvidia met al die marketing er rond... ben ik ergens ook nog toevallig g-sync vergeten? :D

en ik doe geen enkele verwijzing naar een youtube, het laatste wat ik zal volgen met al hun clickbait en sponsering stukken erin.

RT + DLSS3 op hoge settings op 1080p... tsjah einde story... dan smijt ik maar al te graag RT buiten... de grootste opgeklopte rommel. Je bent bezig met gaming, RT is een visuele design gimmick.
Een silent GPU voor een mooi energiezuinig en stille upgrade van een systeem dat ik dus al heb. De huidige APU's zijn ook niet veel sneller dan de 1030. En de hitte van een GPU op een APU verdwijnt via het kleine stukje van de lid dus zal dat altijd een noodzaak voor een fan hebben.
En de rest is subjectieve nonsens.
Opvallend. De vorige x60 kaarten waren namelijk duurder. Dit is in adviesprijs een korting van 30 dollar. Nvidia heeft er waarschijnlijk voor gekozen om min of meer gelijkwaardige performance te leveren op een lager prijspunt. Dit gecombineerd met een significant lager stroomverbruik. Dit is overigens wel een 'eis' die ik vaak op tweakers voorbij heb zien komen in reacties.

De 4 serie is uberhaupt absurd energiezuinig. Met een fps cap zijn zowel de 4060 Ti als de 4070 de helft zuiniger dan een 1660 super. Tegelijkertijd is dat tevens bijna de helft van een 3080 terwijl de 4070 min of meer gelijkwaardig presteert.

Het lijkt erop dat Nvidia heeft hiermee inspeelt op de hoge energieprijzen en een eventuele economische terugval.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 15:13]

Staat me bij dat dit bij al wel eens eerder gedaan is bij Nvidia. Oa bij de 650ti en een van de grote successen van Nvidia ... de 750ti. Destijds ging het om een dieshrink. Nu lijken ook de cache en beperkte memory bus een rol te spelen? Dit zou dus kunnen betekenen dat als er een 4050 zou komen er misschien daarvan ook een fanless versie komt ? Zoals dus bij de 750ti en de 1030. Eerlijk gezeg wel weer tijd voor een silent gpu!
Alles draait nog prima op 3060ti op 1440p dus voorlopig niet nodig
4060 ti is volgens digital foundry ongeveer even snel als de 3060 ti dus ik zou deze sws maar skippen.

https://m.youtube.com/wat...=ygUPZGlnaXRhbCBmb3VuZHJ5
Komt vooral omdat de 3060 Ti een 3070 was maar dan iets ingeperkt, geen snellere 3060. Dat zag je ook terug in bijvoorbeeld de hashrates, die van de 3060 Ti en 3070 waren gelijk.

De 4060 Ti is wel een "turbo versie" van de 4060 zeg maar.
Dat klopt deels, bij de 3000 serie zag je inderdaad dat de 3060 een lagere tier chip had. De 3070 en 3060 Ti waren namelijk gebaseerd op GA104 en de 3060 op GA106 (een kleinere chip). Waardoor inderdaad de 3060 Ti meer het kleine broertje was van de 3070 dan de grote broer van de 3060.

Nu de 4000 serie zie je echter dat de 4070, 4060Ti en 4060 allemaal gebaseerd zijn op andere chips, namelijk AD104 voor de 4070, AD106 voor de 4060 Ti en AD107 voor de 4060. Geen van deze Sku's zijn deze keer dus een afgeleide van elkaar gebaseerd op hetzelfde silicon.
Ah dat wist ik niet, vandaar dat het verschil nog wel redelijk is tussen de 4060 en de 4060 Ti.
Dat ligt er maar net aan wat jij onder prima verstaat. Voor mij zou deze kaart echt niet voldoen.
Geen interesse 🙂
dat is zon beetje hoe iedereen denkt als het gaat om de 40 serie.
Naja ik zou best een 4080 of 4090 in mijn systeem willen prikken (heb nu een 3080), maar €2000 ga ik er niet voor uitgeven. :+
Dus heb je uiteindelijk alsnog geen interesse, al is het maar om de prijs :P
Zo denk ik er ook over helaas.
Eindelijk de vervanger voor de GTX460?

Op dit item kan niet meer gereageerd worden.