Gerucht: Nvidia GeForce RTX 4060-videokaart krijgt AD107-gpu met 3072 CUDA-cores

Nvidia's komende GeForce RTX 4060-videokaart voor desktops krijgt mogelijk een AD107-gpu met 3072 CUDA-cores en een stroomverbruik van 115W. Dat meldt bekende Nvidia-leaker kopite7kimi. Het is niet bekend wanneer de videokaart moet uitkomen.

Kopite7kimi meldt op Twitter dat de RTX 4060-desktopvideokaart een AD107-400-gpu krijgt. Deze leaker deelt vaker correcte informatie over Nvidia-gpu's voordat ze uitkomen. Volgens kopite7kimi krijgt de gpu 3072 CUDA-cores. Daarmee zou de kaart ook 96 Tensor-cores en 24 cores voor raytracing moeten krijgen. De RTX 4060-desktopvideokaart zou hiermee dezelfde chip krijgen als de eerder aangekondigde RTX 4060 voor laptops, die eveneens beschikt over 3072 CUDA-cores. Ook de tgp van 115W is hetzelfde in zowel de desktop- als de laptopvariant.

Daarbij moet de videokaart 8GB GDDR6-geheugen krijgen met een snelheid van 18Gbit/s. De leaker noemt geen informatie over de geheugenbus. De RTX 4060 voor laptops heeft echter een 128bit-geheugenbus heeft. Als dat ook geldt voor de desktopvariant, dan biedt de RTX 4060 een bandbreedte van 288GB/s. Verder krijgt de RTX 4060 24MB L2-cache.

De GeForce RTX 4060 heeft nog geen concrete releasedatum. Ook is nog niet bekend wat de videokaart moet gaan kosten. Er gaan al wel langer geruchten rond over de komst van lager gepositioneerde RTX 40-gpu's. Zo werd er eerder al gerept over een mogelijke RTX 4060 Ti en RTX 4070. Die laatste komt volgens geruchten in april uit. De videokaarten worden gebaseerd op de Ada Lovelace-architectuur, die eerder werd geïntroduceerd in de hoger gepositioneerde RTX 4090, RTX 4080 en RTX 4070 Ti.

Videokaart RTX 4060 desktop RTX 4060 laptop RTX 3060
Architectuur Ada (TSMC 4N) Ada (TSMC 4N) Ampere (Samsung 8nm)
Gpu AD107-400 AD107-400 GA106-300
CUDA-cores 3072 3072 3584
Tensor-cores 96 96 112
RT-cores 24 24 28
Geheugen 8GB GDDR6 18Gbit/s 8GB GDDR6 16Gbit/s 12GB GDDR6 15Gbit/s
Geheugenbus 128bit? 128bit 192bit
Geheugenbandbreedte 288GB/s? 256GB/s 360GB/s
Tgp 115W 115W 170W
Releasedatum Nnb Februari 2023 Februari 2022

Door Daan van Monsjou

Redacteur

14-02-2023 • 07:42

93 Linkedin

Lees meer

Reacties (93)

93
93
65
6
0
14
Wijzig sortering
Slechts 8GB videogeheugen voor de desktop kaart? Dat is een tegenvaller.
Eens. In de nieuwste games zie je al dat 8GB VRAM echt het nieuwe minimum is en dat zal in de toekomst alleen maar vaker voor gaan komen.

8GB is het nieuwe 4GB zeg maar.

Wil je een tijdje vooruit met je nieuwe GPU dan wil je er echt wel één met meer dan dat.
Ben niet helemaal thuis in video kaarten, maar gaat dit niet om reference cards? Er is toch niets dat een fabrikant tegenhoud om bijvoorbeeld een 12 of 16GB variant te makens?

De geheugenbandbreedte is ook een derde lager, dat icm het beperket geheugen lijkt me erg pijnlijk met de 4k en 8k textures van tegenwoordig.
Dat andere fabrikanten aan de haal mochten gaan met meer of minder geheugen is al vele jaren niet meer aan de orde, vanwege de regels die NVIDIA opstelt.

Daarnaast is het aantal geheugen gelinkt aan de BUS snelheid, dus je kan niet zomaar 12GB op een 8GB kaart solderen, dat word dan 16GB.

[Reactie gewijzigd door TheDeeGee op 14 februari 2023 09:37]

En als ze 16GB op de kaart solderen, dan krijgt je weer een 3060 scenario waarbij een lager gepositioneerde kaart meer geheugen heeft dan een hoger gepositioneerde kaart.
Ik heb het vermoeden dat Nvidia dat wilt voorkomen.
Ik heb het vermoeden dat Nvidia dat wilt voorkomen.
Denk het niet, nVidia is al heer en meester om kaarten uit te brengen met de zelfde naam maar andere specs, die verwarring die ze scheppen helpt waarschijnlijk alleen maar mee om extra kaarten te verkopen

Het mooiste vond ik nog dat ze de 4080 12GB gecanceld hadden omdat ze geen verwarring wilden scheppen met 2 kaarten met dezelfde naam... en letterlijk een maand later brengen ze wederom een kaart uit met dezelfde naam en andere specs (3060 geloof ik)

[Reactie gewijzigd door Sinester op 15 februari 2023 12:45]

Ja, die 8gb rtx3060 is triest. En kost maar 2 tientjes minder, om mensen te laten denken dat ze een goed product neer hebben gezet. Want als je reviews zoekt, vind je snel de 12 gb versie en denk je dat het goeie prestaties heeft.
Die 3060 8Gb vind ik een typisch kaartje om later in OEM prebuild Pc's aan te treffen.
De hoeveelheid is gelinkt aan de Busbreedte , 128bit=8GB , 192bit=12GB , 256bit=16GB 384bit=24GB
Dat laatste dus inderdaad. Heb zelf een 3060ti nu met 8GB en dat is wel een beetje op het randje met de nieuwste games. Ik speel zelf op 1440p en dan moet je textures echt wel terug schroeven wil je onder de 8GB blijven. Ga je er overheen dan moet er worden geswapt en dan kakt je FPS heel hard in. Geen probleem natuurlijk, mijn kaart was een mid-range bij release, en vooruitgang enzo. Maar dan moet de opvolger zometeen wel vooruitgang bieden. Benieuwd wat ze gaan doen voor een evt. Ti versie.

V.w.b. dat eerste: geen idee, ook niet of dat zin heeft gezien de kleinere bandbreedte? Ligt een beetje aan de game denk ik. Als alles in 1x kan worden ingeladen of als het streaming is (open world games)?
Ik heb geen idee wat jij speelt maar mijn 3070 kan echt overal op ultra zonder iets terug te hoeven zetten… op 1440p
Betere vraag is wat jij dan speelt want er is no way dat een 3070 alle games op ultra kan spelen op 1440p en dan nog 60+ frames kan behalen

Bij bijvoorbeeld Cyberpunk zou dat iig al onmogelijk zijn (Ultra, RT en geen DLSS)
Ik heb het over het vollopen van de 8gb vram.
Ik vertrouw die ‘usage’ lijstjes totaal niet. Voorbeeldje : Bij Horizon Zero Dawn met mijn RTX 2060 was Vram ‘usage’ 5500mb. Met mijn RTX 3070 ineens 7000mb. Zelfde instellingen. Het is helemaal geen usage, het is allocated…
Nee, een AIB kan geen 12 GB variant maken. Daarvoor is een 192 pins geheugenbus nodig - zie de vergelijking met de 3060. 16 GB is waarschijnlijk theoretisch mogelijk (dubbel zo grote geheugenchips) maar waarschijnlijk contractueel verboden. Dan maak je als AIB een concurrent voor een 12GB 4060Ti of 4070, dat wil NVIdia niet.
Deze kaart heeft qua specs ook maar 1/5 van een 4090 aan boord. Je moet er niet te veel van verwachten in dit segment, al maakt nvidia hem waarschijnlijk nog steeds 400 euro ofzo....
Je moet je lagere segmenten product niet vergelijken met je prestige product.
Voor 1080p 144mhz is 8gb toch wel voldoende? Verder vallen de specs mij op het eerste gezicht wat tegen
De 3060 met 12gb doet het beter dan de 3070 op en 3080 in hogwarts legacy als raytracing aangaat.

De 3070 verliest uberhaubt van de 3060 12gb ook zonder raytracing van 1440p of hoger.

[Reactie gewijzigd door SactoriuS op 15 februari 2023 20:03]

55W minder verbruik vergeleken met de 3060 is mooi meegenomen. Jammer dat het enkel in dit segment is en niet in het hoger.
Je ziet in alles dat Nvidia gewoon elke chip een hoger nummertje meegeeft.

Dit had een RTX4050 moeten zijn, geen 4060. De 4070Ti wilden ze ook eerst als 4080 uitbrengen.

Kijk eens naar die chip: slechts 96 Tensor-cores, 24 RT-cores, een rampzalige 128-bit bus en maar 8GB geheugen?

Zal vast een fantastisch succes worden: een RTX4060 die 10% sneller is dan een 3060, maar natuurlijk wel weer 30% duurder.
Het is een gerucht hè? Ik denk dat de meeste dingen wel eens kunnen kloppen, maar ik kan geen 128bit geheugen bus op een xx60 kaart voorstellen. De 1060, 2060 en 3070 hadden allemaal een 192-bit bus, misschien is een 192bit - 12GB VRam combinatie wat realistischer?
ook de 4070 ti had mss nog 1 a 2 nummertjes lager moeten zijn.
Lijkt niet echt een upgrade tov de 3060 te zijn, vreemd.
Wel als, doordat deze zuiniger en dus waarschijn minder warmte geeft, de kaart nu wél een optie is voor je configuratie. Het zelfde geld zelfs nog meer voor laptops.
Mja, had het dan geen 4050 moeten zijn? Nvidia en vreemde keuzes voor de nummering van videokaarten gaat maar door.

[Reactie gewijzigd door Hulleman op 14 februari 2023 08:08]

Eigenlijk is het nog erger: zowel in absolute die-oppervlakte als in relatieve die oppervlakte is deze chip veel kleienr dan zelfs een 50 klasse kaart, laat staan een 60 klasse.

En omdat ik door zulke feiten te benoemen altijd een klein leger boze groene mannetje in mn inbox krijg: hier de die oppervlaktes van de GPUs van de afgelopen generaties:

4000 serie:
4090: 608 mm2
4080: 379 mm2 (62% van topmodel)
4070 ti: 295 mm2 (48% van topmodel)
4060: 146 mm2 (24% van topmodel)

3000 serie:
3090: 628 mm2
3080: 628 mm2
3070 ti: 392 mm2 (62% van topmodel)
3070: 392 mm2 (62% van topmodel)
3060 ti: 392 mm2 (62% van topmodel)
3060: 276 mm2 (43% van topmodel)
3050: 276 mm2 (43% van topmodel)

2000 serie:
2080 ti: 754 mm2
2080: 545 mm2 (72% van topmodel)
2070: 445 mm2 (59% van topmodel)
2060: 445 mm2 (59% van topmodel)
1660 (50 klasse van deze generatie): 284 mm2 (37% van topmodel)

Ik ga niet nog oudere generaties volledig opzoeken, maar als we nog verder terug gaan enkel voor de xx60:
  • de 1060 was 200 mm2 (42% van de 1080 ti)
  • de 960 was 228 mm2 (38% van de 980 ti)
  • de 760 was 294 mm2 (52% van de GTX 780 ti)
Hoe je het ook bekijkt: deze chip is een absoluut dieptepunt. Nog NOOIT heeft nVidia zo'n kleine chip als een xx60 kaart verkocht, en als we naar de prijzen van de andere 40 kaarten kijken wordt dit ook veruit de aller- allerduurste 60 klasse kaart ooit.

[Reactie gewijzigd door kiang op 14 februari 2023 09:09]

4060: 146 mm2 (24% van topmodel)
Eerder een dwerg kaart dus. Gecombineerd met TGP van 170W naar 115W gaat die dus niet echt sneller zijn dan zijn voorganger. Alhoewel ik helemaal verwacht dat Nvidia met slides zal afkomen die DLSS3 frame generatie duplicatie gebruikt om toch te doen alsof die een stuk sneller is.

[Reactie gewijzigd door 87Dave op 14 februari 2023 10:16]

De 4060 hoeft ook helemaal niet veel sneller zijn dan de 3060. Het doel van de 3060 is om voor een zo laag mogelijke kostprijs een kaart te maken die genoeg is voor 1080p en dat dan voor een zo hoog mogelijke prijs te verkopen.
Je zou compleet stupide moeten zijn om een 3050 of 3060 te kopen voor gaming in een markt waar de rx 6600, rx 6650 xt en rtx 3060ti ook bestaan, maar hij verkoopt alsnog goed.
Dat ligt overigens met name aan de pre-built pc's. Een pc met 3060 is namelijk aantrekkelijk geprijsd en hij geeft een prima "experience" in vrijwel alle games in 1080p (of 1440p met wat lagere settings). Radeon GPU's in pre-builts zijn zeldzaam en een 3060ti kost flink meer, dus dan kiezen mensen toch 3060 of 3050.

Als deze 4060 met 146mm2 die uit komt, dan zal ie waarschijnlijk dezelfde rol vervullen. Hij zal wel ongeveer even snel zijn en ongeveer evenveel kosten. Deze kleine chip kost vast flink minder om te maken, dus dit product is leuk voor nvidia en een domper voor de consument. Ik ben benieuwd hoe ie gaat verkopen, maar ik ben bang dat het antwoord "heel goed" gaat zijn...

[Reactie gewijzigd door B127 op 14 februari 2023 14:49]

Is het wel een eerlijke vergelijking though? Met het kleiner worden van transistoren, kunnen er meer per mm2 geplaatst worden (wat ook nog weer andere voordelen (en nadelen) heeft), waardoor een kaart per mm2 waarschijnlijk sneller is.

Ik geef je wel meteen gelijk dat je met 1 generatie niet 40%+ van je die oppervlak compenseren.
Is het wel een eerlijke vergelijking though? Met het kleiner worden van transistoren, kunnen er meer per mm2 geplaatst worden (wat ook nog weer andere voordelen (en nadelen) heeft), waardoor een kaart per mm2 waarschijnlijk sneller is.
Vandaar dat ik de relatieve die area tegenover het topmodel ook altijd meenam, maar ook volgens die metriek is de 4060 een belachelijk kleine chip.

Daarnaast vind ik ook dat het geen goed argument is om aan te halen dat de chips nu sneller zijn dan vroeger: dat lijkt me vanzelfsprekend en simpelweg een vereiste voor elke nieuwe generatie, waarom zouden we anders nieuwe GPUs kopen.

[Reactie gewijzigd door kiang op 14 februari 2023 09:28]

Die relatieve area ten opzichte van topmodel komt zo te zien ook wel heel vertekend uit omdat de 4090 idioot groot is, amper kleiner dan het topmodel van de vorige generatie. Als je vanaf de 4080 begint te redeneren valt het allemaal wel mee zo te zien. Is het niet gewoon dat ze echt all-out zijn gegaan met het topmodel nu? Ook qua prijs uiteraard.

[Reactie gewijzigd door Argantonis op 14 februari 2023 10:18]

Nu is je aanname dat de topmodellen krimpen omdat het procedé krimpt, maar dat is dus niet zo.
  • 590: 520 mm2
  • 780Ti: 560mm2
  • 980 ti: 601 mm2
  • 1080 ti: 471 mm2
  • 2080 ti: 754 mm2
  • 3090: 628 mm2
  • 4090: 608 mm2
Ik zie dus geen enkele indicatie dat de 4090 'bizar all out' is of zo. Hij zit gewoon op het niveau van de 980 ti.

[Reactie gewijzigd door kiang op 14 februari 2023 10:30]

Goed om de modellen van voor de 20xx te zien, lijkt inderdaad dat dat geen trend was, maar dat de 2080 ti opeens weer een stuk groter was dan ervoor.

Hij is wel extreem veel groter dan de 4080, terwijl dat in ieder geval bij de vorige generaties in het lijstje niet zo was. Is het ooit eerder geweest dat de normale xx80 slechts 62% van de grootte was van het topmodel? Bij de 30xx waren ze zelfs even groot.

Het gaat iig alle kanten op qua die sizes tussen allerlei modellen, dus ik ga de onafhankelijke performance reviews wel afwachten qua hoe het er echt uit gaat zien.
De 4080 is al een meer dan historisch normaal gekort tov de 80Ti/90 kaarten, daar wordt al maanden over geklaagd en de reden dat die zo'n beroerde prijs prestatie verhouding heeft tov de peperdure 4090 nota bene.

Dan is het natuurlijk niet logisch om een 4060 met die belachelijke 4080 te vergelijken en te zeggen dat de 4060 wel mee valt. Tenzij je heel zwaar aan RT waarde hecht, is de 4090 is de enige kaart die de moeite van kopen waard is als je het betse wil hebben, voor alles daaronder is AMD de minder slechte optie als de cut down nVidia chips.
Zou allemaal kunnen, voor mij zijn de huidige prijzen in beide kampen sowieso een no-go qua high-end kaarten. Ik heb altijd gekocht wat op dat moment een redelijke prijs/kwaliteit verhouding had, of dat nou AMD of NVidia was. En dat is nog nooit boven de xx60 of het AMD equivalent geweest. Maar ook die zijn nu idioot duur.
Op dit moment zit er bij de 2000 en 3000 series geen verschil in het proces, dus ze hebben allemaal hetzelfde formaat transistors. Maar het is inderdaad het geval dat chips kleiner worden, relatief aan hun topmodellen.

Maar wat er niet staat en wat veel relevanter is en het hele verhaal een beetje onderuit haalt is dat kleinere chips tegenwoordig veel sneller en veel makkelijker hoger clocken.

Dus waar een RTX3060 wel veel kleiner is dan een RTX3080ti, zijn de clocks die de 3060 haalt wel weer hoger, vaak. AMD heeft dat ook en nog veel extremer. Een RX6700XT gaat gemiddeld richting de 2500mhz, vaak zelfs nog hoger, een RX6800 gaat naar de 2100mhz. Maar ook een RTX3060 clockt al snel wat hoger dan z'n grotere broers. Het zou mij niets verbazen als deze 4060 straks ook de 2500mhz aantikt.

De chips zijn zuiniger geworden, dus ze kunnen kleiner en hoger clocken voor hetzelfde resultaat.

[Reactie gewijzigd door fapkonijntje op 14 februari 2023 09:34]

Ik heb het al meermaals gezegd maar bijna alle ICT gerelateerde bedrijven zien een terugval in omzet na covid. Of het nou minder HDDs zijn die worden verkocht, Samsung met hun laagste omzet in 8 jaar, er is gewoon niemand die het beter doet gelet op afzet van producten.

Veel bedrijven proberen dan hun winst veilig te stellen door marges op te krikken. Zij het Nvidia, Samsung, Apple you name it, ze leveren allemaal op zn best hetzelfde zo niet minder zoals we hier zien voor beduidend meer geld. Natuurlijk de inflatie telt een beetje mee maar het gaat gewoon nergens meer over als je als leverancier dit soort bagger aan de man durft te brengen.

Terecht dat wij als consument dan zeggen laat maar die grafische kaart nog een jaartje of twee drie zitten, mn mobieltje gaat ook nog wel even mee immers de laaste generatie biedt letterlijk niks meer dan de vorige.

Ik hoop dan ook eind dit jaar dat bedrijven zoals Nvidia, apple, amd flink op de blaren zitten en ons als consument weer voorop zetten in plaats van de aandeelhouder.
Ik maak zelf gebruik van een GTX1080, tuurlijk heb ik geen Raytracing, maar de kaart voldoet verder nog prima om het merendeel van de games lekker te kunnen spelen op 1080P.
Soms tovert mijn PS5 inderdaad betere plaatjes op mijn 4k tv dan mijn desktop pc op een 1080P scherm doet, maar echt hinderlijk vind ik het nog niet.

Sinds kort maak ik nu ook gebruik van "Nvidia Geoforce Now Ultimate" wat voor sommige games wel een leuke aanvulling is.
Maar ik voel zeker nu de noodzaak niet om een kaart van rond de €1000 te kopen (los van de rest van de pc die aan een upgrade toe begint te komen. 8970x, 32GB RAM, Gen3 M.2 SSD)

Ik denk dat met de huidige prijzen ik het thuis pas rond de Nvidia 5000 gen verantwoord ga krijgen om weer €2200-3000 aan een pc uit te geven.
Chip grootte lijkt me uiteindelijk geen goede indicator omdat het afhankelijk is van het productieproces en de architectuur.

Als een 4060 30% performance haalt van een 4090 met een oppervlak dat slechts 25% van de 4090 beslaat dan is de netto uitkomst positief.

Het is de uiteindelijke performance en de prijs die daarvoor gevraagd wordt die telt.
De architectuur zit in dit geval nog dicht genoeg bij elkaar dat je het naast elkaar kan leggen. Ik zie het niet als iets positiefs als we geen performance winst zien; ga er maar van uit dat deze kaart ook weer meer gaat kosten dan de 3060.
Denk dat de kaart in raster ongeveer even snel zal zijn. Op RT iets sneller zolang je niet uit geheugen loopt.

Edit:
Als je het wil vergelijken dan zou je kunnen kijken naar de 4070 Ti en de 3090 Ti. De 4070 Ti heeft 75% van de shaders en 30% hogere clocksnelheden dan de 3090 Ti. Op 4k is de 3090 Ti 10% sneller, dat zal op lagere resoluties iets minder zijn.
Zoals je ziet is er dus nauwelijks vooruitgang in de architectuur deze generatie. De grote winst komt voornamelijk door het betere procede van TSMC (lager gebruik en hogere clocksnelheden).

[Reactie gewijzigd door Sp3ci3s8472 op 14 februari 2023 13:16]

Eigenlijk is het nog erger: zowel in absolute die-oppervlakte als in relatieve die oppervlakte is deze chip veel kleienr dan zelfs een 50 klasse kaart, laat staan een 60 klasse.
Je koopt van Nvidia een kaart op een bepaald prijspunt en dit staat los van de chip grootte. Nvidia stelt een performance target en dat behalen ze met een zo goedkoop mogelijke chip. Met andere woorden; hoe beter de architectuur des te kleiner de chip.

Als ze met deze chip hun performance targets halen dan zou dat nog weleens goed nieuws kunnen zijn voor de aankomende desktop modellen. De 4070 Ti ging al richting de +30% fps / watt en wellicht dat de lagere kaarten hier nog beter scoren.
en wellicht dat de lagere kaarten hier nog beter scoren.
Die kans is klein dat de perf/watt beduidend beter wordt voor de AD107: die moet je een stuk hoger klokken om goede performance te halen, wat ten koste gaat van efficientie.
Moet je de x090 kaarten niet vergelijken met titans?
1. Dat valt te bediscussiëren of dat het topmodel was als je het over de consumentenmarkt hebt: de Titans waren inderdaad het beste van het beste, maar werden niet naar gamers gemarket.
2. Het maakt niet uit voor een vergelijking op basis van die area: de 780 ti, 980 ti, 1080 ti, en 2080 ti hadden allemaal dezelfde chip, en dus dezelfde die-area, als de titans in hun generatie. Overigens was de performance van die modellen in gaming zowat identiek aan de titans.

[Reactie gewijzigd door kiang op 14 februari 2023 16:05]

Veel duidelijker kan het niet.

De 4080 had een 4070 moeten zijn, de 4070Ti een 4060, en de 4060 een 4050.

Maar ja. Dan kun je er niet ongegeneerd 200 euro extra voor vragen ten opzichte van voorgaande generaties, dus makkelijker om gewoon de getalletjes allemaal even een tiental hoger in te zetten.
"allerduurste 60 klasse kaart ooit."

In mijn optiek ook het minst progressieve kaart.. het is gewoon een downgrade als je hem vergelijkt met de 3000 series. Enige voordeel wat ik hieruit haal is alleen de wattage lager is maar qua performance is het niet perse sneller dan de 3060.
Als deze kaart ook veelal duurder wordt mogen ze hem van mij in hun dikke nvidia reet stoppen. Ga dan een ps5 net zo goed kopen. Echt belachelijk hoe duur videokaarten zijn geworden ik accepteer dit niet meer.
Qua specs lijkt het eerder een downgrade? Behalve dan het grotere level 2 cache geheugen. Daardoor denk ik dat hij in de praktijk een paar procent sneller is dan de 3060. Waarschijnlijk niet de moeite waard als je al een 3060 hebt?

[Reactie gewijzigd door ruftman op 14 februari 2023 08:07]

Eerst maar eens zien wat de rest van de specs gaan doen. Als dit ding straks veel hoger clockt dan een 3060, gaat 'ie ook veel sneller uit de benchmarks komen. Idem voor t geheugen wat ze erop prikken.
Dat zou inderdaad kunnen, maar dan moet ie wel echt fors hoger geclockt zijn. Kan me voorstellen dat de vrij krappe geheugenbus en bandbreedte alleen maar meer beperken als de GPU veel hoger geclockt wordt. Of werkt dat niet zo?

[Reactie gewijzigd door Hulleman op 14 februari 2023 10:19]

Dat met 't geheugen lossen ze op door meer cache, zoals AMD ook deed maar dan noemt Nvidia het anders. AMD heeft al aangetoond dat 't aardig werkt.
Maar goed, je verwacht dat de 4060 met de 3070 concurreert, met de prijs van een 3060. Niet concurreert met een 3060, maar met de prijs van 3070.
Specwise is dit dan ook een sub €200 videokaart. Waar Nvidia waarschijnlijk €400+ voor vraagt.
Wat een onzin, ook AMD heeft totaal geen sub 200 euro kaarten met zulke prestaties.
Wat heeft AMD hiermee te maken? Vroeger kreeg je gewoon meer voor je geld en eL_Jay overdrijft nu iets naar onderen. Vroeger betaalde je 200-300 voor een 60 klasse kaart, helaas zijn vanaf de 2xxx series de prijzen explosief gestegen. Ga er maar van uit dat Nvidia hier 400-500 dollar voor vraagt en de consument dus uiteindelijk 500 euro betalen voor een 60 klasse kaart.

AMD heeft tenminste nog 60 klasse kaarten te koop onder de 300 euro; ook niet om over naar huis te schrijven maar toch...

Ik kijk in ieder geval deze generatie de kat uit de boom tot de prijzen kelderen.
Deze kaart is eigenlijk toch dik zat voor iedereen die op 1080p gamed? Het is absoluut geen topmodel maar… Als je een beter maakt is zijn dure broertje onverkoopbaar.

Nu heeft hij best wel zijn eigen doelgroep en kan je hem potentieel ook nog eens scherp prijzen(als de markt daarom vraagt)
Het probleem is vooral dat het een downgrade lijkt vanaf de 3060. En 8GB VRAM is echt krap met de laatste nieuwe games, zelfs op 1080p. Dit wordt verergerd door de smallere geheugenbus/bandbreedte, want inladen/streaming kan dan ook nog eens minder snel. 8GB VRAM is echt de nieuwe 'low' spec. Wat prima is (want voortgang enzo), maar dan is dit dus eigenlijk een soort 4050.

Uiteraard is dit geen topkaart en er komt misschien nog wel een 4060ti o.i.d., maar qua specs is het wel een beetje een teleurstelling. Uiteraard valt/staat alles met de prijs/beschikbaarheid.
Ik denk dat game-makers moeten gaan beseffen dat wij geen 12GB kaarten gaan kopen met het huidige prijspeil. Sterker nog, als je enige omzet wil draaien, dan moet je waarschijnlijk zorgen dat het ook op een 1660 nog redelijk draait.
Eens, maar ik vermoed dat dat schip de haven al heeft verlaten zeg maar.
En daar zit hem the crux. De kans dat Nvidia deze kaart redelijk gaat prijzen is heel laag. Nvidia (en andere) zijn bezig om de voorheen gangbare prijzen enorm op te drukken. De markt vraagt allang om goedkopere gpu's maar voor Nvidia is het een stuk beter om een paar honderd euro extra paar kaart te vangen ook al verkopen ze dan misschien wat minder. De prijzen zo bepalen dat je als consument eigenlijk "geforceerd" word om het duurdere model te kopen omdat de prijs/kwaliteit krom is, is ook iets waar ze lekker mee bezig zijn.
Dik zat om op 1080P te gamen is de 3060 ook al: https://www.youtube.com/watch?v=JWhBEj46pp0

Het zou juist leuk zijn als de 4060 dik zat is om op 1440P te gamen met minder concessies en hogere framerate dan de 3060.
1080p/60 is alleen wel een beetje een gepasseerd station met de huidige kwaliteit graphics. De enige reden om die resolutie nog te gebruiken is om te gamen in combinatie met een heerlijk hoge framerate. Maar een nieuwe xx60 GPU zou toch eigenlijk wel 1440p/60 als doel mogen hebben, anno 2023.
Zeer tegenvallend, hopelijk komt AMD met wat betere middensegment.
Ik denk dat je de bovenkant van de AMD 6 lijn kan zien als de huidige midrange.
Ik denk eerder dat ze die lijn zachtjes aan het uitfaseren zijn om er voor te zorgen dat deze hun 7000 serie kaarten niet kannibaliseert: https://www.techpowerup.com/gpu-specs/amd-navi-33.g1001

Alles niet meer dan 8 GB op een waarschijnlijk een 128bit bus, met een flink beperkt aantal shader units maar wel lekker hoog geklokt.

Aangezien Nvidia niet geneigd lijkt te zijn de prijzen te willen laten dalen heeft AMD hier ook geen enkele incentive. Nu zijn de specs nog niet definitief, maar ook AMD is een beursgenoteerd bedrijf dat geen cadeautjes uitdeelt. En wanneer Navi 32 (de opvolger van de 6800 kaarten) wederom 16GB meekrijgt, zullen de lagere kaarten ook niet snel een daadwerkelijke gen-on-gen verbetering meebrengen.

Dan liever nu een 6800 uit de reclame, dan straks voor eenzelfde prijs een nieuwe 7700 halen die gekortwiekt is qua RAM en bandbreedte.

[Reactie gewijzigd door Cid Highwind op 14 februari 2023 14:52]

Als ik momenteel zou moeten kopen, zou ik me op een 6800xt richten, aangezien ik erg lang doe met hardware (plus psu van 750 watt), of de nieuwe generatie daarin verschil gaat maken, wellicht qua prijs iets, maar ik wacht het rustig af, heb geen haast, ergens dit jaar, liefst eerste helft, is goed.
Zonder clocksnelheden kan je hier niet veel van zeggen. Prestaties afwachten. Hij zal ongetwijfeld sneller zijn dan de 3060, lager verbruik is ook mooi meegenomen maar heel veel spannends hoeven we van het middensegment ook niet te verwachten. Prijs/prestatie is nog altijd de doorslaggevende factor.
Zullen ze het durven om meer dan 500$ te vragen voor een xx60 kaart?
Ik gok 449 of 499.
Ik gok $599 waarna het in de EU rond de €689-€749 zal gaan kosten.
Ze moeten ook nog ergens de normale 4070 en de 4060ti kwijt. :)
Zolang we nVidia kaarten blijven kopen blijven deze absurde prijzen bestaan
We zijn de afgelopen jaren al genoeg opgelicht door deze firma 🤑
Mijn advies! ... de komend 5 jaar geen nVidia 👍
AMD heeft net zulke 'absurde' prijzen. Ook AMD gaf aan dat door het steeds verder verkleinen en deze zo snel mogelijk uitbrengen de prijzen steeds harder gaan stijgen omdat het gewoon steeds duurdere technologie is.
Is ook wel zo, maar de prijsstijgingen staan niet in verhouding tot de meerkosten die fabricage met zich meebrengen. Daar zit ook gewoon een deel “we kunnen het vragen” in.
Dit is wel heel karig, zeker omdat nu al de RX 6650 XT goedkoper en beter is dan de RTX 3060.
Ik hoop dat er snel laptops beschikbaar komen met de 4060. Dan kan ik kijken naar de benchmarks of ik een laptop met 3060/3070 of 4060 of toch een AMD gpu laptop neem.
overviews van LTT en andere reviewers zijn in ieder geval niet mals voor de rtx 4 generatie kaarten.
Ik persoonlijk ben voor het eerst sinds de gtx 1080 aan het twijfelen voor een nieuwe grafische kaart met die RTX 4 series.
Ik ben in ieder geval niet aan het twijfelen, zolang ze zo duur zijn vermijd ik ze ongeacht de prestaties.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee