Nvidia introduceert RTX 4060 Ti-gpu's met 8 en 16GB geheugen vanaf 449 euro

Nvidia kondigt zijn GeForce RTX 4060 Ti-serie aan. Het bedrijf brengt volgende week een 8GB-variant uit voor 449 euro. Een 16GB-model volgt in juli voor 559 euro. Het bedrijf brengt in juli ook een lager gepositioneerde RTX 4060 uit, waarvan nog geen adviesprijs bekend is.

Nvidia levert de GeForce RTX 4060 Ti met 8 of 16GB geheugen, maar de overige specificaties van de twee varianten zijn identiek aan elkaar. De kaarten beschikken beide over een AD106-gpu met 4352 CUDA-cores en 32MB L2-cache. Nvidia claimt dat de videokaarten daarmee tot 22Tflops aan shadingrekenkracht bieden. De gpu's bieden een geheugenbandbreedte van 288GB/s. De total board power van de 4060 Ti ligt op 160W, hoewel Nvidia claimt dat de videokaart gemiddeld 140W verbruikt tijdens het spelen van games.

De RTX 4060 Ti is volgens Nvidia gemiddeld vijftien procent sneller dan de RTX 3060 Ti bij gebruik van DLSS-upscaling zonder Frame Generation. Als die AI-feature voor frame-interpolatie wel wordt gebruikt, is de kaart volgens de fabrikant gemiddeld 70 procent sneller dan de 3060 Ti. Nvidia vergelijkt de RTX 4060 Ti ook met de RTX 2060 Super uit 2019. De nieuwe gpu zou gemiddeld 70 procent sneller zijn met DLSS-upscaling, maar zonder Frame Generation. Met gebruik van Frame Generation zou dat verschil oplopen tot 160 procent.

Nvidia introduceert daarnaast een GeForce RTX 4060. Die videokaart krijgt een AD107-gpu met 3072 CUDA-cores en 24MB L2-cache. Deze videokaart wordt standaard geleverd met 8GB geheugen en haalt een geheugenbandbreedte tot 272GB/s. Nvidia zegt dat deze videokaart zonder Frame Generation 20 procent sneller is dan de huidige RTX 3060.

De GeForce RTX 4060 Ti met 8GB geheugen komt op 24 mei beschikbaar voor een adviesprijs van 449 euro. De RTX 4060 Ti 16GB volgt in juli voor 559 euro. De RTX 4060 komt ook in juli uit, en Nvidia zegt dat deze videokaart 329 euro gaat kosten.

Videokaart RTX 4070 RTX 4060 Ti RTX 4060 RTX 3060 Ti RTX 3060
Gpu AD104, TSMC 4nm AD106, TSMC 4nm AD107, TSMC 4nm GA104, Samsung 8nm GA106, Samsung 8nm
Streaming Multiprocessors 46 34 24 38 28
CUDA-cores 5888 4352 3072 4864 3584
L2-cache 36MB 32MB 24MB 4MB 3MB
Geheugen 12GB GDDR6X 8 of 16GB GDDR6 8GB GDDR6 8GB GDDR6 12GB GDDR6
Geheugenbandbreedte 504GB/s 288GB/s 272GB/s 448GB/s 360GB/s
Tgp 200W 160W 115W 200W 170W
'Gemiddeld stroomverbruik
tijdens gamen'
186W 140W 110W - -
Adviesprijs 669 euro 8GB: 449 euro
16GB: 559 euro
329 euro 419 euro 329 euro

Door Daan van Monsjou

Nieuwsredacteur

18-05-2023 • 15:00

240

Lees meer

Reacties (240)

240
233
91
7
0
85
Wijzig sortering
15% sneller voor 15% meer geld vergeleken met de goedkoopste 3060Ti nu beschikbaar in de pricewatch. 8)7
Je vergeet er wel bij te zeggen dat hij wel 40watt zuiniger is.
Hoewel dat op de grote schaal van gebruik van dit soort hardware zeker interessant is, moeten we het effect hierin binnen dagelijks gebruik natuurlijk niet overschatten.

Genomen de door jou genoemde 40 watt zuiniger, dit zou dus neerkomen op een verschil in verbruik in 1 kWh per 25 uur. Tegen de huidige tarieven, grofweg 40 eurocent per kWh, resulteert dit voor een prijsverschil van circa 70 euro binnen de twee grafische kaarten in een te overbruggen 175 kWh voordat je dit verschil op energieverbruik eruit hebt. En voor je dit verschil van 175 kWh behaald hebt, ben je dus 175 * 25 = 4375 uur verder.

Daarin is één en ander natuurlijk afhankelijk van het aantal uren dat je een systeem gebruikt. Met name het aantal uren dat je hier mee gamed. Maar wil dit verschil in energieverbruik echt interessant worden, moet je toch eigenlijk best wat uren maken. Indien jij veel meer casual, een aantal uurtjes per week de game PC gebruikt, dan is er zeer zeker wel wat voor te zeggen om gewoon die vorige generatie te kopen, op individueel niveau.

Om overigens nog maar te zwijgen over het feit dat dit een gegeven adviesprijs is. De werkelijke prijzen zullen via board partners vermoedelijk toch nog snel enkele tientjes hoger liggen. En daarmee loopt de tijd je het product moet gebruiken voor je dit verschil in Watt consumptie eruit hebt, ook op.

Daadwerkelijke prestaties binnen games welk je speelt is wat mij betreft dan ook veel interessanter in de keuze hierin.

Stel je speelt enkel Fortnite competitive, maar doet dit nu nog op een oude GTX 960 bijvoorbeeld. Dan is een voordeligere 3060 Ti ruimschoots voldoende. 1440p op low of medium speelt met een kaart als deze op respectievelijk circa 350 en 200 fps.

Stel je speelt de laatste games, single player, maximaal mogelijke graphics maar op een budget en de ware high end kaarten buiten bereik, dan is een 4060 Ti natuurlijk interessanter. Hoewel ik daarin nog niet direct voorstander ben van de intergenerationele kwaliteit-prijsverhouding, is een kaart als dit dan natuurlijk wel logischer dan een prior gen kaart.
Je noemt het belang van energiezuinigheid op grotere schaal, maar daarna bagatelliseer je dat met de energiekosten. Maar zijn energiekosten dan de enige maatstaf?
Voor een beetje salaris zijn de huidige energietarieven nog steeds peanuts, maar toch vind ik het belangrijk niet meer te verbruiken dan wat nodig is - zeker op grotere schaal. Daarom vind ik het lagere verbruik van deze kaarten gewoon ook belangrijk. Naast dat ze minder verbruiken, hoeven je fans minder te blazen, heb je een stillere pc, en wordt je kamer in hartje zomer iets minder verwarmd door je pc.
Grappig, als je hier op Tweakers dezelfde argumentatie zou gebruiken bij een topic over LED vs gloeilamp zou je op -1 staan.
Mijn lampen staan een stuk meer uren per dag aan dan dat m’n GPU full tilt staat te blazen…
Waar kan jij nog een gloeilamp kopen?
Als hij max staat te blazen. Gedurende de totale gebruiksduur van je GPU zal deze 95% van de tijd staan te idlen op je Windows desktop, dan is het verbruik hetzelfde tussen current en last gen.
Bij mij is het juist andersom 5% idle en 95% in gebruik. En ik gebruik ook geen windows.
15% sneller zonder DSSL3, maar VELE malen sneller met, en die 15% sneller is dan ook nog met een lagere TDP. Er zitten natuurlijk ook wel wat meer voordelen. Zodra de 4060ti uit is ben je niet slim om die 15%, die dat ding dan meer zou kosten, niet uit te geven. De 4060ti is dan natuurlijk meer toekomst bestendig dan de 3060ti.
Mijn ervaring: Op dit prestatieniveau is "15% toekomstbestendigheid" bij zware spelen het verschil tussen hetzij
  • "niet speelbaar" en "enkele FPS beter maar nog steeds niet speelbaar"
  • "niet speelbaar" en "net enigszins speelbaar"
Met maar 8GB zal het hoe langer hoe meer het eerste geval gaan worden.
Dan koop je beter de goedkoopste optie, en nadien iets sneller dan voorzien een nieuwe GPU die het dan beduidend beter zal doen.

[Reactie gewijzigd door Jack77 op 22 juli 2024 15:42]

8GB gaat de komende jaren echt nog geen probleem zijn louter door de gigantische bak high-end RTX 20XX en 30XX kaarten die zijn uitgebracht met 8GB RAM.
Developers hebben absoluut geen trek in die spelers allemaal tegen zich in het harnas te jagen.
Behalve op 4K dan, dan is 8GB nu al te weinig met enkele spellen.
Het is puur "koop mij voor DLSS Frame Generation feature."

De vergelijking is met de standaard 3060 Ti met GDDR6. Dus in vergelijking zijn tot de 3060 Ti GDDR6X is de 4060 Ti maar ~7% sneller. Dus het is meer een 3070 met de mogelijkheid tot Frame Generation op dit moment, en veel lager verbruik.

[Reactie gewijzigd door Apart op 22 juli 2024 15:42]

Inderdaad. Ik verwacht echter dat AMD dit jaar met hun eigen Frame Generation komen. Waarschijnlijk krijgt dat net zoveel support als FSR2, wat nu ook in bijna elk spel zit waar ook DLSS in zit. Het is vast iets minder van kwaliteit, maar om daar nu een overpriced kaart voor te kopen. Nee dank je.
Je zorgt er eigenlijk bijna voor dat nVidia het zo maakt dat AMD en Intel (met XeSS) gewoon interessanter wordt uit meer dan alleen praktische overweging.
Frame Generation zou idd een aankomende FSR feature kunnen worden, maar heeft Frame Generation wel zijn meerwaarde? Voor singleplayer sure, maar daar zou je in alle gevallen aan 60FPS al altijd genoeg hebben voor de ervaring..
Tot je met raytracing daar doorheen zakt... Daarom zit het ook op die nvidia-kaarten.
Leuk maar als ik frame generation wil zet ik de gaming modus van m’n TV wel uit. Ziet er ook een stuk vloeiender uit ten koste van wat latency en een afwijking hier en daar.

Daar geef je toch geen geld aan uit?
Ik snap je punt, maar die twee vergelijken is wat mij betreft net zoiets als een skelter met een auto vergelijken. Beiden hebben vier wielen, kunnen technisch gezien 'rijden' en je kan er mee verongelukken, maar het een is toch echt wat praktischer en bruikbaarder dan 't andere.
(Voornamelijk omdat MI van zelfs de beste TV's massa's meer input lag meebrengt en toch echt nog altijd veél meer artifacts meebrengt dan je ooit zal zien met DLSS3)

Dat gezegd hebbende zou ik er ook niet heel veel extra voor betalen, gezien het vooral echt goed werkt met framerates die al vrij degelijk zijn en ik het in competitive games niet zou gebruiken. Een hele toffe extra? Absoluut. Een echte must-have? Nee, wat mij betreft niet.

[Reactie gewijzigd door Brutal1ty op 22 juli 2024 15:42]

Ik heb zelf getest met een RX 7900xtx en een RTX4080 in een situatie dat de framerate laag was (triple 2K screen MSFS NY Ultra) de 7900xtx haalde maar 29 fps gemiddeld. De 4080 rond 26 fps. Frame generation had hier 0 effect.

Mijn conclusie: Frame generation is leuk als je de 60 fps al nadert zonder. Het zal niet een 4060 die in bepaalde scenarios geen acceptable framerates haalt naar wel acceptabel tillen.
Inderdaad echt een tragische development... DOA
Juist dus je koopt een upscaled 3060ti met iets minder verbruik zoiets?
Lmao, vanaf 400 euro (en AIB versies uiteraard nog duurder) voor een 8gb videokaartje in 2023? Ga toch fietsen, graaierige clowns.

[Reactie gewijzigd door foppe-jan op 22 juli 2024 15:42]

Daarom team rood, over een paar jaar draait rocm geweldig en hebben we nvidia nergens meer voor nodig voor local rendering. Als dan de server bois ook overgaan is het exit nvidia.
Als het exit Nvidia zou zijn (gezien de huidige ontwikkelingen niet bepaald realistisch op korte termijn), dan ben je sowieso duurder uit, want AMD zou die situatie maximaal uitbuiten. Iedere andere gedachte is naïef.
Zeker, maar met pijn in mijn hart voor het eerst in 15 jaar nvidia gekocht voor mijn systeem om met neurale netwerken te spelen. Valt me mee, de drivers van nvidia zijn weliswaar bruikbaar op Linux tegenwoordig.
AMD is ook niet de oplossing. Die hebben de prijzen van hun CPU's ook flink omhoog geschroefd toen ze populair werden.
Zegt de AMD fanboy... AMD heeft ook weer zo zn nadelen. Zowel groen als rood zijn niet perfect. Maar het is wel duidelijk dat beiden vergelijkbare prijzen rekenen, waar ook beide CEO's aangaven dat de verkleining het steeds duurder maakt, in het begin als de nieuwe verkleinde procede nog nieuw is.
waar ook beide CEO's aangaven dat de verkleining het steeds duurder maakt
Dat moeten deze CEO's natuurlijk wel zeggen, er moet immers een 'beetje geloofwaardig excuus' zijn voor de veel hogere prijzen van de mid- en vooral high-end kaarten.
Maar of het waar is...

Een aantal 'dieper gravende PC hardware media' (in vergelijking met Tweakers) zetten hun vraagtekens bij die bewering omdat uit hun informatie blijkt dat de kosten niet heel anders zouden moeten zijn dan bij voorgaande generaties kaarten.

Veel meer waarschijnlijk is dat videokaarten nog steeds relatief duur zijn vooral omdat Nvidia en AMD de bizarre winstmarges uit mining/corona jaren niet graag helemaal zien verdwijnen!
Man man, het heeft niets te maken met 'geloofwaardiger' maken, het is gewoon een feit. Die 'diepgravende PC hardware media' graaft blijkbaar niet diep genoeg. Het is een feit dat de wafers met de kleinere procede vele malen duurder zijn de eerste paar jaar, en dat het steeds moeilijker/duurder wordt om ze te ontwikkelen/produceren.
Maar 200/300 euro per videokaart duurder aan productiekosten? Even in vergelijking met hun voorgangers van dezelfde “tier”.

Ik geloof er geen snars van, het gaat ze gewoon om het behouden van hoge winstmarges. Daarnaast misbruiken ze inflatie om nog even een extra graai uur de snoeppot te doen.

[Reactie gewijzigd door FrankoNL op 22 juli 2024 15:42]

Nouja, jij vindt dus als er enorme inflatie is ze de prijzen niet mogen verhogen? Ondanks dat door die inflatie hun kosten evenredig stijgen.. tuurlijk... 'Jij' vindt dat jij wel een loonsverhoging moet krijgen om de inflatie bij te benen, maar jouw werkgever mag niet de prijzen verhogen om die extra kosten te compenseren....
Dan moet er wel daadwerkelijk sprake zijn van hogere kosten. Dat is nog maar de vraag en daarnaast is dan de vraag hoe hoog die kosten stijgen. Niet alles stijgt in dezelfde mate. Daarnaast kunnen ze er ook voor kiezen wat in te teren op hun gigantische winstmarges.

Tegenwoordig zijn er zat bedrijven die de prijzen verhogen “want inflatie” maar zo werkt het natuurlijk niet. Een groot deel van de inflatie zijn voedselprijzen en met name vorig jaar energieprijzen. Die laatste zijn ondertussen weer gekelderd.

Nvidia en amd maken met zijn tweeën de dienst uit, hebben de afgelopen jaren gezien dat mensen voor belachelijke prijzen videokaarten kopen en denken: blijkbaar pikken mensen het, laten we het weer proberen.

Zie hier het resultaat.

[Reactie gewijzigd door FrankoNL op 22 juli 2024 15:42]

Tja, kijk naar energieprijzen, gas was soms zelfs dat ze er geld bij kregen maar die verlagingen hebben ze dan nooit aan de klant doorgevoerd, en hebben daardoor de grootste winsten in lange tijd. Maar ondanks dat de prijzen van gpu's tijdens de corona woekerprijzen waren, waren het juist de webshops en tussenbedrijven die de prijs zo opvoerde, lange tijd voordat nvidia/amd zelf de prijs opvoerde om de bij hun mindere inkomsten te compenseren. Ja, ze zullen hun winstmarge gelijk willen houden, met het oog op nog lang door te kunnen gaan ipv failliet te gaan.
Nvidia had in 2022 een winst van 1,4 miljard en een winstpercentage van 23 procent. Dat is gewoon hoog. Let wel, dit is dus in de tijd dat de inflatie gierend hoog was.

Kortom; we worden als consument gewoon bedonderd. Helaas stemmen te weinig mensen met hun portemonnee.
Prachtig leesvoer:
https://www.annreports.com/nl/nvidia/

2021 was een gouden jaar, waar de Ceo's en aandeelhouders flink hebben mogen graaien in de pot, dankzei de gelukkige omstandigheid van mining gekte. Had niemand zien aankomen, of bewerkstelligt maar ze hebben er uiteraard maximaal van geprofiteerd. Amper twee jaar later staat diezelfde CEO
als een roeptoeter te verkondingen dat het allemaal echt niet goedkoper kan, nee dat kan echt niet. Eenmaal verslaafd aan die rap stijgende grafiekjes, willen ze natuurlijk geen gas terugnemen. Maarja, dan komt de man met de sloophamer; de werkelijkheid. Wij, pikken het niet langer. De schrappen liggen vol, geen hond die ze wil voor die prijzen. ik zeg, dikke bult, eigen schuld.
Denk jij dat de arme kindjes in Afrika, die het silicium moeten delven, inflatieverhoging hebben gehad? Dus er is geen sprake van kostenverhoging.
Grapjas, in afrika wordt in verhouding amper wat gewonnen, meeste is China met zo'n 68% en dan Rusland, dan VS, en zelfs noorwegen en Frankrijk komen voor zuidafrika..
De vraag blijft dan steeds waarom die aandeelhouders het niet met wat minder winst kunnen doen hé ?
Het is altijd de werkende man met de pet die de rekening moet betalen, om de mensen met al teveel geld nog meer geld te geven om eigenlijk niks te doen :)
Als je 10% inflatie hebt, waarom misbruiken fabriekanten dit dan altijd om een 25% hogere prijs te vragen ?
Er is 10% inflatie en de werknemer krijgt 2% index aanpassing om zogezegd zijn koopkracht te behouden, maar de bedrijven vragen wel +10% of meer. De uitleg is dan arbeidskost, maar ze danken 25% van hun personeel af ??? Als de inflatie dan terug zakt naar 2%, word er niks goedkoper in prijs want de mensen zijn het dan toch gewoon om deze prijs te betalen :)
Omdat het geen sociale instelling is? En een hoop van die winsten worden vaak gebruikt om het bedrijf toekomst bestendiger te maken, want het kan zo zijn dat volgend jaar het enorme verliezen maakt.
Omdat het geen sociale instelling is? En een hoop van die winsten worden vaak gebruikt om het bedrijf toekomst bestendiger te maken, want het kan zo zijn dat volgend jaar het enorme verliezen maakt.
Een hoop van die winsten word gewoon uitbetaald aan de aandeelhouders en top funties in dat bedrijf.
Ze verhogen zelfs hun eigen bonussen en loon, als het jaar erna minder winst word gemaakt dan danken ze mensen af en moeten anderen nog harder werken voor hetzelfde arbeidsloon.
Het is geen sociale instelling dat is juist, daarom word 1% steeds rijker en de 99% anderen steeds armer :)
Bedrijven hebben de kosten van inflatie tot wel 30% verhoogt met hun prijzen, lees ik uit een onlangs uitgebracht onderzoek. Nu kan je een hoop beweren, maar de inflatie is nooit boven de 14% geweest.
Man man, natuurlijk zijn de wafers duurder dan bij het vorige procédé, maar je haalt er natuurlijk ook meer GPU's uit!

Of dacht je dat bij ieder procédé verkleining uit het verleden niet exact hetzelfde speelde? Zijn alle GPU's over de tijd alleen maar steeds duurder geworden omdat wafers steeds duurder werden? Nee, natuurlijk niet!

Voorbeeld (bron, SiliconExpert.com):
- 7nm FinFET uit 2018 heeft 100 miljoen transistors per vierkante millimeter, een wafer kost $10.000 USD
- 3nm FinFET uit 2022 heeft 300 miljoen transistors per vierkante millimeter, een wafer kost $20.000 USD

4N (een verbeterde versie van 5nm FinFET uit 2020) is het procédé waarmee Ada Lovelace (RTX 4000) GPU's gemaakt worden, en deze zit zowel v.w.b. de kosten ($16.000 USD) als de hoeveelheid transistors (200+ milj.) daar bijna exact tussenin. Ook hier dus geen verrassingen.

Je vertelt dus maar het 'halve verhaal' (bewust of onbewust) en noemt dat dan een "feit"...
Ik noem het pure BS, want dat is het, feitelijk. :+
En jij vergeet erbij te vermelden dat het aantal transistors op de wafer niet gelijk is aan hoeveel chips er uit 1 wafer gehaald kunnen worden. Het zou kloppen als elke chip evenveel transistors zou blijven bevatten. Maar elke nieuwe chip heeft vaak ook een gigantische increase in aantal transistors. Dus, tenzij het puur een verkleining is van de huidige generatie, is het aantal chips dat uit 1 wafer komt gelijk of een half keer meer, terwijl dat de kosten van de wafer wel verdubbeld is. EN, vaak bij de 1e-2e jaar is de yield van zo'n nieuwe wafer een stuk lager, dus minder chips uit 1 wafer, maar toch een veel hogere prijs voor de wafer.
En waarom kost zo'n wafer zoveel meer? Omdat de "gek" ervoor kan vragen wat het wil (ASML) omdat er geen concurrentie is. Zie hier het ultieme voorbeeld waarom concurrentie gewenst is. Nu betalen wij, de consument, de hoofdprijs.
Nouja, misschien dat we dat ook gaan krijgen over een paar jaar als de Chinezen geen apparatuur meer kunnen kopen en het dus zelf moeten gaan fabriceren.
Maar elke nieuwe chip heeft vaak ook een gigantische increase in aantal transistors.
Gigantisch? Nope... De cijfers bewijzen het:
- 4060Ti 22,9 miljard
- 3060Ti 17,4 miljard
- 31,6% meer transistors

Hierboven heb ik al beschreven hoeveel de node extra oplevert en tegen welke prijs; +20% (gecorrigeerd voor prijs), het totale verschil is dus klein, en ook zijn de yields van 4N rond de 80%, en nee, dat is niet laag.

Het is aantoonbaar dus niet 'heel anders' en/of 'veel duurder' dan bij andere nodes.
En het kritieke cijfer wat jij niet noemt is de yield: hoeveel procent van de chips het daadwerkelijk doen. Er komen niet alleen GPU's uit zo'n wafer, maar ook nogal veel afval. Alhoewel dit cijfer altijd verbetert naarmate er meer ervaring is met een proces, zijn de verschillen tussen processen niet bij voorbaat te voorspellen, noch het tempo van verbetering.

En zoals hierboven al eens gezegd: AMD heeft niet de volumes om een prijzenslag te ontketenen. En dat weet je dus dat ze niet genoeg werkende GPU's halen uit de wafers die ze ingekocht hebben.
Yields de reden? Ga toch lekker fietsen jongens... TSMC 4N yield is momenteel rond de 80%, en nee, dat is dus niet laag en dus ook niet 'de reden'!

[Reactie gewijzigd door HuisRocker op 22 juli 2024 15:42]

Maar dat probleem met die duurdere wafers is er iedere generatie, dus totaal een non issue.
Ja, het is iedere generatie, maar die wafers worden iedere generatie ook aanzienlijk duurder vanwege dat het (nog) steeds moeilijker wordt om te verkleinen.
Ik heb een 3090 in mijn systeem maat, probeer het nogmaals xD
Ksnap niet waarom dit downvotes krijgt. Je hebt gewoon gelijk. Als je na 2 jaar 15% meer krijgt voor minimum 15% hogere prijs, dan is dat gewoon stagnatie en zeker niets goed voor de consument. Nvidia had die prijsverhoging van 15% makkelijk achterwegen kunnen laten en dan zou dit al véél beter zijn, maar nu...

Daarnaast is €100 extra voor 8GB extra ook schandalig. Wilt dit dan zeggen dat 1/4 van de 8GB versie enkel en alleen de prijs is van die 8GB VRAM? Laat me niet lachen...

[Reactie gewijzigd door MattiVM op 22 juli 2024 15:42]

Volgens mij is die 15% inflatie wel ongeveer de inflate. Op die manier gezien is het toch wel een vooruitgang van 15% ;)

Maar laat ik maar niet zeggen wat ik destijds voor m'n 3060 Ti heb betaald, maarja, dan had ik nu nog steeds op een 1060 moeten spelen.
Ach mensen verwachten dat ze nog kaarten voor dezelfde prijzen als 10 jaar geleden kregen. Zo werkt de wereld helaas niet.

Ja ik had graag gezien dat deze kaarten goedkoper waren, ze hadden van mij ook 150 en 200 euro mogen zijn 😂. Maar dit zijn wel eindelijk de soort kaarten wat ik ga overwegen aan te schaffen. Ik hoef geen over de top kaart maar wil wel redelijk toekomst proof zijn en de 16GB variant is dat naar alle waarschijnlijkheid meer dan voldoende voor me. Voeg daar DLSS aan toe voor wat extra frames en het betekend voor mij dat ik weer 4-5 jaar vooruit kan.

[Reactie gewijzigd door itaalol op 22 juli 2024 15:42]

hallo ...het is geen top kaart he en deze prijzen?
dit is low budget kaart met high price label.....zo moet je het zien
de kaarten met cijfer 70/80/90 dat zijn high end kaarten
De 4060 en 4060 Ti noem je low budget, terwijl je de 4070 en alles daarboven high end noemt. Wat zou volgens jou midrange kaarten zijn, die tussen low budget en high end in zitten?
Wat een onzin. Ik kocht een paar jaar geleden nog een nieuwe highend kaart voor een netto weekloon. En toen zat ik tegen het minimum aan. Ik verdien nu 1,5-2x het minimumloon die ook gewoon gestegen is en nu kan ik niet eens een fatsoenlijke midranger kopen voor een netto weekloon.
Dat nu de kosten voor een redelijke PC voor 50% uit GPU-prijs bestaat was je ook nog niet opgevallen?

[Reactie gewijzigd door yustme_x op 22 juli 2024 15:42]

Wat een onzin, een paar jaar geleden (ik geef je een voordeel, we maken er 2020 van) was het netto minimum weekloon 374,70 euro

Een high-end GPU, pak een 3080 die in 2020 uit kwam, had een adviesprijs van 719 euro. Bijna een dubbel weekloon .

1.5x minimum weekloon in 2023 geeft je zo'n 575 netto per week waarmee je deze midrange kaart dus kunt kopen.

[Reactie gewijzigd door Gubbel op 22 juli 2024 15:42]

Mijn 'paar jaar' gaan wat verder terug. De x1950 xtx voor 270 euro in 2007.

Dan nog slaat je reactie de spijker op z'n kop... Bijna 2x voor een high-end naar 1,5x voor een midrange in maar 3 jaar. Moet je nu eens een 4080 kopen... Red je niet meer voor 2x minimum weekloon. 2,5x komt eerst.

[Reactie gewijzigd door yustme_x op 22 juli 2024 15:42]

‘Paar jaar’. Jij hebt het over anderhalf decennium geleden…..
Er wordt tot 2 keer toe voorbij gegaan aan waar het eigenlijk om draait: dat een kaart naar verhouding gewoon veel duurder is geworden. En niet alleen in keiharde euro's, maar dus ook als je inflatie meerekent (het minimumloon is de laatste 2 keer ook een stuk harder dan normaal omhoog gegaan). Dat ze steeds geavanceerder worden en dat dat de kosten omhoog haalt, dat weten we allemaal. Maar feit blijft dat we in 15 jaar tijd keer 3 zijn gegaan (met als meetpunt dus niet euro's, maar het minimumloon, dus inflatie is al meegenomen). En ondanks dat de prijzen alweer wat zijn gedaald, zitten we nog steeds ruim 25% boven het niveau van de vorige generatie.
Dus nee, mensen verwachten niet dezelfde prijzen als 10 jaar geleden, de meesten zelfs niet eens de prijzen van 10 jaar geleden inclusief inflatie. Maar elk jaar gemiddeld 20% er bovenop vindt menigeen toch net teveel.

Maar blijven jullie allemaal maar lekker de absurde prijsverhogingen goedpraten. Nvidia en AMD zullen jullie dankbaar zijn!

[Reactie gewijzigd door yustme_x op 22 juli 2024 15:42]

Dus nee, mensen verwachten niet dezelfde prijzen als 10 jaar geleden, de meesten zelfs niet eens de prijzen van 10 jaar geleden inclusief inflatie. Maar elk jaar gemiddeld 20% er bovenop vindt menigeen toch net teveel.
€270 met 20% er boven op vanaf 2007 zit je op een dikke €4000.

Ik denk dat de mede tweakers je duidelijk proberen te maken dat je vergelijking zo recht is als een banaan.

Je bent prijzen van een kaart van een "paar" jaar geleden aan het benoemen uit een line-up met 7 modellen. Wat ik een paar jaar geleden noem is de RX 6000 series, met in totaal maar liefst 25(!) modellen want wij als consument willen dat schijnbaar. Dan mag jij me eens uitleggen hoe fabrikanten het drievoudige aan modellen kunnen produceren voor in verhouding precies dezelfde prijzen. Meer keuze betekend veelal ook meer betalen. Daarbij komt uiteraard ook nog het feit dat de technologie steeds geavanceerder wordt en mensen mogelijk langer met dezelfde kaart vooruit kunnen denk ik. Hierbij komt ook nog eens het feit dat mensen (uiteraard) minder hardware kopen over het algemeen en PC gaming volgens mij een stuk minder is geworden. Dan kan je als bedrijf drie dingen doen: of mensen ontslaan of je prijzen omhoog schroeven om dezelfde inkomsten te hebben óf een combinatie van die twee.

Denk dat niemand hier iets goed praat maar dan kunnen we tot het oneindige door gaan praten over prijsverhogingen of niet? Ik weet niet of je boodschappen doet maar daar zien we nog absurdere prijsstijgingen net zoals bijvoorbeeld een avondje naar de bioscoop met een hapje eten of heb je al eens gekeken hoeveel meer auto's kosten?

Ben ik het er mee eens of vind ik het fijn? Absoluut niet maar daar hebben we het mee te doen.

[Reactie gewijzigd door itaalol op 22 juli 2024 15:42]

Ik praat de prijsverhogingen niet goed. Jij projecteert een situatie van 15 jaar geleden op nu. Dat kan gewoon niet. Andere tijden. In 2007 vergeleek jij de prijs voor je videokaart ook vast niet met iets uit 1992.
Absurd vind ik vergelijkingen maken met 2007 en dit "enkele jaren geleden" noemen.

Er zijn tweakers actief hier die toen nog niet eens geboren waren.
In 2007 had je voor hoge resoluties een SLI / Crossfire setup nodig waar je ook al snel meer dan duizend euro aan kwijt was.
Touché Wolfos. Bedankt! Kan ik zelf ook eindelijk weer eens met een goed gevoel een nieuwe kaart kopen. Eindelijk een comment dat hout snijdt ipv wederom een aanval op kleine details zoals een prijs die keer 3 is gegaan in 15 jaar tijd en dat dan voor het makkelijke omrekenen naar 20% per jaar (want 20%x15=300%). Ik zei namelijk ook niet dat het cumultatief was. Of dat 15 jaar teveel is om te vergelijken... Het valt me tegen als ik eerlijk mag zijn. Ik maak toch zeker zelf wel uit onder welke voorwaarden ik een punt probeer te maken? Zijn jullie het niet met mijn zienswijze eens? Prima, maar blijf niet mekkeren om de details waar overigens niks mis mee is.
De eerste mobiele telefoons waren ook duurder dan een goede smart phone tegenwoordig, dus waarom werkt dat niet bij iets wat zelfs minder spullen heeft dan een smart phone?
Mooie is dat ze flink de prijzen op hebben zitten voeren en dan mekkeren over inflatie en het nog eens omhoog voeren. Dus kan wel zijn dat de inflatie 15% is en dat die verhoging wat dat betreft klopt, maar de algehele prijs is nog niet teruggezakt naar wat het was. Ze hebben totaal niet te mekkeren over inflatie.
precies dit... stel gieren zijn het daar.
Dat de inflatie 15% is, wil niet zeggen dat overal de kosten met 15% gestegen zijn. Dat hangt heel veel af van wat voor soort kosten een bedrijf heeft.
*Ik snap :|

Dit is gewoon hoe de markt momenteel is. Nvidia kan dit doen, omdat er ruimte voor is op de markt. De kaarten worden toch wel verkocht.
En 110 euro voor 8GB Vram extra, tsja. Het is allemaal niet zo gek en dit zien we al jaren. Het zijn gelukkig nog geen Apple upgrade prijzen...
Maar dit is dus niet hoe de markt is, want de kaarten verkopen momenteel heel slecht. Daarom zakken de prijzen ook vrij hard.

Ik ben er ook vrij zeker van dat de verkopen van deze kaarten extreem tegen zullen vallen en ze in prijs moeten gaan dalen om ook maar enigszins in de buurt te komen van de verkoopaantallen die we bij vorige generaties zagen.
In de USA is de verkoop enorm slecht voor alle 4000 reeks kaarten van Nvidia.
Wat ook normaal is want de crypto mining gekte is volledig weg door POS, en de overige tokens coins op POW zijn de moeite niet door kelderende prijzen.
Maar Nvidia wil wel deze prijzen blijven aanhouden om zijn aandeelhouders gelukkig te houden !
Nvidia was vroeger al véél te duur omdat ze de snelste waren en betere drivers, maar AMD is evengoed geworden en ook stabiel met goed drivers en 2x zoveel geheugen.
Ooit komt er een tijd dat de consument nog enkel met zijn portemonee kan kopen en niet meer met zijn ego, en deze tijd is nu ferm aan het doorbreken !
Zo komt de RTX 4070 er toch een stuk beter uit. Tot heden de beste prijs-prestatieverhouding in de 4000 serie.
Het MSRP is hetzelfde gebleven op $399 dus als je inflatie in rekening brengt dan is het goedkoper geworden. Ik snap niet waar je 15% vandaan komt. Zelfs als je koersverschillen zou negeren en enkel naar de € prijzen kijkt dan kom ik nog niet aan 15%.

Begrijp me niet verkeerd want ik vind de prijs ook verschrikkelijk met maar 15% hogere prestaties maar de MSRP is gewoon hetzelfde gebleven. Nvidia gaat echt niet de koersverschillen op hun rekening nemen.
Ksnap niet waarom dit downvotes krijgt.
Omdat Tweakers niet met een up-/downvote systeem werkt. Om de moderatie-dialog te citeren:
Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.
TS kan nog net zo gelijk hebben, zijn opmerking bevat niet veel informatie die bijdraagt aan een discussie of aan verruiming van inzicht. Lijkt mij dat daardoor de volgende omschrijving het meest toepasselijk is:
Irrelevant
Reacties die geen relevante bijdrage bevatten, maar wel met goede bedoelingen worden gepost.

[Reactie gewijzigd door ClementL op 22 juli 2024 15:42]

Dit klinkt leuk, maar je vergist je. Nvidia zet deze kaarten om 2 redenen tegen deze prijzen in de markt:

1. en de belangrijkste: het bedrijf heeft het afgelopen jaar enorm overgeproduceerd, en heeft nu een enorm overschot aan RTX 30 serie chips liggen, die ze kwijt moeten, liefst (vanuit hun) zonder die voorraad af te schrijven). Omdat zij prijszetter zijn in de GPU-markt (AMD kan veel te weinig volume leveren en NVIDIA heeft veel groter marketingapparaat), zetten ze deze generatie nu tegen belachelijke prijzen in de markt om zo de oude generatie interessanter te maken.

2. omdat ze niet begrijpt wat de markt in recessietijd en terwijl energie 3x zoveel kost als anderhalf jaar terug vindt van dit soort prijzen. Voor hen is het nuttige nieuwe informatie om te weten dat we dit soort prijzen niet langer accepteren voor dit soort MVP (om wat agile terminologie te bezigen) efforts.

Kortom, mijn reactie heeft wel degelijk meerwaarde, jij laat je gewoon afleiden door het feit dat ik het kort hou en ook emoties communiceer, zoals dat ik het bespottelijk vind dat NVIDIA denkt haar 60+%. marges te kunnen handhaven

[Reactie gewijzigd door foppe-jan op 22 juli 2024 15:42]

Wel heerlijk hypocriet, want in 90% van andere gevallen wordt er subjectief gemodereerd. Dat is waarom ook wederom 90% van de moderators, geen moderator moeten zijn omdat ze alleen maar modereren naar mening.
In nieuwere games van de afgelopen jaren is het verschil wel heel veel meer dan 15%, in bv MS flightsimulator is die bijna 2x zo snel, ook bij bv the witcher 3, in portal met RT is die ook bijna 2x zo snel.
Kwestie van prioriteiten stellen. Pampers voor de kleine, een beugel voor z'n zusje of een RTX 4080 voor pappa. Dan is die keuze snel gemaakt, DLSS 3.0 Here I come.
Dus omdat iemand bovengemiddeld verdient zou een mens wereldvreemd zijn en zich niets van prijzen moeten aantrekken?

Das toch even een bubbel die ik wens te doorprikken. Ik denk sowieso dat het aantal mensen dat meer geld verdient dan goed voor je is zeer beperkt is. Ga maar eens op GoT kijken in de forumtopics over wat de gemiddelde Tweaker verdient. Dat valt nog reuze mee. En ook als je een bovengemiddeld loon hebt omdat je in de IT werkt ipv aan de band in een fabriek wil dat nog niet zeggen dat je zomaar alles koopt wat je wenst.
Kan ik bv 150 euro extra opbrengen voor een kaart die voor mij 350 euro waard is ipv 500. Neen.

Had ik elke generatie gekocht en "onnodig" upgegrade als de prijs voor mij correct was: ja.

Een grasmachine wordt 8 keer per jaar gebruikt en is minder complex in tegenstelling tot een videokaart die dagelijks actief is. Die 150 euro stelt ivg met andere zaken regelmatig relatief weinig voor.

Doch ieder zijn principes. Zolang ze te hoge marges of verkoopstrucs hanteren, en hier hypocriet over doen
Neen dank u.
Ik moest wel een beetje grinniken om je reactie (de vergelijking met een grasmaaier). De prijzen voor grafische kaarten zijn zeker(te) hoog, maar als je de grasmaaier gebruikt, waarvoor die bedoeld is, dan moet je iedere week maaien, van midden april tot eind oktober.
Hangt ervanaf hoe strak je wil. Zelfs wekelijks gedurende 7 maand. Een 30 tal keren een uur tot 3 uur afhankelijk van de oppervlakte. Dus hoogstens 90 uur per jaar.
Dan vind ik een hoogtechnologische gpu met al zijn componenten en complex productieproces best goedkoop.

Desalniettemin principes zials hierboven toegelicht, blijven van toepassing :-) .
In het voorjaar zelfs 2 keer per week.
Ha dan draait ie meer dagen dan mijn gpu! Ik zou graag willen maar kan echt niet elke week gamen…
Geld is dan ook maar geld.
Ten eerste hebben veel geld verdienen en geen interesse hebben in prijzen niet direct met elkaar te maken. Je kan makkelijk 2 ton per jaar verdienen maar toch op de kleintjes letten.

Daarnaast: Wat versta jij onder meer geld verdienen dan goed voor je is?
Dit zijn helaas xx50 class GPU's die tegen xx70 class prijzen verkocht worden en helaas AMD als hun grootste concurrent hetzelfde spelletje meespeelt. Enige hoop is dat andere partijen zoals intel de druk een beetje kunnen opvoeren en de consumenten de kaarten voor deze prijzen zoveel mogelijk laten liggen op de schappen.
Kunnen we ophouden met het doen of inflatie geen ding is? Zelfs als er niet zo'n economische crisis zou zijn, dan was 350 euro 5 jaar later 440 euro geweest.

Dit is simpelweg waar de wereld nu is, en dat zal nooit meer veranderen. Zeg de prijzen die je gewend bent maar gedag, want we weten uit decennia ervaring dat deflatie niet bestaat.
Zelfs als ik inflatie ruim bereken van een GTX 1050 Ti 4GB in 2016 voor €150 komt dat heden ten dagen uit op €200 Tevens de prijs van een GTX 1070 inclusief inflatie kom je alsnog onder de prijzen van deze 4060 Ti uit. Als je vervolgens kijkt naar de GPU die kwa (interne)classificatie en specs zoals bv de gebruikte geheugen bus van 128 bit enz. is dit wat traditioneel een xx50 class GPU is. Vandaar ook mijn strekking van xx50 class, genaamd als een xx60 class voor een xx70 class prijs.
Je ziet in deze generatie een explosie van de L2 cache. De 4060 non-Ti heeft al 24 MB. Dat is 4 keer zoveel als de 3090Ti, de absolute top van de vorige generatie. Dus die 128 bits bus is een stuk minder kritisch geworden dan vroeger.

Vergeet ook niet, inmiddels is het een GDDR6X bus. Elke generatie worden de PCB eisen hoger, dus de meerprijs van een 192 bits bus wordt ook steeds hoger. Dat NVidia daardoor kiest voor cache is dus prima te begrijpen. Ze hebben de transistor-budgetten ervoor.
Nou nee ik weet niet waar jij je cpi vandaan haalt maar de langjarige inflatie was de afgelopen 10 jaar rond de 1%.
Dan was hij dus nog geen 20e duurder geweest.
ha, ik heb vorig jaar 10% opslag gekregen vanwege de inflatie in 2022 alleen al. Wat wou je me exact vertellen?
Vanwege raar modden nog een keer.

Dat je onzin uitkraamt.
En dat het laatste jaar niet meetelt.
Dat je onzin uitkraamt.
En dat het laatste jaar niet meetelt.
Even voor mijn beeld: waarom zou de laatste 1 a 2 jaar niet meetellen?
Geen idee maar dat stelt hij zelf.

Overigens is het niet raar om niet de volledige inflatie mee te rekenen want die zit met name in voedsel en Europese energieprijzen. Daar heeft nvidia een stuk minder last van.
Eh.. JIJ zegt dat de laatste jaren niet meetellen, wij tonen juist aan dat dat onzin is en je geen gelijk hebt. Wellicht snap je zelf niet wat je zegt.
Nee jij stelt dat zelf.
Lees je eigen reactie nu eens goed.
Ik ga hier niet verder op in, ik stel dat nergens en ik zegt het woord voor woord tegen @grrfield

Fijne avond en hopelijk tot nooit.
De grap is dat je het woord voor woord toch echt zelf stelt.

Zelfs als er niet zo'n economische crisis zou zijn,


Hiermee stel je dus dat je onzin stelling ook waar is wanneer je het afgelopen jaar niet mee rekent.

Overigens is deflatie wel een ding en hebben veel producten daar de afgelopen decennia mee te maken gehad.

https://www.rtlnieuws.nl/...s-niet-alleen-goed-nieuws


Ik vind het altijd wonderlijk dat men zo stellig aan hen eigen onwetendheid vasthoudt.

[Reactie gewijzigd door icecreamfarmer op 22 juli 2024 15:42]

Ik heb het continue puur over jouw stelling dat "het laatste jaar niet meetelt" wat jij letterlijk zegt en je alleen aanneemt uit mijn woorden

Jij blijft degene die dat zegt, en je moet wel heel erg met woorden spelen om dat in mijn stelling te lezen. Begrijpen lezen werd vroeger nog aangeleerd.

Voor de laatste maal, geniet van je weekend en tot nooit meer ziens!
Jij stelt dat wat je wat typt zelfs waar is zonder de economische crisis (van afgelopen jaar).

Dat is geen spelen met woorden dat is logisch nadenken en begrijpend lezen. Iets wat jij blijkbaar niet beheerst.

Daar kan ik niets aan doen dat je het verkeerd opschrijft. Dan had je die bijzin niet moeten gebruiken.
Vreemd, ik heb namelijk ook 14% opslag gekregen vanwege de inflatie. En je kunt onmogelijk zeggen dat het laatste jaar niet meetelt. Het jaar is daar, de inflatie is waar en draait zich niet zomaar terug. Je kunt het er niet mee eens zijn, maar het is gewoon een feit.
Jeetje, ik heb exact 2% gekregen. Leuk dat jij 14% krijgt, maar kijk ook even naar de marges die Nvidia maakt sinds corona en daarvoor. Die verandering willen ze graag zo houden, en het is dus "inflatie" vooral in de zin dat zij hun prijzen hebben verhoogd, en niet dat hun kosten zijn gestegen.
En dit dus.
Is de inflatie nu opeens 2 procent?
Is dit een grap? hij heeft 2% bij zijn loon gekregen, dat lees ik.
Lees eens wat je zelf als eerste typt en kom niet met anekdotische uitspraken.
Maak je geen zorgen, ik lees meermaals wat ik type. Je reactie slaat echt helemaal nergens op.
nog niet ziet maak ik mij zorgen.

Ik zal je helpen, het zit in de 2de zin.
De prijzen van hardware zijn juist flink gezakt sinds de inflatie hard omhoog gegaan is.

Mensen houden hun hand eerder op de knip of hebben er geen geld meer ervoor, dan wordt er minder verkocht en gaan de prijzen omlaag. Vraag-aanbod kan de prijs veel harder laten zakken/stijgen dan 5 jaar inflatie.
Koop je toch gewoon een AMD of een Intel. Keuze zat, ik zie het probleem niet.
3 bedrijven, waarvan 1 pas net op de markt zit noem ik niet echt keuze zat.
Dan koop je een kaart van de vorige generatie, hey, weer dubbel zoveel keuze (behalve bij Intel die nog op de eerste generatie zit)
Zo werkt vraag en aanbod, als jij denkt dat er plek is voor nog een speler, kun je kaarten ontwerpen en op dearkt brengen.
Maarja, AMD heeft ook weer zo zn nadelen, en Intel ook. Bij elk merk is er wel wat.
De nadelen van AMD zijn toch rap aan het verdampen. Enige echte minpunt is de mindere raytracing.
Dat is het eerste wat ik ook dacht.

Mijn 1070gtx heeft mij 350 euro gekost via de webshop van de fabrikant zelf.

Ik ga overstappen naar console Gaming, ik heb ook nog andere hobby's in mij leven.
Echt belachelijk inderdaad. Ik heb altijd Nvidia kaarten gehad, maar door dit soort grappen ga ik nu toch naar AMD kijken. Daar krijg je bij de mid end kaarten wel 16GB.
Ik twijfel een beetje. Ik kan een GTX 3060 van een maatje overnemen voor €200,-. Nu ik de 4060 voor €329,- zie in dit overzicht trekt deze mij ook wel. Is het het waard om €129,- extra uit te geven voor een nieuwe, 'volgende generatie' videokaart? Over het algemeen speel ik alleen een beetje Runescape en Fortnite.

Ik heb al zo lang niet meer in de hardware componenten wereld gezeten dat het voor mij lastig is een goede keuze te maken :)
Ik zou voor 200 euro die 3060 kopen.
Als die 4060 echt veel beter blijkt te zijn, dan kun je altijd die 3060 weer verkopen.
Nee die 3060 is prima voor wat je wil doen.
Als het een beetje een redelijk model GTX3060 is dan is 200 euro een goede deal.
Is je huidige kaart niet meer voldoende voor wat je nu speelt?
Over het algemeen niet, heb vaak lagg spikes en kan voornamelijk Fortnite niet op hoge settings spelen. Ook heeft Runescape (OSRS) moeite met gebieden waar veel spelers zijn of veel scenery is, uiteraard met de GPU plug-in!

Ik heb nu een GTX 960 in mijn pc.

[Reactie gewijzigd door Byte op 22 juli 2024 15:42]

Voor de verhoudingen in perspectief; vanaf een GTX 960 is de RTX 3060 (voor €200 tweedehands) al een enorme sprong voorwaarts!

Of het 'relatief kleinere sprongetje' van de RTX 3060 naar RTX 4060 dan €129 (dus 64,5% extra voor; nieuw, wat extra prestatie en DLSS 3) het waard is, dat is puur persoonlijk, en afhankelijk van wat je allemaal van plan bent en/of wenst in de toekomst...
Persoonlijk zou ik dan voor die 3060 gaan, zeker als je van een 960 komt :) Ga je er flink op vooruit!
Zelf zou ik wel doe 129 euro extra uitgeven omdat de 4060 sowieso beter presteert, voor een lager verbruik, als de 3060, en met nieuwere games die dlss3 ondersteunen is her verschil enorm.
Hij geeft in zijn post aan dat hij alleen een beetje Runescape en Fortnite speelt, dan kan hij die 129 euro beter in zijn zak houden en voor de 3060 gaan denk ik.
Fortnite is juist zo'n game die dus wel baat heeft bij de nieuwe hardware van de 4060.
Als je een beetje RuneScape en Fortnite speelt, zou ik een 2ehands 970 of 1650 of 2060 zoeken. Uiteraard wel minder toekomstbestendig. Als het tussen die 2 gaat, een 3060 voor 200, geen slechte deal

[Reactie gewijzigd door Gubbel op 22 juli 2024 15:42]

Je krijgt nu dus een kaart die even snel is als de 3070 met dezelfde prijs als die kaart, maar dan met 16 GB VRAM. Dat maakt het eigenlijk alleen maar mogelijk om nu wel spellen goed te draaien die meer dan 8 GB VRAM nodig hebben, maar verder ga je er nauwelijks op vooruit. Dit is meer dan treurig.

De 8 GB versie is nog erger, want voor deze hoge prijs koop je een product dat nu al tegen 8 GB problemen aanloopt en vermoedelijk even goed verouderd als een glas melk dat je in de zon zet.
- ~40% hogere FLOPS ten opzichte van 3060Ti
- meer dan 50% hogere RT FLOPS + Gen 3 RTX ondersteuning
- DLSS 3
- NVENC AV1 ondersteuning
- 8x meer cache dan 3060 Ti (wel lagere bandbreedte van het VRAM zelf, maar dit heeft Nvidia gewoon van AMD afgekeken, meer cache heeft simpelweg veel meer invloed dan VRAM bandbreedte voor de meeste toepassingen)

Over de prijs kan je best een boom opzetten en ik zou ook zeker geen upgrade overwegen als ik al een 3060 (Ti) had, maar voor iedereen die de 30xx serie heeft overgeslagen is dit gewoon een best wel prima kaart kwa specs. Tweakers zijn gewoon nooit tevreden volgens mij :+

[Reactie gewijzigd door johnbetonschaar op 22 juli 2024 15:42]

Ik weet zelf weinig van videokaarten, maar ik snap de discrepantie niet helemaal tussen jouw percentages en de '15% sneller' die door anderen genoemd wordt.
Dit zijn gewoon de papieren specs die NVidia zelf heeft opgegeven [1], hoe zich dat in de praktijk vertaalt zal nog moeten blijken, en per toepassing verschillen. Die 15% zal vast wel kloppen, maar dat is dus vergeleken met 1 generatie terug, vergeleken met zoiets als een 2060 Super zal de upgrade een heel stuk interessanter zijn.

Waar mensen over vallen is de prijs, soit. Maar je kunt niet zeggen dat het een prut kaart is omdat je ‘alleen maar DLSS 3’ krijgt ten opzichte van een 3060 Ti…

[1] https://arstechnica.com/g...performance-improvements/
Komt er gewoon op neer dat al die dingen (los van de features zoals DLSS3 en AV1) maar 15% extra prestaties gaan geven :P.

Extra flops zijn bijvoorbeeld leuk, maar als er ergens anders in de pipeline een bottleneck zit dan helpen die maar zo veel.
Als je in plaats van gamen graag floating point operations doet kan je er 40% meer doen per seconde. Je merkt er in games niets van maar kan jezelf wel wijsmaken dat het het waard is vanwege het flops getal dat hoger is.
voor iedereen die de 30xx serie heeft overgeslagen is dit gewoon een best wel prima kaart kwa specs. Tweakers zijn gewoon nooit tevreden volgens mij :+
Of we zijn gewoon realistisch. Deze generatie is gewoon niet zo heel veel beter dan de vorige, dus waarom zou je deze kaarten kopen als je de vorige generatie hebt overgeslagen omdat je die niet voldoende vooruitgang vond geven?
Omdat nieuwe games steeds hogere eisen stellen, en slecht geoptimaliseerde console ports soms onnodig veel VRAM vreten net na release? Ik zie toch wel wat redenen meer de afgelopen twee jaar dan de twee jaar ervoor. En dan is een extra 15% prestaties voor hetzelfde geld en wat flexibiliteit met extra vram toch weer iets :Y)
Tegelijk voelt 4070 met 12GB als sweet spot in deze lineup als je het geld ervoor hebt.
Dat is leuk en aardig, maar om echt stevig hogere prestaties te krijgen moet je nu dus ook veel meer uitgeven aan een kaart. Ik denk dat veel mensen die nieuwere spellen dan meer even laten voor wat ze zijn, of overstappen op een console waar je voor 550 euro wel een volledige computer krijgt die deze nieuwe spellen goed draait.
Ik denk er zelfs over mn 3070ti in te ruilen voor een 4060ti, puur om qua rekenkracht op hetzelfde te blijven maar mn vram te verdubbelen. Zou netto zo'n 150 euro kosten..
Het aantal 3070TI’s dat te koop staat voor rond de €500 is dan ook opvallend. Al zal ik nu niet snel een 3070 TI kopen als ik weet voor 50€ meer iets te kopen dat langer mee kan.
Het is hoe dan ook idd een prima upgrade ten opzichte van bv een 1080 of ouder. Voor veel mensen waarschijnlijk meer dan genoeg om weer een flinke tijd door te gaan. Ben alleen niet goed genoeg thuis in de specs etc of AMD niet een beter alternatief heeft voor die prijs als je niet zo wakker kan liggen van RayTracing.
Ik denk dat het normaal is dat tweakers wat kritischer zijn over bijvoorbeeld gpu's dan de gemiddelde consument, beetje net als dat een auto monteur kritischer naar een auto kijkt dan iemand die niets van auto's afweet.
Ik heb niet het idee dat tweakers over het algemeen negatief zijn, ik zie wel vaak dat als een tweaker kritisch is over iets, dat die vaak dan een snauwtje krijgt van een andere tweaker dat die niet zo moet zeuren en niet zo negatief moet doen, vaak is dat omdat de ene tweaker iets zegt over merk A en de andere tweaker een product bezit van merk A, en dan zegt dat er met merk B ook van alles mis is.
Op zich vind ik dat ergens nog goed nieuws. Die **60 kaarten zijn altijd vrij populair geweest, en gezien de prijszetting en het feit dat er nog steeds heel veel op 1080p gespeeld wordt, wil zeggen dat je met een oude 8GB kaart nog steeds mee kan. Ik kan dus weer nog een jaartje langer met mijn 2070S met 8GB.

En als ik toch zou moeten vervangen, dan kan ik voor de zelfde 550 euro van 4 jaar geleden, nu een 4060TI kopen met 16GB die toch een stap vooruit is (ik ben geen die-hard gamer, GPU wordt vooral belast door foto en videobewerking, wat dus allemaal wel meevalt, maar meer VRAM is wel een plus).

Ik vraag me wel af wat de verhouding tussen deze 4060TI met 16GB en de 4070 gaat zijn. De 4070 is sneller, maar heeft "maar" 12GB VRAM.
Ik heb een 6900XT gehad en zit nu even op een 6650XT met 8GB, game op 1440p en heb tot dusver nog geen enkel, geen enkel spel gespeeld (speel genoeg triple-A) die loopt te miepen om meer VRAM. Als de texture-streaming gewoon goed loopt, denk ik dat ook niet te merken ten nadele van FPS. Daarbij wel de kantekening dat ik van flink snelle NVME-drives speel.

Edit: "tot dusver" maar even duidelijker gemaakt.

[Reactie gewijzigd door SkyStreaker op 22 juli 2024 15:42]

Tja jij hebt mischien geen spel gespeelt wat meer dan 8GB nodig heeft. Maar dat maakt het nog niet onwaar. Ik heb geen zin om hier het rijtje spellen op te noemen waar dit wel voor geldt. (1 daarvan is last of us) Er zijn genoeg video's te vinden op youtube waar ze het gewoon laten zien.

We moeten het niet overdreven maar jij bent het dan weer stellig aan het ontkennen. Het is gewoon een trend en zal vaker gaan gebeuren in de toekomst. Wil niet zeggen dat je ze niet kunt spelen maar je zal de texurure quality naar beneden moeten zetten. Dus ik zou persoonlijk geen 8gb meer kopen op dit moment.
Helemaal niet als je ook nog eens meer dan 400 euro neerlegd en daar een schammele 8 Gb vram voor terugkrijgt.
Ik zeg ook heel duidelijk: "tot dusver", daar is niks stelligs aan, het is een persoonlijke bevinding.
Dat jij er geen last van hebt is fijn want er zijn wel degelijk spellen waar dit uitmaakt, zie ook de analyse van HardwareUnboxed:
https://www.youtube.com/watch?v=Rh7kFgHe21k

Daarnaast helpt een snelle NVME vrij weinig als je te weinig video geheugen hebt. De stap van video geheugen naar een NVME SSD is zo ongelovelijk groot in bandbreedte en latency dat je gelijk op minder dan 1fps zit als hij daadwerkelijk daar zijn data vandaan moet halen.
Normaal wordt er eerst naar het normale geheugen gekeken voordat hij naar de SSD gaat. Met direct storage zal dit op den duur gaan veranderen, maar dan nog is het verschil in bandbreedte en latency enorm (factor 50-100 afhankelijk van je hardware). Het verschil met normaal geheugen is gelukkig maar +/- een factor 5-10.
Probeer Skyrim eens met wat 2.4K mods, moet je zien hoe rap het minder word.
Je vergeet wel dat de 3070 geen dlss3 heeft, en dat verhoigd de framerate in games die het ondersteunen behoorlijk, EN dan dus ook nog voor een veel lager verbruik.
Maar die extra FPS helpen niet bij input lag, waardoor het eigenlijk alleen goed werkt als je al een aardig hoge FPS hebt. Daarnaast zorgt het ook voor artifacts, die met name storend zijn bij lagere resoluties. En dit is volgens Nvidia een 1080p kaart. Dus DLSS 3 heeft wat mij betreft minder waarde op deze kaarten dan bij de snellere kaarten.
Waarom staan de in het artikel genoemde europrijzen niet ook in de tabel @AverageNL ?

(Ik zou er persoonlijk dan ook direct de 3060 en 3060 Ti naast zetten voor een nog completer plaatje :+ )
AuteurAverageNL Nieuwsredacteur @Alxndr19 mei 2023 10:47
Sorry voor de late reactie! Ik was gisteren offline. We kregen de europrijzen relatief laat toegestuurd. Ik had die in het artikel verwerkt, maar ben vervolgens vergeten de tabel bij te werken. Dat was gisteren al gerectificeerd, maar vandaar! Ik ben het eens met je suggestie: de 3060 en 3060 Ti staan nu ook in de tabel :)
De GeForce RTX 4060 Ti met 8GB geheugen komt op 24 mei beschikbaar voor een adviesprijs van 449 euro. De RTX 4060 Ti 16GB volgt in juli voor 559 euro. De RTX 4060 komt ook in juli uit, maar Nvidia zegt niet wat die videokaart gaat kosten.
Ik zie daarentegen op Nvidia's site (voor het archief) €329 staan. Aangezien dat niet van de 4060 Ti 8GB kan zijn lijkt het me eerder dat het de prijs is van de 4060 non-Ti, of een fout.

Al had deze hele serie 4050 moeten heten.
Nvidia heeft aan Hardware Unboxed verteld dat de 4060 een prijs zal krijgen van $300. Beetje vreemd dat ze dat niet op de slides hebben staan, als dat al besloten is. Misschien hebben ze dit echt net besloten, nadat de slides al af waren.

In elk geval is het een indicatie dat de 4060 een uitermate teleurstellende kaart zal worden, wat gezien de specs ook de verwachting is, want het is vrij uitzonderlijk dat de prijs van de nieuwe generatie lager wordt.
Als het klopt dat de 4060 110 watt gebruikt bevalt mij dan wel weer. Dan is het overwegen waard om mijn 1660 Super er mee te vervangen. Maar niet als het er dan eentje is van een B merk met slechts één gammele fan.
Dat is een mooie prijs. Ga ik eens mijn 2060 vervangen.
Even los van de terecht negatieve reacties op deze aankondiging wordt de 4060ti 16GB een erg interessante budget workstation kaart, net als dat de 3060 12GB dat de vorige generatie was.

Grootste VRAM buffer (samen met de 4080) die Nvidia biedt onder de 24GB van de 4090/3090 voor 'slechts' 559 euro. Zou mij niets verbazen als deze kaart voorlopig erg moeilijk te verkrijgen zal zijn.

Daarbuiten bijzonder oninteressante releases, zeker voor gamen.
Zeker. allemaal AI idioten zoals ik die graag hun 16b modellen willen draaien lokaal.
Hmm, Bijna de helft minder geheugenbandbreedte op zo'n 4060(Ti) vergeleken met m'n 2060 Super.
Zal m'n 2060 Super dan beter presteren op 4K dan zo'n 4060(Ti)?
Nee, onze 2060super zal verre van beter presteren, die presteert nu al niet fatsoenlijk in 4K (heb er zelf dus ook 1).
Het echte verhaal is toch dat Nvidia eindelijk weer een current Gen kaart van onder de 299 Euro heeft? Volgens mij stappen we daar iets te gemakkelijk overheen …

[Reactie gewijzigd door AlainSki op 22 juli 2024 15:42]

Op dit item kan niet meer gereageerd worden.