'Nvidia begint volgende maanden aan massaproductie RTX 4070 en RTX 4060Ti'

Wccftech claimt dat Nvidia in de loop van de komende maanden aan de productie van de RTX 4060 TI en RTX 4070 zal beginnen. Beide gpu’s zouden gebruikmaken van aangepaste AD104-chips. Die chip is ook terug te vinden in de RTX 4070 Ti.

De nieuwe varianten van de AD104-chips zouden minder krachtig zijn in vergelijking met de standaardversie van de grafische chip die in de RTX 4070 Ti wordt gebruikt. Wccftech merkt op dat er sprake is van een AD104-250 en een AD104-251. Het is onduidelijk welke chip voor de RTX 4060 Ti bestemd is, en welke voor de RTX 4070. Uit eerdere geruchten moet echter blijken dat de RTX 4070 een AD104-250-chip zou meekrijgen. Ter vergelijking, de grafische chip in de RTX 4070 Ti is een AD104-400.

De productie van de gpu met de AD104-250-chip zou in de eerste helft van februari worden opgestart, terwijl de productie van de variant met de AD104-251 in maart zal beginnen. Het is niet duidelijk wanneer Nvidia beide grafische kaarten wil introduceren. Wccftech vermoedt dat dit in het najaar zal zijn, of rondom Computex.

De techwebsite heeft enkele maanden geleden nog vermoedelijke specificaties van de RTX 4070 gepubliceerd. Die zou 5.888 CUDA-cores bevatten, 12GB aan GDDR6X-geheugen en 36MB aan L2-cachegeheugen. Beide gpu’s krijgen volgens Wccftech een tdp van 200W, maar daar zou volgens Wccftech nog verandering in komen.

Conceptbeeld Nvidia RTX 4070 Bron: More's Law is Dead
Conceptbeeld Nvidia RTX 4070 - Bron: Moore's Law is Dead

Door Jay Stout

Redacteur

08-01-2023 • 12:05

190

Lees meer

Reacties (190)

190
187
96
6
0
67
Wijzig sortering
Dat is tot een bepaalde hoogte afhankelijk van vraag en aanbod. Volgens gegevens van Jon Peddie Research bereikte de verkoop van grafische kaarten in het derde kwartaal van 2022 een dieptepunt in 20 jaar. Waarbij ze in het derde kwartaal ongeveer 6,9 miljoen grafische kaarten verscheepte voor desktopcomputers en een vergelijkbaar aantal GPU's voor notebooks. Wat ik zo kan vinden op Toms Hardware verscheepten AMD, Intel en Nvidia ongeveer 14 miljoen standalone kaarten voor desktops en laptops, een daling van 42% op jaarbasis op basis van gegevens van JPR.

Bron via Tweakers:
nieuws: 'Gpu-leveringen voor pc's daalden met 19 procent in eerste kwartaal v...

Dat de rek er bij veel uit consumenten uit is kun je volgens mij goed zien aan de Steam Survey, waarbij de slechtere GTX 1650 het stokje heeft overgenomen van de 1060. Ik denk dat, gezien de prijsstelling van de overige 4xxx series kaarten, de 4060 geen serieuze vervanging gaat zijn van de 1060, 2060, 1650 of zelfs de 3060 op langere termijn zolang de prijs zo hoog blijft. Tijd zal het leren en zolang de vraag afneemt en het aanbod gelijk blijft zou je van een gezonde markt verwachten dat de prijzen uiteindelijk zullen zakken. Maar de fabrikanten hebben tijdens de conora-periode geproefd aan het feit dat consumenten bereid zijn om veel meer te betalen voor een GPU dan ze daadwerkelijk waard zijn aan materiaal + productie en zullen, denk ik, daardoor een stuk voorzichtiger zijn in het laten zakken van de prijzen zolang ze deze marges kunnen houden.

Ook al heeft Intel met zijn Arc series nog wat problemen is het goed dat er nu een derde speler in dit segment is waardoor AMD en Nvidia iets van concurrentie ervaren in het 'budget' segment. Al kun je met de huidige prijzen, uitgaande van de bekende prijzen van de 40xx series en de prijsverhouding tussen vorige series, dit geen budgetkaarten meer noemen, maar hoop dat de marktwerking en de huidige overaanbod van 30xx kaarten de prijs (flink) naar beneden stuwt in het voordeel van de consument. Bang for bucks is, in de huidige markt en de instroom van miner-kaarten, tweedehands ook nog een prima optie om te overwegen en is er hier in de V&A en op Markplaats voor onder de €300* al een 3060 te vinden.

*your mileage may vary
Edit: Deze post had als reactie op Maxxilopez gemoeten.

[Reactie gewijzigd door jdh009 op 23 juli 2024 08:04]

Als je in de Pricewatch ook filtered op videokaarten onder de €400 komt een GTX 1660 Ti momenteel als meest bekeken kaart eruit. Die specifieke kaart komt uit februari 2019 en is dus al bijna 4 jaar op de markt. Verder doet de RX 6600 en 6650 XT het goed, en verassend genoeg de Intel Arc A770. Met 16GB VRAM en AV1 encoders ook duidelijk onderscheidende features.

Van Nvidia is op wat 1660 Supers en 2060's uit hetzelfde tijdperk na weinig interessants meer te vinden. Er zijn een paar RTX 3060 8GB (met 128-bit bus) en een enkele 12GB variant (192-bit bus) te vinden. Dat is echter allemaal boven de €340. De RTX 3050's zijn €300 (en dat niet echt waard), en daaronder is gewoon niks meer van last-gen te vinden, laat staan current gen.

De GTX 1650 was vanaf begin af aan een €150 kaart, en de GTX 1060 (3GB) €250. Dat is het budget waar de meeste gamers een kaart zoeken, niet €400+ en laat staan de vier cijferige bedragen die sommige videokaarten nu kosten.

Als je nu geld, marktaandeel en loyaliteit wilt verdienen, komt met serieuze budget kaarten. Daar zit nog steeds de massa.
Idd daarbij op 1080p kan een 1060 nog goed mee een 1660 gaat zelfs goed mee op 1440p .

Wil je iets dat daarboven zit dan zit je al snel aan de 6600xt/3050 die tegen de 300 is.
1660 gaat zelfs goed mee op 1440p .

You kidding right?

Hier bij tweakers review smijten ze een 6700-6750xt als platform voor de 1440p en zelfs dat is maar beperkt schaalbaar. Laat staan een marginale 1660, blijf dan maar op fullhd zelfs daar haal je geen high- ultra settings op hoge refresh. Wat wil je spelen op 1440p ultra low settings onder de 60fps? dat is geen gaming dat is minecraft pixel kijken.

Ikzelf heb hier 2 game pc met 6800XT en daar is 1440p-144hz-144fps-ultra-high al een uitdaging en zeer afh van type games.

[Reactie gewijzigd door d3x op 23 juli 2024 08:04]

Ben het grotendeels met je eens. Naar mijn mening is "ultra" vaak echt alleen voor als je heel veel gpu headroom over hebt. Snap dan ook niet waarom het de standaard is om tegen te benchmarken. Ik zie het verschil met high vaak helemaal niet, en het kost je rustig 10% of meer performance. Uitzonderingen natuurlijk daargelaten.
Exact, ik heb een i7 8700 met EVGA 3060 XC en speel vaak op high settings en textures altijd op Ultra aangezien het een 12GB VRAM GPU is. Maar ik haal dan prima boven de 60fps met vrijwel alle spellen. Het is maar net wat je wil.

ik weet dat een 3060 geen Ultra 1440p aankan zonder DLSS o.i.d. te gebruiken, dus ik pas aan. Dat is het mooie van PC gamen.

Ik wacht mooi, er zijn vast genoeg mensen die wel een 40 series kopen, dan neem ik met liefde hun afgedankte 3080 of 6800 xt over.. :)
Snap dan ook niet waarom het de standaard is om tegen te benchmarken.
Relatief simpel. Je wilt weten hoe een kaart presteert, dit zie je makkelijker als je eerder tegen de limieten aanloopt.
Ja en nee. Je leert bijvoorbeeld niet wanneer je tegen een CPU limiet aanloopt, dat test men vaak alleen op 1080p wat je dan weer niet gebruikt met zo'n kaart. Je weet dus alleen hoe de kaart presteert met instellingen die je waarschijnlijk niet gaat gebruiken (of 1080p of ultra settings op 1440p+). Zat games waar een kaart op high ook niet tegen wordt gehouden door de processor. ultra mag er best bij maar dat lijkt mij niet de standaard, tenzij je dus misschien een oudere game test die CPU bottleneck raakt. Al is dat ook best handig om te weten wanneer dat gebeurt. Ik moet zeggen dat tweakers ook vaak medium instellingen test wat ik al een goede aanvulling vindt.
Maar zelfs op high settings in 1440p gaat de GTX1660 echt niet goed mee in heel veel games.

De GTX1660 is niet veel sneller dan de GTX1060.
6700XT zit ergens tussen een 3060Ti en 3070 in qua performance (op raytracing na dan).

Een 3070 haalt, afhankelijk van de game, prima ongeveer 140FPS op 1440p. Lijkt me dat je met een 6700XT dan wel 120FPS zou moeten kunnen doen.
Neen dat is gewoon een feit.
Ultra 144hz is al overkill voor de meeste schermen met wat tweaks(die je amper/niet merkt in het spel) haal je in de meeste games 60fps op 1440p wat ruim voldoende is voor de meeste.

[Reactie gewijzigd door k995 op 23 juli 2024 08:04]

Dit, ik zit zelf nog op een 1660Ti met een 144hz monitor en haal die framerates in de meeste games niet. RDR2 en Horizon Zero Dawn zijn bijvoorbeeld prima speelbaar maar gaan echt terug naar 40-50 FPS in hele drukke gebieden op de standaard settings.

Gisteren bij een vergelijking met CPU's bij LTT op YouTube nog benchmarks gezien waar een 4090 werd gebruikt. Daar halen de meeste nieuwe games in 1080P op Ultra de 144FPS nog niet eens.. Maar ik speel dan ook liever 1080p met een hoge FPS dan 4K60FPS, schijnbaar raar..
Ik zou de 3050 niet eens overwegen https://youtu.be/iTrlJ-jsDRY?t=600 op 1080p bijna 30% langzamer dan de 6600 voor dezelfde prijs als ik dat zo even op pricewatch snel bekijk
idd 6600 is de beste kaart rond de 300 , verslaat zowel de 3050 als 2060
Yep, de rx6600 is vergelijkbaar met de rtx3060, de rtx3050 is een klasse lager.
een GTX1660 is maar ietsje sneller dan een GTX1060.

Zelfs een 1660 super gaat het moeilijk hebben op 1440p.
Als je de settings iets onder ultra zet haalt die meestal wel 60fps op 1440p.

75% gamed op 1080p of lager 12% op 1440p.(steam survey) Deze kaart voldoet voor de meeste van die gamers.
Wacht al 2 jaar om mijn 1050TI te vervangen en heb nu net de 6650 XT besteld voor 319,- dat is een van de grotere dalers en past in mijn budget. Ik heb zo lang gewacht tot de prijzen hopelijk wat normaler zouden worden maar heb nu toch maar gekocht... We gaan zien wat er de komende maanden gebeurd in GPUland :)
En als ik in de Steam Survey zie dat slechts 20% van de gamers speelt op resoluties van 1440 of hoger dan zijn eigenlijk alle 30xx en 40xx series kaarten overkill.
Dat is een beetje een vreemd logica? Omdat veel gamers noodgedwongen op 1080 spelen zijn snellere kaarten overkill?
Ik denk dat je onderschat hoeveel mensen genoegen nemen met 1080. Een 4K render die gedownscaled word naar 1080p ziet er nog bijna net zo goed uit als het origneel. Ja, 4K is duidelijk scherper. Je ziet het echt wel, maar het is geen wereld van verschil.

De reden dat ik een 2K monitor heb gekocht is voor programmeren, omdat tekst er zoveel beter uit ziet. Dat is veel merkbaarder dan bij een game waar alleen de randjes wat scherper worden.
Dat zal best, maar je kan dat uit de loutere gebruiksstatistieken van 1080p niet opmaken. Een deel weet niet beter, een deel wel maar vindt het best, een deel zou wel meer willen maar loopt tegen budgettaire beperkingen aan of wil er in elk geval niet maar aan uitgeven.

Vandaar dat je niet kan zeggen dat snellere kaarten ‘overkill zijn’. De hoevelheid ram die men eind jaren 80 op enig moment gemiddeld in de computer had (toen ram nog enorm kostbaar was) was ook niet maatgevend en ook niet indicatief voor de daadwerkelijke behoefte, zowel niet voor het moment zelf en ook niet naar de toekomst toe.

Kortom, wees voorzichtig conclusies te trekken uit louter huidige gebruiksstatistieken. Vergelijkbaar voorbeeld: raytracing: ja nogal wiedes dat weinig het gebruiken. Een deel vindt het niet boeiend, maar voor een deel is het gewoon omdat gemiddelde computer er nog niet snel genoeg voor is. Dat maakt raytracing an sich nog niet onzinnig of ongewenst als men een nieuwe kaart koopt.
Ja, want met een RTX 3070 ti of 3080.. haal je makkelijk boven de 120fps op 1080p. Dus is het overkill een RTX 2070 super voldoet dus aan de huidige norm. Hoezo zouden gamers noodgedwongen spelen op 1080p dat vind ik dan weer een vreemde redenering.
Men vergeet blijkbaar dat de meeste gamers nog steeds gamen op een FullHD monitor. Dus inderdaad noodgedwongen, maar niet omwille van de gpu.
Een QHD monitor (1440p) kost ook snel 250euro. Als je monitor EN gpu moet upgraden, dan heb je het dubbele nodig qua budget. Dat doen er niet zo veel.
20% klinkt als een redelijk deel van de markt. Ook is dit niet gescheiden qua demografie. In arme landen zullen ze veelal nog op 1080p zitten terwijl in westerse landen misschien 1440 al het grootste aandeel heeft.
Precies, de huidige statistieken zijn wat men in NU de computer heeft en zeggen niet wat men zou willen.
als we niet kopen moeten de prijzen dalen. Stemmen met je portemonnee zou ik zeggen
Dat is gebaseerd op de economische veronderstelling dat je de productiecapaciteit hebt, en dat het economisch onrendabel is om die capaciteit niet te benutten.

NVidia heeft die productiecapaciteit niet; die huren ze in bij TSMC. En TSMC heeft voor hun leading-edge EUV fabrieken genoeg klanten.
Exact, zo denk ik er ook over.
Zolang die prijzen van AMD en nvidia zo belachelijk blijven hoop ik dat wij als consument niet mee doen en gewoon onze kaartjes opmaken en tweedehandsjes blijven kopen.
Jij weet al wat ze gaan kosten?
een 4070ti kaart voor 1000 euro....
dus die andere gaan in NL zeker 700 euro kosten
Is wel even een kaart die makkelijk recente games op 1440p 144hz draait. Wanneer heb je eerder zo'n kaart voor 1000 kunnen krijgen?

Als je 1080p speelt, wat de meeste mensen doen, is een 4060 TI waarschijnlijk alsnog "te snel", en overkill.
Dat is een hele vage manier om een prijs te rechtvaardigen, want als je dan kijkt vanaf de Vodoo kaarten dan zou een 4080 nu 10K mogen kosten, want de hudige kaarten kunnen veel meer dan toen.

Voor 1080 is een 2080 zelfs nog ruim genoeg. Die blijft bij mij voorlopig in 1440 ultrawide redelijk presteren dus 1080 zal al helemaal geen problemen geven. En die 2080 blijft ook gewoon in mijn systeem voorlopig, want ik ga hier niet aan mee doen. Heb er een Xbox series X naast gezet en besloten de drang voor super graphics los te laten, maar zelfs dan kan ik nog genieten op de 4K oled dus ik begin mij steeds meer te beseffen dat ik het niet nodig heb.
Dat is een hele vage manier om een prijs te rechtvaardigen, want als je dan kijkt vanaf de Vodoo kaarten dan zou een 4080 nu 10K mogen kosten, want de hudige kaarten kunnen veel meer dan toen.
Waarom is dat een vage manier? De performance per euro daalt nog steeds, want ondanks de hoge prijs zijn de prestaties ook gewoon belachelijk hoog vergeleken met een paar generaties terug.
De prijs/performance is redelijk gestagneerd.

Maar wat ik vooral bijzonder vind is de prijs ten opzichte van de 4090, de 4070Ti is qua specs nog geen halve 4090, maar kost wel de helft. Als je dat vergelijkt met de 3000 generatie, daar had de 3090 een msrp van 1500 dollar, de kaart die daar onder de helft zit qua specs is de 3060 Ti, die een msrp van 400 dollar had.

Als we dezelfde verhoudingen zouden hanteren als bij de 3000 generatie zou de 4070Ti een kaart van 500 euro zijn.
Performance per euro daalt dus niet...

Je betaald nu juist het dubbele voor dubbele prestaties. Dat is juist het kromme.
Ja die vergelijking moet je dan doortrekken. 1440p is ook normaal nu. Waarom de prijs dan zo hoog moet zijn is mij een raadsel.
10% speelt op 1440p, en 64% speelt op 1080p. Hoe kom je erbij dat 1440p "normaal" is?

Bron: https://store.steampowere...e-Survey-Welcome-to-Steam
In deze cijfers is totaal geen onderscheid tussen arme of rijke landen/mensen. Als 80% van alle gamers (lees steam survey deelnemers) in azië of oost europa woont, is het logisch dat 1080p nog lang zal domineren. Het kan zomaar zijn dat in onze westerse wereld de 1440p allang domineert.
Hier zitten ook twee laptops van mij tussen, waar ik hooguit onderweg of in een hotel eens een simpele game op draai. Die laptop uit 2012 met 1366x768 zit hier met net zoveel gewicht tussen met z'n MX240 met 256MB VRAM.

Steam deck, waarvan aan de GPU te zien er net zo veel zijn als RTX3080s, hakt hier natuurlijk ook weer op in.

Ondertussen is m'n game bak niet meegenomen in de Survey in december. Daarnaast is een heel, heel groot deel hiervan Chinees internet / game café.

Als ik hier rondkijk bij kinderen van kennissen dan spelen ze allemaal op 1440p schermen, met videokaarten van hooguit een paar jaar oud, zeg GTX1060 tot RTX3070. Heb eigenlijk ook op kantoren echt al jaren geen 1080p scherm meer gezien. Sterker nog, ik heb in.... 2014? al m'n 1080p schermen verkocht, zijn allemaal naar studenten kamers in Delft gegaan enzo.

Het ligt een beetje aan de setting dus. Kan me goed voorstellen dat wereldwijd een heel groot deel van de machines een 1080p scherm hebben, maar in de westerse setting is dat niet meer zo gebruikelijk.
Normaler dan. Maar praat jij vooral deze belachelijke prijzen goed.
Hij die het breed heeft, laat het breed hangen zullen we maar zeggen. Rechtvaardiging zolang het in de eigen portemonnee past. :/
niet relevant voor West Europa. De massa speelt op Laptops en schermpjes van 50-100eur...
Het laatste is ergens toch wel jammer, het is niet zozeer dat je het nodig hebt, maar je zou het neem ik aan toch graag willen zij het voor de juiste prijs.

En daar zit voor mij de kneep ik nog steeds een top end Intel of AMD CPU kan krijgen voor een prijs die in de lijn van de vorige generatie zit en de generatie daarvoor en daarmee geniet ik van het beste van het beste. Immers een snellere CPU geeft het gewoon niet.

Echter met een GPU is jaar op jaar de prijs verhoogd en ik geloof direct dat er technisch beduidend meer aan de hand is maar het is toch moeilijk te verkroppen dat zowel AMD als Nvidia de eind gebruiker gewoon zit te knijpen voor meer winst. De verkoop cijfers vallen tegen, de crypto markt is inelkaar gestort dus verhoogd men maar de prijzen. Met als gevolg dat ik niet kan of niet bereid ben om een 4080 te kopen en dat ik dus niet meer de super graphics kan genieten die ik bij iedere vorige generatie wel kon. Ontwikkelaars zitten niet stil maar wij als eind gebruiker blijven vast zitten in oude meuk omdat AMD/Nvidia de aandeelhouder tevreden wilt stellen.

En daar zit voor mij dan ook het hele probleem, wij zijn niet meer de klant, wij zijn enkel een middel om meer geld te verdienen. Ikzelf en terecht velen anderen hebben daar gewoon geen zin in. Misschien dat de leveranciers een stapje terug doen in hun winst verwachtingen als ze willen dat wij als klant de beurs gaan trekken. Dit is ergens overigens ook heel vreemd wat gebeurd, zij hebben knappe economische bollen rondlopen die de prijselacticiteit bepalen, de band is gesprongen en toch blijven ze pushen voor hogere prijzen.
Anoniem: 454358 @SHiNeye8 januari 2023 12:56
Is wel even een kaart die makkelijk recente games op 1440p 144hz draait. Wanneer heb je eerder zo'n kaart voor 1000 kunnen krijgen?
dat is toch normaal, dat een nieuwe kaart sneller en beter is dan de vorige? Dat dan de prijzen onevenredig omhoog gaat is dat dan weer niet. Bij welke technologie is dat wel zo? Een nieuw model auto ineens 50-80% duurder dan het model dat die aflost omdat die sneller is of meer kan? Of bij tv's?
dat is toch normaal, dat een nieuwe kaart sneller en beter is dan de vorige?
In dezelfde games, ja. Maar niet per se over games van die generatie tov de nieuwe generatie.

Bij auto's of TV's veranderd de omgeving waarin ze werken niet. Je hoeft ze niet te upgraden om mee te gaan, en daarom is dat in mijn ogen ook niet te vergelijken.

Een 80 serie kaart van 10 jaar geleden kon in games van 10 jaar geleden absoluut geen 1440/144hz aan. Nieuwe 80 serie kaarten kunnen dat wel in nieuwe games. Wil jij nog steeds 1080/60hz spelen op kwaliteitniveaus wat vroeger weggelegd was voor high end kaarten, kan dat nu prima met low end kaarten.
Dat is absoluut wel hetzelfde. Prijzen van EV's normaliseren nu ook, dat is toch een auto die ontstaan is omdat de omgeving veranderd en dus de vereisten.
Je kunt nog prima rondrijden in een auto van 20 jaar oud. Gamen op een PC van 20 jaar oud? Denk het niet.
Wel als je dezelfde games speelt.........
Ja dat zijn vast de mensen die in de markt zijn voor een 4000 serie kaart 8)7
een 6800xt kan ook makkelijk 144hz draaien op 1440p.

Ik vind het zowiezo heel vaag welke kaart kan 144hz draaien. Als jij een slechte CPU heb kan je nog steeds geen 144hz halen. Welke game gaat het over? Cyberpunk haal je dan nog steeds niet. Zitten zoveel variable bij. Je betaald gewoon geen 1000 euro voor zo'n kaart al wil je de markt veranderen.

Wij als consument kunnen bepalen of we dit accepteren of niet. Accepteren we dit dan is de volgende 5070 1200 euro.
makkelijk is beetje kort door de bocht, je moet af en toe al wat settings laten varen om die 144fps op 144Hz te halen..

Maar idd ik heb zo 2 game PC elks met 6800XT MB en beide aan MSRP AMD website gekocht Mei 2021.
Mij hoor je dus niet klagen en gaan nog vlot mee.
Ik vind het zowiezo heel vaag welke kaart kan 144hz draaien.
Zo vaag lijkt me dat niet. Zolang je niet CPU limited bent, kun je toch wel achterhalen wat een 1440p/144hz kaart is?
Cyberpunk haal je dan nog steeds niet.
100fps op high settings zonder DLSS, dan is die 144 ook wel te halen.
een 6800xt kan ook makkelijk 144hz draaien op 1440p.
Deze opmerking snap ik niet helemaal? Dat is toch ook zo? Kost ook 700+.

[Reactie gewijzigd door SHiNeye op 23 juli 2024 08:04]

shooters wil je graag die 144hz....de rest (en dat zijn veel meer games) kan je prima op 60hz (60 fps) spelen.

Bij bijvoorbeeld Tomb raider of Cyberpunk zie en merk jij t verschil echt niet.
Bij bijvoorbeeld Tomb raider of Cyberpunk zie en merk jij t verschil echt niet.
Ik merk toch echt verschil tussen 60fps en 144fps, ongeacht de game. Maar dat is een heel andere discussie.
Wel, een 1080Ti kostte me destijds 800,- euro, bij release perfecte kaart om de toenmalige triple A spellen (Battlefield 1 bijvoorbeeld) op 1440p 144Hz high settings te kunnen spelen.

Een RTX 2080 Super kostte me 850,- bij release van de kaart, perfecte kaart om triple A spellen (Battlefield V bijvoorbeeld) op 1440p 144Hz high settings te kunnen spelen.

(Nostalgie mode: een GTX 970 SLi setup met twee Asus Strixx kaarten voor 750 euro ;( )

Laten we gewoon even eerlijk zijn, en gewoon toegeven dat 1000,- euro voor een 4070 Ti gewoon te veel geld is ?
Oke, dan is 800 euro toch prima voor een 1440p/144hz kaart? Zoals de 4070.
Is wel even een kaart die makkelijk recente games op 1440p 144hz draait. Wanneer heb je eerder zo'n kaart voor 1000 kunnen krijgen?
Maakt dat uit dan? Dus innovaties moeten niet meer een lagere prijs krijgen naargelangen de tijd maar in de plaats gewoon duurder en duurder worden want "het is beter dan de vorigere versie"? Met deze logica claim je dus dat omdat bijvoorbeeld de Intel 10900K voor €499 euro over de toonbank ging, dat de Intel 13100F ook ongeveer die prijs moet hebben omdat deze 2 processors ongeveer dezelfde prestaties leveren in dagelijks gebruik. Wat een onzin.
Nee, dan heb je me verkeerd begrepen.

Games worden natuurlijk steeds intensiever, en wil je nu een kaart kopen die bijvoorbeeld recente games op 1440p/60fps kan spelen, is die kaart goedkoper dan eentje van 10 jaar geleden die 1440p/60fps kan spelen op games die toen uitkwamen.

En misschien kan je beter de 10900K en de 13700K vergelijken. Dezelfde prijs, maar de 13700K is toch wel een aardig stuk sneller in gaming.
Ik vind het een kromme manier van vergelijken. Aangezien spellen van vroeger sowieso simpeler waren is het nu toch krom om te zeggen dat het nu goedkoper is om een kaart te kopen die de prestaties wel kan leveren?

Je moet juist in mijn ogen videokaarten vergelijken binnen de generatie zelf. Dus een 4070 met een 3070/2070/1070. Dan is de enige vergelijking dat de kaart ineens nu 1100 euro is waarbij dit vroeger in de vorige generaties rond de 200-350 euro lag.
1070 kon bij games die toen uitkwamen geen 1440p/144hz leveren, dat kan een 4070 wel bij games die nu uitkomen. Zo raar is die vergelijking niet.
Maar dat zou betekenen dat een nieuwe generatie altijd duurder moet zijn?

Het is altijd zo geweest dat je met de nieuwe generatie hetzelfde betaald en dan meer performance krijgt. Nu betaal je meer voor meer performance, dat klopt gewoon niet .

En dan roepen dat je moet een 1080 geen 1440p 144hz kan draaien is natuurlijk een kul argument.

[Reactie gewijzigd door marco-ruijter op 23 juli 2024 08:04]

De hele 30xx serie had natuurlijk een fictieve msrp. Iedereen was super verbaasd dat een 3070 de performance van een 2080ti haalde voor maar 500 euro.

De kaart werd, en wordt nog steeds voor 600/700+ verkocht.

Toen de 2080 uitkwam was die ook 800.

Ik heb het idee dat veel wat fictieve prijzen herinneren.. wanneer was de laatste xx70 kaart die je bij launch voor 350 euro kon kopen.. de 2070 koste bij launch 600+ euro (wat ik zo snel op pricewatch zie) en de 1070 koste bij launch 520 euro.

Als de 4070 msrp van 800/700 euro krijgt is dit gewoon redelijk gepositioneerd.
Sorry, maar net jouw manier van vergelijken is krom.
Jij gaat puur af op de naam die de fabrikant op zijn product plakt.
Met andere woorden: je volgt 100% de marketing van de fabrikant. Dat is uiteraard de bedoeling, want nVidia heeft niets liever dat je de xx70 reeks blijft kopen... een beetje naïef.
Als consument moet je enkel vergelijken op kwaliteit, prijs en prestatie.
In de veronderstelling dat er met de kwaliteit niets mis is...
Oke met jouw logica dan verdubbelen de cpus,gpus,ddr,hdds altijd qua prijs met nieuwe generaties.

Wil je gamen op 1080p 60hz dan koop je een 980 gtx en wil je 1440p 60hz dan koop je een 1080 en wil je 1440p 144hz koop je een 4070 van 1200 euro.
4070 zal hier wel zo'n 800 euro gaan kosten en de 4060ti dan zo'n 700. Leuk man, een nieuwe game pc samenstellen |:(

Vooral omdat we het hier over midrange kaarten hebben, lol. Ze zijn echt compleet gestoord met z'n allen. Ik hoop dat iedereen lekker z'n geld in de zak houdt. Maar Nvidia en AMD hebben hun orders bij TSMC al flink beperkt voor de komende periode, omdat de verkopen teruglopen. Ja heel vreemd met deze achterlijke prijzen.

Hun logica: Mensen kopen minder, dus we maken de kaarten duurder, dat de mensen die er nog wel eentje kopen zorgen voor voldoende omzet. En daarmee kunnen we de aandeelhouders toch tevreden houden. En fuck die hele groep gamers die geen 1500-2000 euro voor een nieuwe pc kunnen neerleggen.
Dit gaat PC gaming echt minder populair maken zolang consoles voor rond de 500 euro aangeboden worden. Heel jammer, maar blijkbaar onvermijdelijk. Van mij mag vooral Nvidia, maar ook AMD in de stront zakken.

[Reactie gewijzigd door spokje op 23 juli 2024 08:04]

Dit is het hele probleem mensen hoeven geen PC samen te stellen met deze kaarten.

1080p gaming: 5600 met een b550 + 6600Xt zit je onder de 1000 euro en heb je een prima build.
Ja nu nog, maar dat is de vorige generatie. En die werd niet zo retarded hoog in de markt gezet. Overigens is de 6600XT in Nederland ook nog veel te duur voor wat het is. Zo'n bijzondere kaart is dat nou ook weer niet.
Over een paar jaar zijn ook de 2e handsjes onbetaalbaar.
"De vorige generatie" - ja, daar heb je't inderdaad goed. Waarom zou NVidia een 4050 moeten gaan ontwikkelen, als ze al een 3060 hebben? Dat deel van de prijs/prestatie-curve is al afgedekt. En voor AMD geldt dezelfde logica - de verschillen tussen generaties zijn zo klein geworden, dat de vorige generatie niet compleet achterhaald is.
Klopt ik ben momenteel naar een soort gelijke build aan het kijken en zit nu op €875 ongeveer
5600 met een b550 en een tweedehands 3070 voor ca. 400 euro was in mijn optiek de beste keuze toen ik vorige week een game PC samenstelde. Ik neem genoegen met 60FPS, dus in dit geval kan ik zelfs nog aardig meekomen op 4K met DLSS :)
Eens.

En daarnaast heeft deze prijsontwikkeling meer met marketing en psychologie te maken dan menig doet beseffen. Wie met een (x)x70 zou zich namelijk te kort willen doen met een xx60 of lager. Dit geldt voor elke bijna elke versie. Natuurlijk ga je als fabrikant van dat idee gebruik maken en de prijzen opschroeven. Bij andere technologieën zie je precies hetzelfde gebeuren. Het enige wat je af en toe moet doen is aan de onderkant van de markt een nieuw model introduceren.

Consumenten doen er beter aan om hun producten op andere criteria dan een modelnummer te selecteren zoals TDP of budget.
Hehe, ik denk dat we wel een 'educated guess' kunnen doen en daarop baseren dat ze veel te veel geld vragen voor deze (en andere gpu's die al te koop zijn)
Ik moest wel lachen bij het lezen van de titel: 'Nvidia begint volgende maanden aan massaproductie RTX 4070 en RTX 4060Ti'

Wat wordt bij nvidia verstaan onder "massaproductie" 10 per week? Geen wonder dat de prijzen zo hoog blijven op deze manier

[Reactie gewijzigd door sygys op 23 juli 2024 08:04]

Heb je het patroon tot nu toe niet gevolgd?

Normaalgesproken ben ik ook van 'wait and see', maar Nvidia blijft proberen een nieuw prijsbeleid te realiseren om hun bottom line op hetzelfde niveau als de mining craze te houden ten koste van gamers.

Elke vorm en mate van skepsis wat betreft Nvidia's prijsbeleid lijkt me verantwoord.
Mijn gok is 800€ voor de 4070 en 700€ voor de 4060
Veel te veel dus.
Dat is toch wel te raden zo ongeveer?
Ik zoek mijn nieuwe kaarten in goede 2handse kaarten. Ik vertik het om zoveel geld uit te geven aan een midrange kaart. Mijn max voor een high-end kaart is echt 1000 en geen 2000.
Doe ik ook, maar ik vind de tweedehands markt ook uit balans. In juni 2019 kocht ik voor €175 een gebruikte GF 1070.
Anno 2023 kom ik deze kaarten tegen voor €150.

Wat koop je 4 jaar later voor €200?
Een 1080 Ti? Dat is niet echt een upgrade.

Ik wacht nog heel even in de hoop dat de markt ondanks alles wat stabiliseert en de prijzen dalen. Anders is dit de nieuwe realiteit voor nu
Koop anders gewoon een console.
Goede tip! Is ook super chill video's editen op een console, of foto's bewerken, animaties maken, in (fatsoenlijke) VR spelen, met een multi-monitor setup gamen of in hoge resoluties spelen met hoge framerates.

Consoles zijn toffe apparaten, maar in veel zaken nou eenmaal beperkt als je net wat meer wilt. Ben je heel erg gericht op simulatie games? Dan zit je op de PC véél beter. Wil je hoge resoluties en/of hoge framerates? Dan zit je op de PC beter. Daarbij kun je je PC natuurlijk ook nog gebruiken voor tal van andere toepassingen, waarbij dat bij een console wat minder aan de orde is. En last but not least: games zijn vaak goedkoper te krijgen op de PC.
Kan hij allemaal nog steeds doen met zijn 1070 kaart.
Er staat hier ook al een tijdje een PS5 :)
Ik heb ook een laptop met GF 3060 (in wezen net zo snel als desktop GF 1070, dus schiet daar niet echt wat mee op). De console is ook primaire reden voor mij dat ik nog wel even kan wachten en bekijken hoe GPU markt zich verder ontwikkeld.

Ik wou alleen een voorbeeld geven dat de 2ehands markt in een vergelijkbare situatie zit.
Alhoewel ik GF 3070 voorbij zie komen voor €350, maar dat valt buiten het budget wat ik heb toegekend aan een desktop PC
Even lekker GOW2 spelen en als straks de prijzen naar beneden gaan heb je die ook zo weer verpatst zonder weinig te verliezen. ;)
Idd zojuist mijn 3080 verkocht voor 700 euro, die heb ik ooit voor 800 gekocht 2 jaar geleden.
Dan heb je nu met de 4070ti een mooie nieuwe kaart met prestaties van een 1500+ kostende 3090ti toch?
Ik heb voor 750 een zgan RTX 3080ti met 2 jaar garantie op de kop kunnen tikken. Dat ik vind ik nog te doen, ik wacht nu wel een jaartje. Tot de prijzen wereldwijd wat meer gaan dalen voor hardware. Die gekte blijft niet, kijk maar naar de voorraden die niet verkocht worden. Kantelpunt is geweest.
Eens. Ik heb een 3070 op de kop kunnen tikken voor €360, albeit wel mee gemined en zonder garantie, maar zo lang je voor de koop de kaart uitgebreid kunt testen durf ik dat risico wel aan. En zo niet, dan zijn er altijd nog "redelijke" nieuwe kaarten van de vorige generatie te koop, zoals de GDDR6x versie van de 3060ti, of een 6700xt van het rode kamp waar je prima mee vooruit kunt op 1080p en zelfs 1440p
Hoe komen die 2e handsjes op de markt dan? :+

[Reactie gewijzigd door drQuentules op 23 juli 2024 08:04]

precies wat ik dacht als mensen het vertikken om die dure kaarten te kopen, dan betekent het dat mensen hun oude niet gaan verkopen.
als die niet verkocht worden dan zal er op ten duur ook daar schaarste ontstaan en niet veel goedkoper worden...
Mensen moeten ook nieuwe kaarten kopen om de tweedehands markt op te vullen anders kunnen mensen straks geen snelle RTX 4080 of RX 7900 XTX voor 400 euro kopen.
Ja wel hoor gewoon een RTX 4080 gehaald voor 1370 euro - 750 euro (oude kaart) valt het mee.
No way dat ik 2e hands ga kopen, want ook daar denken vele dat ze van die achterlijke prijzen (hoger dan originele adviesprijs) kunnen vragen, en dan geef ik liever mijn geld aan AMD/Nvidia dan aan zo'n scalper.
Precies lekker boycotten die handel laat maar weten dat wij consumenten het niet meer pikken.
Hoop dat ze met bergen kaarten zitten en consument zoveel mogelijk tweedehands kopen.
Heb ik ook gedaan 1-2 jaar geleden. Ik heb al lang geen nieuwe kaart meer gekocht. Komen steeds meer mining kaarten / 30 serie beschikbaar. Wat al behoorlijk sterk spul is. Zat mooie tweedehands kaarten.
Stemmen doe je met je geld, nieuw kaart voor hoofdprijs kopen is zeggen "Jah, ik vind genaaid worden heel lekker"
Nu zijn ze duidelijk verslaaft aan de hoge marge van afgelopen 1-2 jaar.
Gelukkig kelderen hun aandelen.. 2022 was al niet geweldig voor ze en hoop dat ze in 2023 nog wat verder in de stront zakken net als ze bij de consument doen.
Misschien krabben ze dan achter hun oren dat ze voor het snelle geld hebben gekozen en hun klanten lieten vallen.
Ga nu boze mail naar Nvidia sturen en lekker inwrijven dat ze mij verlopig niet meer zien als klant.
Dat gewoon rot bedrijf is.
dat zou opmerkelijk zijn, want in de database van techpowerup staat de 4060ti nog gebaseerd op de AD106 die een veel kleinere die heeft (190mm² vs 295mm²). De 2 verschillende AD104 chips lijken dan ook een vreemde beslissing voor goedkopere kaarten te zijn aangezien die de helft groter zijn.
Dat hoeft natuurlijk niet heel veel te zeggen, ook die database is tot release / officiele aankondigingen gebaseerd op speculaties.

Het kan dus best zijn dat WCCFtech het verkeerd heeft hier, zou immers niet de eerste keer zijn :P
Maar kan ook zomaar zijn dat Nvidia denkt dat de AD106 cut die ze voor ogen hadden voor de 4060Ti niet competitief gaat zijn t.a.v. de AMD chip die op ongeveer hetzelfde prijspunt gepositioneerd gaat worden, of dat ze denken dat bijv. de 4060 het lastig gaat krijgen t.a.v. de concurrentie en die een stap omhoog moet, waardoor de 4060 Ti ook een stap omhoog moet.

[Reactie gewijzigd door Dennism op 23 juli 2024 08:04]

Zoals we al met de "4080 12 GB" hebben gezien is een NVidia productnaam zuiver marketing. De AD106 zal er wel komen, maar of die "4060" danwel "4060 Ti" gaat heten is niet zo spannend. Je krijgt geen extra FPS van letters op een doos.
wat er op de doos staat maakt me nix uit, de specs zouden echter wel radicaal anders zijn hierdoor wat ook een invloed op de prijs gaat hebben. Je moet als NVIDIA een chip die de helft groter is duurder verkopen aan de OEM's om aan dezelfde opbrengst per wafer te geraken en die zullen op hun beurt die meerkost dan weer gaan doorrekenen
Wilde wachten op de 4070, maar met de toekomst in gedachte heb ik eerder vandaag een 4070 Ti besteld. De PNY GeForce RTX 4070 Ti 12GB XLR8 Gaming VERTO om precies te zijn.

Hij voldoet i.i.g. aan mijn onderstaande eisen:

- Beste heatsink van de 4070 Ti modellen.
- Power connector op standaard 92mm breedte.
- RGB makkelijk uit te schakelen met stekkertje.
- Deshroud vriendelijk mocht dat nodig zijn.

Gaat een mooie upgrade worden, want ik zit nog met een GTX 1070. Het is een hoop geld €1019 maar veel lager gaat dat in NL niet worden. Daarnaast heb ik geen andere hobbies zoals drinken, roken, drugs of vakantie ^^ En ik ben niet van plan om hem de komende 5-7 jaar te vervangen, dus dan is de prijs niet zo heel pijnlijk.
Ik verwacht dat de prijzen zullen dalen. De verkoop is al met 42% ingezakt. De vraag en aanbod regel zou de prijzen moeten verlagen. Of nvidia wil gewoon minder verdienen. Wat me sterk lijkt.
Die prijzen gaan inderdaad niet lager worden zolang er mensen zijn zoals jij die een midrange kaart voor dat bedrag kopen :'(

Dat gezegd hebbende, veel plezier met je nieuwe kaart, flinke upgrade!
Jah, geef mij maar de schuld. Ik doe i.i.g. 7 jaar met een GPU. De laatste keer dat Nvidia van mijn geld heeft gehad was in 2016.

Een ander schiet voor €1000 vuurwerk de lucht.

[Reactie gewijzigd door TheDeeGee op 23 juli 2024 08:04]

Het springende punt blijft uiteindelijk het prijskaartje vooral voor de RTX4060 Ti want die zal denk ik voor de meeste mensen enigszins binnen budget gaan vallen. Maar reviews zullen uiteindelijk moeten gaan uitwijzen hoe het zit met de prijs/prestatieverhoudingen. En ja met de onzekerheid welke chip gebruikt gaat worden blijft dit vooralsnog even gissen.

Wel jammer dat altijd eerst de high-end kaarten op de markt komen en de meer budget kaarten vaak pas veel later. Mij lijkt toch dat meer te verdienen valt met budget kaarten dan met die erg dure high-end kaarten. En tja dan loopt Nvidia het risico dat mensen uiteindelijk toch kiezen voor een verkrijgbare budgetkaart van de vorige generatie.
Logisch dat eerst de vlaggenschepen uit komen. De gaming wereld zit daarcmeer op te wachten om te zien wat het presteert dan de lowend, maar de meeste gamers hebben wel maar een low-/midend. Ook heeft het vaak met productie te maken, highend is veel beperkter dus kun je rustig mee beginnen en zo ook eventuele problemen voor de echte grote bulk met lowend op te lossen.
De gaming wereld zit daarcmeer op te wachten om te zien wat het presteert dan de lowend
Dat begrijp ik maar het gaat mij meer om de tijdsduur tussen het op de markt komen van de high-end en mid- low-end kaarten. De high-end kaarten zijn al een paar maanden op de markt terwijl de mid-end kaarten pas op de helft van dit jaar op de markt komen. Dus er zit nu naar verwachten bijna driekwart jaar in en dat vind ik best wel veel.
maar de meeste gamers hebben wel maar een low-/midend.
Dat bedoel ik dat uiteindelijk de low- en zeker mid-end kaarten het meest verkocht zullen gaan worden ook door de gamers. Waarbij je ook nog een groot deel semi-gamers hebt die zo af en toe eens gamen en dan geen kapitaal aan een videokaart willen gaan besteden.
dus kun je rustig mee beginnen en zo ook eventuele problemen voor de echte grote bulk met lowend op te lossen
Denk dat dat niet echt op gaat want bij de mid- en low-end kaarten worden veelal andere grafische chips gebruikt. Het is dan maar net de vraag hoezeer die chips dan afwijken van de chips in de high-end kaarten.
vraag mij wel af voor wie ze de massa productie gaan maken. betwijfel heel erg of er zoveel animo voor is.
Denk dat je je daar geuwelijk in zult vergissen, de meeste mensen hebben gewoon niet het budget om die 4070-ti en hoger te kunnen te betalen. Er wordt wel veel gemauwd hoe hoog de prijzen wel niet zijn, maar als ik zo rond kijk in mijn omgeving dan zie ik toch mensen gewoon de 4080 en zelfs de 4090 kopen want ze willen toch het beste wat er nu te krijgen is en niet een tussen oplossing die je later niet meer kwijt kunt zonder gigantisch in te leveren waardoor je net zo goed meteenbeen nieuwe kunt kopen en daar 4-5 jaar mee vooruit kunt.
misschien is het toch een klasse verschil. de mensen waar ik mee om ga besteden niet snel zulke bedragen aan 1 component.
Bij mij ook niet, maar er is niet veel keuze meer sinds de 30xx serie die lange tijd ook voor krankzinnige prijzen verkocht werden. Nu pas zijn de prijzen van de 30xx serie een beetje rond de originele adviesprijzen.
Maar ja dan heb je 2-3 jaar oude hardware voor de prijs van toen. Nvidia's strategie is om de 40 serie boven de 30 serie te prijzen. Wat natuurlijk nergens op slaat, want dat betekent dat we geen nieuwe kaarten krijgen voor de normale prijs. Het gevolg: de helft van de klanten koopt zowel de oude zooi als de nieuwe kaarten niet. En terecht. Stelletje afzetters bij nvidia.
Maar de hogere prijs is mogelijk ook echt vanwege de weer verder duurdere productiekosten van de 40xx chips. Net zoals dat bij AMD ook het geval is, en beiden ook zeggen dat de komende jaren nog geen einde komt aan Moore's law, maar dat elke iteratie wel een stuk duurder wordt om nog aan Moore's law te kunnen voldoen.
vind in de amd kant behoorlijk veel keuze. persoonlijk zou mijn keuze ook daar naar toe gaan
Er wordt wel veel gemauwd hoe hoog de prijzen wel niet zijn, maar als ik zo rond kijk in mijn omgeving dan zie ik toch mensen gewoon de 4080 en zelfs de 4090 kopen want ze willen toch het beste wat er nu te krijgen is
Zal ook wel wat van doen hebben in wat voor economisch klimaat je leeft, en hoeveel er gegamed wordt danwel hoe belangrijk mensen die hoge framerates nou echt vinden.

De rek is er voor mij als "enthousiaste casual" wel uit en ik vind het niet leuk meer.
Die nieuwe prijzen in het hoge segment ga ik gewoon niet betalen, en zo'n eveneens best duur middenmoter kaartje doet het gewoon niet significant beter dan die consoles die ik ook al heb staan. Uiteindelijk gaat het me vooral om de games, niet waar ik ze op speel.

Verschil is stroomverbruik tussen consoles en een potige game PC is daarbij ook wel een dingetje aan het worden sinds de energiecrisis.

[Reactie gewijzigd door Polderviking op 23 juli 2024 08:04]

Nou, lanceer die 4060, 4050ti en 4050 dan ook gewoon meteen want die zitten er natuurlijk ook nog aan te komen. Maja elke keer in het nieuws blijven levert blijkbaar meer geld op.

[Reactie gewijzigd door Cowamundo op 23 juli 2024 08:04]

Een release in de zomer voor deze kaarten dus? Dat duurt dus nog wel even. En het maakt de huidige 3070 er niet aantrekkelijker op gezien zijn prijs.
wat ze ook gaan kosten het gaat veelste veel zijn voor de prijs.

Op dit item kan niet meer gereageerd worden.