Nvidia verlaagt prijzen GeForce RTX 4090 en 4080 Founders Editions met 5 procent

Nvidia heeft de adviesprijzen van zijn GeForce RTX 4090 en 4080 Founders Editions verlaagd in Europa. Het betreft verlagingen van ongeveer 5 procent. Vermoedelijk doet het bedrijf dat vanwege de waardestijging van de euro ten opzichte van de dollar.

Nvidia heeft de prijzen van zijn RTX 40 Founders Edition onlangs aangepast op zijn website, merkte Duitse techwebsite HardwareLuxx op. De GeForce RTX 4080 is nu te koop voor 1399 euro, waar die videokaart eerder nog 1469 euro kostte. De prijs van de GeForce RTX 4090 is gedaald van 1949 naar 1869 euro.

Nvidia heeft de prijsverlaging niet officieel aangekondigd. Vermoedelijk betreft het een prijscorrectie, aangezien de waarde van de euro de afgelopen tijd is gestegen ten opzichte van de dollar. Dit lijkt dus geen reactie op de recent aangekondigde Radeon RX 7900 XT en XTX van AMD, die volgende week beschikbaar komen voor respectievelijk 899 en 999 dollar.

De nieuwe, verlaagde prijzen zijn al doorgevoerd bij andere retailers die de Founders Editions leveren, meldt HardwareLuxx. De prijzen van de aangepaste RTX 4080- en RTX 4090-videokaarten lijken echter nog ongewijzigd. Een aangepaste RTX 4090 staat op het moment van schrijven bijvoorbeeld in de Pricewatch voor 2149 euro. Aangepaste RTX 4080-kaarten worden momenteel verkocht vanaf 1469 euro.

Gewijzigde europrijzen GeForce RTX 40 Founders Editions
Videokaart Oude prijs Nieuwe prijs
GeForce RTX 4090 Founders Edition 1949 euro 1869 euro
GeForce RTX 4080 Founders Edition 1469 euro 1399 euro

Door Daan van Monsjou

Redacteur

05-12-2022 • 14:37

184 Linkedin

Lees meer

Reacties (184)

184
181
54
3
0
100
Wijzig sortering
Niet dat ik NVIDIA's bizarre prijzen goed wil praten want met de stelling dat die veel te hoog zijn ben ik het eens.

Maar! Een 970 met een 4080 vergelijken is natuurlijk een vreemde vergelijking. Nu dat de crypto-boom voorbij is en de scalpers de resterende kaarten niet opkopen kan je rond dezelfde prijs weer een behoorlijk krachtig systeem kopen.

Volgens 'inflationtool.com' (disclaimer geen idee how betrouwbaar die site is) is €1000 uit het GTX 970 tijdperk nu ongeveer gelijk in waarde aan €1224. Als ik de laatste best buy guide (helaas uit September) voor een 1440p systeem erbij pak is het even schrikken met een actuele prijs van €1692.. totdat je ziet dat die specifiek gekozen 6700XT op het moment 1039 euro is. Vervang die door een ASUS RX 6700 XT van €449.
Simpel rekensommetje €1692 - €1039 + €449 en voor ruwweg €1102 ben je klaar.

Prijzen zijn dus niet zoveel anders als je in dezelfde klasse videokaarten kijkt en bereid bent om NVIDIA links te laten liggen. Er zijn nog steeds sub optimale keuzes in dat systeem waar je onderdelen kunt vervangen zonder performance in te leveren. Een ander goedkoper moederbord, een minder krachtige voeding (alhoewel wel handig voor toekomstige videokaarten om overkill te hebben). Dus zelfs voor net over de originele €1000 kan je alsnog een prima systeem kopen.
Zelfs als je wel Nvidia wil hoef je ook weer niet zo veel duurder uit te zijn. Een 3070 is zo'n 150 duurder, wat een groot verschil is, maar absoluut niet zo'n verschil als wat @no_way_today er van maakt (op wie je denk ik bedoelde te reageren).
Maar dan heb je een kaart die al minimaal 2 jaar oud is, beter is even wachten op de 4070.

[Reactie gewijzigd door mr_evil08 op 5 december 2022 16:47]

Afhankelijk van de prijzen, ja, wellicht wel. Maar het ging me meer om de opmerking hierboven dat je bereid zou moeten zijn om Nvidia links te laten liggen. En hetzelfde geldt natuurlijk voor de 6700XT die aangeraden werd :)
Zo simpel is dat niet helaas als je een g-sync scherm hebt ondanks free-sync mogelijk ook kan functioneren op een g-sync scherm.
Maar! Een 970 met een 4080 vergelijken is natuurlijk een vreemde vergelijking.
Waarom?

1. Bij release in de 900 serie waren de 970 en de 980 de twee top-end kaarten. Bij de 4000 serie zijn die twee top-end kaarten de 4080 en de 4090. Een 990 bestond nooit, nVidia heeft gewoon bepaald dat nu zijn snelste kaart de xx90 is, en de xx80 is de tweede snelste, dat waren vroeger de x80 en x70. Als je die context meeneemt is het vergelijken van de 4080 en de 970 100% correct.
2. Als je kijkt naar de codenames van de chips zelf zie je hetzelfde: de 970 was de GM 204, terwijl de 'volledige' chip bij maxwell de GM200 was, gebruikt in de 980Ti en de GTX Titan X (er waren geen 201, 202 of 203 chips). Bij de 40 series zien we nu dat de 4080 de AD103 gebruikt, terwijl het topmodel de AD-102 is. Ook hier blijkt dat de 4080 een trapje onder de high-end zit, de plek waar vroeger de 970 zat.

Kortom: laat je niet gek maken door nVidia hun branding en gegoochel met nieuwe namen: wat vroeger de x70 had geheten noemen ze nu gewoon de x80, want zo slaan ze meer geld uit fanboys hun zakken.
Hadden ze in de tijd van de 970 niet ook gewoon een Titan? Die kaart vind ik meer een 3090-achtig product.
Klopt, maar die was pas veel later beschikbaar. Die had overigens dezelfde chip als de 980 Ti (de GM200), welke ook later beschikbaar kwam, ongeveer dezelfde performance had als de Titan X, maar een stuk goedkoper was.

vooral vanwege dat laatste zou ik de Titan-reeks dan ook buitne beschouwing laten, en enkel naar 70/80/90 (Ti) kaarten kijken.
Nou... daar ben ik het niet mee eens. De 90 serie is naar mijn idee meer een over the top zo gek als ze het kunnen maken product. De prijzen zijn rare dingen gaan doen met Covid en de cryptogekte, maar in principe zie ik een 3080 nog steeds als de highend en een 3090 als de overkill voor als je geld te veel hebt, niks geeft om efficientie en absoluut elk laatste beetje performance wil. Bij de 4080 en 4090 is de situatie wat anders door de absurde pricing van Nvidia, maar zodra de 4080 wat goedkoper zou worden zou het weer hetzelfde zijn. Ik hoop dat ze dat nog doen en dat de prijs van de 4080 op dit moment puur is om de resterende voorraad 3000 serie kaarten nog te verkopen.
Nemen we de gtx 970 die rond de 400 euro kosten. En de rtx 3070 eind 2021 dan zou de RTX 3070 rond de 450 euro moeten kosten. Maar op de een of andere manier heeft Nvidia er 70 euro bovenop weten te praten. Voornamelijk is 2022 een hoge inflatie. Daarvoor viel het allemaal reuze mee. Doe die zelfde berekening tot eind 2021 en je ziet een ander beeld. Voornamelijk midden/eind 2022 is drama.

En het probleem is dat als niemand wat zegt of blijft kloppen je vanzelf een 6070 voor 1000 euro moet neerleggen. Terwijl met inflatie meegerekend je misschien op 700/750 euro zou moeten uitkomen.
Hoe je het ook wendt of keert, de 4080 is echt veel te duur. Zeker met de toch wat tegenvallende specs. En daarom is de vergelijking met de 970 nog niet eens zo gek.

Maar zelfs als je hem met de GTX 980 vergelijkt, loopt het compleet scheef. De 980 was 600 euro, tel daar 25% inflatie bij op en je zit op 750, doe eens gek: 800. Dan is een kaart uit de huidige xx80 generatie dus bijna 2 keer zo duur als 3 of 4 generaties terug. Absurd.

Die 6700 XT is een positieve uitschieter. Maar videokaarten zijn nog steeds een enorme kostenpost als je een nieuwe systeem wilt bouwen. En dan kun je wel aankomen met goedkopere moederborden en andere onderdelen maar das natuurlijk valsspelen (en komt je overall kwaliteit van je systeem niet ten goede). Daarnaast wordt je videokaart daardoor relatief gezien nog duurder :D
Een videokaart klasse wordt in mijn mening niet bepaald door de resolutie waarop deze het beste presteert. En dat vind ik persoonlijk ook een hele rare vergelijking om te bepalen of een product wel of niet duurder is geworden in verhouding. Verhoging van resolutie is altijd al een ding geweest met elke generatie. Anders zouden we dus over 8 jaar nog steeds 400 euro moeten betalen voor een videokaart die bedoelt is voor 1080p.

Een voodoo 2 ging tot max 800x600 en kostte in die tijd 300 dollar. Als je de logica toepast die je nu gebruikt, dan zouden we nog steeds videokaarten hebben van 300 dollar die bedoelt zijn voor een resolutie van 800x600.
Dat zegt hij helemaal niet? Het is gewoon ongeveer dezelfde klasse PC. 1440p noemt hij alleen omdat Tweakers de best buy guide zo indeelt.

edit: trouwens, de 970 was niet echt een 1440p kaart, die hield de 60 fps echt niet vast in veel games destijds: review: GeForce GTX 970: vier zuinige Maxwells vergeleken
Een 6700XT presteert véél beter op 1440p in hedendaagse games dan de 970 dat deed bij toenmalige games.

[Reactie gewijzigd door Finraziel op 5 december 2022 17:07]

Alleen gaat niemand €1224 betalen voor een GTX970.
Het probleem is dat de inflatie correctie in lonen te laag is geweest en dat veel producten meer in prijs zijn gestegen dan slechts de inflatie. Dus de relatieve koopkracht is meer gedaald en daarmee drukt de prijs van een GPU ook harder op het budget. Met andere woorden, als je voor enkel inflatie corrigeert krijg je een prijs uit die relatief te laag is voor de benodigde financiële draagkracht.
Mijn RTX 2080 kostte in 2019 €666( }> ). Dat is nu €710,89. Ongeveer de helft van de €1399 die ze voor de RTX 4080 vragen.
Nvidia kopen is alleen een logische keuze als je andere dingen doet dan gamen. Anders zit je met AMD voor goedkoper op precies dezelfde en soms zelfs betere prestaties.

En voor de fanboys over raytracing: https://www.youtube.com/watch?v=2VGwHoSrIEU
(En dat voor die 3 games die het hebben)

"It is very easy to see if you know what to look for"

Duidelijk een groot ding wat echt opvalt.

"Seriously, it's easy to notice when RTX is on - it's when your game keeps dropping frames to try and keep up."

[Reactie gewijzigd door HermaHemie op 7 december 2022 10:28]

Deze kaarten heb je helemaal niet nodig. Ze prijzen zichzelf uit de markt in de hoop dat iedereen het slikt. Dat gebeurd niet. Het gevolg is dat de afzet van deze kaarten te klein is om een meerderheid van de markt te bedienen. Het gevolg daarvan is dat de recommended specs van games nauwelijks omhoog gaan. En je dus met hardware van de vorige generatie alles prima op ultra settings kunt draaien. Kijk dus naar de hardware die je nodig hebt om de games te spelen die je wilt spelen. In plaats van gewoon het duurste van het duurste te kopen. Dit is wat je krijgt wanneer je in dit geval kamp groen, keer op keer, verkiest boven de concurrentie, op basis van hun populaire merknaam. Je geeft ze alle macht in handen die ze vervolgens openlijk en publiekelijk misbruiken.

Gewoon met een glimlach op het gezicht verkondigen dat dit gewoon de nieuwe prijzen zijn van videokaarten waar we maar aan moeten gaan wennen. Want Nvidia stelt maar even de nieuwe norm. Walgelijk!

Uiteindelijk loont het om zo nu en dan van Merk te veranderen. Anders houdt je op den duur maar één merk over die je gewoon niet meer kunt betalen.
Je hebt helemaal gelijk. Maar niemand heeft volgens mij de prijzen verdedigt. Echter vonden veel mensen de adviesprijzen van de 30 serie zeer schappelijk, en dat werd veel geroepen. Ja, dan zou ik als fabrikant ook het randje gaan opzoeken.

Helaas is stemmen met je portemonnee niet voor iedereen weggelegd. Voor gamers zeker wel, en ik hoop dat dat massaal gebeurd. Maar voor professioneel gebruik ben ik, en vele anderen, helaas nog gebonden aan Nvidia.
Zou je kunnen toelichten waarom je professioneel bent verbonden aan Nvidia? Ben wel benieuwd wat je job is en welke software daar beter op draait.

Voor mij als fotograaf maakt het (voor zover ik weet) niet uit of ik Lightroom en Photoshop draait op een Nvidia en AMD GPU. Zit nu een 2070 kaart in mijn systeem en draait voorlopig nog wel even prima als ik deze prijzen zie :)
In 2019 kocht ik eerst een RX5700XT als vervanger van mijn GTX1060 6GB. 'Professioneel' gebruik ik de videokaart voor video editen. Gek genoeg was de AMD maar 20% sneller met renderen dan de 1060. Ik heb de AMD daarom ingeruild voor een RTX2060 Super, die was letterlijk 2x zo snel als de AMD. Vanaf 2021 ben ik ook nog eens 4K 60fps (voorheen 1080p 50fps) gaan filmen, dus ik vermoed dat het verschil tussen AMD en Nvidia nog groter zou zijn.

Nu is het bijna 2023 en wil ik graag upgraden naar een RTX4060 (nog even afwachten) en heb ik eigenlijk geen drang om een AMD alternatief te proberen.

Als CPU gebruik ik al wel jaren AMD. Eerst een 2600 en nu 5800x. Die werken prima :)

[Reactie gewijzigd door dillpickle op 6 december 2022 11:50]

Bedankt voor je toelichting! Ik wist niet dat voor video editting de verschillen zo groot waren. Als ik mij de benchmarks goed herinner hier op tweakers dan zijn de verschillen voor Photoshop en Lightroom minder groot.

Film is bij mij geen serieus onderdeel, maar mijn vriendin houdt zich daar meer mee bezig. Die merkt wel hoe fijn het is om een stevige pc te hebben staan voor de 40k60 beelden die ze dan bewerkt. Maar die vergelijkt het vooral met de laptop die ze van haar werk heeft. En die verbleekt een beetje bij de setup thuis :D
De hele AI wereld draait de facto op NVidia. CUDA is de keiharde standaard daar, en AMD heeft geen enkel serieus alternatief. Wij hebben inderdaad net een 30-serie kaart gekocht (3090), omdat de prijs prima was. Voor dezelfde prestaties bij AMD zouden we op EPYC uitkomen (ja - een server CPU) en dan hebben we't over een factor 10 duurder.
De relatie tussen AI en CUDA had ik nooit gelegd. Maar in dat geval snap ik de overweging voor die doelgroep wel heel goed. Thanks!
Ergens wel netjes natuurlijk; de meeste bedrijven doen dit niet. Zal ook zeker wel te maken hebben met de kaarten van AMD die er aan komen, dat lijkt me vanuit het artikel dus wel degelijk reden.
Edit: lachen man, iedereen in de gordijnen :9

[Reactie gewijzigd door zzzzz op 5 december 2022 15:17]

De USA prijs (oftewel de USD prijs) is niet aangepast. Als je de koers rond de aankondiging bekijkt en die vergelijkt met de koers van vandaag, dan zul je zien dat die daling zo goed als 1:1 op de koers verschillen volgt.

[Reactie gewijzigd door Paprika op 5 december 2022 15:05]

Maak er maar 1500 euro van voor de 4090 en misschien gaat ie dan verkopen 👍
Z3 verkopen al erg goed beter zelfs dan de RTX 4080.
Dat betwijfel ik voor 2k in Europa misschien in Amerika.
Het "probleem", tussen haakjes want gefabriceerd door nvidia, is dat de 4090 in price per frame vaak beter uit de verf komt dan de 4080. Die schaalt dus helemaal niet netjes mee met de waarde. Daar komt dus sowieso een 4080ti of 4080 super die er beter uit ziet door die ruimte die er is dan dat het werkelijk is.

Als ik dan kijk naar de unlaunch van de 4080 12gb en de recent stiekem uitgekomen 3060 8gb is het voor mij echt even helemaal klaar bij ze. Het zou kunnen zijn dat AMD net zo vies gaat spelen als ze meer marktaandeel hebben op de GPU markt, maar ik kan op dit moment niet anders dan mijn volgende aankoop lekker een AMD kaart maken en ik hoop dat velen dat met mij gaan doen.
Ik heb hier een 3090 strix met waterblock ik wacht net zolang tot nvidia klaar is met spelletjes spelen. Al duurd het 2 jaar. :*)
Zo hee, twee héle jaren?

je kunt ook gewoon 5+ jaar wachten hoor
Na 4-5 jaar kun je meteen op de next-gen consoles over! Met vast weer een AMD binnenwerk, dan maak je echt een statement naar Nvidia, 10+ jaar geen geld meer van jou }>
Zelfs al zou nvidia een iets betere deal worden dan AMD (wat ik niet denk). Principieel is de volgende kaart die ik koop een AMD kaart. Heb destijds voor 200 euro een 1650 super aangeschaft in afwachting van deze generatie en om de crypto hype te overbruggen. Had toen nog een voorkeur voor Nvidia, die is echter weggesmolten.

Ben helemaal klaar met hun prijszetting gemanipuleer om eerst nog de oude stock te kunnen verkopen, verkoopspraatjes (dlss), de unlauchte 4080 en de 3060 8gb.
Iedereen doet waar hij zich goed bij voelt, deze klant zijn ze alvast kwijt.

[Reactie gewijzigd door Ast1on op 5 december 2022 22:48]

Aan scalpers die hun voorraad niet doorverkocht krijgen :Y)
Er zijn echter ook een boel bedrijven die daar niet in meegaan. Die hanteren bijvoorbeeld dezelfde prijs voor dollars als voor euros.

Dus opzich is het niet een vreemde stelling dat NVIDIA dit überhaupt doet vanwege hun concurrentiepositie.
Dat zag je veelal omdat lange tijd de dollar +-20% minder waard was dan de euro. Wat er voor zorgde dat dollar prijzen +- gelijk waren aan euro prijzen incl BTW. Vanaf het moment dat de euro (flink) is gaan dalen in waarde t.o.v. de dollar zie je dit fenomeen ineens een stuk minder.
Was ook wel nodig. Hopelijk gebeurd dat bij alle hardware want veel dingen zijn de afgelopen maanden flink duurder geworden door die slechte euro/dollar koers. Goed om te zien dat die weer iets bij trekt.
Oh dat is een goede. Dan ben ik benieuwd of Apple zijn Euro prijzen nu ook weer naar beneden gaat bijstellen.
Het is maar hoe Apple de Chinese fabrikanten betaalt.
Alles met USD? Of bv het deel dat naar de EU verscheept wordt met de Euro's die Apple op Europese rekeningen heeft staan.
Als het dat laatste is dan slaat de torenhoge correctie al helemaal nergens op.
Wat? Je doet het voorkomen dat Nvidia net over haar 'goede' hart heeft gestreken.
Exact, die prijzen zijn gewoon om te huilen. Willen ze "goodwill" bij mij krijgen dan moet er van zeker 500 euro van de MSRP af. Maar dat kunnen ze niet maken tegenover hun stakeholders en hun eigen stockpile aan 3000 series, dat is het hele eiereten.
Ik denk dat Nvidia tegenvallende cijfers gaat aankondigen, ik kan me niet voorstellen dat salarissen beter zijn in de rest van europa dan hier in Nederland, toch? TOCH?
Toch:
Nederland staat op de negende plaats met het gemiddelde van 2.155 euro netto en wordt daarbij ingehaald door Frankrijk, Duitsland, Oostenrijk en Ierland, waar het inkomen de 2.500 euro aantikt. De lijst wordt aangevoerd door Finland, Zweden en Denemarken, waar meer verdiend wordt dan 2.500 euro. Denemarken staat op voorsprong met een gemiddelde van maar liefst 3.270 euro netto per maand. Luxemburg staat daar vlak achter, met 3.159 euro. Het gaat hier om het vergelijken van het nettoloon, dus na belastingen.
https://www.intermediair....%3A%2F%2Fwww.google.nl%2F
Altijd lastige cijfers. Hoe tel je Oost-Europeanen mee, die hier zomers in de landbouw werken?

Maar inderdaad - Nederland is wereldkampioen deeltijdwerken, en dat heeft duidelijke gevolgen.
Dus jij vindt dat ze die kaarten dan maar onder de kostprijs moeten gaan verkopen? Deze nieuwe generatie is, op dit moment, gewoon echt een heel stuk duurder om te produceren. Enuh, niemand verplicht je om die kaarten te kopen. Blijkbaar zijn er toch een hoop mensen die die prijs willen betalen want de 4080 is op de site al weer uitverkocht.
Niemand weet wat de werkelijke kostprijs is. Dus dat zal hij niet beweren.
Nouja, ook AMD geeft aan dat het steeds een heel stuk duurder wordt om een snellere kaart te maken.
"Innovation always finds its way around barriers," Papermaster said. "I can see exciting new transistor technology for the next -- as far as you can really plot these things out -- about six to eight years, and it's very, very clear to me the advances that we're going to make to keep improving the transistor technology, but they're more expensive," he said. In the past, chipmakers like AMD and Intel could double the transistor density every 18 to 24 months and stay within the same cost envelope, but that is not the case anymore, Papermaster claimed. "So, we're going to have innovations in transistor technology. We're going to have more density. We're going to have lower power, but it's going to cost more. So how you put solutions together has to change," he said.
Tegenwoordig is dat al bijna het geval wanneer een bedrijf niet zijn prijzen op inflatieniveau houdt als die inflatie weer bijtrekt.

En dat is als ze niet de prijzen nóg meer verhogen dan de hoogte van de inflatie. Veel prijzen zijn extra hard omhoog geschoten. Gewoon om winst te maken. Gaat nog wel spannend worden met energieprijzen. Energiemaatschappijen gooien snel de prijzen omhoog, want wat de klant niet betaalt dankzij het energieplafond, betaalt de overheid alsnog wel. Nog hopen dat de prijzen weer omlaag gaan als het energieplafond wordt afgeschaft.
Als de inflatie bijtrekt gaan niet opeens de prijzen omlaag. Als dat zo was dan koste een ijsje straks weer 12 cent.
Niets netjes aan, gewoon een poging om meer te verkopen. Vooral de 4080 verkoopt slecht. Te veel geld voor te weinig frames. De meeste nieuwe kaarten waren in het begin niet aan de slepen, nu liggen de 4080's ruim op voorraad omdat niemand ze koopt. Ook scalpers zijn aardig de sjaak wat dan wel weer mooi is. Als je dan toch bakken met geld uit gaat geven, dan is de 4080 al helemaal geen goede keus en neem je een 4090. Nvidia hoopt gewoon meer te verkopen door de prijs te verlagen. Heeft alles te maken met geld verdienen en meer niet. Beter 100 kaarten verkopen op 5% minder dan 60 kaarten voor 5% meer. Hoewel ik denk dat hier die 5% niet genoeg gaat zijn. Het is nogsteeds veel te veel geld. Nvidia denkt dat we nog in de crypto tijd level waar ze alles konden vragen omdat miners te toch we kochten. Nu brengen ze een 4080 uit voor te veel geld en blijven ze liggen in de winkels. Nu een poging om voor 5% minder ze te verkopen.
Ach die scalpers retourneren waarschijnlijk wel weer binnen de toegestane periode.
Dan zouden er geen tekorten zijn, want de 100 kaarten die de scalper koopt zitten een paar weken later weer in de voorraad v/d webwinkel.
Beter 100 kaarten verkopen op 5% minder dan 60 kaarten voor 5% meer.
Het is een beetje ingewikkelder dan dat.
- Je moet productiecapaciteit hebben voor 100 kaarten.
- Er moeten 100 klanten zijn.
- Het effect v/d prijs op de verkoop van andere nVidia kaarten.
Het is nogsteeds veel te veel geld. Nvidia denkt dat we nog in de crypto tijd level waar ze alles konden vragen omdat miners te toch we kochten.
Als iets dat e100 waard is lange tijd e200 kost, dan lijkt e150 een koopje.
Beter 100 kaarten verkopen op 5% minder dan 60 kaarten voor 5% meer.
Nee, dat is veel te simpel. 100 kaarten met 5% verlies verkopen is een probleem, 60 kaarten met 5% winst verkopen is dat niet. Zelfs in je super-versimpelde model haal je nog omzet en winst door elkaar.
Zelfs in je super-versimpelde model haal je nog omzet en winst door elkaar.
Dat verzin je er allemaal zelf bij. 100 kaarten op 5% minder winst tegenover 60 kaarten voor 5% meer winst. Nergens zeg ik omzet of verlies, ik heb het over het verschil in winstpercentages in beide gevallen.
Ergens wel netjes natuurlijk; de meeste bedrijven doen dit niet.
AMD doet dit ook op hun eigen site. De prijzen staan vast in USD en ze passen daar wisselkoers + lokale belastingen op toe. Vandaar de gare prijzen die wij te zien krijgen.
Deze kaarten zijn stuiterduur, er kan nogal makkelijk mooi weer gespeeld worden op deze manier.
Heeft denk ik erg weinig met fanboys te maken. En meer met extreme hoge prijzen waar deze 5% erg weinig verandering in brengt. En voor je zegt dat ik een amd fanboy ben, ik heb enkel nvidea gpus in huis op het moment
De laatste kaart die normaal geprijsd was, was een 970. Deze koste mij toen 350 euro. Voor 1200 euro zette je echt een mooi game-pctje in elkaar (met scherm). Nu ben je 1800 kwijt, zonder scherm. Worden wij in Europa zo arm of is de rest van de wereld rijker aan het worden? Als het dat laatste is, vind ik het prima.
Eind 2014/begin 2015 heb ik zo'n systeem gebouwd met een GTX970, a.d.h.v. de BBG van toen. Voor iets meer dan 1000 euro een systeem waar ik qua gamen meer dan 5 jaar van plezier heb gehad. Tegenwoordig (zelfs met de inflatie meegerekend) kan je niet meer zo'n systeem bouwen voor dat geld.
Ik heb dus nu een X-Box Series X gekocht, geen gezeik, voor 500 piek ben je klaar.
Als strategische spellen naar de consoles komen ben ik ook om. Even afwachten wat er met coh3 gaat gebeuren. Deze zou volgens een bericht van hier ook naar Xbox komen. Dat soort spellen hebben mij vooralsnog niet laten overstappen.
Als dota2 op een console te spelen is ben ik om.
Draait dota niet zo ongeveer op elke aardappel dan?
Yep, maar dus niet op consoles te bekennen.
Nee, snap ik. Maar jij ligt dus ook niet in de markt voor een nieuwe PC met een 4090.
Je hebt toch helemaal geen high end pc nodig voor console prestaties?

Deze extreme prijzen gaan compleet aan je voorbij als console performance je wens is.

(Een simpele RTX 3060 is al een flink stuk krachtiger dan wat je in een ps5 of series x krijgt bijvoorbeeld… die heb je al voor 379 euro, een RX 6600 voor 269)
3060 draait niet zo goed op 4k vergeleken met een ps5.
De ps5 gpu blijkt uit DF praktijk tests doorgaans vergelijkbaar met een rtx2060 / 2070.

De 3060 is op all vlakken sterker, zeker in 4k waar het verschil doorgaans juist groter is met dit type hardware. Ik vermoed dat je ps5 upscaling verwart met native 4k.

Bezoek het kanaal van Digital Foundry eens. Ze hebben tal van vergelijkingen.

DF is trouwens sowieso een aanrader voor liefhebbers. Of je nu een console hebt of een PC, ze coveren alles met veel diepgang en liefde voor het vak 👍

[Reactie gewijzigd door DLSS op 6 december 2022 17:05]

Dit snap ik niet. De series X heeft volgens Digital Foundry de performance van een RTX 2060/2070.

Je kan echt makkelijk een pc krijgen met veel meer power dan dat voor die 1000e + inflatie hoor. Een RX 6600 heb je al voor 269 euro.

[Reactie gewijzigd door DLSS op 6 december 2022 08:13]

Ja de leukigheid is er voor mij ook wel een beetje af.
PC gamer in hart en nieren maar heb mezelf toch volledig verhuist naar het console landschap een paar jaar terug.

Je gaat helemaal buitenom met die hardware prijzen sinds de chiptekorten, zelfs nu je de kaarten niet van scalpers hoeft te kopen.
En je kan qua stroomverbruik voor een modern high end systeem ook 5 current-gen consoles aanzetten.

Als ik dan even kijk naar Cyberpunk ziet dat er op een high end PC echt wel wat mooier uit dan op mijn PS5, maar echt niet dezelfde factor mooier wat je kwijt bent aan aanschaf en verbruik.
Nee, de beste prijs prestatie kroon gaat toch recht naar de 1080 en 1080Ti.

Mijn 1080Ti is onlangs overleden, maar speelde recente games op 1440p gewoon op high.

Ik heb nog nooit een kaart zo lang kunnen gebruiken voor AAA games. De prijs per jaar bruikbaar is ongeëvenaard!
Welke enthousiasteling telt zonder nadenken dit soort bedragen neer voor een high-end videokaart? Dit vraag ik me serieus af.
Volgens mij zitten we nog steeds op een schema dat ieder jaar een nieuwe generatie word aangekondigd.
Als het de helft zou kosten van deze bedragen zou ik het nog steeds te duur vinden, ja je kunt een videokaart van een oudere generatie kopen uiteraard, maar met de recessie in het achterhoofd zijn dit wel taaie beslissingen. En ja je hóeft niet te upgraden, maar met deze prijsstellingen is willen spelen met Ultimate instellingen van games van de laatste generatie wel weggelegd voor de happy-few.

Als ik terugdenk aan de "oude tijden" (ja ik ben een oldtimer), kon je met een simpele Geforce 2 echt een heel eind komen.
"Welke enthousiasteling telt zonder nadenken dit soort bedragen neer voor een high-end videokaart? Dit vraag ik me serieus af."

Dat is een bekend sentiment en die vraag komt telkens terug. Ik ben bang dat je daar nooit een antwoord op krijgt.

Maar als je kijkt naar de marktwerking en het feit dat elke generatie het weer gebeurd: Wie kopen deze kaarten? Klaarblijkelijk meer dan genoeg mensen.

Dus het geld en het uitgeven is er.
Ja het is een hobby en hobby's kosten nou eenmaal geld.
Ik rij ook motor en laatst ook een nieuwe gekocht (en die gebruik ik niet eens heel het jaar door, een computer elke dag). Dus zie niet echt een verschil tussen 1x in de x aantal jaar gewoon wat geld uit te geven aan een degelijk computer.
Ik heb geen idee wie dat soort prijzen zou betalen voor deze GPU's.

Ik heb in september 2016 €490,- betaald voor mijn GTX1070 die ik nu nog steeds gebruik.
Ik hoorde allemaal veelbelovende verhalen voor de RTX4000 series over te hoge productiegtalen etc., maar als de MSRP voor de RTX4080 al meer dan 1400 euro is zie ik die van de RTX3070 niet gauw onder de 1000 euro uitkomen.

Ik verdien prima, maar persoonlijk heb ik het er niet voor over om meer dan €1000,- voor enkel een GPU neer te leggen. verspreid tussen september 2016 en januari 2017 heb ik alles bij elkaar opgeteld €1550,- betaald voor een toen ter tijd high tier systeem (geen top of the line, maar dat is nergens voor nodig in mijn ogen). Gecorrigeerd voor de inflatie op deze productcategorie is dat nu ongeveer 1750 euro. Daar heb ik momenteel dus krap aan alleen een RTX 4080 voor. Deze prijzen gaan helemaal nergens meer over.
Ja de een geeft 1000+ uit om een weekje op een strand te liggen.
De andere om jaren elke dag plezier te hebben. Maar eens de 4000 serie prijzen vind ik ook te gek voor alleeen een kaart. Ben zelf voor een 3060ti gegaan en na een jaar nog steeds geen spijt van draai alles wat ik speel perfect op 1440p.
  • 7xx serie - mei2013
  • 9xx serie - september 2014
  • 10xx serie - mei 2016
  • 20xx serie - september 2018
  • 30xx serie - september 2020
  • 40xx serie - september 2022
Dus elk jaar klopt niet. Maar ik denk wel dat de 40xx veel te vroeg is aangekondigd in verhouding tot de productiekosten, ofwel ondanks dat de productiekosten op dit moment vele malen hoger zijn hebben ze er toch voor gekozen om em alsnog uit te brengen ipv bv nog een jaar te wachten tot de productiekosten een stuk lager zouden zijn.

[Reactie gewijzigd door SuperDre op 5 december 2022 16:31]

Met de 30xx series is nVidia naar Samsung gestapt voor hun "8nm" process node, voor zover ik begrijp vanwege het feit dat TSMC op volle capaciteit draaide sinds het begin van de 'chip shortage' en nVidia vreesde niet genoeg capaciteit af te kunnen nemen.

Nu is nVidia weer terug gekomen naar TSMC en gebruiken ze daar de "4nm" node, wat feitelijk een performance node is van de "5nm" node. Echter is TSMC niet zo heel blij met deze wispelturigheid van nVidia, en betaalt nVidia daarom extra t.o.v. AMD, die op diens beurt een trouwe afnemer is bij TSMC en daarom minder betaalt per wafer.

Daar komt bij dat nVidia stug door blijft gaan met het maken van monolitische chips, waarbij álle componenten van een GPU op één die gebakken wordt. Deze chips zijn monsterlijk groot, er passen dan ook maar een beperkt aantal van op één wafer à 300mm (8 inch). Mochten hier defecten in ontstaan bij de productie, dan wordt een aanzienlijk deel van de wafer afgeschreven, wat de kosten voor de uiteindelijke chip opdrijft omdat die afschrijving over alle goede chips uitgesmeert wordt.

AMD is ondertussen ook voor z'n GPU's overgestapt op het chiplet principe (dit gebruiken ze al voor hun CPU's). De Input/Output (I/O) componenten worden bijvoorbeeld op het goedkopere "6nm" gebakken, terwijl de logica (transistors) van de AMD GPU chip op het duurdere, maar efficiëntere "5nm" wordt gebakken. Dit heeft te maken met diminishing returns. I/O schaalt gewoon niet goed met kleinere nodes, terwijl logica dat nog wel doet. Zo kan AMD kleinere dies gebruiken voor de verschillende chip onderdelen, zodat er méér dies op één wafer passen. Defecten worden daardoor minder duur per chip.

De productiekosten zijn voor nVidia zodoende aanzienlijk duurder dan voor AMD, in ieder geval als we het over de GPU chip hebben. Daar komen vervolgens nog allerlei andere onderdelen bij, zoals de koeler, de PCB, GDDR geheugen, etc. Ook daar maken beide producenten de nodige beslissingen, waarbij gezegd moet worden dat AIB's (add in board companies, zoals ASUS, Sapphire, etc.) ook enige vrijheid hebben, wat uiteindelijk de prijs van een specifieke kaart beïnvloedt.

[Reactie gewijzigd door CelisC op 6 december 2022 11:26]

Het is juist die kleinere nodes die alles zoveel duurder maakt. Ook AMD geeft dat aan. Zodra die kleinere nodes echt helemaal standaard zijn waarbij ze nog veel hogere yields hebben wordt de prijs pas lager.
AMD gaf dus ook aan dat Moore's law de komende 8 jaar nog wel aangehouden kan worden, maar dat het wel telkens met een veel hogere kostenplaatje zal komen, en DAT is dus al enkele jaren nu zo bezig waarom oa de GPU's dus ook steeds duurder worden. 'Men' wil graag veel betere prestaties als de vorige generatie en dat kan dus alleen met deze veel duurdere nodes, wil men dezelfde prijs aan kunnen houden als voorgaande generaties (inflatie in acht houdend) dan zal de prestatiewinst voor nieuwere kaarten een heel stuk lager liggen en dan gaat 'men' ook weer piepen dat er niet genoeg prestatiewinst is en dus geen reden om over te stappen.
Zeker mee eens. Aangezien zowel AMD and nVidia nu gebruik maken van TSMC, zijn beide bedrijven aan dezelfde prijstoenames onderhevig. Daarom heb ik mij gefocust op wat het voor nVidia specifiek duurder maakt. Ik kan me nog wel voorstellen dat de 'n4' node waar nVidia mee pronkt nog iets duurder is dan de n5 waar AMD nu op werkt.

Chiplets zijn een goede manier om toch gebruik te maken van scaling - zowel technisch als financieel - om de kosten te drukken voor de klant. Ik kan me wel voorstellen dat we langzaamaan het einde naderen voor significante verbeteringen op silicium die ook betaalbaar blijven.

Ik ben dan ook erg benieuwd of er al stappen worden gemaakt voor een heel andere manier voor de productie van chips. Ik denk aan fotonische oplossingen (om het hitte probleem op te lossen) of eventueel andere materialen dan silicium. Die zullen nu financieel en/of technisch misschien niet economisch rendabel zijn, maar waren SSD's dat in eerste instantie ook niet toen we nog met HDD's werkten? Ik ben erg benieuwd wat de volgende technologische 'S-curve' gaat worden voor de chip productie. (Onderwerp tip voor de Redactie?)
Ik wil graag mijn PC upgraden (Huidig: i5 6600, 16gb RAM, GeForce 1080GTX) welke ik in 2016 heb aangeschaft, maar heel eerlijk: voor EUR 1,400-1,800 voor alleen een videokaart haak ik af.
Je hoeft ook geen videokaart te kopen van 1600 euro. Met een kaart van rond de 500/600 euro kan je al heel wat.
Mwah, het is absurd dat een entry level kaart tegenwoordig voor dat bedrag moet gaan om iets van prestatiewinst te moeten merken met een topkaart van dezelfde prijsklasse van enkele jaren terug, non?

Ik wacht vrolijk tot de prijzen meer richting de 800 zakken.
Mja, je hebt gelijk hoor. Ik vraag me af of de prijzen van weleer ooit terugkomen. We zullen zien. Ik heb niet de indruk dat er minder kaarten verkocht worden, dus ik vrees er een beetje voor ...
Najah, er blijft kennelijk genoeg liggen, en scalpers raken ze niet meer kwijt voor woekerprijzen. Stemmen met je portemonnee is best een optie. Voor de prijs van een videokaart bouwde je vijf jaar geleden gewoon een hele PC, ook met hoogwaardige componenten.
Topkaarten voor 800 euro? Gaat nooit meer gebeuren. NVidia heeft ontdekt dat er een segment is dat ~2000 euro wil betalen, dus ze blijven daarvoor GPU's maken.

Vergeet niet, "topkaart" is een relatief label. Als de 4090 niet bestaan had, dan was de 4080 de topkaart geweest. Productnamen zijn marketing; marktsegmenten zijn echt. Het marktsegment ~800 euro is ook echt, en de prestaties in dat segment stijgen bijna elk jaar (uitgezonderd COVID)
Net als bij Apple: losgeslagen van de werkelijkheid. Kijken hoe dat de komende crisisjaren gaat werken voor ze.
Met een videokaart van 600 euro nu kom je aan de performance van de 1080....die destijds 600 euro was. Niet echt een upgrade meer dan of wel? Ik zou zelf graag meer performance willen voor VR, maar niet voor 1400 euro.
Ik heb anders een RX6800XT gekocht voor 599 die toch echt wel een stuk sneller is dan mijn oude EVGA 1080Ti...
Toegegeven ik bekijk de AMD kaarten al een tijdje niet meer. Wou ik met de volgende generatie aan beginnen. Kaarten kopen tijdens Covid was sowieso onbegonnen werk.

[Reactie gewijzigd door Cilph op 5 december 2022 15:11]

Waarom niet? de 6800XT is echt een klap beter als de 1080 en nu voor wat normalere prijzen te krijgen.
Heb er zelf 1 en hij bevalt me beter als de 2080Ti die ik hiervoor had.
Raytracing is nog geen ding op VR ivm de performancedrop, daarmee vervalt wat mij betreft het verkooppraatje voor een te dure Nvidia. (En RT in de huidige vorm vind ik sowieso overhyped)
Mijn 2080Ti gaat de detectie 1080Ti vervangen in mijn 2e systeem. Ik ga voor de 7900xtx, RT zie ik het nut ook niet van en daarmee verwacht ik even voort te kunnen.
Is de 6800XT goed in VR prestaties? GTA 5 vr zonder m'n case te smelten of is dat toch nog teveel gevraagd? op 2080TI in een auto rijden smelt enkele ventilatoren :)
Dat gaat de 6800XT echt beter doen als de 2080Ti.
Maar ik denk eerder dat jij een airflow probleem hebt. De 6800XT spuugt zijn warmte ook in de kast.
Al heb ik wel goede ervaringen met OC / undervolten van deze kaarten. Maar zonder goede afvoer van de warmte blijf je met dat hitteprobleem zitten.
En die gaat binnenkort wel voor een stuk minder.
Zitten ook wat, twee generaties tussen, dus dat mag je ook wel verwachten. Neemt niet weg dat de prijsklasses veel te ver doorgeschoven zijn, ook voor generieke game kaarten. Een 4070 zou net als de vorige generatie gewoon niet boven de 600 euro uit mogen komen.
Wat is een stuk minder? 50% minder 30% minder? Het is altijd maar koffiedik kijken. De RX6800XT was een black friday deal bij Megekko. Als ik kijk naar de huidige prijzen dan is ie alweer 100 euro duurder geworden dus dat stuk minder dat heb ik min of meer al gehad... En nu had ik het er voor over en nu heb ik er plezier van. Wachten op een stuk goedkoper gaat meestal niet hand in hand met plezier beleven of plezier missen.
Ik refereer slechts naar de aanstaande release van opvolgers, niet de huidige aanbiedingen.
Met een videokaart van 600 euro nu kom je aan de performance van de 1080....die destijds 600 euro was.
Dan heb je een factor twee te veel betaald want een RX6600 presteert vergelijkbaar en kost nu iets onder de 300 euro.
Net even gekeken bij pricewatch, je hebt nu serieus een RX 6600 voor 269 euro. De prijzen voor mid range gaan de goede kant op.
Een RTX 3060 Ti is een slag vlotter dan een GTX 1080 voor vergelijkbaar energieverbruik en een prijs lager dan 600 EUR.
Was vergeten dat de 0.0 beschikbaarheid tijdens Covid ook een factor was.
Dit is wel heel overdreven, voor 600 euro koop je een RTX 3070 en die is echt wel sneller dan een GTX 1080.
Echt dikke onzin.

Een 1080 is zo snel als een 2060.

Voor € 600 heb je een RTX 3060 Ti of een RX 6700 en misschien nog een verdwaalde 3RTX 3070 of RX 6800.

https://www.tomshardware....k.com&utm_campaign=buffer

Graphics Card 1080p Ultra 1080p Medium 1440p Ultra
GeForce GTX 1080 36.1% (53.1fps) 47.9% (90.0fps) 27.5% (39.4fps)
GeForce RTX 3060 Ti 62.1% (91.5fps) 79.6% (149.7fps) 48.7% (69.7fps)

Een 3060 Ti is dus 60-80% sneller dan een 1080.
En dat is nog de traagste van de 4 die ik noemde.

De Radeon RX 6800 79.1% (116.7fps) 93.1% (174.9fps) 63.5% (90.9fps)
is dus 90-120% sneller (1,9-2,2x zo snel).
Je hebt gelijk hoor in dat ze wel echt wat sneller zijn.

Maar de laatste keer dat ik een 60 serie kocht van de toenmalige courante generatie was die nog geen 300 euro.

Videokaarten zijn echt wel moeilijk duur geworden voor de casuals onder ons.

600 euro voor een allemanskaartje vind ik althans echt wel bizar veel geld, als je je bedenkt dat je ook gewoon een playstation (oke misschien deze nog niet want chiptekort) of xbox kan kopen voor 100 euro minder.
En die kan gewoon as-is aan een schermpie.

[Reactie gewijzigd door Polderviking op 5 december 2022 19:14]

Nou een 1080 is bij lange na niet zo snel als een 3070, zelfs de 3060 is al sneller dan de 1080 (maar tenzij je ook wat raytracing wilt is het niet echt zinvol om van een 1080 naar 3060 te gaan).
Ook ik zit in de situatie dat ik wat meer performance dan mijn RTX2060Super wil, maar ook ik weiger zoveel uit te geven, dus het zal mogelijk een 3070/3060ti of Intel A770 worden.
En dan ben je er natuurlijk ook nog niet, een nieuw mobo en cpu zijn ook niet goedkoop.
Mogelijk moet je ook nog eens een flinkere voeding aanschaffen.
Jij eet ook niet meer omdat kaviaar te duur is?

Het is niet alsof dit de enige videokaart op de wereld is he... Of dat je deze nodig hebt om een spel te kunnen spelen,.
Daar staat ook flink wat performance tegenover hoor. Heb zelf ook een 1080 maar ik denk dat je af moet stappen van het idee "ik wil een **80" want een 4060 of 4070 zal echt wel voldoen, helemaal als je van een 1080 af komt.

Zelf wacht ik de nieuwe AMD's nog even af :)
Inderdaad. Ik heb mij nu net een half jaar geleden een PC gekocht met een 6700XT die naar behoren werkt op 1440p (hoewel ik wel eerst een paar maanden heb moeten troubleshooten), en ik ben zelf van zinnens om pas als de RTX 5000 of zelfs 6000 generatie uitkomt een nieuwe kaart te kopen. sterker nog, kans is groot dat ik gewoon samen met de RTX 7000 generatie mij een volledig nieuwe PC koop, dus binnen een 6-tal jaar.
Denk je niet dat met de huidige prijsstijgingen en inflaties, de RTX 7000 serie 3-4k euro gaat worden voor een RTX 7080?
vroeger kocht je een complete kast voor 1600, maar ja goed, tijden veranderen, onze salarissen niet.
Nu ook hoor. Zag laatst een hele kast voor die prijs waar dan ook een 3070 in zat.
Ik zat ook een beetje in twijfel want ik heb recentelijk ook een nieuwe PC gebouwd en zocht nog een video kaart, wat je eigenlijk moet doen is goed kijken met wat je nu eigenlijk gamed want ik speel bijvoorbeeld op een 1440p 144hz scherm en na wat onderzoek is een RX 6700 XT prima te doen en die had ik gekocht, alles wat ik nu speel (ArmA 3, Valheim, CoD Modern Warfare 2, Metro Exodus) speel ik op 1440p met een framerate tussen de 90 en 144 hz.

Niet zo lang geleden zat ik nog te twijfelen om voor de 7900 XTX te gaan die bijna uitkomt maar dat is simpelweg een complete overkill voor wat ik heb en hoe veel ik game en ik vind de waarde van een Nvidia GPU te veel, tenzij je veel waarde hecht aan DLSS (FSR is ook prima!) of CUDA

Nu had ik misschien nog wel voor een 6800 XT of 6900 XT kunnen gaan zonder in het overkill gebied te zitten maar ik ben dolblij met mijn 6700 XT (380 euro)

[Reactie gewijzigd door Vagax op 7 december 2022 14:11]

Neem aan dat je in het laatste stuk een 6800XT en 6900XT bedoelde?
Oops, inderdaad ik bedoelde de 6000 series
Je kan ook gewoon een 30 serie nemen kan je ook nog jaren mee vooruit. (desnoods 2e hands).
En reken ook uit hoeveel jaar je er weer plezier van hebt, laten we zeggen 1600 euro en je doet er 6 jaar mee. Dan is het 22 euro per maand.
Da's wel leuk boekhouden maar de aanname dat zo'n kaart 6 jaar meegaat vind ik een optimistische.
Ik heb een 6/7 jaar oude kaart (980ti) en daar hoef je echt geen Cyberpunk meer mee spelen met iets van toeters en bellen aan. Zeker niet op meer dan full-hd.
En dan ben ik nog iemand die 30FPS een speelbare framerate vind, dat stadium zijn heel veel mensen allang ontgroeid en voor hen begint die ondergrens eerder bij 60.

Bovendien denk ik dat het de komende tijd wel weer wat harder gaat met de eisen die games aan je hardware stellen door o.a. nieuwe consolegeneratie.

Verder kan je met alleen een videokaart niet gamen, rest van je PC moet je er ook ff bij proppen, want die heeft alleen voor een beetje mail en facebook ook geen nieuwe CPU en snel ram nodig.

Je op deze manier rijk rekenen kan ook met veel goedkopere alternatieven. ;)

[Reactie gewijzigd door Polderviking op 5 december 2022 19:36]

Mijn RX 580 trekt cyberpunk op 1440p nog redelijk rond de 45 fps, dus die 5-6 jaar vind ik een realistische aanname. Denk zelfs dat je voor die 1600 de 10 jaar wel haalt, de eisen voor 1080 en 1440 resoluties zijn toch aan het afvlakken.

[Reactie gewijzigd door dakka op 5 december 2022 19:57]

Maar op welke grafische instellingen verder dan?

Want als ik op grafisch vlak toeters en bellen afschakel doet mijn kaart het ook wel maar dat is nou net even niet waar je zo'n videokaart in deze categorie voor koopt.
Mijns inziens.

Als je een beetje so-so graphics prima vind kan je ook wel op een console gaan gamen voor heel wat minder of voor veel goedkopere videokaarten gaan.

[Reactie gewijzigd door Polderviking op 6 december 2022 08:30]

Bijna hetzelfde schuitje, maar dan met een 1660Ti.

Er is bijna niets interessants te koop.

De nieuwe generatie verbruikt veel meer stroom, en ik wil eigenlijk op niveau van mn huidige kaart blijven (120-140W), en de nieuwe RTX3050 is nauwelijks tot niet sneller.
980 ti kostte destijds zo'n 700,- euro. Natuurlijk wordt het allemaal duurder maar die prijzen die zij vragen zijn absurd.

3080 ti en 4080 ... Max 999,- leg ik daarvoor neer. Anders niet!
en dan is die 999 eigenlijk vér buiten budget... 980 ti was echt de shit als je die had. misschien toch maar overstappen op de console, ik kan de prijzen niet meer bijbenen
In een ps5 of Xbox series X zit het equivalent van een RTX 2060/2070 volgens digital foundry.

Als die performance is wat je zoekt zit je compleet verkeerd bij de 3080/4080 kaarten.

Met een RTX 3060 of RX 6600 heb je al meer power. Een RX 6600 kan je inmiddels voor 269 euro krijgen…
Zijn die dan FE kaarten dan uberhaupt verkrijgbaar hier? Klinkt als een vrij theoretische prijsverlaging.
Jazekers zijn die verkrijgbaar in Nederland. Om de week kun je via een Duitse website een random drop verwachten waarbij er 4 stuks beschikbaar komen die binnen 0.7 seconde weg-gebot worden.
Ik vraag me serieus af of Nvidia geld verdient aan deze kaarten met die bizar hoge prijzen.
Ik bedoel, wie kan dit nou serieus betalen?

€500-€700 begrijp ik nog maar kom op...het driedubbele?

[Reactie gewijzigd door duderuud op 5 december 2022 17:31]

Ik kan het makkelijk betalen, maar wil het niet..

Mijn huidige RTX 3080 kostte eind 2020 €849,- en daar moest ik toen ook al goed over nadenken omdat dat ook al ruim €100,- boven de adviesprijs was.. Uiteindelijk toch maar gekocht omdat ik echt een nieuwe videokaart nodig had voor mijn nieuwe monitor met veel hogere resolutie.. Achteraf gezien de juiste beslissing na wat er gebeurt is met de videokaart markt daarna... Ik zou nu ook wel weer wat snellers willen, maar ik weiger toch echt meer dan €1400,- te betalen voor een RTX 4080.. Totale onzin dat die videokaarten nu zo extreem duur moeten zijn, ondanks de inflatie etc.. Het is nu pure graaierij van bedrijven als Nvidia waar ik weiger aan bij te dragen..
Ik kan het ook wel betalen, en er zullen genoeg mensen zijn die dat kunnen. Vind ik het waard? Nee, dus koop ik het niet tegen de huidige prijs.

Gamen doe ik al niet meer zo veel, dus de kaart zal puur gebruikt worden voor berekeningen in grafische (AI) programma's. Maar dat kan m'n 2080 ti nog steeds best snel. Dus echt nodig is het niet. De drang om te upgraden komt steeds in vlagen, en dan besef ik steeds dat het me een paar seconden tijdwinst oplevert.
nu zijn ze nog maar 500+ euro te duur :)

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee