Nvidia verlaagt derde keer in half jaar EU-adviesprijs van GeForce RTX 4090 FE

Nvidia heeft voor de derde keer in een half jaar tijd de adviesprijs van zijn RTX 4090 Founder's Edition met enkele tientjes verlaagd. Inmiddels heeft de kaart een Nederlandse adviesprijs van 1779 euro. Eind vorig jaar was dat nog 1959 euro.

De nieuwe adviesprijs is te zien in Nvidia's webwinkel, waar de kaart overigens niet voorradig is. VideoCardz merkt op dat het de derde prijsverlaging in korte tijd is en dat de kaart in maart en in december enkele tientjes goedkoper is geworden. De kaart kost nu 9,2 procent minder dan toen Nvidia de gpu in oktober vorig jaar uitbracht. Ook de GeForce RTX 4080 Founder's Edition is in prijs verlaagd en kost nu 1329 euro in plaats van 1469 euro. Nvidia legt niet uit waarom de prijzen worden verlaagd, al hebben ze vermoedelijk te maken met wisselende dollarkoersen.

Nvidia GeForce prijsverlaging mei 2023

Wat een kort bericht, wat is dit?

Tweakers experimenteert tijdelijk met korte nieuwsberichten zoals deze, die nét niet lang genoeg zijn voor een volledig artikel. Wil je meer informatie over dit experiment of wil je feedback geven over de vorm, dan willen we je vragen dat in deze post op Geachte Redactie te doen.

Door Hayte Hugo

Redacteur

02-05-2023 • 10:57

163

Reacties (163)

163
160
56
5
0
77
Wijzig sortering

Sorteer op:

Weergave:

Wat natuurlijk ook kan is dat Nvidia de markt aan het aftasten is om de "sweet spot" te vinden wat consumenten willen betalen. Tijd zal het leren I guess.
Neen.. het zijn gewoon de wisselkoersen.. De USD prijs is gewoon nog steeds dezelfde.. $1599. Dat de EUR prijs hoger was tijdens de launch was, zoals toen duidelijk gemaakt, een gevolg van de USD-EUR wisselkoers. Vandaag staat de EURO weer een stuk sterker waardoor dezelfde Dollarpijs nu een lagere EURO prijs is.

De $1599 MSRP van de RTX 4090 FE is aan de huidige wisselkoers 1.456,67 Euro. Tel daar nog +21% BTW bij, want US MSRP prijzen zijn zonder TAX, en je komt op 1,762.59EUR..
Zo simpel is het echt niet. Ten eerste worden deze kaarten niet in de US gemaakt, hooguit deels geengineered. De maak kosten zitten natuurlijk in China en laat de USD tov de CNY juist flink omhoog zijn gegaan. Effectief maakt Nvidia (en ook alle andere producenten) hun producten goedkoper. Ook zijn inmiddels de logistieke kosten weer tot pre-covid dus een container kost rond de 1400 euro vanuit China naar de EU. En wisselkoers, ja leuk maar toch 2 jaar geleden stond de USD/euro nagenoeg gelijk en toch zag je deze prijsstijgingen niet 2 jaar geleden.

De pijn wordt dan ook snel op de wisselkoers toegewezen maar zou het niet zo zijn dat Nvidia gewoon een nog grotere daling in omzet verwacht tov 2022 wat al een dramatisch jaar was en nu de winst gewoon probeert de compenseren? En nu Nvidia vanuit de markt een nul op zn rekest krijgt proberen ze een beetje de markt tegenmoet te komen met een schamele prijsaanpassing.

Ik zeg laat ze er lekker in stikken. Deze prijzen zijn gewoon asociaal. De gemiddelde Nederlander verdient niet 80% meer dan 3 jaar geleden maar Nvidia wilt wel zoveel meer voor een top product. Dat terwijl productie kosten enkel omlaag zijn gegaan.

Vroegah vocht Nvidia met AMD en andere producenten voor de consument. Je kreeg waar voor je geld en ieder jaar was een upgrade gewoon de moeite waard. Nu vecht Nvidia voor de aandeelhouder, nog meer winst en wat krijgen wij? Alleen maar minder.

Ik val niet voor die leuke finance kreten om hun winst te verzekeren. Sterker nog ik lach me kapot als eind dit jaar Nvidia weer zo'n belachelijk annual meeting heeft met de aandeelhouders en misschien dat ze zich dan weer realiseren wie nou eigenlijk de klant is. Eerst laten ze scalpers de boel verzieken en konden ze er niets aan doen en nu zelf, laat maar lekker zitten.
De maak kosten zitten natuurlijk in China
De maak kosten zitten denk ik voornamelijk bij TSMC voor de productie van de GPU chip zelf, en daarna zullen de meeste kosten in de RAM zitten gok ik zo en dat wordt gemaakt door het Amerikaanse Micron als ik mij niet vergis.

De Assemblage in China kost maar weinig. De onderdelen die uit China komen zijn dat juist vaak de goedkopere delen met weinig marge. Denk aan de PCBs, heatsinks, etc. China haalt de winst uit de enorme kwantiteit aan electronica die er wordt gemaakt, mede ook door steeds meer stappen van de supply chain naar China zelf te hebben gehaald. Er zijn voor China dus een hele hoop kleine marges te halen. Maar voor één kaart valt het reuze mee hoeveel er aan kosten naar Chinese bedrijven gaan. Dit is ook waarom China zo druk bezig is om steeds meer van de ontwikkeling helemaal naar China te halen, het zijn bedrijven als Huawei die de grote marges naar China kunnen halen. Kwa assemblage moet je ook niet vergeten dat de grootste speler, Hon Hai Technology Group (bij ons beter bekend als Foxconn) uit Taiwan komt.

Kwa logistiek zijn de kosten ook verwaarloosbaar, kwa gewicht is een RTX 4090 FE ongeveer evenveel waard (verkoopprijs) als zilver per kilo, in volume heeft de kaart ook een aardige waarde per kuub. Het kan waarschijnlijk prima uit om deze kaarten te vliegen zonder grote impact op de marge ;)

Een groot deel van de kosten zal ook in R&D zitten, en dat zal voornamelijk in de VS gebeuren.

Vergeet verder niet dat veel internationale contracten ook in dollars gaan. Nou ken ik de contracten van Nvidia niet, maar het kan zo zijn dat ze voornamelijk dollars naar China sturen. De lokale fabrikanten zullen ook vaak dollars gebruiken als ze internationaal grondstoffen/onderdelen moeten kopen.

Waar ik het helemaal met je kan vinden is dat de prijzen belachelijk hoog zijn. Nou vind ik dat geen probleem voor een flagship die in kleine oplages komt, zoals de RTX 4090. Maar dat ook de instap kaarten bij Nvidia honderden euros zijn, dat zorgt dat ik geen Nvidia meer koop. Volgens mij zijn de AMD APUs nu eindelijk een beetje competitief met de Nvidia GTX 1060 die nu ~6.5 jaar oud is. Ik denk dat APUs/iGPUs nu een beetje de rol overnemen eindelijk van wat in de GTx 10xx serie low-end gaming GPUs waren (er waren wel goedkopere kaarten zoals de GT 1010 en 1030, maar die waren niet voor gaming, meer voot HTPCs en office werk als er geen iGPU was). De Steam Deck bijv. is ook op het niveau van een Nvidia GTX 1050. De RTX 3050 is meer dan 2x zo duur als de GTX 1050 destijds was (adviesprijzen bij launch), dat is gewoon een andere klasse.
100% eens met je uitleg !
Laat ze even stikken in hun kaarten en voelen dat ze zonder consument eigenlijk nergens staan :)
Ze hebben genoeg mensen geld afgetroggeld in de pandemie.
Laat ze hun kaarten lekker aan de crypto bro's verkopen.

In 2020-2021 leken de kaarten rechtstreeks vanuit de fabriek naar de crypto farms te gaan en was kennelijk de consumenten markt die ze in de 20 jaar daarvoor opgebouwd hadden niet meer belangrijk.

Dan zeg ik: laat ze nu dan maar kijken hoe goede lange termijn klanten die crypto bro's zijn.
Dit was ook zo dat ze rechtstreeks naar mining farms gingen.
Natuurlijk willen ze de absurde winsten die ze toen gemaakt hebben niet meer laten zakken voor hun aandeelhouders die op de eerste plaats komen. Nu proberen ze stap voor stap naar beneden te corrigeren todat mensen op het punt komen terug te kopen :) Wij als gamers moeten nu het verstand hebben met geduldig te zijn, todat de prijzen terug betaalbaar zijn !
100% oneens met je uitleg !

Beleid kan zonder meer inhouden dat prijzen in hoofdmarkten (US, EU, etc) gelijkgesteld worden met als benchmark de dollarprijs. De euro is 13% in waarde toegenomen tov de dollar sinds 1 september 2022.

Dit zou zelfs betekenen dat internationaal de prijs niet volledig gecompenseerd is en dat deze videokaarten in EUR duurder zijn geworden dan vorig jaar.
De maakkosten zitten in China? Assemblage misschien, maar als jij denkt dat assemblagekosten belangrijk zijn voor een kaart van 1779 euro dan zit je behoorlijk mis.

De drie belangrijkste kosten hier zijn de chipsproductie (GPU en GDDR6x), R&D (grotendeels NVidia) en winstmarge (NVidia). NVidia rapporteert in USD, niet CNY.
Bedankt voor de toelichting, wat je zeg is natuurlijk logisch, echter hoop ik (naïef misschien) dat ze het licht zien :)
Nvidia z'n omzet is nog nooit zo hoog geweest, dus ik ben bang dat ze niet snel hun strategie zullen wijzigen.
Eh... "Quarterly revenue of $6.05 billion, down 21% from a year ago" https://nvidianews.nvidia...h-quarter-and-fiscal-2023
Gross Margin 63%. Wow.

Bij AMD en Intel is de gross margin 43% en 34%: https://ycharts.com/companies/AMD/gross_profit_margin
Zelfs Apple zit op 43%: https://ycharts.com/companies/AAPL/gross_profit_margin

Nvidia's "Moores law is dead" stelling was dus een leugen. Die torenhoge prijzen niet op de kosten gebaseerd. Ze proberen ons gewoon een poot uit te draaien.
In gross margin zijn de kosten voor zaken als r&d, marketing, bedrijfsvoering en rente nog niet meegerekend. De winst zal dus stukken lager liggen.

Neemt natuurlijk niet weg dat in principe elk bedrijf je probeert zo veel mogelijk een poot uit te draaien. 😄
Als je in februari al naar hun fiscale jaarcijfers zit te kijken van 2023 dan zit je volgens mij gewoon naar 2022 te kijken... Dit jaar krijgen ze echt wel klappen. Maar dat kan ook niet anders na de monsterwinst die eerder gemaakt werd tijdens corona en de crypto boom.
Ik denk dat ze 2023 heel goed server GPUs (Bijvoorbeeld A100) aan het verkopen zijn voor AI onderzoek. Die paar consumenten kaarten minder is een druppel op een gloeiende plaat.

[Reactie gewijzigd door t4600c op 22 juli 2024 14:17]

Zal eerder de H100 zijn dan de A100, die is ondertussen ook alweer 3 jaar oud.
Klopt, maar ik heb de indruk dat dat in het laatste kwartaal nu echt naar beneden gaat, of dat een "blip" is of een echte verandering moet nog blijken.
Ik zie in mijn (beperkte) sociale kringen steeds meer vrienden naar een ps5 grijpen ipv de pc te upgraden of vervangen. Hier idem, ga geen 1500 uitgeven voor een beetje te kunnen gamen. Steeds vaker kan je ook met keyboard en muis uit de voeten.
Maar als je PS5 graphix wil waarom wil je dan in hemels naam 1500 euro uitgeven,

met +- 600-800 euro ben je er al met vergelijkbare graphix. ? Een PS5 heeft ook geen 4080 aanboard
ps5 kan 4k met 120fps? dat ga je niet redden met sub 1000euro bak. met v&a misschien wel. maar dat 'geneuze' heeft de gemiddelde gamer geen zin in. dan voor gemak 600,- voor een ps5 en klaar.

[Reactie gewijzigd door himlims_ op 22 juli 2024 14:17]

Natuurlijk wel, alleen moet je dan de settings flink omlaag schroeven, iets wat de PS5 ook doet.
Hoge framerate modi op consoles zitten doorgaans op FHD of WQHD resoluties waarbij VRR actief is en dips onder 1080p plaatsvinden. Je ziet ook relatief vaak 4k30 games, al zijn er zeker behoorlijk wat 4k60 games te vinden (al dan niet geupscaled). Ten opzichte van pc zit je relatief vaak op medium settings met high textures en gaat RT vaak het raam uit.

Het grote voordeel is dat je meestal met een console op een tv gamed waardoor je er wat verder vanaf zit dan bij een monitor en lagere resolutie minder opvalt. Toch vind ik het verschil tussen FHD en 4K op drie meter zichtbaar als je op details begint te letten.

Hou er rekening mee dat je bij het gebruik van XsX of PS5 snel tegen de opslaglimiet oploopt waardoor je extra storage van 1 of 2TB wil aanschaffen (50 tot 150 euro). Een TV die VRR ondersteunt is ook een prijzige plus, zeker als je performance modes gebruikt die geunlockede framerates hebben.

Ondanks die nadelen snap ik je punt. Mijn game pc zit tegenwoordig op low/medium qua specs maar significante upgrades kosten me meer dan een losse console.
4K op 120FPS op welke settings ??

Die GPU doet 10TF , dat is te vergelijken met een RX5700XT van 250euro, heb je nog 400 euro voor de rest van de hardware.

Dacht je nu echt dat er een 1000,- euro GPU in een PS5 zat ?
PS5 kan geen 4K met 120fps.
De meeste PCs halen ook geen 4K, zeker niet met een PC van 600-800 euro. Dan mag je blij zijn met 1080p@30 of @60.
Wel met alle trucjes (inputlag) en upscaling wat ze met de ps5 doen. Zet maar eens een 1500 euro pc naast een playstation spel in 4k. Dan lijkt die playstation game opeens op Nintendo64:P ok dat is wat overdreven maar het verschil super merkbaar/opvallend
Een PC is duurder dan een grafische kaart, je hebt ook MB, CPU, Powersupply, behuizing enz. nog. Ik heb een PS5 geprobeerd en was onaangenaam verrast over de noodzaak een TV aan te sluiten. Mijn monitor was 1920x1200 pixels en dat gaat kennelijk niet. Dus voor een potje VR van een Quest2 stand alone naar een PS5+PSVR2+TV te gaan voor mijn VR kamer was me net even te gortig - maar de Horizon was wel een ervaring die me laat twijfelen tussen PCVR en PSVR. De kabel zat me ook in de weg, net zoals de wat betuttelde houding van Sony.
Ik denk nog wel minder.. Is de hardware uit de ps5 niet van 2 of 3 generaties geleden?
Ik denk dat je met een 3060 alsnog een flink betere kaart hebt dan de chips die in de consoles zitten.
Zelfs als je de optimalisatie van een console erin meeneemt.

Op de korte termijn is het allemaal wel leuk zo'n console maar als je de prijs van het online abonnement erbij telt dan is het ineens zo interessant niet meer.
Als je alleen offline speelt dan is het misschien wel een goede deal, mits je niet te veel games koopt.
Je betaalt al lang niet meer alleen voor online gaming bij een console. Je krijgt er een truckload aan games bij in PS Plus (en ook Game Pass) abonnementen. Bovendien heeft een console veel minder kracht nodig om hetzelfde te presteren, er draaien immers niet tig andere applicaties op de achtergrond en de games zijn er voor geoptimaliseerd.

Bovendien is een console 'goed' voor minstens 7 jaar gaming, dat zie ik bij een PC niet gebeuren, tenzij je flinke concessies doet. 'op de lange termijn' is een console vele malen goedkoper en bovendien vele malen makkelijker in gebruik. Lang niet iedereen wil immers na een dag beeldscherm-werken wéér achter het bureau kruipen. Die wil gewoon op de bank ploffen en onderuitgezakt op de grote TV spelen. Ja, dat kán met een PC ook, maar dat doet vrijwel niemand.
Je weet toch dat de beginjaren 2000 over zijn? Je kan gewoon met een draadloze controller in je zetel zitten spelen op je TV terwijl je PC in een andere kamer staat... lol, alles wat een console kan kan een PC ook en veel beter.
Zoals ik zei: het kán. Niemand doet dat. En hou op over die PC masterrace, dat is gewoon niet waar.
Je betaalt al lang niet meer alleen voor online gaming bij een console. Je krijgt er een truckload aan games bij in PS Plus (en ook Game Pass) abonnementen.
Als dat voor jou de kosten rechtvaardigt is dat natuurlijk prima, maar op de pc betaal je helemaal geen kosten en van dat geld dat je aan het abonnement uit geeft had je natuurlijk ook gewoon games kunnen kopen die je wel echt zelf wil.
(Of er alsnog voor kiezen een subscription te nemen op bijvoorbeeld gamepass als je die gratis games wel graag hebt.)
Bovendien heeft een console veel minder kracht nodig om hetzelfde te presteren, er draaien immers niet tig andere applicaties op de achtergrond en de games zijn er voor geoptimaliseerd.
Misschien toen hij uitkwam inmiddels is de ps5 oude technologie daar zit hardware in van drie generaties geleden. Een huidge pc verbruikt ongeveer evenveel als de 200-250w die de Ps5 gebruikt.
Bovendien is een console 'goed' voor minstens 7 jaar gaming, dat zie ik bij een PC niet gebeuren, tenzij je flinke concessies doet.
Ik heb mijn pc net vervangen na 6 jaar, 7 jaar is ook geen enkel probleem.
Ik heb daar geen concessies voor hoeven doen.
Daarnaast is het nog maar de vraag of een Ps5 inderdaad die 5 jaar haalt, want als je het hebt over reparatie heeft de pc natuurlijk ook een flinke streep voor.
'op de lange termijn' is een console vele malen goedkoper en bovendien vele malen makkelijker in gebruik.
Het gemak kan ik moeilijk beoordelen, in mijn ogen zit daar vrij weinig verschil in maar dat zal wellicht verschillen van situatie tot situatie.
Goedkoper is echter wel heel makkelijk uit te rekenen, dus laten we dat is doen.

Hoe meer je gamed op een ps5, hoe minder voordelig het wordt.
De game prijs is hoger, vaak wel 20-30% en je zit min of meer verplicht vast aan een subscription.
Volgens dit artikel kostte het vorig jaar ongeveer 850 euro om een pc te bouwen die gelijkwaardig is met een ps5. Inmiddels zijn de prijzen wat beter en zou dat voor aardig wat minder kunnen, laten we uit gaan van 800.

Stel je speelt 5 jaar op het apparaat.
Je koopt gemiddeld 1 game per maand.
Laten we een recente game als voorbeeld nemen, Hogwart Legacy.
Op de pc kost dat spel 35 euro, op de ps5 is hij 49 euro.

Eerste jaar:
Pc kosten
aanschaf = 800
12 games a 35 euro = 420
Totaal eerste jaar = 1220

Ps5 kosten
Aanschaf = 600
12 games a 49 euro = 588
1 jaar subscription = 60
Totaal eerste jaar = 1248

Het eerste jaar kom je dus ongeveer vergelijkbaar uit, maar daar houd het natuurlijk niet op.

Jaar 2 tot 5

pc kosten
12 games a 35 euro = 420
Totaal tweede jaar = 420

Ps5
12 games a 49 euro = 588
1 jaar sub = 60
Totaal tweede jaar = 648

Ieder opvolgend jaar zou op hetzelfde neerkomen.

Voor de uiteindelijke kostprijs van 5 jaar gamen, kom je bij de Ps5 op 3840, tegen 2900 voor de pc. Een verschil van ongeveer 25%.

Zelfs als je minder games koopt, bijvoorbeeld 6 per jaar, kom je uit op 2016 voor de Ps5 en 1640 voor de pc.

Het is dus zeker niet voordeliger om te spelen op een Ps5, integendeel het is een flinke smak duurder.

[Reactie gewijzigd door xenn99 op 22 juli 2024 14:17]

Jij gaat er vanuit dat een console gamer aan de lopende band games koopt, en daar bovendien 49 euro voor betaalt. Dat is gewoon niet realistisch. Zodra je een sub neemt (PS Plus voor het gemak) zullen velen gewoon díe games spelen en sporadisch een exclusive kopen. Ik betaal NOOIT meer dan 40 euro voor mijn games. Is de prijs hoger? Dan wacht ik wel.

Bovendien vind ik de stelling dat een PC echt wel 6-7 jaar mee gaat bijzonder. In de tijd dat ik PC gamede (10+ jaar geleden) kocht ik elke 1,5 jaar een flinke upgrade (videokaart + HDD), en elke 3 jaar een heel nieuwe PC.
Daarnaast neem je in die kosten voor de PC niet mee dat die ook nog een beeldscherm nodig heeft, iets wat de console niet hoeft.

Dat PC spellen doorgaans goedkoper zijn, dat is overigens zeker waar.

Maar goed, ieder zijn ding.

[Reactie gewijzigd door chrisboers op 22 juli 2024 14:17]

Jij gaat er vanuit dat een console gamer aan de lopende band games koopt, en daar bovendien 49 euro voor betaalt. Dat is gewoon niet realistisch. Zodra je een sub neemt (PS Plus voor het gemak) zullen velen gewoon díe games spelen en sporadisch een exclusive kopen. Ik betaal NOOIT meer dan 40 euro voor mijn games. Is de prijs hoger? Dan wacht ik wel.
Games zijn gewoon duurder op de Playstation, dit plus de subscription maakt samen dat je uiteindelijk duurder uit bent. Het maakt dus niet uit of een game nu 49 euro is of 35, dezelfde game zal op de pc waarschijnlijk altijd goedkoper zijn.
En een vergelijkbare sub kun je ook op de pc nemen, maar dan is het een keuze geen verplichting.
Bovendien vind ik de stelling dat een PC echt wel 6-7 jaar mee gaat bijzonder. In de tijd dat ik PC gamede (10+ jaar geleden) kocht ik elke 1,5 jaar een flinke upgrade (videokaart + HDD), en elke 3 jaar een heel nieuwe PC.
Daarnaast neem je in die kosten voor de PC niet mee dat die ook nog een beeldscherm nodig heeft, iets wat de console niet hoeft.
Tja als je elke anderhalf jaar een nieuwe videokaart koopt en elke 3 jaar een nieuwe pc wordt het inderdaad wel een dure hobby maar ik snap eerlijk gezegd niet waarom dat je zou doen.

Dat is nooit nodig geweest, ook 10 jaar geleden niet.
Sterker nog, zelfs 20 jaar geleden toen de vooruitgang heel wat sneller ging, was het niet nodig om elke anderhalf jaar een flinke upgrade te doen.

Mijn pc is dus nu vervangen die was van 2017, een i7 7700k met een nvidia 1080ti, daar kun je nu alles nog gewoon op spelen hoor zelfs de meest recente games.
(was destijds een machine van ongeveer 1200 euro, en kan nu weer worden doorverkocht voor 500. Ik heb voor 700 euro dus 6 jaar fijn kunnen gamen.)

Ik snap overigens niet wat je bedoeld met dat je voor de ps5 geen scherm nodig hebt, dat is natuurlijk klets.
Een Playstation doet immers ook niks zonder scherm.
Ik neem aan dat je dan de tv bedoelt maar dat is ook gewoon een monitor en daar kan je je pc dus net zo goed op aansluiten als de Ps5, zit ook gewoon Hdmi op.

Persoonlijk heb ik nooit iets gezien in gamen op de bank, maar dat komt waarschijnlijk omdat ik altijd met een toetsenbord wil spelen, ik houd niet van die controllers, te weinig knoppen.
Ik denk dat je met een 3060 alsnog een flink betere kaart hebt dan de chips die in de consoles zitten.
Volgens mij niet.. de 3060 komt aardig in de buurd van de Consoles

Volgens mij zit in de Consoles een soort van 5700XT en de 3060 is ongeveer gelijk aan die kaart (soms sneller, soms trager)
Inderdaad je hebt gelijk het lijkt niet veel te schelen, de 3060 zal wat voordeel hebben in raytracing omdat die over 2e generatie beschikt maar als je naar ruwe performance kijkt zijn ze ongeveer hetzelfde.
Die omzet is vanwege hun rol in de AI-boom, niet vanwege hun consumer business. Feit is dat ze consumenten niet meer als core strategie zien, zoveel hebben ze ook al gezegd. Ze hebben nog steeds de beste naam in het consumentensegment dus ze kunnen nog wel even door op deze manier. Maar zal me niet verbazen als AMD in de komende jaar wat marktaandeel van ze gaat afsnoepen en dat Nvidia het wel best vind. Ze zijn feitelijk nu bezig om hun bestaande goodwill uit te kopen en over een paar jaar gewoon een kleiner marktaandeel te hebben.
Ik ben ook nog aan het twijfelen over mijn volgende kaart.
Nvidia heeft qua functionaliteit de beste kaart in handen, maar AMD bied dan weer aanzienlijk meer VRAM.

Het is een lastige keuze, maar Nvidia moet ergens toch een signaal gaan krijgen dat wat ze bieden gewoon te duur is.

En te weinig kennis van de markt voor mijn gevoel, de 4070 en hoger hadden echt minimaal 16GB vram moeten hebben.
Een kaart in deze prijsklasse koop je voor enkele jaren, en de 12GB volstaat nu al niet meer voor sommige games op hogere resoluties.
Je slaat de spijker op zn kop, ik heb exact dezelfde struggle. Kies je nu voor een 7900 XT om later te upgraden naar een 20+ GB kaart van NVIDIA, wacht je op een refresh van de 7900 serie die in de buurt van de 4090 komt. Ga je voor een (te) dure 4090 omdat het upgraden dan kan wachten, of ga je toch voor een 4080 of 7900 XTX die beiden duur zijn op elk hun eigen manier.

De 4080 had meer VRAM moeten krijgen (ten minste 20 a 24 gig) en de XTX heeft een "slechte" RT en VR performance en een minder sterk software platform door een kleiner market share dan kamp groen.
Persoonlijk heb ik écht moeite te begrijpen waarom iemand uberhaupt de 4080 of 4090 (of iets uit de 4xxx-reeks) zou nemen tenzij je écht of geld teveel hebt of ze professioneel gebruikt voor een specifiek programma zoals Adobe premier of blender waar nvidia nog wel een stuk beter werkt. Maar voor normaal gamen? de 7900 XTX bied zowat dezelfde performance als een 4090 maar doet dat voor een kleine ~€ 600 minder, zelfde verhaal voor de 7900 XT, qua prestaties zowat gelijk met de 4080 op een paar games na (vaak RT) maar het verschil tussen de 2 goedkoopste kaarten hier is ~€ 430. Geen kleine bedragen imo.

De 4xxx generatie is gewoon compleet van de pot gerukt wat dat betreft, nvidia stelt bv. de 4070ti als opvolger voor de GTX 1080 bijvoorbeeld (mijn kaart die ik dus nog gebruik) maar geeft die dus maar 12GB VRAM, Nvidia gaat er dus vanuit dat ik mijn scherm niet heb ge-upgrade in de afgelopen 7 jaar.
Om nog maar te zwijgen van het feit dat de 4070ti duurder is dan de 7900 XT, waarvan we weten dat deze gelijk loopt met de 4080.

Zelf aan het rondkijken momenteel voor een 2de hands kaart, een 3090 ergens tussen de 600-700 euro of evt. een 6950 of 6900 is qua price/performance toch een stuk schappelijker.
Momenteel biedt de 7900XTX eerder performance die iets beter is dan de 4080. De 4090 is een pak sneller dan de 7900XTX. En de 7900XT is vergelijkbaar met de 4070 Ti. Ik weet niet waar je hebt gelezen dat de 7900XTX even snel is als de 4090, want zowat alle games media die ik gevonden heb gaande van Testing Games tot HWUB tot LTT tot Gamer's Nexus geven aan dat de 7900XTX 10-15% trager is dan de 4090, en de 7900XT ongeveer 10% trager dan de 4080.

Nu, misschien dat over een periode van maanden deze verhoudingen zullen veranderen naarmate drivers matureren, maar op dit eigenste moment is de 4090 echt in een klasse apart, delen de 4080 en 7900XTX elkaar rake klappen, en duelleren de 4070 ti en de 7900XT op gespannen voet.
want zowat alle games media die ik gevonden heb gaande van Testing Games tot HWUB tot LTT tot Gamer's Nexus geven aan dat de 7900XTX 10-15% trager is dan de 4090
Dat is het hem net, qua prestaties lopen ze relatief genomen "gelijk op" ja, de 7900 XTX is een beetje trager dan de 4090 maar die 10-15% komen niet tot uiting in de prijs.
goedkoopste 4090 in de pricewatch is € 1739, terwijl de goedkoopste 7900 XTX, € 1099 dus een minimum prijsverschil van 47%.
Dat antwoord is voor mij redelijk simpel, nee ik heb niet teveel geld over, maar simpelweg is het tijd geworden om mijn intel 4790k en gtx 970 te upgraden voor iets nieuws. Dus nu heb ik een noctua aircooled intel 13700k die ik desgewenst kan limiteren of clocken alnaargelang ik meer of minder performance nodig heb.

Ik wil op 4k ultra kunnen gamen en daarvoor is de 7900xt een minimum vereiste en wil ik gewoon nergens in de buurt van de 60fps komen.

Hardware unboxed heeft recent een video gemaakt over de 8gb ram kaarten die het al zwaar hebben, ik kom van 4 af dus ik moet nu overstappen en 16 is de aanstaande ultra / high ondergrens.

Dus kom je uit op een wens van 20 tot 24gb. Maar de performance van de 4090 is voorlopig ongeëvenaard helaas. Dat is zoals @nzall zegt een klasse apart. (Met bijpassend stroomverbruik wat ik ook iets zou limiten voor de energie rekening.
Denk je echt dat het bij NVIDIA ontbreekt aan kennis van de markt? Het is gewoon een jou beinvloeden om een duurder model aan te schaffen.
Tja een duurder model is dan ook direct een redelijk onbetaalbaar model geworden.

Voor het geld van een high-end Nvidia videokaart heb ik een high-end X670e moederbord met 7800x3d, RAM en koeling…..

Ik zou best €1000 voor een goede videokaart over kunnen hebben, maar dan zouden de specs echt van deze tijd moeten zijn.
Concurrent AMD laat zien dat het mogelijk is…

Bij mij wordt een gevoel gecreëerd waarin ze in mijn ogen iets achter de hand proberen te houden, om zo over een jaar nieuwe modellen uit te kunnen brengen die wel meer ram hebben.
En de gpu zelf verder alleen een rebrand is van de huidige generatie.
Ik zoi voor NVidia gaan. Dan kan je hun mooi belonen voor de hoge prijzen.
De verkoop van de 4000 serie is gewoon slecht te noemen ten opzichte van de 3000 serie !
De 3000 serie gelaunched in volle crypto gekte en pandemie met absurde 2X tot 3X boven msrp prijzen, zelfs de vorige generatie kaarten gingen 2dehands tot 2X introductieprijs.
Wisselkoersen spelen idd een grote rol, maar ik denk in de huidige situatie dat Nvidia gewoon een punt aan het zoeken is waar mensen terug bereid zijn te kopen aan een nog steeds absurde prijs.
Laat ons als gamers niet vergeten hoe ze ons in de steek hebben gelaten door de mining gekte, en op hun website de loze belofte plaatsten dat je maar 1 kaart kon kopen per geregistreerde koper :)
Terwijl overal foto's video's opdoken van bedrijfhallen vol met duizenden GPU's, 1 kaart per Duch.
Ik denk dat de meeste high-end gamers, die altijd het beste willen, ondertussen wel al een 4090 gekocht hebben. De "sweet spot" prijs is ook waar ik aan dacht.
De grote vraag is, zijn die enkele tientjes voldoende om mensen te overtuigen?
Ik gok dat veel mensen een boven prijs van €1.000 ,- hebben, en deze prijs ligt daar ver boven.
Ik gok dat veel mensen kijken alsof ze water zien branden als je ze vertelt dat je 1000 euro over hebt voor een chip op een plankje... dat is serieus geld en ik vermoed dat er maar een relatief kleine groep is die zowel het geld heeft als het er aan uit wil geven.
Inderdaad, die komen dan meestal met die reactie van "Ja, maar mijn laptop kan toch ook alles", of nog erger:Je hebt geen computer meer nodig, je kan alles al op een telefoon.
Of mensen die nog genoegen nemen met minder dan max settings. Denk dat er een heel groot verschil zit tussen de groep 'mijn laptop kan ook alles' en '1000 euro is een prima gpu prijs'

Ik zelf ga bijvoorbeeld alleen voor een max van 300/350 euro als ik een gpu nodig heb. En daar kan ik jaren mee uit de voeten. Zeker als ik een goede 2e hands deal kan vinden

[Reactie gewijzigd door Thoeman op 22 juli 2024 14:17]

Denk het niet, ik ben zelf ook nog opzoek naar een videokaart, maar die 10tjes mogen 100tjes worden. Echter zie ik dit niet gebeuren.
Mensen die bereid zijn om 2 ruggen te betalen voor een kaartje hebben hem inmiddels wel gekocht ja. Vergeet ook niet dat de mensen die dit soort kaarten kopen vaak gepaard gaan met dikke cases, voedingen en monsterlijke Ryzen 9 en i9 CPUs. Als je totale budget voor een computer al rond de 3500 a 4000 euro zit dan boeien die enkele tientjes echt helemaal niks. Je koopt een kaart meestal in verhouding tot de rest van je build qua prestaties en prijs.
Ik koop altijd elke generatie een nieuwe en heb deze toch echt overgeslagen en zal hem ook niet meer kopen.
heb zelf een 4090 gekocht, maar stuur em toch retour, ga toch maar voor een 4070 aangezien 4090 overkill blijkt te zijn voor wat ik doe :D
You sure? Als er meer raytracing komt dan is de 4090 echt een flink stuk sneller.

Ik denk dat ray tracing steeds meer de gimmick status gaat verlaten en het een key feature is.
Dat klopt, maar tegen die tijd is er wss al een 4090TI of zelfs de 5000 series alweer uit. Ik speel voornamelijk games die niet veel grafische kracht vergen momenteel, en vindt 140fps voldoende in shooters, ik hoef niet op 240hz te gamen.
Nvidia heeft gisteren nog maar gezegd dat 5000 series ten vroegste in 2025 komt.
Dat had je vooraf aan de aankoop ook wel kunnen realiseren, nu heb je een nieuwe kaart tweedehands gemaakt die niemand wilt en overbodig transport. Beetje inlezen vooraf mag best bij zo’n dure aankoop.
Don't hate the player, hate the game! :Y)
de kaart was gelukkig al een B model :).
Ik denk dat ray tracing steeds meer de gimmick status gaat verlaten en het een key feature is.
Is dat echt zo? tot nu toe zie ik dat niet echt

Wel denk ik eerder dat technieken als Lumen uit de Unreal Engine Raytracing meer gaat overnemen, dit draait namelijk vele male sneller dan hoe we nu raytracing gebruiken, en ziet er amper slechter uit

Lumen draait ook gewoon op elke videokaart en heb je niet perse speciale hardware voor nodig
Raytracing (ook de ‘gewone’ non-pathtracing versie) maakt een game als Cyberpunk echt wel een heel stuk mooier / meer immersive.
Dat is zeker waar, maar Cyberpunk is 1 spel waar het goed uitgewerkt is.

Voor mij zou het pas een key feature zijn als zo'n beetje elk spel dit ondersteund en ook echt wat toevoegt (zoals Cyberpunk)
He... dat is een aangenaam praktische instelling, tegenover die hijgerige "toekomstbestendigheid" reacties: "ja het is drie keer zo duur maar dan gaat die set langer mee".
En vervolgens toch over 2 jaar een nieuwe kopen omdat er weer een snellere te koop is...
Niet perse, je moet naar de kosten per jaar kijken: dus vergelijk b.v. een 4090 (€1800) elke 6 jaar ofwel een 6950 (€600) elke 2 jaar. Dan is het waarschijnlijk dat je over 4 jaar een normale kaart hebt die de 4090 overklast.
Je kan er natuurlijk ook voor kiezen de details wat terug te schalen en op een 1080 te gamen ;)
Ik game uitsluitend VR - zeg maar met een serie 90" monitoren om me heen en dan is 4K nog aan de lage kant...
90" monitoren? Dan maakt de prijs van een GPU weinig meer uit. Vraag me wel af of je veel hebt aan extra scherpte als het grootste deel van die projectie toch buiten je gezichtsveld valt. Ik zou dan voor een VR bril gaan, veel praktischer.
Het is een VR bril (Quest2), ik bedoel dat het een compleet 3D 360 graden beeld is... alsof je in een ruimte staat omgeven door grote monitoren. Nee bewaar me, ik heb geen serie 90" monitoren!
Die "sweet spot" kunnen ze heel goed vooraf berekenen.
Er spelen meer zaken een rol. Een prijsdaling na een aantal maanden is normaal (die "sweet spot" is geen vast bedrag). Bij introductie was er nog schaarste aan top-end grafische kaarten. In zo'n situatie maken de fabrikanten daar gebruik van door de prijzen hoog te maken. De voorraden worden toch wel verkocht. Nu begint de concurrentie weer te werken en zullen ze terug moeten naar veel eerlijkere prijzen.
Als je 'm toch niet kan bestellen, valt er weinig te spotten.
"Wisselende dollar koersen".

Dat kan, maar dat heeft hen in t verleden ook niet gemotiveerd om de prijzen te verlagen.
Ik gok dat die dingen momenteel bar slecht verkocht worden en ze mensen willen motiveren om ze te kopen. Immers, de RTX30## serie kaarten zijn momenteel lekker goedkoop (geworden), nog onwijs goed en populair (afgaande van de Steam charts). Om nog maar te zwijgen over de AMD kaarten, de prijzen daar in en prestaties. De concurrentie daar van voelen ze gok ik ook.

[Reactie gewijzigd door LongTimeAgo op 22 juli 2024 14:17]

Dat klopt niet, juist Nvidia (en ook AMD) passen voor hun eigen kaarten, en let wel alleen hun eigen kaarten, in geval van Nvidia dus alleen de FE kaarten, en in geval van AMD alleen wat op AMD.com verkocht wordt regelmatig de prijzen aan mocht de dollar sterker of zwakker worden. AMD doet dit zelfs (bijna) dagelijks.

En dat is ook wat je nu ziet.

Bij release was 1 dollar +- 1,01 euro. Waardoor je kreeg $1599 x 1,01 en dat x 1,21 (BTW) en je zit op +- €1954, aardig dicht bij de introductie prijs.

Nu is de koers 1 dollar = +-0,91 euro. Waardoor je nu krijgt $1599 x 0,91 en dat x 1,21 (BTW) en je zit op €1760 wat ook weer heel dicht bij het nieuwe MSRP zit.
Dank voor uitleg, maar ik kan mij niet herinneren dat Nvidia dit eerder gretig deed bij hun vorige generaties.
Sterker nog, de RTX20## series founder kaarten waren naar mijn weet absurd hoog geprijst voor lange tijd.
Dat was dan volgens mij ook geen tijd waarin de dollar en euro heel erg fluctueerden ten opzichte van elkaar. Dit zijn immers geen standaard prijsverhogingen of verlagingen, maar koers correcties. Als in de periode er geen grote schommelingen waren in de koers hoef je dit soort aanpassingen dus ook niet te verwachten.

Het heeft verder ook geen invloed op de product positionering.
Nvidia en AMD verkopen ze niet zelf, dat doet het bedrijf Digital River. Zij zullen ook de prijs zetten afhankelijk van wat AMD en NVidia opdragen en als die een vaste $ MSRP zetten dan zal die automatisch aangepast worden. Volgens mij deed NVidia (en AMD maar die deed vroeger niets) het vroeger zelf en dan hadden ze blijkbaar andere regels.
Zou Apple ook wel mogen doen. Lekker hufterig dat ze de prijs van iPhones omhoog knalden zodra €1 = $1 eventjes gebeurde, maar nu het weer €1 = $1.10 is zijn de prijzen niet omlaag gegaan.
Waar is dit op gebaseerd dan? "Vroeger" was de euro koers dusdanig sterk dat je al een niet-omgerekende euro prijs kreeg bij launch. Vaak was dat gewoon het USD bedrag maar dan in EUR. Dat zou nu een te groot prijsverschil opleveren, dus krijg je omrekening + btw en daar zitten deze prijscorrecties aan vast.
De koers van de euro is ook nog nooit zo laag geweest als begin dit jaar. Dat hebben we in meer prijzen gemerkt. Inmiddels weer een forse 10% hoger.
Ga nog maar een paar honderd euro naar beneden denken veen consumenten. En ik geef ze groot gelijk. De tijd dat Nvidia (en AMD) konden vragen wat ze wilden en de kaarten nog verkochten als zoete broodjes is gelukkig steeds verder achter ons.
Dat had toen te maken met cryptomining, die ligt nu op zijn gat waardoor vraag fors is gezakt.
De MSRP van NVIDIA en AMD zijn NIET aangepast tijdens Crypto tijd, de enige aanpassingen waren steeds euro/dollar veranderingen. Het was de doorverkoop en de winkels/groothandels die de prijzen de hoogte ingesmeten hebben.

Je kon bij de webshops van de vendors zelfs nog steeds de kaart kopen aan de MSRP prijs, zo heb ik ook 2 * 6800XT gekocht aan iets boven de 600eur.

De recente nieuwe reeksen hebben andere prijzen, maar deze zijn niet meer tijdens crypto mining gereleased, dat was erna. En crypto mining ligt niet op zijn gat, het is gewoon dat de meeste financieel interessante munt zijnde ETH naar POS gegaan is.

[Reactie gewijzigd door d3x op 22 juli 2024 14:17]

Correctie: de ENIGE interessante munt. Op dit eigenste moment kun je zelfs met een stroomprijs van 10 cent per kWh pas na 5 jaar break-even draaien met GPU mining, ongeacht welke kaart je gebruikt. De huidige profit margins zijn minder dan een dollar per dag. Zelfs met gratis stroom duurt het jaren voordat je een huidige generatie GPU eruit krijgt.
Als u het niet kunt betalen, bent u blijkbaar (nog) niet de doelgroep, ongeacht wat u daar van vindt


edit: ik had beter kunnen en willen moeten schrijven. Blijkbaar worden ze nog in voldoende mate verkocht om de prijs te rechtvaardigen, en kiest men bewust voor dit prijsniveau. Dat u daartoe bereid niet bent, is uiteraard uw goed recht.

En nee, ik zou het er ook niet voor betalen.

[Reactie gewijzigd door Takkie2024 op 22 juli 2024 14:17]

Ik weet niet of zij het niet "kunnen" betalen, het is voor veel meer een kwestie van "willen" betalen. Ik vind het goed om te zien dat de consument nu eindelijk met de portomonnee zijn mening doorgeeft. Ik kan mij de bizarre tijden herinnren van 3080 kaarten voor 2,5k alsof het gisteren is.
Akkoord. Ik zou de huidige prijzen zeker kunnen betalen. Volgens de FOD Belastingen krijg ik dit jaar genoeg terug voor een 4070 Ti, ervan uitgaande dat de prijzen nog iets zullen dalen, en zelfs daarnaast zou ik een 4080 mij makkelijk kunnen veroorloven. Maar ik vind de huidige prijzen zeker 20% te hoog, en zou liefst zelfs 25% eraf zien gaan.

Ik heb er geen probleem mee dat Nvidia hun prijzen verhoogt, zeker gezien TSMC haar prijzen ook heeft bijgesteld en veel electronicaonderdelen lange tijd zeer schaars zijn geweest, en dan nog de inflatie meegerekend. Maar zelfs dan nog... De 3080 had een MSRP van 759 EUR. De 4080 heeft een MSRP van 1469 EUR bij launch (1329 nu). Dat is een prijsverschil van +93%. Ik had +30% nog redelijk gevonden, dan zou hij rond de 1000 EUR gekost hebben.
De meesten kunnen deze absurde bedragen niet meer betalen :)
Tijdens de pandemie hadden de mensen die nooit geld overhadden op het einde van de maand, nu wel geld over omdat bijna alles dicht was ! Je gaat uit eten of dansen doet een citytrip en koopt ook nog een paar grammen drugs per maand en er schiet niks over :) Of alles is dicht en je kan niet reizen uitgaan of geld uitgeven aan drugs, en je hebt 1000€ over op het einde van de maand.
Mensen kochten tijdens de pandemie dan ook massaal dure smartphones - pc's - consoles enz...
Er is ook nog zoiets als waarde bepaling van een product afgezet tegen alternatieven. Heeft niets te maken met kunnen betalen, maar met wat het product nu echt aan waarde brengt. Veel mensen lijken dat tegenwoordig te vergeten en stellen hoge prijs gelijk aan de waarde van het product.
Ik kan het prima betalen ik verdom het alleen simpelweg omdat het ronduit absurd is. Helaas hebben velen deze discipline niet en daardoor is de prijs nu zo hoog. Als iedereen mijn mentaliteit had hadden we gewoon een 4090 voor 999 euro gehad.
Ik ben het met u eens, maar dat betekent ook, dat wij niet de doelgroep zijn.
100% eens met deze stelling :)
De tijd van pandemie waar gekken 3X de msrp betaalden voor zelfs oudere generatie kaarten is voobij !
Een 3090 of 4090 heb je echt niet nodig om te gamen :)
Deze kaarten werden dan ook enkel en alleen gekocht door miners, zie video's foto's van bedrijfshalen vol met GPU's !
Er zit nogal een ruim verschil tussen niet kunnen betalen en niet willen betalen ;)
De goedkoopste 4090 in the pricewatch is al 1712 euro, goedkoper dan de nieuwe "MSRP".
uitvoering: Palit GeForce RTX 4090 GameRock OmniBlack

Niemand koopt die dingen nog. Iedereen die top end wilde en met geld wilde smijten heeft zijn kaart al gekocht. Nvidia verkoopt vast veel deep learning kaarten aan datacentra de laatste tijd, maar gaming kaarten staan nu compleet stil. Deze 100 euries eraf is ook helemaal niks waard. vooral na een half jaar tijd namate we dichter bij de 5000 series komen.
Als de prijzen blijven zoals ze zijn, zal mijn volgende kaart een AMD worden.
Ik heb nu een 3080 en die kan perfect mee, ik game op custom resolutie van 3072x1728, wat toch iets minder druk legt op de kaart.

Raytracing interesseert me niet zoveel meer. Het is te intensief voor de voordelen die het opbrengt.
Momenteel dan toch, want ik zie er wel toekomst in.

Het enige dat me altijd doet twijfelen is DLSS. Toch wel handig als het werkt en is toch superieur.

Maar ik ga gaan 1400 euro betalen voor een 5080.
4090 - €1349
4080TI - €1049
4080 - €799
4070TI - €699
4070 - €549

Dit zou beter bij de markt en performance passen van de huidige 40X0 serie.
ja, dat zou heel fijn zijn, ware het niet dat er sinds de release van de 30xx een gigantische inflatie is, EN de kleinere procede ook weer hogere kosten met zich mee brengt (laatste zeggen zowel AMD als Nvidia)
ja, dat zou heel fijn zijn, ware het niet dat er sinds de release van de 30xx een gigantische inflatie is, EN de kleinere procede ook weer hogere kosten met zich mee brengt (laatste zeggen zowel AMD als Nvidia)
Dat kunnen ze wel zeggen, maar waarom is de 4090 dan maar iets duurder dan een 3090, terwijl een 4070, die qua specs 4060 zou heten vergeleken met de vorige generatie plotseling 670 euro.
Kijk: op dat soort trucs moet je verder niet al te veel letten. Gewoon b.v. het Videokaarten overzicht van Tweakers pakken: review: Videokaart Best Buy Guide - De beste gpu's in februari 2023

Dan je resolutie opzoeken en fps/€ berekenen, ik zoek b.v. een 4K (VR) kaart maar hecht voorlopig nog niet aan raytracing. De 3070Ti is zo ongeveer de enige NVIDIA kaart die qua fps/€ nog een beetje in de buurt komt van AMD, maar Ik wil wel minimaal 12 GB RAM. Vooral de top kaarten van NVIDIA zoals de 4080 zijn zo'n 30% duurder dan een even snelle AMD kaart - dan moet je wel erg veel waarde hechten aan specifieke NVIDIA trucs als DLSS! De 6800/6950/7900 zijn voor mij de aantrekkelijkste keuzes voor hun prijspeil.
Kaart Prijs fps(4K) FPS/€ RAM Watt
6800XT 595 69 0,116 16 294
6900XT 706 71 0,101 16 304
6950XT 679 79 0,116 16 339
7900XT 857 93 0,109 20 313
7900XTX 1099 107 0,097 24 353
RTX3070Ti 556 61 0,110 8 290
RTX3080 789 71 0,090 12 335
RTX3080Ti 1231 78 0,063 12 370
RTX3090 1525 79 0,052 24 365
RTX4070 669 64 0,096 12 200
RTX4070Ti 899 84 0,093 12 291
RTX4080 1289 105 0,081 16 324
RTX4090 1759 135 0,077 24 430

[Reactie gewijzigd door batteries4ever op 22 juli 2024 14:17]

Gezien de 2070 destijds nog voor een keurige 400-450 euro te koop stond, is de 550 euro, met ingerekende inflatie, echt geen gek bedrag me dunkt.
Met die prijzen zou ik ook een 4090 halen. Maar ik heb het vermoeden dat dit lang gaat duren.
Is gewoon weer een koerscorrectie. USD naar EUR + 21% btw. Niks bijzonders aan...
Het totaalplaatje is wel even zo relevant. Zo heb ik zelf bij launch een 4090 (FE) gekocht, maar de videokaart die ik op V&A heb verkocht was ook 300 euro meer waard in die tijd dan waarvoor ze nu en masse in V&A worden aangeboden. De prijs is in de VS (in USD) overigens nog gewoon dezelfde $1599 als altijd.
De nVidia RTX 3080 FE van €719,00 doet het nog prima. Ik ga pas weer kijken als ze weer normale prijzen vragen, dan maar niet in resolutie of fps omhoog voorlopig.

Een nVidia RTX 4080 voor €799,00 zou mij een goede prijs lijken.

[Reactie gewijzigd door Jumpman op 22 juli 2024 14:17]

Die gaan er wellicht nooit meer komen.. Net als dat bijvoorbeeld de benzine prijs van 1,10 per liter.. Wellicht.. No1 knows..
Ik hoop dat ik het fout heb ^^
Nog altijd blij met mijn AMD 6700 XT, perfect voor 1440p gamen (60 - 144 hz) en die was maar 300 euro :) denk dat je voor 400 - 450 euro nu een 6750 XT kan halen.
Dat is ook een idee. Gewoon een product heel erg duur op de markt zetten en dan verlagen tot het verkocht wordt. Kan allemaal met een mono/duopoly. Daarbij is de consument niet erg verstandig aangezien NVidia 80% plus marktaandeel heeft.

Op dit item kan niet meer gereageerd worden.