Alleen RTX 5090 en AMD-videokaarten nog niet te koop voor adviesprijs

De voorbije maand zijn de prijzen van de meeste videokaarten verder gedaald. Inmiddels kun je ook probleemloos een RTX 5080 aanschaffen voor de adviesprijs, wat honderd euro goedkoper is dan een maand geleden. Alleen de RTX 5090 en de AMD-kaarten blijven nog duurder dan msrp.

Ten opzichte van onze laatste duik in de videokaartprijzen op 17 april, zijn vrijwel alle Nvidia-kaarten in prijs gedaald. Vooral de RTX 5060 Ti 8GB, die toen nog amper beschikbaar was, en de RTX 5080 zijn goedkoper geworden. Ook bij de RTX 5070, 5070 Ti en 5090 zien we minnetjes van tussen de 3 en 5 procent. Bij AMD is alleen de RX 9070 XT iets in prijs gedaald, terwijl de RX 9070 nog tot op de euro hetzelfde kost als een maand geleden.

Alleen de RTX 5090 zit daardoor nog echt fors boven de adviesprijs: 20 procent. De RTX 5080 zit er praktisch op. In de grafiek geeft het balkje 2,9 procent aan, maar dat is naar de verlaagde adviesprijs van 1129 euro gerekend. De introductieprijs was 1190 euro en daar zit hij inmiddels onder. De meeste andere Nvidia-kaarten zijn voor minder dan de msrp te verkrijgen, in het geval van de RTX 5070 zelfs ruim 6 procent.

Ondanks de lichte prijsdaling, kost de RX 9070 XT nog altijd minstens 8 procent meer dan de prijs die AMD bij introductie beloofde. Bij de RX 9070 is dat verschil met 4,7 procent iets kleiner, maar nog altijd wel groter dan bij alle Nvidia-kaarten behalve de RTX 5090.

Met 1379 videokaartmodellen uit voorraad leverbaar bij webshops heeft de voorraad van videokaarten een recordhoogte bereikt. Vorige maand leek de voorraad even te stabiliseren op iets onder de duizend modellen, maar de afgelopen steeg de voorraad daar ruim bovenuit. Dat komt deels door de introductie van de RTX 5060 Ti, maar ook van alle andere kaarten zijn meer kaarten op voorraad.

Prijsontwikkeling van Nvidia GeForce-gpu's

  • RTX 5090
  • RTX 5080
  • RTX 5070 Ti
  • RTX 5070
  • RTX 5060 Ti 16GB
  • RTX 5060 Ti 8GB

Bij de RTX 5090 is de prijstrend nog altijd omlaag, maar de lijn van de laagste prijs blijft grillig. Als er kaarten te koop zijn voor een lage prijs, soms zelfs voor de msrp, dan zijn die doorgaans gauw weer weg. In het forumtopic over Nvidia-levertijden wordt wel opgemerkt dat dat tegenwoordig eerder een kwestie van uren is dan van minuten, zoals voorheen.

Ook bij de meeste andere kaarten blijven de prijzen dalen, waarbij dat in veel gevallen betekent dat de laagste prijs onder de adviesprijs uitkomt. De RTX 5060 Ti was in de week na introductie iets duurder, maar die kaart is inmiddels weer voorradig voor of onder msrp.

Prijsontwikkeling van AMD Radeon-gpu's

  • RX 9070 XT
  • RX 9070

De prijzen van AMD-videokaarten willen maar niet dalen, en dat ligt echt niet aan de voorraden, die ruim voldoende zijn. Tenzij je gelooft in een complot van tientallen webwinkels, lijkt het verhaal dat verkopen voor adviesprijs simpelweg niet kán dus echt waar te zijn. De goedkoopste 9070 XT's werden marginaal goedkoper, maar de mediaanprijs veranderde amper. Bij de RX 9070 zijn de prijzen al ruim een maand lang volledig vastgeroest.

De laatste kaarten boven de adviesprijs

De RTX 5090 blijft het enige echte zorgenkindje van de nieuwe generatie videokaarten. Hoewel de prijs blijft dalen, ligt die nog altijd wel 20 procent boven de adviesprijs. Dat zal er voor een deel aan liggen dat deze kaart, onder meer vanwege zijn grote hoeveelheid vram, ook in trek is voor andere doeleinden dan gaming. Het blijft intussen wel een nichemodel wat aantallen betreft. Het voordeel daarvan is echter ook dat een relatief kleine verandering in de voorraadsituatie, de prijs direct significant kan drukken. Er vinden steeds regelmatiger 'drops' voor de adviesprijs plaats. Die halen onze grafieken niet vanwege hun korte duur, maar dat de 5090's tegenwoordig eerder dagdelen dan minuten blijven liggen, stemt hoopvol.

Intussen blijven de prijzen van AMD-kaarten problematisch. Althans, gekocht worden ze zeker wel: de RX 9070 XT is al wekenlang te vinden in de toplijstjes van de Pricewatch. Het probleem is niet zozeer dat ze hun huidige prijs niet waard zijn, maar vooral dat de prijzen die AMD bij de introductie beloofde niet worden waargemaakt. Aan de voorraden ligt dat niet; de gpu's lijken gewoon te duur te zijn bij het inkopen om de door AMD beloofde prijzen te kunnen hanteren. Daar schreven we eerder al een achtergrondartikel over, en AMD lijkt onverminderd aan zet te zijn om daar wat aan te doen. Als actie uitblijft, kunnen adviesprijzen voor toekomstige producten als weinig geloofwaardig gezien worden door zowel reviewers als consumenten.

Bij Nvidia blijkt het halen van de adviesprijs of zelfs lagere prijzen prima mogelijk; bij die fabrikant kwamen de gestegen prijzen dus ook echt door beperkte verkrijgbaarheid en het spel van vraag en aanbod dat daardoor ontstond.

Het bespreken van de levertijden en prijzen van de nieuwe generatie videokaarten kan ook op het forum, in topics voor Nvidia en AMD. Beide fabrikanten brengen binnenkort nieuwe, goedkopere videokaarten op de markt. Bij Nvidia gaat het om de RTX 5060 (zonder Ti), AMD zal de RX 9060 XT uitbrengen.

Verantwoording

Voor deze analyse hebben we gebruikgemaakt van prijs- en voorraaddata uit de Tweakers Pricewatch. Hoeveel kaarten van een individueel model er op voorraad zijn, communiceren winkels meestal niet. Daarom hebben we gekeken naar het aantal winkels dat een videokaartmodel (bijvoorbeeld Gigabyte RTX 5070 Eagle) binnen drie dagen kon leveren, en dat voor ieder model (bijvoorbeeld ASUS, MSI, etc.) op basis van een bepaalde gpu (bv. RTX 5070) bij elkaar opgeteld. Sinds half februari hebben we steeds op een vast peilmoment in de week de voorraden en prijzen vastgelegd.

Door Tomas Hochstenbach

Redacteur

15-05-2025 • 17:55

65

Reacties (65)

65
65
27
7
0
27
Wijzig sortering
Als je de daling van de dollarkoers meeneemt, dan is het bij AMD nog erger:

De msrp van een 9070 xt zou nu met de huidige koers nog maar 599$ * 0.89 €/$ * 1.21 = 645€ moeten zijn.

Ik denk dat de koers ook momenteel de belangrijkste verklaring is dat Nvidia zijn kaarten 'onder' msrp kan verkopen.

[Reactie gewijzigd door NESFreak op 15 mei 2025 19:13]

Misschien dat AMD de markt kwa volume al had voorzien en nv later de bulk op peil heeft.
Ouder4 voorraad vs nieuwere voorraad.
Grootste kostenpost van de kaart zal waarschijnlijk in de Chinese en Taiwanese valuta verlopen, dus dan heeft de dollar niet zoveel invloed...
Ik snap dat AMD word aangekeken als de boeman omdat ze nog steeds niet adviesprijzen halen, maar ik meen dat ze juist hadden gezegd dat de 1e batch een stuk goedkoper zou zijn en daarna wat duurder, dus dat is dan geen verassing. Wel zou het voor AMD goed zijn om zich toch aan te passen aan nVidia, anders lopen ze opnieuw de boot mis om marktaandeel terug te pakken.

Verder, de adviesprijzen van nVidia zijn evengoed belachelijk zoals ze zijn. Echt, hoe snel we gegaan zijn van 200 euro midrange (60 serie), 350 euro upper midrange (70 serie) en rond de 500 euro voor een high end model (80 serie) naar wat je nu te zien krijgt... Toch wel erg extreem.
Dat is niet wat ze gezegd hebben, wat ze gezegd hebben is een MSRP van $599 dollar (na heel lang twijfelen zo lijkt het, want vrijwel alle geruchten gaven aan dat AMD een hoger MSRP ingecalculeerd had), maar toen bleek dat ze dit niet gingen halen, omdat ze de eerste batch al voor teveel geld verkocht hadden aan de retailers hebben ze toen besloten dat ze de retailers voor die eerste batch gingen compenseren via rebates, en dan ook alleen de eerste batch instap modellen.

Die rebates lijken nu al ruime tijd op te zijn, en het gevolg daarvan is dus dat de prijzen nu boven de advies prijzen blijven liggen omdat nu de adviesprijs niet meer gehaald kan worden. Het zou AMD dan ook sieren om of eerlijk te zijn over de advies prijs en die naar boven bij te stellen, of om die rebates te verlengen voor alle instap kaarten zodat de kaarten daadwerkelijk voor adviesprijs in het schap kunnen komen te liggen. En laat ze dan, samen met de AIB's de marge pakken op de niet MSRP modellen.

[Reactie gewijzigd door Dennism op 15 mei 2025 19:01]

Als consument kijk ik naar winkel prijzen, niet MSRP. Ik vergelijk reviews stel budget vast en ga dan shoppen bij favo winkels. Naast of specifiek type voorkeur heeft.
Budget zal ergens 500 - 800 € zijn. Wat intel AMD nV kwa pers media en MSRP doen. Heb ik niks aan. Daarvoor heb je reviews en straat prijzen voor.
Daarvoor heb je reviews en straat prijzen voor.
Maar dat is nu juist het probleem met deze 'fake MSRP's' en waarom bijvoorbeeld een Hardware Unboxed (en nu ook Tweakers) er zo hard op hamert. Bij dag 0 reviews wordt immers de eind conclusie en dus ook de prijs / kwaliteit verhouding. bepaald op basis van de MSRP prijzen van de fabrikanten (andere prijzen zijn er immers vaak nog niet), en wat krijg je dan, in dit geval bijvoorbeeld relatief tot zeer positieve reviews, want de adviesprijs is $599. Hadden die reviews gebaseerd geweest op de straatprijzen van nu (en de afgelopen tijd) of een $649 of $699 waren ze een stuk minder positief geweest, want AMD's kaarten zijn eigenlijk gewoon te duur nu.

AMD heeft nu dus eigenlijk, met de trends die je nu ziet qua prijs ontwikkeling voor deze 9000 serie kaarten tot nu toe, positieve reviews verkregen door de reviewers en de consument feitelijk voor te liegen over wat de straatprijs zou zijn. Want dat is wat het MRSP eigenlijk hoort te zijn, de straatprijs waarvoor je een kaart kan gaan ophalen in de winkel (of tegenwoordig bestellen bij een webshop).

HuB plaatste daar laatst bijv. nog een update over, waarbij ze duidelijk aangaven dat de 9070XT een goede koop is wanneer deze $150 goedkoper is dan een 5070 Ti, maar zijn de daarwerkelijke verschillen in de winkel meer zoals ze nu zijn (rond de $70-$80 meen ik dat ze aangaven) geven ze aan dat de 5070 Ti eigenlijk de betere koop is.

[Reactie gewijzigd door Dennism op 15 mei 2025 19:34]

Kwa prestaties wint Nvidia het altijd. Dus AMD moest met iets significants goedkoper komen als ze weer mee wouden doen.

Iedereen heeft kritiek op Nvidia maar in mijn ogen faalt AMD net zo hard. Dit was hun kans.
Dank voor de herinnering, ik was de details een beetje kwijt :)
Dat wordt dus voor mij een Intel, snel genoeg en veel beter qua prijs.
zou dat alleen doen als je een heel snelle CPU hebt, in termen van overhead is het AMD < NVDA < INTC. En let er ook op of intel de spellen / applicaties die je wil gebruiken ook ondersteunt, als nieuwkomer is de support een stuk minder.

Maar goed, realiseer je wel dat de reden waarom NVDA zakt en AMD nog niet is omdat niemand deze gen NVDA wil hebben terwijl men AMD ondergeprijsd vindt relatief aan NVDA (waardoor men koopt voor >adviesprijs ondanks dat er enorm veel extra aanbod naar Europa komt wegens Trumps idioterie). Dus laat je niet puur leiden door de vraag welke prijs het laagst is (op dit moment).
Maar goed, realiseer je wel dat de reden waarom NVDA zakt en AMD nog niet is omdat niemand deze gen NVDA wil hebben
Dat is dus niet zo. Als we in de steam survey kijken dan zien we dat ondertussen de 5080, 5070 en 5070 ti voor de maand april al in de top 100 staan. Ondertussen staat de RX 9 serie nog totaal niet in de top 100 terwijl die al langer verkocht wordt.

De AMD 9070 en 9070 XT worden dus niet in serieuze volumes gekocht, de 5070, 5070 Ti en 5080 wél.

[Reactie gewijzigd door sdk1985 op 16 mei 2025 01:28]

mmm als ik hoog in de lijst mer stijgingen sinds de vorige maand de AMD Radeon RX 580 2048SP zie staan dan vermoed ik dat die niet een goede maatstaf is voor wat er daadwerkelijk wordt aangeschaft.
Die lijst kijkt dan ook naar installbase en niet naar marktaandeel. Oudere kaarten kunnen dus best nog in redelijk wat oudere systemen zitten, maar nu niet meer verkocht worden, maar daardoor nog wel voorkomen in de steamsurvey en afhankelijk van de sample ook stijgen en / of dalen.

Echter de Nvidia 5000 serie en AMD 9000 serie zijn zo nieuw, dat die alleen voor kunnen komen wanneer de recentelijk daadwerkelijk gekocht zijn. En dan is het wel vrij opmerkelijk de AMD kaarten niet voorkomen, en de Nvidia kaarten wel, terwijl bepaalde bronnen claimen dat Nvidia amper verkoopt en AMD alles uitverkopen. Dat strookt niet met elkaar, dan zouden de cijfers immers andersom moeten zijn, Nvidia die niet voorkomt, maar AMD's 9000 serie wel.
Nou als ik zie dat de RX7800XT er óók deze maand voor het eerst in staat op de 3e plek net na de 5070, dan denk nogmaals niet dat je er veel waarde aan moet hechten als indicator voor werkelijke verkopen

https://imgur.com/a/awzVWIg.
Dat zou ik normaal met je eens zijn, want zoals ik al aangaf, de Steam Survey zegt niets over werkelijke verkopen. Het meet het aantal kaarten geïnstalleerd in systemen van Steam gebruikers gebaseerd op een statistisch gezien significant sample uit die userbase.

Echter in het geval van de 5000 / 9000 serie ben ik dan niet direct met je eens, want kaarten die nu voorkomen in de Steam survey, en dus geïnstalleerd zijn in de systemen van Steam gebruikers moeten ook recent verkocht zijn, voorheen waren ze immers niet verkrijgbaar. En nu is de Steam Survey uiteraard niet alles zeggend, maar het is wel een significant datapunt dat lijnrecht tegenover de leakers staat die, vaak zonder enige bron, claimen dat AMD momenteel meer verkoopt dan Nvidia, terwijl in ieder geval dit data punt (als een van de weinige wel openbare gemaakte datapunten) volledig de andere kant op wijst.

Het grote wachten is op de martkaandeel cijfers in dGPU voor Q1 2025 van bijv. Jon Peddie die als het goed is binnenkomt komen, die cijfers zullen een goede indicatie geven van wie er nu gelijkt heeft, de leakers of de Steam Survey. Een ander Datapunt is trouwens ook niet heel hoopvol voor AMD, AMD's gaming omzet in Q1 was $647 Miljoen, 30% minder dan een jaar geleden, en dan moeten we er ook nog rekening mee houden dat AMD's gaming omzet niet alleen Radeon is, maar ook bijv. de chips voor de Playstations, Xboxen en diverse handhelds in de wereld.

Nvidia's cijfers worden volgende week verwacht uit mijn hoofd en de verwachting is dat hun gaming segment, dat vrij alleen bestaat uit hun RTX gaming cpu's minimaal ruim 2 miljard gaat omzetten.

[Reactie gewijzigd door Dennism op 16 mei 2025 14:11]

https://hothardware.com/news/radeon-rx-9070-xt-wrecking-rival-gpus-sales-german-retailer
he sales data comes courtesy of TechEpiphanyYT on X, who often shares sales figures from Mindfactory for both GPUs and CPUs. For week 17 (last week), Mindfactory reportedly sold 440 units of the Radeon RX 9070 XT, with PowerColor's custom Hellhound variant being the most popular (it accounted for 120 unit sales). After that, the second best-selling GPU was NVIDIA's GeForce RTX 5060 Ti, which accounted for 255 unit sales.
Je lijdt aan een bias denk ik en zoekt cijfers die juist bevestigen wat je wil, en negeert alle parameters die er op wijzen dat je verkeerd zit.
Techepiphany cijfers ken ik ook uiteraard, echter cijfers van 1 retailer, en als je over bias wil spreken, Duitsland heeft qua sales altijd een AMD bias gehad sinds AMD daar fabs heeft gehad, zeggen natuurlijk niet zoveel en kun je dus ook niet vanuit gaan voor Global sales en dan zeker niet de sales van 1 week. En daarnaast, zoals je verderop in deze post zal zien, ondersteunen ook die cijfers niet dat AMD meer zou verkopen.

Maar goed, als je daar dan naar wil kijken (want het is natuurlijk wel een data punt), ben dan wel volledig en ga niet juist hetgeen doen waarvan je mij beticht dat ik het doe, namelijk een resultaat cherry picken, dat is immers ook nogal biased. Kijk je naar bijv. de nieuwe cijfers, zie je dat Blackwell ook in het EU land dat normaal gesproken het meest AMD minded is meer verkoopt dan RDNA4: https://x.com/TechEpiphanyYT/status/1921816817875509560 net als de week daar voor https://x.com/TechEpiphanyYT/status/1918718281004834981 (let wel, grafiek is kapot, dus je moet de verkopen zelf tellen), in dit geval 355 voor AMDs 9000 serie en 540 voor Nvidia's 5000 serie.

Maar zelfs die link die jij daar aanhaalt verkoopt RDNA4 niet meer dan Blackwell. Misschien heb je niet het hele artikel gelezen, want ze geven dat zelfs aan in het artikel:

Uit jouw link:
Naturally, there are caveats. For one, NVIDIA's GPUs raked in more revenue than AMD's GPUs, with the split at 57.35% versus 42.65%. Mindfactory also sold more NVIDIA GPUs (895 units) versus AMD GPUs (770 units), so while the Radeon RX 9070 XT topping the sales chart on a unit basis is impressive, it's not a changing of the guard.
Kijk je dan sec naar RDNA4 v.s. Blackwell in de originele tweet https://x.com/TechEpiphanyYT/status/1916540186340528624 waar het Hothardware artikel dat jij linkt op gebaseerd is dan kom je op de volgende waarden:

AMD 440 Units - Nvidia 745 Units.

Al met al dus de meest recente 3 wekelijkse overzichten van die poster geen enkele waar AMD's 9000 serie meer verkoopt dan Nvidia 5000 serie.

[Reactie gewijzigd door Dennism op 16 mei 2025 19:16]

Je bent nu dus heel subtiel de piketpaaltjes van het oorspronkelijke onderwerp aan het verplaatsen. Dat was:
De AMD 9070 en 9070 XT worden dus niet in serieuze volumes gekocht, de 5070, 5070 Ti en 5080 wél.
En dát klopt dus niet. En wordt zelfs gestaafd door jouw cijfers. Het is niet Nvidia v AMD maar of de 9070 goed verkocht wordt. (En door allerlei vooroordelen wordt het dus al snel NVidia vs AMD: dat is het onderwerp niet.
Volgens mij niet, de originele stelling was:
Maar goed, realiseer je wel dat de reden waarom NVDA zakt en AMD nog niet is omdat niemand deze gen NVDA wil hebben terwijl men AMD ondergeprijsd vindt relatief aan NVDA
uit de post van Foppe Jan: foppe-jan in 'Alleen RTX 5090 en AMD-videokaarten nog niet te koop voor adviesprijs'

Mijn inziens was de originele stelling, vrij vertaald: "AMD zakt niet omdat er veel vraag is, terwijl Nvidia zakt omdat ze niets verkopen, want niemand wil ze"

SDK maakt inderdaad een uitstapje naar een paar specifieke Sku's, maar dat was mijn inziens niet de originele claim waarmee de discussie startte en waar ik op inhaakte, ik noem volgens mij ook nergens in mijn posts een individuele Sku, maar steeds de 5000 en 9000 series.

Zou je wel naar individuele Sku's zou willen kijken (wat ik inderdaad vanaf mijn eerste post al niet deed, want heel interessant is dat niet voor het grote plaatje), een data punt als Mindfactory kan je simpelweg niet nemen als leidend voor globale sales. Het is een interessant datapunt, dat zeker, daarom volg ik die poster ook, maar je kan lastig de claim maken "bij Mindfactory hebben ze meer 9070XT's verkocht dus dat is wereldwijd ook zo". Immers zoals bekend heeft AMD normaliter een relatief sterkere positie in Duitsland qua sales dan elders in de wereld en zou het dus niet onlogisch zijn als ze bijvoorbeeld die winkel meer bevoorraden dan landen waar ze het traditioneel minder doen (ik weet uiteraard niet of dat hier zo is, maar het zou me weinig verbazen). Terwijl bijvoorbeeld Nvidia normaliter vooral in Azië het veel beter doet dan AMD. Je zal dan dus ook data punten moeten hebben uit andere EU landen, de US, Azie en Zuid Amerika

[Reactie gewijzigd door Dennism op 17 mei 2025 11:34]

mmm als ik hoog in de lijst mer stijgingen sinds de vorige maand de AMD Radeon RX 580 2048SP zie staan dan vermoed ik dat die niet een goede maatstaf is voor wat er daadwerkelijk wordt aangeschaft.
Je ziet vaker fluctuaties van bepaalde modellen tussen verschillende maanden. Het is en blijft een survey en geen totaalsom van absolute aantallen. Vergeet ook niet dat dit een afspiegeling is van de userbase van steam, dus ook de mensen die al 7 jaar hun pc niet hebben geupgrade. Je moet dus héél veel verkopen om daar ineens een behoorlijk percentage te behalen.

In dit geval zie je echter twee dingen
1) je ziet de RTX 5x modellen voor het eerst verschijnen, er is dus significante hoeveelheid verkocht.
2) we zien de RTX 5090 en Radeon RX 5070 (XT) nog niet, daar is dus nog niet voldoende van verkocht

Verder bedroeg de omzet bij AMD van de gaming (=Radeon + semi custom van de consoles) slechts 647 miljoen vorig kwartaal. Ook dat is een goede indicator dat AMD nauwelijks Radeon kaarten verkoopt. Binnen die 647 miljoen zitten immers ook de console verkopen. Ondertussen noteert Nvidia 2500 miljoen voor hun gaming segment. Stel de helft van die 647 miljoen is radeon dan doet Nvidia dus 7.7x meer omzet. An sich niet vreemd, laptops zijn natuurlijk ook een behoorlijk deel van de omzet, ook dat zie je in de steam survey; de meest gebruikte kaart van alle modellen is de NVIDIA GeForce RTX 4060 Laptop GPU.
Het is ook omdat er een gat zat tussen de matige 5070 en de (snelle) 5070ti. De 9070 en 9070xt viellen daar precies tussen

Nu de 5070ti zoveel is gezakt is met de huidige prijzen de 9070xt imho geen aanrader meer. Een 5070ti is gewoon sneller en heeft betere features.

De 9070 is nog wel een betere deal dan de 5070, maar het is prijstechnisch ook niet briljant.

[Reactie gewijzigd door roffeltjes op 15 mei 2025 19:45]

Nu de 5070ti zoveel is gezakt is met de huidige prijzen de 9070xt imho geen aanrader meer. Een 5070ti is gewoon sneller en heeft betere features.
Als je genoegen neemt met meer microstutters en lagere minimum framerates...
YouTube: Ok, Nvidia GPUs are kinda Pointless Now --- RX 9070 XT REVIEW!!

En welke betere features? RT? DLSS?
Drivers misschien...
https://www.techradar.com...rning-gamers-to-stay-away
https://gamersnexus.net/g...ible-gpu-driver-stability
https://www.extremetech.c...es-are-nowhere-near-fixed
:'(

[Reactie gewijzigd door Obfzk8R op 16 mei 2025 08:52]

Alklkeereerst, de meeste testen geven tioch echt duidelijk betere cijfers voor de 5070TI
Grappig. Ik heb jou 4 URL's gedaan. Jij géén 1, maar wel een stelling "... de meeste...". Had je even op de allereerste URL geklikt en even enigzins met begrip had gekeken, dan had je een beeld gekregen van de RTX 5070ti als zijnde een weliswaar snelle, maar "micro-stotterende" kaart. En zonder dat ik nog zin heb om nog meer URL's op te zoeken voor jou, kan ik jou ook wel vertellen dat er teveel issues zijn met de RTX 5000 kaarten en hun stuurprogramma's. Issues die ondanks hier en daar hogere maximale frames de spelbeleving verknallen. Allemaal genoeg artikelen over te vinden.

En dat voor slechts minimaal € 100 meer. 8)7

[Reactie gewijzigd door Obfzk8R op 17 mei 2025 23:57]

Waarom zo hard fanboy zijn? De 5070ti is sneller, heeft betere feature en die feature worden breder ondersteund.

De 5070ti is te duur, maar zit dichter bij de adviesprijs dan de 9070xt.

De driver issues zijn vervelend, maar de laatste AMD drivers leveren nu ook woedende reddit draden op.. in mijn lange ervaring komt dat bij beide merken gewoon uiteindelijk goed.

Objectief gesproken zijn de huidige gpus matig. De hype rond de 9070 is daarom vreemd.

Ik kan je verder verwijzen naar elke grote bekende reviewer die ondanks het aftikken van Nvidia (terecht) ook allemaal in benchmarks laten zien dat de 5070ti sneller is. Het is zoals het is, daar hoeven we geen rare ruzie over te hebben.
Ok. Let wel op dat de meeste reviewers geen intel gpu testen met intel cpu. Weet niet of je ook een nieuwe cpu wilde, maar...
Verder, de adviesprijzen van nVidia zijn evengoed belachelijk zoals ze zijn. Echt, hoe snel we gegaan zijn van 200 euro midrange (60 serie), 350 euro upper midrange (70 serie) en rond de 500 euro voor een high end model (80 serie) naar wat je nu te zien krijgt... Toch wel erg extreem.
De adviesprijzen die je noemt werden voor het laatst bij de 9xx series behaald. Alweer 11 jaar geleden, tijd gaat snel :P
Uhh, damn :P

Fair enough, maar dan nog, de prijzen gaan sneller omhoog dan inflatie, niet?
Inflatie is 1 factor. Nieuwe nodes worden duurder steeds grotere investeringen. Global foundry afgevallen. 2de factor. En wafers zijn 10x duurder. Monopool positie van TSMC.
Factor 3. Allemaal flinke factoren. Naast BOM en PCB het vermogen moeten aankunnen. Hogere signaal eisen. Dus ja het is flink duurder. Maar wel factoren die het deels verklaren.
De 1080 was ook voor net over de €500 te koop en was de één na snelste gewone kaart van de line-up (Titan reken ik niet mee als gewone kaart).
Probleem wat ik met AMD heb (nvidia heb ik geen zicht op hoe zij dit doen) is dat men kaarten levert aan retailers met een inkoopprijs waarop ze onmogelijk voor msrp kunnen leveren zonder verlies. Dan gaan ze daarna met kickbacks spelen om de retailer wat lucht te geven, schandalig wat mij betreft en ook verticale prijsbinding.
Langs de andere kant, waren er vroeger heel veel die 2, soms zelf 3 high end kaarten gebruikten in sli en die legden toen ook al 1000 tot 1500€ neer... En dan spreken we nog niet over de titan kaarten.
Opzich zat ik daar niet zo mee. De 90 serie is ook lange tijd een extreme kaart geweest die als het ware zichzelf buiten de standaard markt zet. Ook SLI zag ik op die manier. Het waren geen kaarten die een must waren, maar strikt een luxe.

Wat ik nu vermoed is dat mensen dusdanig gewend zijn aan de XX90 kaarten van nVidia dat de extreme prijzen bijna genormaliseerd zijn. Je leest ook steeds vaker comments op Reddit of waar dan ook dat mensen hun input geven hoe een game loopt op een 3090, 4090 en nu 5090, terwijl het realistisch gezien weinig er toe doet. Maar het feit dat het bijna een normale kaart is geworden waar steeds meer mensen over spreken, lijkt 't alsof het nVidia de push heeft gegeven om de alle non 90 kaarten omhoog te trekken in prijs dichterbij de 5090. (En laten we het maar niet hebben over het artificiële scalpen wat ze doen)

In de auto industrie zie je dat elke generatie van een specifiek auto model zwaarder (en veiliger) en duurder word, en over tijd lanceren ze een nieuwe kleine lichtgewicht auto om die plek over te nemen. Dit zien we alleen niet echt in de graka wereld, dat word alleen maar duurder. Tuurlijk zijn er af en toe XX50 kaarten, maar lets be real, als je een beetje wil gamen is dat niet echt een optie.
Als je bedenkt dat een GTS 250 destijds eigenlijk een gerebadged 9800 GTX was uit de voorgaande serie kan je wel nagaan hoever het inmiddels qua wat je krijgt voor je geld enorm weggezakt is.

De GTS 250 had toen tenminste nog 256-bits en 16 lanes en ook 2GB VRAM modellen net zoals de GTX280/285 en een zeer acceptabele prijs, maar toen was Nvidia nog niet zo groot en zag het speelveld er een stuk anders uit. Wat je nu krijgt in een RTX 4060/5060 is eigenlijk gewoon lachwekkend slecht voor de prijs.

Zeker als je dan ook nog eens nagaat dat je er relatief gezien ook steeds minder cuda cores e.d. voor krijgt in dezelfde klasse dan je vroeger gewend zou zijn t.a.v. de 'big' chip. De GK110 met de GTX780Ti was de laatste keer dat je tenminste waar voor je geld kreeg behalve dat het VRAM eigenlijk te karig was. Sinds toen de GTX 660 zo goed bleek dat ze hem maar als GTX680 hebben verkocht is het hele balletje wel aan het rollen gegaan.

Steve van GamersNexus heeft dat laatst ook als topic behandelt:
YouTube: The Great NVIDIA Switcheroo | GPU Shrinkflation

De enige reden dat ik voor de 5090 ben gegaan is omdat m'n 8 jaar oude 1080Ti gewoon letterlijk anders spellen zoals Doom niet meer kon spelen terwijl hij verder nog aardig meekon en omdat de 5090 toch een beetje nog de halo-achtige specs heeft, de rest van de series tussendoor konden mij niet zo bekoren op de specs ook omdat ook daar de prijzen i.v.m. de gekte met mining en scalping niet mals waren en toch maar karige hoeveelheden VRAM en andere hardware-specificaties. Als ik een videokaart koop dan doe ik dat ook voor een langere periode maar dan moet de basis wel goed genoeg zijn.
Ok, ik snap deze extreme stap niet zo een 5070 is aanzienlijk goedkoper dan de 5090 en mijn inziens meer waar voor je geld als je spellen als Doom op QHD wilt spelen met hoge FPS.

Ieder jaar een 70 serie kopen en verkopen is kosten/prestatie technisch gezien een wijzere keuze mijn inziens.
Ik verkoop alleen m'n hardware niet, dus ik krijg er niets voor terug, ik behoud ze als back-up en heb zo meerdere machines.

Verder speel ik ook op 1440P maar spellen als Portal RTX, Half-Life 2 RTX en de nieuwe Doom vereisen toch wel behoorlijk wat kracht en dan heb ik spellen als Cyberpunk 2077 die inmiddels toch alweer jaren oud is nog niet eens aangeraakt. Portal/HL2 hebben zonder MFG met DLAA amper 50-60fps en Doom haalt in veel gevallen de 165Hz ook niet eens met DLAA en Path Tracing moet nog uitkomen die het waarschijnlijk zal halveren.

Verder is 12GB VRAM voor mij persoonlijk veel te weinig, m'n oude videokaart had al 11GB en liep inmiddels op zijn tenen met sommige games die naar RAM moesten swappen, en ik zit nu regelmatig tussen de 16-20GB, Monster Hunter Wilds zag ik zelfs oplopen naar 25GB.

De 20/30/40 series hadden allemaal geen indrukkende verbeteringen op meerdere vlakken om het voor mij interessant te maken.

Verder draai ik graag oudere games op hogere DSR resoluties of 200% render-scaling om zo een scherper beeld te krijgen op snelle framerates zonder wazig post-processing anti-aliasing gedoe. AC Oddysey kan zo prima op 5K draaien met 100+ fps en dat heeft de beeldkwaliteit indrukwekkend verbeterd op een 1440P scherm.

Klein voorbeeldje van 1440P t.a.v. 200% render-scale (5K):
YouTube: AC Oddysey - 1440P Native vs 5K DSR

[Reactie gewijzigd door CriticalHit_NL op 15 mei 2025 23:59]

Het heeft eerlijk gezegd weinig zin om op die manier maar specificaties te kijken. Nvidia heeft jaren lang te veel stroom verbruikt. Dé remedie daarvoor is een smallere bus. Vervolgens hebben ze flink geïnvesteerd in technieken als delta color compression waardoor ze met minder bandbreedte effectief uit de voeten konden. Het nieuwste wapen is extra cache bij de GPU. Zo zijn de bij de 4060 Ti van 4MB L2 cache naar 32MB L2 cache gestegen. Ondertussen werken ze aan een ai techniek waarbij ze textures met 90% kunnen verkleinen zonder kwaliteitsverlies. Er is al een demo waarbij 32 MB Vram verkleind wordt naar 1.52MB.

Als je vervolgens kijkt naar hoe games echt draaien op gpu's dan zijn we wat mij betreft nog niet zo slecht af. Vroeger kon je met een midrange kaart als een GTX 660 nog geen 50 fps in Battlefield 3 halen. Pak je tegenwoordig een RTX 4060 dan haal je letterlijk 170 fps in Battlefield 5. Probleem lijkt mij eerder dat iedereen zich gek laat maken en persé een 4K monitor wil waarbij alles ook nog even op 160+ fps draait. Ja dan gaat de kassa rinkelen. Maar dat is niet nodig en ook zeker niet de ervaring die we vroeger hadden, laat staan in het midrange segment.
Het heeft wel zin aangezien de 1080Ti met zijn halo specs duidelijk een grote overlever is gebleken gezien zijn uit die tijd relatief absurd goede specificaties en zeer aanvaardbare prijs voor wat je kreeg. De RTX 4060/5060 8GB zijn inmiddels vanwege hun absurd gekorte specificaties nu al einde levensduur binnen 0-2 jaar op de huidige titels.

Verder vergelijk je nu een spel uit 2011 (BF3) met een videokaart uit 2012 (660) die wel degelijk zonder MSAA meer dan prima boven de 60fps op Ultra instellingen kon functioneren, ik had destijds nog een EVGA GTX 460 1GB EE met de FPB bios en ook die kon prima mee op hoge instellingen op 1080P zonder MSAA terwijl de 460 al uit 2010 stamt.

https://www.anandtech.com...-out-the-kepler-family/10

En dan loopt het vergelijk compleet mank als je een spel als Battlefield V (2018) gaat vergelijken met een basis GPU uit 2023 5 jaar na dato van release dan mag je inmiddels ook wel wat meer verwachten lijkt me zo, ruim 100-140fps trok ik ook nog wel op BF5 met de 1080Ti uit 2017 op 1440P met Ultra instellingen terwijl die eigenlijk CPU-bottlenecked was op dat punt en zoals hieronder te zien was meer ook zeker haalbaar zonder ondersteunde maatregelen zoals ReBAR die de 4060 wel geniet (en dus de 5090 ook):

https://www.techspot.com/...efield-5-gpu-performance/

Zouden we echter kijken naar de mid-range kaarten van de tijd dat Battlefield 5 uitkwam dan is het heel andere koek want de RTX 2060 (2019) haalt dan nog maar 116fps op 1080P terwijl de 1080Ti dan nog op RTX 2080/4060 niveau presteerde met circa 160+ fps met name de overklokvarianten zoals in je review link aangeduid:

https://www.techpowerup.c...rtx-4060-gaming-oc/9.html

Maar Battlefield V gebruikt niet eens MSAA meer maar een post-processing TAA techniek die een stuk minder zwaar is voor de hardware dus het vergelijk tussen Battlefield 3 in die tijd en Battlefield 5 uit de recentere jaren is ook gewoon niet goed te vergelijken en tevens waren het nooit spellen die enorm zwaar op het VRAM leunde.

We kunnen wel blijven terughalen naar het verleden maar dat heeft gewoon weinig zin, je krijgt voor je geld gewoon minder in echte hardware en het is allemaal ook nog eens veel duurder geworden, dat is gewoon een vaststaand feit.

En als je toch zo graag naar het verleden wilt blijven terug grijpen (en ik doe het enkel om de absurditeit van minder hardware voor meer geld aan te tonen), vrijwel alle spellen uit rondom de tijd toen die oude videokaarten uitkwamen waren allemaal prima te spelen op midrange videokaarten zonder dat je buiten de boot viel, je had een simpelere rendering methode, het OS had veel minder VRAM overhead en spellen vroegen simpelweg in het algemeen ook gewoon niet veel van het VRAM behalve als je er zo nodig 4x/8x/16x/32x MSAA van wilde maken wat enorm inefficient was.

En toen had je tenminste nog het voordeel van veel goedkopere videokaarten mét SLI mogelijkheid tot zelfs wel 3-way SLI bij o.a. de budget GTS 250 en dat kan je nu wel vergeten.

Dat is inmiddels verleden tijd en achterhaald, je kan zelfs met lage instellingen nu al in de problemen komen met videokaarten met een 8GB framebuffer in de mid-range met hoge prijzen zelfs op lage resoluties en instellingen op een dermate absurde manier dat dit nog niet zo erg eerder is voorgekomen, mede doordat raytracing en andere complexere technieken die veel van zowel de GPU als de bandbreedte van het geheugen danwel de framebuffer vragen dan ooit tevoren.

YouTube: DOOM: The Dark Ages, 36 GPU Benchmark (1080p, 1440p & 4K)
YouTube: RTX 5060 Ti 8GB: Even Slower Than The Arc B580!

Het is dus meer dan overduidelijk dat deze videokaarten met 8GB gewoon verspilde grondstoffen zijn, te duur zijn en gewoon letterlijk onspeelbaar worden in titels die worden of zijn uitgebracht rondom te tijd van de huidige mid-range videokaarten en dat de 8x PCI-E bus het effect nog eens veel verslechterd i..v.m. de beperkte bandbreedte om alle data te swappen wat niet nodig had hoeven zijn als ze genoeg VRAM hadden dat acceptabel is voor de huidige tijd.

En als je het over stroom hebt, de RTX 5090 is anders prima te temmen met zijn 512-bits 16 lanes, ja het zal iets meer verbruiken dan een lager gepositioneerde chip simpelweg omdat de chip groter is en meer cores heeft om aan te sturen maar je kan er naar dicht op zitten. Het excuus gebruiken om stroom te besparen dat de videokaarten maar een PCI-E 8x bus moeten krijgen lijkt mij dan ook de reinste onzin.

RTX 5090 met ~1800mhz downclock op Ultra Nightmare op 1080P zonder FPS-cap met DLAA:
https://i.imgur.com/I5niQin.png

RTX 5090 met ~1860mhz downclock op Ultra Nightmare op 1080P met 60 FPS-cap met DLAA:
https://i.imgur.com/jwhOIv2.png

Als je dat vergelijkt met hoe embarmelijk de RTX 4060 8GB zich er nu vanaf moet brengen op 1080P met High Settings (niet eens Ultra dus met de laagste instelling van de texture pool) en dan nog amper 60fps haalt zonder DLSS Quality (resolutie verlaging, wat in dit geval voor een zeer pixelated beeldkwaliteit zorgt bij o.a. vegetatie) en dan wel continu hiervoor 110W+ voor moet verstoken dan weet je dat de zaken er voor dergelijke GPUs er gewoon belabberd uitzien.

Zelfs de RTX 5060 Ti kan met zijn 16GB in dit spel gewoon niet mee ondanks dat het in het algemeen wel een veel betere keuze is dan de 8GB modellen maar dat is helaas meer omdat het spel in het algemeen veel zwaarder weegt op de GPU-core (die dus tegenwoordig relatief veel minder cores bevat voor je geld) dan veel andere spellen die 8GB+ slurpen i.v.m. de geforceerde ray-tracing.

YouTube: RTX 4060 - DOOM: The Dark Ages

Dus nee, de huidige mid-range kaarten met 8GB zijn totaal incapabel voor de games die worden/werden uitgebracht rondom het tijdsbestek van de release van deze videokaarten en dat is een schril contrast met vroeger. En ondanks dat de 16GB modellen het veel beter doen is het geen geval van "toen had je maar 50 fps en nu heb je 170 fps".
Door de komst van de APU/IGP, APU was een idee van AMD, is de onderkant van de GPU markt overbodig geworden. Daarmee is veel volume werk voor Nvidia en Radeon verdwenen, de cpu's hebben dat volume overgenomen. Men moet dus alle omzet uit het duurdere segment halen.
Nouja, valt wel mee, in 2013 betaalde ik 240 euro (in de aanbieding) voor een onbekend merk (toen) GTX760, in 2019 betaalde ik tijdens blackfriday 370 euro voor een toen ook relatief onbekend merk RTX2060super (en dat was toen echt de goedkoopste die je kon krijgen), en nu kun je 'al' een RTX5060ti/16GB voor 450 euro krijgen (geen aanbieding).
Dus het valt allemaal behoorlijk mee als je nuchter nadenkt en rekening houdt met hoeveel alles duurder is inmiddels, minimumuurloon in 2019 was zo'n 9,5 nu per juli 14,5...
Jammer dat jullie de Arc B580 hier niet in hebben meegenomen.
Dat zou laten zien hoe absurd duur deze kaarten eigenlijk nog steeds zijn. Intel verkoopt kaarten met magere winst voor nog niet de helft. Dat bewijst dat kaarten makkelijk 200 a 250 goedkoper kunnen als graaien niet het eerste doel is.
Als kaarten gemiddeld zoveel goedkoper zouten zijn zou iedereen ineens de prijzen redelijk vinden en zouden ze van de schappen vliegen.
grappig dat jullie zeggen dat de RTX 5080 voor onder advies prijs te krijgen is en je grafiek vervolgens laat zien dat de laagste prijs er nog steeds 100 euro boven zit...
Let wel ff op, de getoonde tabel voor de RTX5080 gaat maar tot 17-april, we zijn inmiddels bijna een maand verder....
Je wordt gemind maar je hebt wel gelijk, de tabel van de 5080 loopt maar tot 17 april.
@Tomas Hochstenbach gaat hier iets mis in de data voor de 5080?

Edit: en gefixed. Data laat nu zien dat prijzen onder oorspronkelijke msrp liggen.

[Reactie gewijzigd door Arjant2 op 16 mei 2025 14:16]

Gezien alle problemen bij team groen en de zeer teruggelopen vraag niet meer dan normaal ze moeten immers iets proberen.. en laten we niet vergeten dat procentueel gezien dit allemaal klopt maar de adviesprijs van een 9070 xt al velen malen normaler was als van een 5080 600 tov 999 is echt een groot verschil. Voor zo een royale prijs is 16 gb een klapt in het gezicht.. Vind het immers ook voor de 9070xt krap maar is een heel and r segment.
Uhm, ja joh, 2 compleet verschillende kaarten met elkaar vergelijken.. de prijzen van AMD liggen niet ver van vergelijkbare modellen van Nvidia.
Met de achterlijke prijzen van Nvidia is ook niet heel moeilijk om tot de adviesprijzen te komen, het enige wat daar nodig was is genoeg voorraad.
De prijzen van Nvidia zijn niet heel anders dan die van AMD voor vergelijkbare kaarten, dus overdrijven is ook een kunst.
Het is natuurlijk hoeveel waarde je hecht aan bepaalde features, maar er zit toch zo 100euro verschil tussen vergelijkbare kaarten. Niet te vergeten dat het verschil in adviesprijs nog groter is.

[Reactie gewijzigd door sjors_w op 15 mei 2025 23:53]

1379 videokaartmodellen lijkt me wel belachelijk veel. Als er 30 merken zijn die elk 40 modellen leveren zit je nog niet aan dat aantal :?
Ik volgde dit ook niet helemaal toen ik dat stukje las. Maar als ik de laatste alinea van het artikel lees vermoed ik dat ze er zo bij komen: Van de in het artikel genoemde AMD en Nvidea gpu's zijn er 350 uitvoeringen in de procewatch te vinden. Per uitvoering wordt bekeken bij hoeveel webshops deze uitvoering binnen 3 dagen leverbaar was en dit totaal zal dan tot 1379 optellen. Dan klinkt 1379 wel aannemelijk, dan zou een specifieke kaart gemiddeld bij ongeveer 4 webshops binnen 3 dagen leverbaar zijn.

Ik vind het wel een wat ongelukkige meetmethode en een niet zo veelzeggend getal, ondanks de uitleg in de laatste alinea van het artikel.
huh, ik zou juist zeggen dat minder dan 1400 kaarten op voorraad voor "heel Nederland" (lees landelijke webshops) juist bedroevend weinig is.
het is niet het aantal kaarten, maar aantal modellen, maar blijkbaar is het geen uniek aantal. Zo kunnen 100 shops hetzelfde model hebben, dan telt dit als 100 modellen 8)7
Voor velen komt het vakantiegeld er ook weer aan. Voor hen die niet op vakantie gaan het perfecte moment om een pc te kopen of upgraden. ;)
Boeiend. De AMD msrp is iets te hoog voor de 9070xt (75 euro wat mij betreft) maar de Nvidia kaarten zijn gewoon veel te duur op msrp.
En zolang intel een gpu kan verkopen voor nog niet de helft hoef je ook helemaal niets te geloven van het hele "het kan niet goedkoper" gehuil.

[Reactie gewijzigd door computerjunky op 16 mei 2025 03:46]

Het kan goedkoper, AMD heeft gewoon verkeerd ingezet, ze wilden de 9070XT eigenlijk voor 700 dollar op de markt doen, de klassieke "50 dollar onder NVidia", ze zijn het water gaan testen en gemerkt dat die prijs slecht ontvangen zou worden, dus een sticker van 600 dollar erop voor de lancering, en dit door middel van rebates naar merken en retailers voor een klein aantal eenheden mogelijk te maken.
Hiermee dus positieve reviews binnen slepen, maar uiteindelijk willen ze voor die prijs de kaarten niet verkopen.

Marges op dit soort producten liggen rond de 40% of hoger dus goedkoper KAN het zeker. Maar vertel eens aan je aandeelhouders dat je de marges gaat verkleinen met 75% naar nog maar 10% per kaart.
Geef kaptialisme de schuld 😁
Als dat ding rond de 650 in btw geweest was had hij al lang in mijn pc gezeten maar na uit pure wanhoop 1100 betaald te hebben voor mijn 6900XT ben ik simpelweg niet van plan nog zo veel te betalen voor een GPU.
En gezien de kaarten overal in de schappen liggen betekend dat ze niet flinke afname hebben. Met een goedkopere prijs hadden ze er meer verkocht en misschien netto meer winst gehad.

Ja je moet iets meer werk verzetten maar dat is hoe je marktaandeel wint. En marges zullen verschillen per gpu class. Als ik zo kijk naar de b580 vs 9070 dan kost een 9070 rond de 40% meer om te maken als een b580 en als intel een gpu in die klasse kon maken met eenzelfde marge had deze dus rond de 450 kunnen kosten. Met 600 a 650 retail hier hadden ze van de schappen gevlogen en hadden ze fors marktaandeel kunnen pakken (in vergelijking met wat ze nu hebben).

AMD lijkt alles tegelijkertijd te willen en zo werkt het simpelweg niet. je kan of markt aandeel winnen of winst maximaliseren en een leuk revenue vs profit getalletje presenteren aan je aandeelhouders zonder toekomstblik. Als aandeelhouders slim zijn snappen ze ook wel dat je met meer marktaandeel beter af ben. maarja aandeelhouders tegenwoordig hebben geen enkele bedrijfskennis lijkt het.
Dat klopt, de meeste aandeelhouders en ook managers willen goede kwartaalcijfers zien, dit kwartaal en het volgende. De kwartalen over 2, 4 of 10 jaar boeien ze helemaal niet, tegen die tijd melken ze weer iets anders uit.
Bij de 5090 zal ook wel meespelen dat die veruit de snelste videokaart is die je kan kopen en dat het de potentionele kopers niet echt veel uitmaakt of het nou €2300 of €2800 kost.. Lost daarvan is het me nog steeds niet duidelijk of de vraag naar de 5090 nou zo groot is, of dat Nvidia gewoon te weinig van die GPU produceert?

Ter info, een beetje mijn eigen gedachtegang qua videokaart upgrade.. Zelf heb ik een maand geleden al voor een RTX 5070Ti 16GB gekozen die ik voor (€889) adviesprijs kon kopen, als vervanging van een RTX 3080 10GB.. Snel genoeg voor wat ik wil kunnen draaien in games en omgerekend (met inflatie) kostte het ongeveer net zoveel als de 3080 eind 2020.. De 5080 vond ik net ff iets te duur voor niet echt een andere game-ervaring dan de 5070Ti, niet genoeg meerwaarde dus voor de gemiddeld €300 dat die meer kost.. Een 5090 biedt dat duidelijk wel en heb ik nog heel even over nagedacht, maar ik kon mezelf echt niet zover krijgen zo idioot veel geld uit te geven aan een videokaart die meer luxe is dan noodzaak.. Ik kan ook altijd over +/- 2 jaar weer upgraden als er mogelijk een nieuwe Nvidia 60-serie uit is die hopelijk wel weer een grotere stap vooruit is met o.a. een efficiëntere 3nm node.. Tot die tijd voldoet de 5070Ti prima (i.c.m. mijn 3840x1600 160Hz monitor).. Een AMD 9070XT nooit echt overwogen omdat ik wel tot zo'n €1000 wil gaan voor een videokaart en de 5070Ti daarin de betere keuze is (betere raytracing prestaties en veel bredere support voor DLSS in games dan FSR).. Prijsverschil is ook te klein om echt een factor te zijn..


Om te kunnen reageren moet je ingelogd zijn