'AMD: RX 9070 XT verliest nipt van RTX 5070 Ti, maar wordt 22 procent goedkoper'

AMD's nieuwe Radeon RX 9070 en 9070 XT worden op 6 maart uitgebracht. De Radeon RX 9070 gaat omgerekend 638 euro kosten, de RX 9070 XT krijgt een adviesprijs van 696 euro. AMD claimt dat het topmodel ongeveer twee procent langzamer is dan Nvidia's RTX 5070 Ti.

RDNA 4-architectuur: verbeterde compute-units, raytracing en AI

AMD kondigde de Radeon RX 9000-serie vrijdagmiddag aan tijdens de 'All You Need for Gaming'-livestream. De RX 9000-videokaarten maken gebruik van de RDNA 4-architectuur, waarmee betere prestaties in zowel gaming als AI worden beloofd. RDNA 4 heeft volgens de fabrikant een reeks verbeteringen in de compute unit, de raytracing accelerators en de AI-versnelling doorgevoerd. De vernieuwde compute unit moet door een efficiëntere werking hogere kloksnelheden mogelijk maken en van een slimmer geheugenbeheer gebruikmaken. Dat laatste bevordert ook de AI- en raytracingprestaties, waarbij ondersteuning voor fp8 een nieuwe toevoeging is naast de verbeterde fp16- en int8-prestaties. Door dynamische allocatie van de registers worden de shaders veel beter benut, wat de efficiëntie eveneens moet verbeteren.

AMD Radeon RDNA 4AMD Radeon RDNA 4AMD Radeon RDNA 4AMD Radeon RDNA 4

Navi 48-gpu uit één stuk

De RX 9070 en 9070 XT maken gebruik van de Navi 48-gpu, een chip met een oppervlakte van 357mm² en 53,9 miljard transistors. AMD is hierbij afgestapt van het chiplet-ontwerp dat de RX 7000-serie kenmerkte. Volgens de fabrikant valt de balans tussen meerdere kleine en dus goedkopere chips tegenover de complexiteit van fabricage in het voordeel van een monolithische chip uit voor het prijssegment dat de RX 9000-serie moet gaan bedienen.

AMD Radeon RX 9070 performanceAMD Radeon RX 9070 performanceAMD Radeon RX 9070 performance

Specificaties en prijzen Radeon RX 9070 XT en RX 9070

De RX 9070 XT krijgt de volledig ingeschakelde Navi 48-gpu met 64 compute units en 4096 stream processors. De boostkloksnelheid komt uit op 2970MHz en het tdp bedraagt 304 watt. Bij de RX 9070 zijn er 56 compute units en dus 3584 stream processors actief. Op dit model is de boostklok maximaal 2540MHz, het tdp is 220W. Beide videokaarten beschikken over 16GB GDDR6-geheugen dat op 20Gbps werkt en gekoppeld is aan een 256bit geheugenbus. De totale geheugenbandbreedte komt daarmee uit op 640GB per seconde. Navi 48 heeft 64MB Infinity Cache aan boord, dat ook op de RX 9070 volledig actief is. De RX 9000-serie is AMD’s eerste reeks videokaarten met ondersteuning voor PCI-Express 5.0; daarvoor geschikte processors en moederborden zijn al geruime tijd beschikbaar.

De Radeon RX 9070 krijgt een adviesprijs van 549 dollar. Dat is omgerekend en inclusief btw 638 euro. Voor het topmodel, de RX 9070 XT, adviseert AMD een prijs van 599 dollar. Dat is omgerekend en inclusief btw 696 euro. AMD verkoopt zelf geen referentiekaarten van de nieuwe serie, dus de prijzen in de praktijk zullen afhangen van wat AMD's partnerfabrikanten en winkels doen.

AMD: RX 9070 XT is 42 procent sneller dan RX 7900 GRE op 4k

Volgens AMD moet de RX 9070 gemiddeld 21 procent sneller zijn dan de RX 7900 GRE op 4k met ultra-settings, terwijl de RX 9070 XT deze gpu met gemiddeld 42 procent moet voorblijven. Op basis van de prestatiedata van Tweakers zou dat betekenen dat de RX 9070 gemiddeld even snel is als de RX 7900 XT, en dat de RX 9070 XT gemiddeld de RX 7900 XTX evenaart. In games die gebruikmaken van raytracing, zou de prestatieverbetering nog hoger liggen, dankzij de verbeterde RT-accelerators.

AMD Radeon RX 9070 XT performanceAMD Radeon RX 9070 XT performanceAMD Radeon RX 9070 XT performance

Tijdens de livestream toonde AMD ook een rechtstreekse vergelijking met de Nvidia GeForce RTX 5070 Ti. Daarin verliest de RX 9070 XT in een test van dertig games met 2 procent. Dat komt voornamelijk door de titels die gebruikmaken van raytracing, waarin de 5070 Ti in de meeste gevallen sneller is. Gebaseerd op de adviesprijzen, wordt de RX 9070 XT bijna een kwart goedkoper dan de 5070 Ti.

AMD Radeon RX 9070 XT vs RTX 5070 Ti

Nieuwe, RDNA 4-exclusieve upscalingtechniek

Samen met de RX 9070 en 9070 XT geeft AMD ook meer details over FSR 4. De nieuwste versie van deze upscalingtechniek is ontwikkeld voor RDNA 4-kaarten. Zodra FSR 4 wordt uitgebracht, moeten meer dan 30 games ondersteuning hiervoor bieden. De implementatie ervan moet volgens AMD relatief makkelijk gaan omdat de api voor FSR 3.1 hiervoor wordt bijgewerkt. Tenslotte is de Media Engine verbeterd ten opzichte van RDNA 3 en oudere kaarten. De encodingkwaliteit is voor zowel h264 als h265 en av1 verbeterd bij een gelijke bitrate.

AMD Radeon RDNA 4 featuresAMD Radeon RDNA 4 featuresAMD Radeon RDNA 4 features
Videokaart Radeon
RX 9070 XT
Radeon
RX 9070
Radeon
RX 7900 XTX
Radeon
RX 7900 XT
Radeon
RX 7900 GRE
Radeon
RX 7800 XT
Gpu Navi 48 Navi 48 Navi 31 Navi 31 Navi 31 Navi 32
Gpu-architectuur RDNA 4 RDNA 4 RDNA 3 RDNA 3 RDNA 3 RDNA 3
Diesize 356,5mm² 356,5mm² 300mm² gcd
+
6x 37mm² mcd
300mm² gcd
+
5x 37mm² mcd
300mm² gcd
+
4x 37mm² mcd
200mm² gcd
+
4x 37mm² mcd
Aantal transistors 53,9 miljard 53,9 miljard 57,7 miljard 55,8 miljard 53,8 miljard 28,1 miljard
Compute-units 64 56 96 84 80 60
Stream processors 4.096 3.584 6.144 5.376 5.120 3.840
Boostclock 2970MHz 2540MHz 2500MHz 2400MHz 2245MHz 2430MHz
Geheugen 16GB GDDR6 16GB GDDR6 24GB GDDR6 20GB GDDR6 16GB GDDR6 16GB GDDR6
Geheugenbus 256bit 256bit 384bit 320bit 256bit 256bit
Geheugensnelheid 20Gbit/s 20Gbit/s 20Gbit/s 20Gbit/s 18Gbit/s 19,5Gbit/s
Geheugenbandbreedte 640GB/s 640GB/s 960GB/s 800GB/s 576GB/s 624GB/s
Infinitycache 64MB 64MB 96MB 80MB 64MB 64MB
Tdp 304W 220W 355W 315W 260W 263W
Interface PCIe 5.0 x16 PCIe 5.0 x16 PCIe 4.0 x16 PCIe 4.0 x16 PCIe 4.0 x16 PCIe 4.0 x16
Adviesprijs € 696 € 638 € 1159 € 1049 € 619 € 549
Releasedatum 6 maart 2025 6 maart 2025 13 december 2022 13 december 2022 27 februari 2024 6 september 2023

Door Reinoud Dik

Redacteur

28-02-2025 • 14:00

446

Lees meer

Reacties (445)

445
436
123
10
0
222
Wijzig sortering
De gelekte info die we al zagen klopte dus.. De 9700XT levert 7900XTX rasterization prestaties met duidelijk betere raytacing prestaties waarmee hij in de buurt komt van de Nvidia RTX 5070Ti.. En dan FSR4 erbij met veel betere ML-based upscaling wat hopelijk qua beeldkwaliteit ook in de buurt van DLSS4 komt en AMD heeft een winnaar in handen.. Nu maar hopen dat ze er genoeg van kunnen leveren en je deze kaarten echt voor adviesprijs kan kopen straks.. Als dat zo is dan ga ik denk ik wel een 9700XT kopen na heel veel jaren Nvidia gebruikt te hebben.. Laatste keer dat ik een AMD videokaart kocht heette het nog ATI.. Ik ben een beetje klaar met Nvidia en hun beleid qua leveringen en prijzen.. 900-1000 euro voor een 5070Ti slaat nergens op, laat staan de nog hogere belachelijke prijzen die de retail er nu nog voor vraagt.. De gewone 5070 is straks ook DOA met deze 9700 en 9700XT als concurrentie, want die gaat het afleggen qua perstaties voor een hogere prijs.. De gewone 9700 lijkt me trouwens ook DOA met zo'n klein prijsverschil naar de XT versie..

Een 9700XT net zo snel als een 5070Ti voor rond de €700 euro lijkt me een no-brainer.. Maar we wachten het allemaal nog even rustig af..

[Reactie gewijzigd door Inflatable op 28 februari 2025 16:15]

Alle 5070Ti kaarten zijn volgens Pricewatch geïntroduceerd voor 1450 euro of meer en de goedkoopste is momenteel gezakt naar 1350 euro. Dat terwijl volgens Tweakers/Nvidia de introductieprijs 889 euro zou worden.

1450 euro is een stijging van 63% tov de officiële prijs van 889 euro! Als dat met de 9070XT gebeurt komt hij volgende week niet voor 696 euro, maar voor 1134 euro op de markt...

[Reactie gewijzigd door lordawesome op 28 februari 2025 16:43]

Toch pakt AMD hier een prachtige midrange kaart. Alleen hoop ik dat de prijzen niet te ver zullen stijgen en dan kan Nvidia het wel eens benauwd gaan krijgen op midrange gebied. Ik vind 696 euro voor zo'n kaart best betaalbaar. FSR4 mag er ook zijn zoals ik het zie.
"prachtig"...
Mja, in het huidige klimaat snap ik dat het er ok uit kan zien voor wie nu een kaart nodig heeft... Maar het is nét iets goedkoper dan waar een 7900XT al tijden voor te krijgen is (of misschien niet eens, sommige modellen 7900XT zijn onder de 700 geweest), voor nét iets betere rasterization performance, mínder vram (iets waar Nvidia steeds voor afgefakkeld wordt maar bij AMD hoor je er nu niemand over?) en dan verder alleen wat betere raytracing en AI performance.
Tja, het is tenminste een verbetering, als ze het allemaal waar maken en de prijzen niet de lucht in schieten... Maar AMD zet volgens mij lekker de trend door van de slechtste nieuwe generatie ooit, met grote afstand...
(iets waar Nvidia steeds voor afgefakkeld wordt maar bij AMD hoor je er nu niemand over?)
Dit is gewoon weg niet waar. Bij kaarten waar het een probleem is krijgt AMD net zo veel kritiek. Bij de 7600 was er evenveel kritiek op 8GB als bij de 4060 en ook bij de 7700XT was er redelijk wat kritiek op "slechts" 12G. Nou mag het zo zijn dat tegenwoordig 16GB in alle (gaming) situaties voldoet. Zeker op 550USD is 16GB gewoon een gepaste hoeveelheid. En net zo goed op 600USD. Dat waren ook altijd de hoeveelheden die van nVidia op die prijspunten werden geeist en die levert AMD nou eenmaal. Als de 9070 XT 1000USD zou kosten, dan zou ook daar weer de klacht opkomen dat 16GB wel een beetje magertjes is en 20-24GB gepaster zou zijn. Maar die kritiek was ook bij de 5080 zeer mild.

Is het een stap vooruit? Uiteraard niet. Maar de reden dat reviewers over VRAM klagen is als de hoeveelheden te laag zijn. Meer VRAM omwil van grotere getallen is net zo min wenselijk voor consumenten omdat het onnodig de kosten en daarmee prijzen opdrijft. Feit is dat 12GB inmiddels duidelijk niet meer genoeg in moderne high-end games is maar 16GB wel. En dat gaat ook niet massaal veranderen tot de volgende volledige generatie consoles een tijd op de markt is (die waren immers ook de drijvende kracht achter de ontwikkeling richting 12-16GB als optimum).
Ja, daar heb je op zich ook een punt mee. Het is denk ik vooral dat ik nu een 7900XT heb en de nieuwe generatie daarom totaal niet op mij gericht is. Er is feitelijk geen nieuwe generatie in het segment waar ik zit, althans aan AMD kant.
Het lijkt mij sowieso nooit handig om elke generatie een upgrade te doen.
Dat klopt, en ik zit ook niet op hete kolen om iets anders te kopen of zo hoor... Maar ik bedoel dat het mijn beeldvorming kleurt. Ik denk dat veel mensen zich helemaal niet realiseren dat je het afgelopen jaar gewoon al een 7900XT voor €700 had kunnen kopen. Maar als je dat in aanmerking neemt, dan zie ik niet hoe je nou echt enthousiast kunt worden van een nieuwe kaart die ook €700 gaat kosten, ongeveer dezelfde performance biedt, op sommige punten (raytracing, AI) wat beter, op andere wat minder (geheugen en geheugenbandbreedte).
Specifiek het geheugen is inderdaad wel begrijpelijk als je bedenkt dat het geen high-end kaart is maar een subtopper, en dus meer een opvolger van de 7800XT dan de 7900XT. Maar alsnog vind ik de prijs dan dus niet zo geweldig, want die 7900XT zat de laatste tijd ook op dat prijspunt. Adviesprijs tegen straatprijs natuurlijk, maar momenteel is de verwachting eerder dat die straatprijs juist hoger wordt. Maar het is afwachten wat de prijzen echt gaan doen.
Ja eigenlijk is het wel waar wat je zegt.
In vergelijking met de de 5070 ti lijkt dit wel een betere prijs, maar dat maakt deze kaart opzich nog niet een goede deal natuurlijk.

Persoonlijk heb ik nu nog een RTX 2070 in mijn bezit die ik dit jaar een upgrade wilde geven en 7900XT zat ik al over te twijfelen. Dus in dat opzicht voor dezelfde prijs is de 9070 wellicht toch een goede optie. (als de prijs ook daadwerkelijk 700 euro is).
Bij een nieuwe generatie verwacht je eigenlijk toch wel iets meer performance winst.
Ik hoopte dat de 9070 XT toch net iets sneller zou zijn dan de 7900 XTX en de 4080, maar dat lijkt helaas niet het geval te zijn.
Ja in jouw geval denk ik dat de 9070XT een hele goede optie gaat zijn, mits de prijzen zich gedragen.
En bij gelijke prijs is het nu denk ik nog steeds wel de betere optie hoor, tenzij je echt helemaal niks om raytracing en AI generated frames en upscaling geeft. Maar raytracing wordt langzaam maar zeker in meer games verplicht in bepaalde mate en de nieuwe upscaling is afwachten hoe goed het is... maar beter wel de optie hebben dan niet natuurlijk. Je mist nu niks aan niet al naar zo'n oudere kaart gegaan te zijn (nogmaals, mits de prijzen zich gedragen), mijn enige punt is dat het nou ook niet de redding is waar we op zaten te wachten.
Ik kijk al 1.5 naar 7900 Xt. Mijn instant buy prijs was 650€ voor 700€ zou ik het overwegen, maar die kwam pas nadat RX 9070 xt heel duidelijk vorm kreeg. Verbruik vind ik ook aan hoge kant, dus ik wachte af.

VRAM is slechter op 9070 xt en dat vind ik jammer, maar AL de rest is better, ze hebben voor sommige zaken ook betere comperssie, weet niet of dat voor register cache is (klein) of ram (groot) maar kan helpen. Verbruik is pakken beter, zeker met wat kloksnelheid van XT al omlaag te doen. FSR4, decoding, Ray tracing, AI, allemaal beter. Dus denk ik ik laatste ga kopen.

Ook als 599$ = 599€ (is gebeurt met 7900xt rond 700$/€) gebeurt, dan word de 9070 xt gemeengoed, qua prijs /performance. Hangt af van Nvidia voorraad, dat is de slechtste voorraad ooit, zeker als we ineenstorting van 4000 series voorraad meenemen.
Dit is natuurlijk wel iets wat bij heel veel GPU launches gebeurt, MSRP vs MSRP is het een vooruitgang, maar de prijsverlagingen van de oude generatie maken het verschil veel kleiner of gelijk. Dit zie je eigenlijk sowieso de laatste 5 jaar al wel gebeuren. Vooral op generaties welke op hetzelfde of een vergelijkbare proces node gebouwd worden (5 vs 4 nm, waarvan 4nm een verbeterde versie is van 5nm). De volgende generatie zal wel op 2 of 3mn gebouwd worden, een echt andere node, dan zie je ook de grotere sprongen in prestatieniveaus, en dus ook grotere sprongen in de prijs/prestatie index. Wat trouwens niet de prijs/prestatie resultaten van de nieuwe Nvidia kaarten goed praat...
Ja, dat stemt bij ook droevig inderdaad. Ik had echt gehoopt deze generatie mijn 3090 met pensioen te kunnen sturen. Maar nVidia vraagt de hoofdprijs (4k+) voor de GPU die een goede upgrade zou zijn (5090) en AMD probeert niet eens met een kaart de komen die noemenswaardig sneller is dan mijn 4.5 jaar oude GPU. Tuurlijk, in rasterized games zal de 9070XT een stuk sneller zijn maar als het bij RT straks 20% is, dan is ook AMD dus geen goede optie. Zeker als je erbij neemt dat FSR4 waarschijnlijk nog steeds op DLSS4 achterloopt en je dus bij de Radeon ook gewoon meer ruwe performance nodig hebt voor hetzelfde resultaat.
Feit is dat 12GB inmiddels duidelijk niet meer genoeg in moderne high-end games is maar 16GB wel.
Eh? Hoe is dat niet meer voldoende? Het is nog geen 5 jaar geleden dat de 3080 met 10 en 12Gb uitkwam.
5 jaar is best wel een tijdje in hardwareland. Bovendien zijn er inmiddels tal van voorbeelden waar de 3080 met brede marges het nazien heeft tov van de 6800XT die destijds zijn directe concurrent was, puur vanwegen die 10GB vs 16GB bij de AMD kaart. Daar komt ook de kritiek op 16GB bij de huidige generatie (zeker bij de 5080, maar in mindere mate ook bij 5070 Ti en 9070 XT)
5 jaar is best wel een tijdje in hardwareland.
We zitten anders wel nog steeds met dezelfde console generatie en dus dito hardware. Kan dus nog best wel ff duren.
Tuurlijk, de console cycle is tegenwoordig ergens rond de 7 tot 8 jaar met een refresh nabij het midden. En laat de consoles nou net 16GB hebben waardoor de 10GB van de 3080 al bij launch gedateerd waren en ook toen al werd opgemerkt dat het eigelijk 12GB had moeten zijn (zeker ook omdat 10GB een stap terug was van de 1080Ti en 2080Ti die beide 11GB hadden). En juist die 16GB in de consoles zorgen er nu voor dat ontwikkelaars ook veel meer VRAM benutten dan voorheen. Als de huidige generatie consoles 12GB of 8GB had gehad, dan waren 12gb of 8GB GPUs waarschijnlijk nog prima voldoende. Maar ze zijn nou eenmaal bij 16GB en er zijn inmiddels games die niet meer voor Xbox verschijnen (of alleen met veel vertraging) omdat daar door de Series S ook ondersteuning voor 12GB moet zijn. Denk aan Black Myth: Wukong bijvoorbeeld. Die game is inmiddels 7 maanden uit en er is nog steeds geen releasedatum voor de Xbox.
En dat gaat ook niet massaal veranderen tot de volgende volledige generatie consoles een tijd op de markt is (die waren immers ook de drijvende kracht achter de ontwikkeling richting 12-16GB als optimum).
Eerder beperkende kracht i.p.v. drijvende. Omdat de capaciteit van hardware in het algemeen de beperkende factor is.
Het hele punt is dat een systeem maar zoveel kan verwerken en het is ook een feit dat consoles dat voor voldoende frames op 4K in sommige games ook alleen kunnen bereiken met upscaling technieken.
Voor PC wordt vaak gezegd dat upscaling en al helemaal de nieuwe frame generation technieken ongewenst zijn. Je betaalt ten slotte veel geld voor een GPU waarvan verwacht wordt dat die 'echte frames' levert.

Het zou vrij logisch moeten zijn dat het voor ontwikkelaars geen enkel nut heeft om games te maken die 20GB of meer nodig hebben als misschien maar 2% van alle systemen dat daadwerkelijk kan verwerken. Maar zelfs bij de nieuwste, beste GPU's stort het aantal frames in als men gebruik wil maken van de nieuwste softwaremogelijkheden maar geen DLSS of FSR wil gebruiken.
Wat op dit moment overduidelijk zichtbaar is is dat game-ontwikkelaars stappen zetten om die grenzen wat op te rekken. Game-engines worden aangepast voor die nieuwe technieken en de aanbevolen systeemeisen gaan omhoog. En er komt een moment dat ze het compleet beu zijn nog rekening te te houden met systemen die lomp gezegd niet meer van deze tijd zijn, omdat het enorm veel tijd en geld kost.
Een hoop games komen al met een 'recommended' suggestie van 16GB waardoor je dus met de meeste nieuwe kaarten die nu aangekondigd zijn net op het randje zit.

Het is ook maar afwachten of er überhaupt nog een nieuwe generatie consoles komen op de manier zoals dat tot nu toe gebeurd is omdat het gewenste prijspunt qua hardware simpelweg niet meer haalbaar is. Zoals al zichtbaar is bij de PS5 Pro.
Het verdienmodel van die consoles (hardware op, of zelfs onder kostprijs verkopen, en winst maken op games) moet dan aangepast worden, met eigenlijk als enige optie dat de prijs van games omhoog gaat.
Iets waar al naar gehint wordt met de geruchten dat GTA 6 €100 gaat kosten om de voorzet te geven.

Wat duidelijk is is dat een systeem dat native 4K 60Hz moet kunnen renderen met dingen als pathtracing e.d. niet haalbaar is voor de prijs die de gemiddelde gamer er voor wil of kan betalen. Nvidia lijkt al helemaal geen boodschap te hebben aan de consument maar zowel zij als AMD sturen de hele gamesmarkt naar die max van 16GB op basis van een afhankelijkheid van DLSS en FSR.
Maar die kritiek was ook bij de 5080 zeer mild.
Niet echt. Het zal minder opgevallen zijn omdat de xx80 versies al langer kritiek krijgen (3080 10GB !) en de kritiek over VRAM voor specifiek de 5080 een beetje weg viel tussen alle andere kritiek over de performance in het algemeen en het hele frame generation verhaal.
Van dé 'high-end' kaart, de beste kaart met uitzondering van die ene, onbetaalbare topkaart, zou je redelijkerwijs mogen verwachten dat het ding een beetje futureproof is, sowieso wat meer mogelijkheden geeft dan de goedkopere GPU's of een games-console maar bovenal niet een domme beperking heeft die iedereen die ook maar enigszins wat met het ding wil doen dat meer dan 16GB VRAM nodig heeft naar een 5090 dwingt. Want er is meer dan alleen games.
Het is ook jammer om te zien dat ook AMD hier met de nieuwe kaarten niet in tegemoet komt.
Eerder beperkende kracht i.p.v. drijvende. Omdat de capaciteit van hardware in het algemeen de beperkende factor is.
Hoe je draait of keert (en jij zegt gewoon precies hetzelfde als ik): consoles dicteren (zowel kwa geheugen als kwa rekenkracht) waar ontwikkelaars hun meeste aandacht besteden EN met welke beperkingen ze rekening houden. Aan het begin van een generatie zijn ze zeer stevig vergeleken met de gemiddelde PC (was in 2020 ook het geval), tegen het midden worde ze wat zwakker en aan het einde zijn ze driedubbel ingehaald door PCs. Dat is niks nieuws onder de zon.
Wat op dit moment overduidelijk zichtbaar is is dat game-ontwikkelaars stappen zetten om die grenzen wat op te rekken. Game-engines worden aangepast voor die nieuwe technieken en de aanbevolen systeemeisen gaan omhoog. En er komt een moment dat ze het compleet beu zijn nog rekening te te houden met systemen die lomp gezegd niet meer van deze tijd zijn, omdat het enorm veel tijd en geld kost.
Een hoop games komen al met een 'recommended' suggestie van 16GB waardoor je dus met de meeste nieuwe kaarten die nu aangekondigd zijn net op het randje zit.
Dat is ook allemaal niks nieuws onder de zon. Maar wat voor het gros van de gevallen echt niet gaat gebeuren is dat game ontwikkelaars spellen maken die op geen hardware draaien. Daar heeft niemand iets aan en hoe zuur ze het misschien vinden dat ze niet altijd alles kunnen doen, ze zitten daarmee net zo opgescheept als wij games die de passende hardware niet kunnen kopen (en/of betalen).

En laten we even eerlijk zijn, er zit zat ruimte voor optimalisaties in moderne games en engines omdat er door de opkomst van DLSS en met name FSR (again, consoles) meer tijd aan andere dingen dan prestaties werd besteed.
Het is ook maar afwachten of er überhaupt nog een nieuwe generatie consoles komen op de manier zoals dat tot nu toe gebeurd is omdat het gewenste prijspunt qua hardware simpelweg niet meer haalbaar is. Zoals al zichtbaar is bij de PS5 Pro.
Te zeggen dat de PS5 Pro €800 kost omdat ie niet minder kan kosten is wel een beetje erg goedgelovig richting Sony. De reden dat de PS5 Pro €800 kost is voornamelijk dat Sony de consoles wars gewonnen heeft. Xbox is inmiddels nauwelijks meer een voetnoot. En Microsoft heeft dit keer ook niet meegedaan met de mid-cycle Pro/X refresh. Dat maakt Sony praktisch tot monopolist en zo gedragen ze zich dan ook. Oftewel prijs omhoog, want welke andere console ga je kopen? Dat is echt textboek monopolistengedrag. De PS5 Pro had Sony ook voor €600 kunnen verkopen. Waar waarom zouden ze?
Het verdienmodel van die consoles (hardware op, of zelfs onder kostprijs verkopen, en winst maken op games) moet dan aangepast worden, met eigenlijk als enige optie dat de prijs van games omhoog gaat.
Iets waar al naar gehint wordt met de geruchten dat GTA 6 €100 gaat kosten om de voorzet te geven.
Dat de prijs van games met de tijd stijgt is ook niet gek. GTA 6 zal een van zo niet de game zijn, waar het meeste werk ooit is in gestoken. €100 is in feite niet veel meer dan een inflatieaanpassing (+waardeverlies van de Euro de afgelopen jaren). €100 is een behoorlijke psychologische barriere, maar het neemt niet weg dat het economisch gezien helemaal niet absurd is en gemeten aan de veranderingen aan de koopkracht de afgelopen jaren games steeds goedkoper werden met de max sticker prijs van ~€80 die we al sinds pakweg 2019/20 hebben.
Niet echt. Het zal minder opgevallen zijn omdat de xx80 versies al langer kritiek krijgen (3080 10GB !) en de kritiek over VRAM voor specifiek de 5080 een beetje weg viel tussen alle andere kritiek over de performance in het algemeen en het hele frame generation verhaal.
In del allermeeste reviews was het toch echt meer een afterthought (zo van "oh en ja, we hadden graag 24GB gezien voor €1000". Maar nVidia is nog meer monopolist dan Sony. En maakt daar gretig gebruik van. Als AMD wat steviger in z'n schoenen stond, dan zou de 5080 een stuk sterker zijn en 24GB hebben. Maar de achterstand in marktaandeel die AMD de afgelopen 10 jaar heeft opgelopen is gewoon gigantisch.
Het is ook jammer om te zien dat ook AMD hier met de nieuwe kaarten niet in tegemoet komt.
Ja, dat is jammer. Maar AMD was natuurlijk expliciet erin dat ze in het middensegment willen concurreren. Niet in de high-end. Niet in de halo-tier. En in het middensegment is 16GB gewoon prima. Deze kaart kost even veel als een 4070 Super ($50 meer dan de 5070 die iets langzamer zal zijn dan de 4070S) en zal ~40% meer ruwe prestaties bieden en 33% meer VRAM.

Het was mooit geweest als ze een 9080 of 9090 hadden geprobeerd. Hopelijk zijn ze met de volgende generatie terug.
Gta 6 100,- vind ik nog steeds een koopje, gta 5 speel ik nog steeds met veel plezier en steeds weer nieuwe dingen ontdekken. En deze week komt er volgens mij weer een hele nieuwe update aan.

Ik denk dat zoals een cod die elk jaar weer komt met een nieuw verhaaltje en iets betere gameplay/grafische weergave niet die 100,- mag vragen. Maar gta met al die jaren werkt wel.
gta 5 speel ik nog steeds met veel plezier
En dat geld voor heel veel mensen.
Ik ben geen online speler en vond het daarom enorm jammer dat er naast de story-mode niets zinnigs meer te doen is in die wereld.
Maar dat rijst wel de vraag waarom het spel zelf (zonder online) zo prijzig moet zijn.
Sowieso is het zowat een garantie dat van GTA 6 in de eerste paar dagen tientallen miljoenen stuks verkocht worden en het productiebudget op dag 1 al ruimschoots terugverdiend gaat zijn. En daarbovenop komen dan nog de potentiële miljarden aan online verdiensten middels microtransactie, shark-cards of hoe ze het dan ook noemen.

Ik ben het grotendeels eens met de redenatie dat een zeer goed spel dat maanden en zelfs jaren spelplezier kan bezorgen best wat mag kosten. Ik heb dan ook geen enkele moeite om geld uit te geven aan bijv. een Skyrim Special Edition of Mass Effect Legendary Edition en feitelijk hetzelfde (ietwat opgepoetste) spel voor de 2e keer koop.
Voor vele honderden uren vermaak is dat in principe nog steeds een koopje en ik kan geen andere activiteit verzinnen die qua verhouding ook maar in de buurt komt.
En ja, dat is achteraf, al wetende wat en hoe het spel is en de wetenschap dat je er zoveel tijd aan gespendeerd hebt.
Het is voor dat soort games erg moeilijk om achteraf, als mensen al betaald en gespeeld hebben nog geld los te peuteren.
Achteraf kun je best zeggen dat bijv. Skyrim meer dan €40 waard is/was maar daar had je in 2011 niets aan.

Het probleem is dat die €100 afwijkt van de 'standaard' prijs die normaal voor games gehanteerd wordt, die niet bepaald wordt door speelduur of ontwikkelingsbudget, enkel om dikke vette winst te maken en als bijkomend effect de mogelijkheid daarvoor open te zetten voor andere games, eventueel van andere studio's.
Voor GTA 6 kun je wel enigszins zeggen dat dat vele uren vermaak bezorgd maar dat moet niet een standaard uitgangspunt worden voor alle games, zoals nu €70 voor sommige consolegames al teveel lijkt.
Te zeggen dat de PS5 Pro €800 kost omdat ie niet minder kan kosten is wel een beetje erg goedgelovig richting Sony.
Er waren en zijn gewoon omstandigheden waarom die prijs omhoog moest. En die hogere prijs was ook de reden waarom Microsoft het niet heeft gedaan omdat productie voor hen nog duurder was.
Het was in 2020 met de launch van de huidige generatie al zeer onverwacht dat het 'standaard' prijspunt van $499 aangehouden werd, omdat dat overduidelijk onder kostprijs was en zoals we allemaal weten zijn de prijzen van o.a. hardware niet gelijk gebleven.
Sony gaf in 2022 zelf al aan dat productiekosten in 2 jaar tijd nog eens 20% gestegen waren.
De Pro werd bovendien in de markt gezet als optie voor veeleisende gebruikers die wat meer willen besteden (net zoals je dat bij PC's hebt) en dus niet per se bedoelt voor de massa. Daardoor kon die ook een realistischer prijspunt krijgen.
Laten we wel even realistisch blijven en niet net doen alsof €600 een realistische prijs is voor wat de PS5 Pro doet.
Dat de prijs van games met de tijd stijgt is ook niet gek.
Dat is het feitelijk wel. Omdat games, ongeacht de tijd en geld die er in is gestoken of inflatie e.d., net als de consoles zelf, altijd een min of meer vast prijspunt hebben gehad dat gebaseerd is op wat men gemiddeld kan en wil betalen.
Als er de afgelopen jaren iets uit de hand gelopen is dan zijn het wel de productiebudgetten van games bij grote studio's.
Ik volg niet hoe je voor de PS5 Pro kunt concluderen dat het monopolistengedrag betreft maar voor een GTA 6 helemaal prima logisch te beredeneren is. Zoals je zelf zegt, "welke andere console ga je kopen?", vraag ik je welke andere GTA 6 ga je kopen?
Gezien de inflatie en gedaalde koopkracht is het logisch dat de prijs van een luxe-artikel als consoles of games juist niet stijgt. Helemaal als je in acht neemt dat de stabiliteit van die prijzen mede mogelijk is door de gestegen aantallen verkopen, een groeiende markt.
En als we economische marktwerking in acht nemen en uitgaan van een winstprognose is het helemaal absurd, omdat je dan zou verwachten dat precies een GTA 6 nog goedkoper zou kunnen zijn.
Het heeft er alle schijn van dat het spel een nieuw record kan zetten qua verkopen en in 1 dag tijd een miljard op kan leveren. Er is geen enkele reden (behalve dikke vette winst) waarom dat spel €88, laat staan €100 zou moeten kosten.
Precies voor een game als GTA 6 is de gedachte dat miljoenen mensen het spel toch wel kopen, ook voor €100, waarmee men tevens een precedent schept voor alle ander games met een hoog productiebudget.
Met GTA 6 komen ze daar (helaas) wel mee weg. Of het het waard is is een andere discussie.
Maar je kunt je rustig afvragen wat die prijsverhoging en daarmee een hogere aankoopdrempel zou doen voor andere games.
Sony gooit nu al regelmatig games op de markt voor €60-€70 die gevoelsmatig dat geld niet waard zijn.
Hoewel Sony daar niet de enige in is en met hun constructie een beter kwaliteitsniveau lijken te kunnen handhaven dan veel andere uitgevers en studio's.
toch echt meer een afterthought
Meer op de manier zoals je na een paar weken niet meer iedere dag over Oekraïne hoort in het nieuws. Het probleem is er nog steeds, maar er zijn andere dingen die nu meer het vermelden waard zijn.
De 5080 kost ook geen €1000. Het is $999 / */- €1200 voor de FE en onbekend hoeveel meer voor de versies van andere fabrikanten. En zoals het er nu uitziet zit het er dik in dat er de eerste 9 maanden geen onder de €1500 te koop zullen zijn.
Maar de achterstand in marktaandeel die AMD de afgelopen 10 jaar heeft opgelopen is gewoon gigantisch.
Op specifiek het gebied van GPU's voor PC's dan? Qua CPU's doen ze het bijzonder goed en ze zijn nog steeds de go-to voor de consoles.
Het is ook een erg lastig product waarmee ze niet alleen qua technologie dezelfde pas aan moeten houden als de concurrent maar ook met software developers moeten regelen dat hun hardware ondersteund wordt en er moet voldoende marge op zitten zodat de daadwerkelijke fabrikanten er nog wat op kunnen verdienen.
En dat in een markt die praktisch volledig bepaald wordt door de concurrent.

Natuurlijk is concurrentie wenselijk, maar zoals nu bij een reus als Intel zichtbaar is kost het miljarden om alleen al op het budget-niveau een beetje bij te blijven en is het bijzonder lastig om een goede reputatie op te bouwen, laat staan vast te houden.
Nvidia lijkt aan de andere kant helemaal niets meer om hun reputatie te geven en ik denk dat iedereen het er wel mee eens is dat ze hun positie misbruiken.
En in het middensegment is 16GB gewoon prima.
Over het algemeen wel. Maar je haalt die ene zin uit context.
Als je om wat voor reden dan ook behoefte hebt aan meer dan 16GB dan is er maar 1 optie en dat is een kaart van €3000, waar de 7900 XT met 24GB nog voor +/- €1000 zat.
Hoewel, er is wel een gerucht dat AMD misschien over een paar maanden met een 32GB versie komt.

Zoals ik al ergens zei; die 16GB is de begrenzing en is alleen genoeg omdat er gebruik wordt gemaakt van techniek om VRAM te beperken.
Met een toename in verwerkingssnelheid zou je verwachten dat de progressie richting native 4K of in ieder geval hogere resoluties dan 1080p eenvoudiger en zelfs goedkoper wordt, maar het tegendeel blijkt waar.
Heel lineair gedacht zou een game op 4K idealiter 4 maal zo veel VRAM kunnen gebruiken dan op 1080p. In theorie veel meer omdat er steeds nieuwe assets geladen worden natuurlijk en het op iedere resolutie (niet alleen in grootte maar ook in hoeveelheid) beperkt wordt, maar de wens/gedachte is dat je voor hogere beeldresolutie ook hogere resolutie textures hebt.
De grote vraag is dus nu waarom je een PC met een GPU van zeg €1000 zou willen die met DLSS, FSR, XeSS hetzelfde doet als een PS5 met PSSR. Waarom je met een PC die 3-4 maal zoveel kost als een console nog steeds beperkt en afhankelijk van optimalisaties bent.
Nvidia wordt afgefakkeld om de 5080 met 16GB, niet de 5070ti
Ja, dat snap ik. Maar het is wel een downgrade... Of, als je zegt AMD doet niet aan high-end en dus moet je niet vergelijken met de 7900 kaarten... dan gaat de prijs dus flink omhoog want dan ben je aan het vergelijken met een 7800XT die je voor 500 hebt. Ja de performance gaat ook omhoog, maar ik blijf er bij dat dit nog steeds geen geweldige stap vooruit is. Het is alleen omdat de situatie met Nvidia zo extreem slecht is dat dit in contrast goed lijkt.
Ja eens. De vraag is of ie daadwerkelijk voor 699 in de winkels ligt. Dan ga je in ieder geval relatief iets op vooruit tov een 7800 xt, en in RT nog wat meer. Maar vanaf 750 of meer wordt het al snel minder interessant
De 9700 xt maakt gehakt van de 7900 xt met raytracing. Zelfs de xtx heeft dan het nakijken. Bovendien is de 9700 xt een stuk zuiniger.

Zo magertjes als jij het voordoet is het iig niet.
Ja, "met raytracing". Dan moet je dat wel toevallig belangrijk vinden.
Dat vinden Nvidia kopers nu juist wel belangrijk. Hoe kleiner dat gat, hoe meer kans dat ze op de amd overstappen. Het helpt ook als de gpu net zo zuinig is. Nee, je geeft de 9070 XT te weinig krediet.

[Reactie gewijzigd door Madrox op 2 maart 2025 17:40]

Ja het is zeker goed dat AMD ook beter wordt in raytracing, dat ontken ik niet. Ik zou nu ook geen 7900XT meer kopen, dan beter meteen de 9070XT.

Maar ga jij me nu vertellen dat je blij bent dat we er qua raster performance niet tot nauwelijks op vooruit gaan qua prijs/performance?
Nee, maar dat komt vooral omdat het procede niet kleiner is geworden deze gen, bij beide niet.
Je vergelijking met Nvidia niet goed bij Nvidia was het de 4080 vs 5070 en die was slechter, hier gaat het over de 9700xt vs 7900xt, dat is een "mid vs high" kaart met betere performance, nieuwere generatie voor dezelfde prijs, dat is dus wel enige vooruitgang, bij Nvidia was die er simpelweg niet behalve op het hoogste prijsklasse.
Dat is de staat waar de markt helaas in verkeert, dat we 700 euro voor midrange betaalbaar vinden en het gunnen omdat het AMD is. Dit zou max 400 moeten zijn in mijn ogen, maar dat is blijkbaar niet te verantwoorden
Als je een beetje inflatie inrekent is dit hetzelfde als €450 in 2005 of €530 in 2015. En gemiddeld is de koopkracht van mensen in die tijd ook gestegen. Oftewel gemiddeld is een €400 GPU in 2005 niet noemenswaardig betaalbaarder geweest dan een €700 GPU vandaag de dag.
Mee eens. Daar ging die berekening ook over. Overigens is de koopkracht zeker niet toegenomen de laatste jaren. Cost of living is enorm gestegen en zeker niet evenredig met netto lonen.
Dat nemen heel veel mensen zo waar en misschien is dat voor jouw ook wel het geval. Maar de cijfers spreken op breed vlak een andere taal. Ja er was een mediaan daling in 2022 en er waren grote groepen die echt hard geraakt werden. Maar in 9 van de 12 afgelopen jaren was er een steiging van de mediaan en was de groep met een steiging (vaak duidelijk) in de meerderheid. Ik begrijp het gevoel (het bekruipt mij ook regelmatig in de supermarkt). Maar de lonen in veel CAOs zijn ook enorm gestegen en ook daarbuiten hebben blijkbaar veel werkgevers (tenmiste een deel) van de inflatie gecompenseerd. Als dat bij jou niet het geval is, heb je natuurlijk niks hieraan, maar uiteindelijk maken fabrikanten GPUs voor iedereen en zijn dat soort cijfers dus veel relevanter dan wat er in een specifiek geval gebeurd is.

[Reactie gewijzigd door Darkstriker op 1 maart 2025 12:17]

Als data analist heb ik hier een keer onderzoek naar gedaan. Dus cost of living vs. luxury/leisure en dan gecorrigeerd voor inflatie en afgezet tegen de loon medianen en marginale druk. In die cost of living zit een berekening van zowel huurlasten of hypotheeklasten die weer zijn gedaan o.b.v. van de corresponderende rente- en huizenmarkt en van toen.

Wat je ziet is dat de lonen bijna net zo sterk stijgen als de CPI en CoL, al dan met een sterke vertraging vertraging. Maar de belastingen zijn hier onvoldoende op bijgesteld waardoor de marginale druk groeide.

Kortom de koopkracht is voor de mediaan toch heel sterk gedaald terwijl bepaalde luxury items zoals videokaarten relatief veel stijgen. Nu wat anekdotischer bewijs; met mn huidige inflatie gecorrigeerde salaris had ik in 2004 comfortabel elk jaar een flagship PC kunnen kopen en genoeg overhouden voor andere Hobby's en spaardoelen. Met deze markt en situatie vind ik een midrange PC per 7 jaar al op de grens. Niet dat ik geen 5090 meer kan kopen, maar zelfs als die niet teleurstelde zal dat bedrag nooit alleen een videokaart waard zijn voor mij.
Ben wel benieuwd naar je analyse mits je die kunt delen. CBS gegevens vallen natuurlijk ook niet uit de lucht. Daar zitten ook analysten en verwerken de data (koopkracht is immers niet iets wat je echt rechtstreeks kunt meten).

Dat individuele producten uit de pas lopen met inflatie is natuurlijk ook niet gek. Het blijft een gemiddelde. Maar als je bijvoorbeeld een flagship AMD GPU (begin 2006 USD649 de X1900 XTX) neemt, dan is dat op zich niet heel ver weg met de gemiddelde inflatie in de VS (zou nu effectief $1040 en daarmee zeer dicht bij de 7900XTX). Voor nV kaarten kan ik uit die tijd geen MSRPs vinden. In de tussentijd is de markt natuurlijk ook een monopolie geworden. Dat drijft de prijzen op.
Heb deze voor een privé klant gemaakt dus mag deze helaas niet zomaar delen. Vond het gaanderweg ook wel een erg interessant onderwerp dus wellicht dat ik hem een keer voor mezelf bouw en actualiseer.

Klopt 649 voor de X1900XTX wel? Had hem zelf toen gekocht voor 460 euro vlak na launch en volgens TPU was die 399: https://www.techpowerup.com/gpu-specs/radeon-x1900-xtx.c147. Aangezien dit een refresh op de R520 is dit niet helemaal een new-gen flagship msrp. Die van de 7800GTX zat bijvoorbeeld op 599. Was wel een bump up van de generaties ervoor. De X800XT en 6800 Ultra en hun voorgangers zaten op 499. Dus dan zit je tussen de 811 en 974 na correctie.

Denk dat we de 9070XT voor die tijden zouden kunnen inschalen bij de X700XT of de 6800LE. Die zaten op 199usd dus dan kom je op 324 usd voor mirange. Dan valt die 599 voor de 9070 en 749 voor de 5070 TI toch zwaar tegen. En dat is meer dan alleen chip shortage, supply chain issues en crypto/AI boom. Dat is in het geval van nvidia enorme winstmarge en consumentondermijnend gedrag.
Als je nog op dezelfde resoluties zou gamen als vroeger, dan zou de prijsstijging niet te verantwoorden zijn.
Research & development zal zich ergens moeten terug betalen, en het gebruikte materiaal is steeds lastiger te vervaardigen en daardoor duurder.

Ben je bij 1080p gebleven, dan heb je voor die €400 alle frames die je maar kunt wensen, kan voor bijna de helft al eigenlijk.

[Reactie gewijzigd door Cheefgreenleaf op 1 maart 2025 14:54]

Vind ik nauwelijks een argument want ik speelde in 2006 al op 1080p. Met 4k zijn we dus verviervoudigd in pixels in 19 jaar terwijl we in 1987 nog met EGA/CGA rommelde. De high-end markt heeft altijd accomodatie geboden voor de top resoluties op dat moment, maar 4K is al een mainstream keuze sinds 2014. Toen ik in 2018 een 1060 kocht herinner ik me nog bij de reviews dat ik me verbaasde dat een moderne midrange niet inmiddels vloeiend games op die resolutie kan draaien. Fast forward 7 jaar en we krijgen nu pas Cyberpunk een beetje vlot op 4K
4K een 'mainstream keuze'?

Steam enquette zegt dat het een niché is, je ziet toch het verschil amper, het zal zodoende ook een niché blijven.

'Pixel per inch' gaat het om, en schijnbaar moet je scherm zodanig groot zijn om het verschil te zien tussen 1080p en 2160p, dat de dure kaarten nooit meer dan een druppel in een emmer is. Verre van mainstream.
helaas zijn die prijzen er niet meer van voor deze modellen, ik heb afgelopen jaar pas een upgrade gedaan 7800xt voor 500, eerder was dat gewoon niet mogelijk tegen die prijzen.
let wel op dat high end - super high end is geworden,

vroeger hadden we geen kaart die 3-4 keer zoveel hardware aan board had, dat was dan een SLI kaart met 2 of in dual setup.
Enthusiast of wat je super high-end noemt had je ook toen al. Zie ook de opkomst van multi-GPU kaarten. Maar ook in die hoedanigheid zie je MSRP's tussen de 450-600 usd in die tijd:

https://www.techpowerup.com/gpu-specs/geforce-7950-gx2.c169
https://www.techpowerup.com/gpu-specs/geforce-9800-gx2.c208
https://www.techpowerup.com/gpu-specs/radeon-hd-3870-x2.c209
https://www.techpowerup.com/gpu-specs/radeon-hd-5970.c254

Overigens, als je enthusiast van nu pakt zie je niet eens de zelfde schaling in performance als bij deze voorbeelden. Waar deze na een paar maanden nieuwe drivers tussen de 60-90% schaalde met de "reguliere high-end" kaart (HD5870 vs HD5970 of 7900GTX vs 7950GX2) zie je tussen de RTXxx90 en RTXxx80 kaarten rond de 30-40% uplift. Terwijl de prijzen wel nagenoeg verdubbelen.
Prijzen zullen rond de €900 in Europa liggen, China heeft recent alle export tarieven van GPU's buiten China van 10% naar 20% verhoogd. Dus het zal 599 * valuta * 20% * VAT worden.
Precies, nette prijs gezien de prijzen van de laaste tijd.
Inderdaad hé. Onder de 1000 euro klinkt ineens als goedkoop. Ik weet nog dat ik apetrots was op mijn gtx1080 voor 750 euro: toen high-end.

Eigenlijk te gek voor woorden, maar mensen die op 1080p gamen hebben het goed want die kaarten zijn nog enigszins betaalbaar. Vandaar dat AMD een hele mooie positie inneemt met hun 9070 kaarten. Wil je echt op 4K gamen met hoge framerates dan zul je even geduld moeten hebben totdat de prijzen weer wat zakken.

Ja kerel, PC gaming begint een elitepositie in te nemen.
pc gamen niet,

Ultra high end willen gamen wel maar dat is altijd zo geweest, alleen nu kun je nog een tandje hoger,

mijn 1060 heeft nog altijd geen issues op mijn 24"monitor bij alle spellen. geen enkele reden om te upgraden dan meer eissen stellen en ja dat kost meer.

Zie ook de BBG , 1000 euro heb je een heel systeem

[Reactie gewijzigd door Scriptkid op 3 maart 2025 18:45]

Ik ben van mening dat ALS je een 5070 voor de officiële prijs zou kunnen kopen AMD geen schijn van kans zou maken.

Maar we weten allemaal wat de realiteit is.
Hoezo? 50 euro erbij (of zelfs niet...) en je hebt een 9070XT met de performance van een 5070Ti? Waarom zou je voor de 5070 gaan?
Beetje erg dom om iedereen over 1 kam te scheren omdat jij een mening hebt:

- AMD is beter op Linux
- AMD Framegen werkt op alle games via driver, niet alleen waar het toevallig ingebouwd is
- Je hebt meer VRAM per categorie
- Je hebt een betere driver met minder CPU overhead als je geen top of the line CPU hebt, dus je AMD kan gewoon harder gaan dan een Nvidia.
- RayTracing is nog steeds een enorme gimmick gezien zelfs een 5090 het nog steeds maar 25 fps kan doen in bijvoorbeeld Cyberpunk, is dus niet heel relevant. (zonder upscaling en MFG)
- DLSS4 is vaak beter in games, maar heeft ook de neiging dingen te verzinnen, wat FSR niet doet.
- Je krijgt een kaart in handen die niet smelt.
- Je krijgt een kaart in handen die geen onderdelen mist (ROPs)

Iedereen die compleet 0.0 geinformeerd is, koopt Nvidia.

Mensen die nu hun huis even niet willen afbranden, kopen nu toch wel AMD.
Je doet alsof de grootste de beste is, kijk even goed naar de VS als grootste en machtigste van de wereld, en kijk daarna even naar hoe de burgers daar, en hier, leven. Wij hebben toch een beter sociaal systeem, niet?

Desondanks doet de grootste ons niet na, en doen ze 0.0 pogingen om beter te worden, maar blijven ze iedereen vertellen dat zij numero uno zijn.

Zo ook met Nvidia en AMD. Het zou iedereen voordelen opleveren als meer mensen AMD kochten. Ook Nvidia mensen.
Dat is zeggen dat Windows beter is omdat het op meeste computers zit. Maar Linux toch beter is...
Omdat mensen niet altijd(eigenlijk nooit) voor een objectief betere keuze gaan...
Je account is al 15 jaar dus je moet dan wel zo'n beetje 30 plus zijn. Waarom gedraag je je dan als iemand van 13? Check ook even die meeting die Trump met Zelensky gisteren had voor zelfreflectie. Je kan niet over harde argumenten heen lullen door je eigen geloof te herhalen. We zijn doorgaans goed ingelicht op deze website.

[Reactie gewijzigd door Chrono Trigger op 1 maart 2025 15:20]

Nvidia is beter, in de highend zeker. Maar in de midrange, daar valt over te twisten. Onder raster performance leggen ze het vaak af. Qua drivers, ik gebruik AMD en verzeker jou, dat het vrijwel net zo goed is zoniet even goed als bij Nvidia vandaag de dag.
1. Die 1% linux gamers hebben vaak ook een windows installatie om op te gamen.
2. Framegen werkt in de meeste games niet, desondanks dat het op driver level is.
3. Drivers zijn qua overhead identiek.
4. RTX is in vrijwel elke nieuwe game, gimmick of niet, de gamers hebben het liever wel dan niet.
5. FSR komt nog niet in de buurt van DLSS2 op vlak van kwaliteit.
6. Een 5070 TI zal niet smelten als je je kaart en kabel goed installeert.
7. Je krijgt met prioriteit binnen de 48 uur een nieuwe kaart, non issue.

Je gehele argumentenreeks kunnen we op de markt gaan verkopen als larie en apekool.
2. bewijs van 2?

Bij mij werkt ie namelijk overal. Je moet wel in FullScreen draaien.

3. HardwareUnboxed video niet gezien zeker, dat je onzin uitkraamt.
YouTube: Nvidia Has a Driver Overhead Problem, GeForce vs Radeon on Low-End CPUs

4. Nogmaals onzin, 'elke nieuwe game' ? Van de 3000 per dag die op Steam uitkomen? Van de 20-30 per dag die met liefde gemaakt zijn? Of van de 3 AAA titels die jij speelt?

5. Tja, meningen enzo. Ik zie in CP2077 weinig verschil tussen de 2, in andere games wel. Maar goed, we hebben videos die duidelijke ghosting laten zien.

6. Dit kun jij niet zeggen: zeggen mensen ook over 5090s, 4090s en 5080s. Toch is dit niet waar.

7. Bahahahahaha. Bewijs?
Hoewel ik het zeker met je eens ben dat Nvidia serieuze problemen heeft, al helemaal recent met smeltende power connectors en missende ROPs, blijft het een waarheid dat Nvidia op bepaalde punten veruit superieur is over AMD.

Als je gaat kijken naar productivity (e.g. Blender of andere vormen van rendering) of AI workloads, blijft Nvidia met hun CUDA toch ver boven de competitie uitsteken.

Dit is zeker niet negatief bedoeld tegen AMD overigens. Ik zou erg blij zijn als ze een goede kaart releasen en Nvidia forceren om hun zaken op orde te krijgen :P
En als mensen voor CUDA kiezen, helemaal prima, haal lekker Nvidia. Voor AI ook, doe maar.

Maar dit is niet relevant voor 95% van de consumenten. Dus moeten we ook gewoon kijken naar wat wel relevant is. En de 2 grootste punten, DLSS en RT, doet Nvidia toch niet heel erg goed. DLSS heeft gewoon baggere ondersteuning qua aantal games (net als FSR), en RT draait nog steeds kut wat voor kaart je ook hebt.
Ik voel mij echt heel dom nu, had ik jou maar gevraagd wat ik had moeten kopen. Mijn huis gaat in de fik, mijn kaart smelt, vandaar dat mijn kaart RoPs mist denk ik(?), ik had een betere kaart kunnen hebben met betere drivers, ik had naar normale beelden kunnen kijken zonder last te hebben van eyecandy door raytracing, wat een gimmick is!

Komplimenten voor je informatieve, interessante post! Ook je opmerking dat iemand een beetje dom is(Maxima, ben jij dit?) is zeer inzichtvol.

[Reactie gewijzigd door ABD op 1 maart 2025 15:28]

Weet niet of sarcasme of echt, maar ik moest heel hard lachen. Ik overdrijf op plekken natuurlijk, maar het feit dat dit al een MOGELIJKHEID is, je huis afbranden, zou wat mij betreft een totale recall moeten zijn van Nvidia.
> Niche toepassing

Je bedoelt net als CUDA en als Raytracing? Zij beiden best niche als toepassing

> Dat is waar in bepaalde scenarios. Maar als je een €700+ GPU koopt, dan kan de €130 voor de upgrade van een Ryzen 3 1400 naar een 5700X er ook nog wel bij. Je moet echt nogal ver terug in de tijd voordat je CPUs vindt die hiermee problemen hebben.

Dat is dus niet waar en ben best moe dat rijkelui zoals jij dit altijd blijven claimen. Best wel veel mensen zullen issues hebben met het feit dat ze die 130 euro maar van jou moeten uitgeven. En een 5700X zal net zo goed dezelfde issues hebben, zal je merken. Sterker nog, sommige AM5 chips zullen issues hebben, net als sommige 13e en 14e gen. Weet je hoe ik dit weet? O.a. door eigen tests hier en door even de echte benches te bekijken. Feit dat Hardware Unboxed een 1400x heeft gebruikt wil niet zeggen dat in die video de 5600X niet exact dezelfde issues had, en naarmate deze kaart sneller wordt, verschuift dit issue naar nieuwe CPUs.

> Dat is gewoonweg niet meer waar. CP2077 is gewoon enorm cherry picking en upscaling (zeker met DLSS4) is tegenwoordig vaak gewoon de beste manier om games te spelen (zeker met al die TAA bullshit die bij native vaak verplicht aanstaat). Er zijn steeds meer games waar RT verplicht is[....]

Je geeft zelf al aan dat je dezelfde issues hebt die ik noem, met je 3090. Cyberpunk is geen cherrypicking, dat is HET paradepaardje voor werkelijke tracing, due die mag je niet zomaar ff negeren. En steeds meer games vereisen RT? Nodeloos, dom en irritant statement dat Nvidia al jaren roept vanaf de RTX 20xx serie. Ja, het klopt technisch gezien, maar het zijn nog steeds enkele games op duizenden die jaarlijks uitkomen. Feit dat CP2077 nog steeds HET voorbeeld is voor RT, zegt al genoeg. Zelfs Indiana Jones does nog niet eens fatsoenlijke path tracing. Dus als je alle RT games er bij pakt, waar RT echt wat uitmaakt, heb je wat.....20? 30? games in de laatste 10 jaar? Op de > 5000 gereleased?

En als laatste, ook al heeft Nvidia meer performance, of je nou op 25 fps speelt, of op 9 fps met AMD, bij wijze van, beide zijn facking onspeelbaar.

> RT is al belangrijk en het gaat over de komende 2 jaar (tot de volgende generatie GPUs) alleen maar belangrijker worden.

Roepen jullie al 6 jaar. Tijd voor wat anders?

> Wat begrijp jij onder verzinnen? Bij upscaling is daar niet echt sprake van.

Kijk maar eens naar GamersNexus videos, meerdere gevallen van DLSS die details verzint zoals extra hekwerken, waar die nooit waren, en in Cyberpunk zelfs een extra torentje in de verte die er nooit was.

> Fair bij een 5090 (en met hoge uitzondering ook een 5080), maar niet van toepassing op een 5070Ti laat staan 5070 waar deze kaarten mee concurreren

Gezien je een kaart kunt opstarten met 14/16 doorgeknipte draden, zal ook een 5070 buiten spec kunnen gaan als die connector foutief is. derbauer heeft laten zien dat dit probleem alle kaarten zal raken, door te laten zien dat ook bij lagere wattages kabels buiten spec raken. Wat dit betekent is dat een 5070/ti gewoon later dood zal gaan, en over 2 jaar zegt Nvidia dikke lul.

> Dat is interdaad een probleem. Maar dat krijg je gewoon onder de garantie opgelost.

Suc6 met nu wachten gezien er geen voorraad is.

@cem. Hij heeft 1 punt goed beargumenteerd, de rest is net zo wankel als bij jou.

[Reactie gewijzigd door DMZ op 1 maart 2025 15:26]

> Niche toepassing

Je bedoelt net als CUDA en als Raytracing? Zij beiden best niche als toepassing
Sorry, maar hoeveel desktop PC gamers spelen op Linux? 0.5%? 1%? Zelfs met de steamdeck is het totaal op Steam nog onder de 2% en hoeveel daarvan zijn server instances (heb er ook een paar)?

De brede massa (veel indies natuurlijk ook) hebben geen RT. Maar het is natuurlijk zo dat bijna alle gamers veel meer dan alleen een titel spelen en het moet maar een probleem bij een titel zijn om een deal-breaker te zijn. Terwijl je als Linux Gamer gewoon rustig een AMD kaart kunt kopen (je weet dat je tot die niche behoort). Bij games weet je niet of de volgende titel die je wilt spelen RT zal bevatten en of het verplicht wordt dan wel de non-RT oplossing extreem lelijk is.

Komt nog bij dat nVidia drivers inmiddels veel beter zijn op Linux met dank aan het het AI development dat op Linux gebeurt.

CUDA heb ik niet genoemd, dus dat is een mooie stropop-argumentatie. Zuiver begin hier dan. 8)7
> Dat is waar in bepaalde scenarios. Maar als je een €700+ GPU koopt, dan kan de €130 voor de upgrade van een Ryzen 3 1400 naar een 5700X er ook nog wel bij. Je moet echt nogal ver terug in de tijd voordat je CPUs vindt die hiermee problemen hebben.

Dat is dus niet waar en ben best moe dat rijkelui zoals jij dit altijd blijven claimen. Best wel veel mensen zullen issues hebben met het feit dat ze die 130 euro maar van jou moeten uitgeven. En een 5700X zal net zo goed dezelfde issues hebben, zal je merken. Sterker nog, sommige AM5 chips zullen issues hebben, net als sommige 13e en 14e gen. Weet je hoe ik dit weet? O.a. door eigen tests hier en door even de echte benches te bekijken. Feit dat Hardware Unboxed een 1400x heeft gebruikt wil niet zeggen dat in die video de 5600X niet exact dezelfde issues had, en naarmate deze kaart sneller wordt, verschuift dit issue naar nieuwe CPUs.
Die tests van HUB waren op 1080p medium. Niet bepaald waar je een 9070XT (of 5070 Ti) voor koopt. En als je echt test data hebt, toon die dan. Tot dan is het niet meer dan losse claims. In de media wordt er niet meer veel aandacht aan besteed omdat het lang niet meer zo erg is met enigzins recente hardware. De 5600X tov de 7800X3D kost een RTX 4080 Super minder dan een procent aan gemiddelde prestaties en rond de 5% in de minima bij 1080p en nog minder impact bij 1440p (bron). Een 5600(X) krijg je voor €90 nieuw en voor €50-60 tweedehands.
> Dat is gewoonweg niet meer waar. CP2077 is gewoon enorm cherry picking en upscaling (zeker met DLSS4) is tegenwoordig vaak gewoon de beste manier om games te spelen (zeker met al die TAA bullshit die bij native vaak verplicht aanstaat). Er zijn steeds meer games waar RT verplicht is[....]

Je geeft zelf al aan dat je dezelfde issues hebt die ik noem, met je 3090. Cyberpunk is geen cherrypicking, dat is HET paradepaardje voor werkelijke tracing, due die mag je niet zomaar ff negeren. En steeds meer games vereisen RT? Nodeloos, dom en irritant statement dat Nvidia al jaren roept vanaf de RTX 20xx serie. Ja, het klopt technisch gezien, maar het zijn nog steeds enkele games op duizenden die jaarlijks uitkomen. Feit dat CP2077 nog steeds HET voorbeeld is voor RT, zegt al genoeg. Zelfs Indiana Jones does nog niet eens fatsoenlijke path tracing. Dus als je alle RT games er bij pakt, waar RT echt wat uitmaakt, heb je wat.....20? 30? games in de laatste 10 jaar? Op de > 5000 gereleased?
Of het nodeloos of irritant is doet er niet toe. Een reeks zeer populaire titels van afgelopen jaar vereisen RT of zien er (zeker ook dankzij een gebrek aan aandacht van de kant van de devs) belachelijk slecht uit zonder RT. Je moet het niet mogen of the beseffen dat het niet meer weg gaat. Ik heb net zo goed een hekel aan crypto en end-user-generatieve AI die de planeet voor letter nul meerwaarde zwaar beschadigen en de prijzen van hardware (allen vooraan nVidia GPUs) naar de maan drijven. Maar dat gaat niet verdwijnen omdat ik het niet leuk vind en hetzelfde geldt voor RT in games.
En als laatste, ook al heeft Nvidia meer performance, of je nou op 25 fps speelt, of op 9 fps met AMD, bij wijze van, beide zijn facking onspeelbaar.
Zet de settings niet op max-psycho-ultra en gebruik een beetje upscaling (iets wat overigens in CP2077 beter beeld levert dan native dankzij DLSS4 boven de trash-tier TAA implementatie) en je zit ruim boven de 60FPS. Het is alsof je Crysis er in 2007 uitpikt en zegt dat we omdat het op ultra-nightmare-whatever settings niet speelbaar is daarom maar de performance van GPUs in DirectX 10 moeten negeren.
> RT is al belangrijk en het gaat over de komende 2 jaar (tot de volgende generatie GPUs) alleen maar belangrijker worden.

Roepen jullie al 6 jaar. Tijd voor wat anders?
Nee, dat is dus NIET waar. nVidia roept dat als sinds 2018 (tuurlijk, dat was hun marketing en het was toen inderdaad bullshit). Het is pas sinds ~2022/23 ook echt het geval. Toen kwamen de eerste grote (=veel verkochte en gespeelde) titels met goede RT implementaties op te markt en de eerste reeks GPUs (RTX 4000) die het ook echt op een redelijk niveau kon (vanaf de 4070 dan). Voor een 5060 (Ti), 9060 (XT) zal het ook deze generatie weer wenig uitmaken omdat de prestaties het zelfs met upscaling niet halen echt speelbaar RT te gebruiken. Maar bij het prijspijl van de 9070XT is het wel degelijk relevant voor voor spelers (veel meer dan Linux support).
> Wat begrijp jij onder verzinnen? Bij upscaling is daar niet echt sprake van.

Kijk maar eens naar GamersNexus videos, meerdere gevallen van DLSS die details verzint zoals extra hekwerken, waar die nooit waren, en in Cyberpunk zelfs een extra torentje in de verte die er nooit was.
Ik neem aan dat je dit voorbeeld in CP2077 bedoelt? Je hebt wel door daar die toren er in het echt gewoon is als je er dicht genoeg bij komt. Hij is alleen zo dun dat de crappy TAA van CP2077 dat detail slokt. Better than native dus in dat geval. Fijne details zijn (helaas) ook op native gewoon een probleem. De nVidia upscalers doet dat over het algemeen beter dan native AA implementaties waardoor het misschien lijkt alsof ze iets verzinnen maar dat is gewoon niet het geval.

Er zijn wel gewoon echte artefacten bij DLSS. Ray-Reconstruction (vooral met het nieuwe model) heeft er een handle van om transparante objecten te laten verdwijnen. Zonder RR heb je in veel scenarios veel te veel ruis in beeld. Alle upscalers (en ook TAA) hebben het lastig met objecten die achter andere objecten tevoorschijn komen.
Het is niet prettig dat we als gamers gedwongen zijn dit soort trade-offs te maken, maar in de praktijk waren we altijd al keuzes aan het maken welke setting wel en niet en op welk niveau aan staat. Het enige dat altijd helpt is meer ruwe prestaties.
> Fair bij een 5090 (en met hoge uitzondering ook een 5080), maar niet van toepassing op een 5070Ti laat staan 5070 waar deze kaarten mee concurreren

Gezien je een kaart kunt opstarten met 14/16 doorgeknipte draden, zal ook een 5070 buiten spec kunnen gaan als die connector foutief is. derbauer heeft laten zien dat dit probleem alle kaarten zal raken, door te laten zien dat ook bij lagere wattages kabels buiten spec raken. Wat dit betekent is dat een 5070/ti gewoon later dood zal gaan, en over 2 jaar zegt Nvidia dikke lul.
Dat is gewoon een ongepaste mate aan paniek. Er zijn honderdduizenden zo niet miljoenen RTX 4080(S) en 4070 Ti (Super) kaarten verkocht en er bestaan daarvan in totaal na 2,5 jaar nauwelijks gevallen (twee handen is ruim genoeg om ze te tellen). Is die stekker goed? Nee, geen vraag. Moet je er met een 5070 Ti zorgen over maken? Dikke nee. Daarom klaag er ook niemand met expertise over bij een 5070 Ti en wordt bij de 5090 een dubbele connector als oplossing aangedragen.
> Dat is interdaad een probleem. Maar dat krijg je gewoon onder de garantie opgelost.

Suc6 met nu wachten gezien er geen voorraad is.
Je kunt ook wachten met het melden/uitgeruild te krijgen (dat hoeft niet meteen en ook over een of twee jaar moet de verkoper dat nog gewoon zonder morren uitwisselen) - de kaarten werken gewoon. En het gros van de GPUs heeft hier ook helemaal geen last van. Is het netjes? Nee. Moet je daarom de kaarten maar niet kopen? Nee. Het is een erkend probleem (vanuit nVidia) en er wordt gewoon voor je gezorgd als je het pech hebt zo'n kaart te krijgen.

Voor het niet kopen van een 5070 Ti zijn er veel betere redenen (zoals de volstrekt overtrokken prijzen die er tegenwoordig voor gevraagd worden door scalpers van die je niet wilt kopen).

[Reactie gewijzigd door Darkstriker op 1 maart 2025 17:52]

Voor het verzinnen bedoel ik bijvoorbeeld YouTube: Так ли хорош, этот ваш DLSS?

Er worden texturen aangepast en dingen letterlijk verzonnen.

Rest van je argument is heel erg ' hij zegt jij zegt' en is voorr ons beiden niet de moeite waard.
Dat is net zo goed veel te eenvoudig

Voor gamers die hoofdzakelijk (of uitsluitend) online multiplayer games spelen (waar RT en ook upscaling meestal een non-issue is) is AMD in veel gevallen de betere keuze geweest (voor alles wat kwa prestaties onder de 4090 zat) omdat ze per Euro in dat segment beduidend betere prestaties leverden.

In het sub-€700 Euro segment (dus onder de 4070 Ti Super) was nVidia breed de slechtere keuze door het gebrek aan VRAM. 12GB was niet genoeg voor 4070 (Ti) (Super) en 8GB niet voor 4060 (Ti). Dat was bij release zo en het is sinds dien alleen maar erger geworden.

De 16GB versie van de 4060 Ti was veel te dicht aan de 7800XT geprijs om dat het waard te maken (rond de €450) als je bedenkt dat de 7800XT grofweg 50% krachtiger is in raster en 20% in RT.

En rond de €300 was de 7600XT dankzij de 16GB breed de betere keuze (zeker ook omdat DLSS3 op 1080p praktisch nutteloos was en op 1440p zeer beperkte nut had). Zelfs de 3060 was daar het betere alternatief voor de 4060.

nVidia had twee noemenswaardige voordelen (in beide gevallen is onduidelijk hoe dat tegen deze koemnde release van AMD uitvalt):
- betere upscaling
- betere RT performance

Voor mensen die €1000+ uitgeven voor een GPU is AMD een non-issue omdat ze er gewoon niet concurreren (en dat nooit hebben gedaan).

De reden dat nVidia het aan het ondere einde van de markt (sub €700) ook goed doet is toch wel voor een groot deel gebaseerd in (zwaar achterhaalde) geruchten en vooroordelen gepaard met een gebrek aan kennis. Voeg daar nog een snufje FOMO toe (wat als ik ooit RT ga runnen op mijn 4060 - wat die kaart gewoon echt niet lukt) en het probleem is compleet.

AMD Software was tot eind 2024 een heel stuk beter dan nV GFE+CP. nV app heeft daarin in een inhaalslag gemaakt maar is nog zeker niet kompleet en voorlopig in een soort Windows Control Panel vs Settings situatie. Niet echt prettig.

Kortom: de argumentatie van DMZ was niet best. Maar de reductie naar "nVidia best" is net zo goed verkeerd.

En de meeste mensen irriteren zich er niet aan dat nVidia beter is. Ze irriteren zich breed eraan dat nVidia zijn monopolie misbruikt. En overigens ook dat AMD zich als een economisch ruggengraat-loze tweede gedraagt die bereid lijkt te zijn de strijd om meer marktaandeel echt aan te gaan (en dat ook deze keer niet echt lijkt te doen - maar dat is nog steeds een kwestie van afwachten en kijken).

[Reactie gewijzigd door Darkstriker op 1 maart 2025 13:57]

Dit is precies hoe ik me inbeeld hoe consumenten zichzelf 4000 euro voor een videokaart goedpraten en de normalisering ervan conditioneren bij zichzelf.
De grote vraag is voorraad.
Het 'schijnt' dat winkels (in de VS) al een hele hoop op voorraad hadden tijdens CES.

Als dat in Europa vergelijkbaar is dan blijft de prijs hopelijk redelijk.
Yep. Als AMD voldoende voorraad heeft aangelegd en de winkels daardoor de kaarten voor rond de adviesprijs kunnen/moeten verkopen zou dit de komende tijd veel NVIDIA-zieltjes wel eens richting AMD kunnen trekken.

Naast de belachelijke prijzen van NVIDIA zijn ook de verhalen rond de connectoren en mogelijk niet volledig ingeschakelde chips geen goede marketing voor NVIDIA.

Als AMD niet van dergelijke kinderziektes heeft (of helemaal niet), dan ga ik wel de 9070XT halen!
Winkels hebben al sinds januari stock op voorraad gekregen, het is dan dus aanneembaar dat AMD nu weken lang extra stock heeft geshipped
Dat is dan vooral een probleem in Nederland, o.a. de andere amazon regio's hebben ze voor rond de €1000 verkocht.
Bizar dat mensen dat er voor over hebben.. Worden die kaarten voor mining gebruikt nog steeds?
Je zat er niet ver naast voor wat sommige webshops vragen terwijl er nog stock beschikbaar is...
Nog meer Nvidia kopen en straks kost een x50 series 1000 euros.
+2 voor een post die 6x het product van het onderwerp verkeerd benoemd.
9600 XT ook, die had ik ooit een AGP kaart :D
Er gaat iets mis met de conversie van dollar naar euro. We betalen heel wat meer dan die amerikanen.
599 voor de XT is heel wat anders dan bijna 700 euro voor een midrange kaartje.
Wat gaat er mis dan? 599 USD = 577 euro + 21% BTW = 698 euro

Lijkt mij gewoon te kloppen hoor.. We betalen helemaal niet meer.. Ja, de standaard 21% BTW meer..

USD prijzen zijn altijd zonder belasting (sales tax, omdat die per staat verschilt daar)..

[Reactie gewijzigd door Inflatable op 1 maart 2025 03:08]

behoorlijk misleidend
Niet misleidend, er staat een US dollar teken voor, dan moet je automatisch weten dat deze prijs enkel toepasselijk is in de VS, dit is niet nieuws, en is al decennia het geval.

Vervolgens de MSRP is ook niet inclusief de Chinese export tarieven van 20%.

Eigenlijke Europese MSRP zal rond de €577 * 20% * 21% liggen, zodus €837

(voor dat iemand zegt maar zo werken tarieven niet, in dit geval is het een export tarief dat China in Januari heeft ingevoerd en verleden week heeft verhoogd, dus de AIB's zullen deze kost doorrekenen naar de eindgebruikers).
laten we even wachten op de echte benchmarks voordat we zeggen dat het idd sneller of langzamer is.
Een aantal jaren geleden stond de dollar veel lager als de euro, waardoor dollar naar euro + 21% BTW, vaak vertaalde naar een zelfde getal in dollar als euro. Maar tegenwoordig staat de dollar veel hoger.
De meeste Amerikaanse betalen ook BTW na aankoop. Het staat er vooraf gewoon niet bijgeteld omdat de hoeveelheid tax verschilt per staat.

[Reactie gewijzigd door RCFProd op 1 maart 2025 09:30]

Als de prijzen zo blijven lijkt het mij een goede deal.
Ik ben geen fanboy, maar ik gebruik al jaren Amd kaarten, zelfs de verguisde Vega 56 heeft het bij mij prima gedaan.
Mijn huidige Rx6800 doet het nog prima, maar de 9070Xt lijkt me een leuke opvolger.
Hoezo de claim dat de 9070xt vergelijkbaar is met de 7900xtx in rasterization, AMD vergeleek de 9070xt met de 7900GRE en niet de 7900xtx.
De 9070XT is gemiddeld 42% sneller dan de 7900GRE, met de grootste winst in raytracing prestaties.. Ga je het allemaal vergelijken aan de hand van reviews/benchmarks dan kom je uit op ongeveer 7900XTX prestaties met raterization en met raytracing zelfs duidelijk sneller..
De 42 % winst voor 9070xt vs 7900 GRE is cool, maar ervanuit gaan dat t vergelijkbaar is met een 7900xtx die duurder en meer power draw heeft is nogal een redflag.

AMD kon net zo goed vergelijken met een 7900XTX maar ze kozen heel specifiek voor model 7900 GRE wat zelfs uit productie is gehaald.

Het is gewoon niet overtuigend dat een 9070XT beter is dan 7900XTX, al helemaal niet met de logica van 42 % better then 7900GRE.
Dat doen ze omdat de prijs veel meer overeen komt met de GRE dan de XTX, en ze zo hoge prestatie winst percentages kunnen laten zien.. Je krijgt met de 9070XT infeite 7900XTX prestaties met betere raytracing prestaties en FSR4 ondersteuning voor ietjes meer dan de dan de 7900GRE kostte qua adviesprijs.. 619 vs 689 euro.. 7900XTX was 1159 euro..
Oky das fair, maar vervangt de 9070xt alleen de 7900GRE qua performance of ook de 7900xtx die 1159 kostte ? Als t echt ook de 7900xtx vervangt qua performance in raster at lower price, dan is t best significant want de 7900xtx is 355W vs 9070XT 305w.

Ik heb momenteel de Toxic 6950xt en qua upgrade wil ik gewoon bij AMD blijven en ik dacht meer om voor 7900xtx te gaan, maar als jullie echt geloven dat de 9070xt vergelijkbaar performance heeft als de 7900xtx even at 4k, dan zou ik de 9070xt moeten overwewgen.
Zover ik weet komt er voorlopig geen snellere AMD videokaart.. Ze hebben gezegd zich voorlopig alleen op de midrange te richten.. Concurrentie voor de Nvidia RTX 5070(Ti) dus.. Ik geloof dit niet alleen allemaal, je kan het zelf ook gewoon uit alle informatie halen die al bekend is.. Maar voor 100% zekerheid moet je op de reviews en benchmarks wachten.. Die verschijnen 5 maart online..
Oh dit brengt ook een beetje vibes omhoog van toen ze net on par kwamen met de intel processoren, eerst een goed ontworpen midrange leveren, en een aio oplossing lanceren die on par gaat met de apple m4 processoren: AMD Ryzen™ Al Max 390, en dan out of the blue een 9090xtx lanceren met 32gb of meer V-ram die on par gaat met de 5090 wel eens waar met oudere V-ram generatie (die beter leverbaar is) maar qua prestaties gewoon keihard 20% goedkoper is en misschien wel wint. Ik ben sinds de AMD Radeon 6970 uitgechekt bij AMD maar het lijkt er inderdaad op dat ik even wacht wat tot welke koers ze in de praktijk gaan varen.
review: ATi Radeon 9700 Pro review

Bedoel je deze kaart?

Beetje zeurreactie, maar het is 9070xt.

Die 9700pro vroeger was wel een revolutie trouwens.

En ben met je eens. Heb nu een amd kaart want dat was tijdens de kaarten crisis de enige die ik nog voor redelijke prijs kon kopen (6900xt). Ik dacht bijna aan een upgrade naar Nvidea maar niet met deze prijzen. de 9070 zit, als die de informatie van AMD kan waarmaken, wel op een goed prijspunt.
Tja, Nederlandse markt is maal 1.5 - 2.0. Voor het verschil kun je het bijna gaan afhalen.
Dat zei ik gisteren of eergisteren inderdaad ook. Vreemd dat ik dan een 0 moderatie krijg. Alweer.
Ja, vreemd. Alsof het uitmaakt wie wat zegt wat betreft informatie. Beetje raar.

[Reactie gewijzigd door BlueBird022 op 28 februari 2025 17:25]

Dat kan, de mensen die de scores uitdelen zijn gebruikers zoals jij en ik. Als ik me met bepaalde uitspraken impopulair maak, kan mij dat achtervolgen.
Aha! Zo werkt dat dus. Kinderachtig.
Ik kreeg een keer commentaar dat ik mijn + en - commentaar niet goed zou doen. Ik kan nu al 4 jaar of zo geen up en downgrade doen.
Dat dus. Het is van een ongekende kneuterigheid.
Ik denk niet dat mensen jouw username onthouden en op basis van andere berichten jou lager modereren.
Als het zo vaak gebeurd ligt het misschien aan de manier hoe je teksten overkomen op anderen.
Beter gezegd: kneuterigheid.
Tweakers community doet dat, zit geen betaald team aan moderators tussen.
Ze mogen het van mij afschaffen. Ik heb vaak geen zin meer om te reageren vanwege de moderatie.
Als ik de cijfers van AMD vergelijk, lijkt de 9070XT relatief in de buurt te komen van de 5080, soms wel hoger. AMD heeft de Native 4k Ultra framerates op de website geplaatst.
Zie ook: https://www.amd.com/en/pr...amd-radeon-rx-9070xt.html

Native 4k Ultra
F1 24 - 157 fps
God of War Ragnarok - 109 FPS
Horizon Zero Dawn Remastered - 99 FPS
Call of Duty: Black Ops 6 - 74 FPS
Dragon Age: Veilguard - 76 FPS
Assassin's Creed: Mirage - 98 FPS
Resident Evil 4 (RT) - 87 FPS
DOOM Eternal (RT) - 144 FPS

Als ik dat vergelijk met de 5080. (https://www.techpowerup.c...tx-5080-founders-edition/)

Native 4k Ultra
F1 24 - 158 fps (1 FPS meer)
God of War Ragnarok - 98.9 FPS (10 FPS minder)
Horizon Zero Dawn Remastered - Geen test
Call of Duty: Black Ops 6 - Geen test
Dragon Age: Veilguard - 75 FPS (1 FPS minder)
Assassin's Creed: Mirage - 99 FPS (1 FPS meer)
Resident Evil 4 (RT) - 93 FPS (5 FPS meer)
DOOM Eternal (RT) - 127 FPS (17 FPS minder)

Lijkt dus zeker: AMD is back in the game! :)
Nu de echte reviews nog afwachten.

[Reactie gewijzigd door Valandin op 28 februari 2025 17:57]

Als je nu de RX9070 vergelijkt met de RX 7800 XT dan snap ik niet waarom ongeveer dubbel zoveel transistors erin zitten. (53.9 vs 28.1) de 7800 heeft meer, compute units en stream processors en alle andere specs zijn ongeveer gelijk ?

Ik betwijfel of dit de grote doorbraak zal zijn voor AMD...
Je bent sowieso een ongelijke situatie aan het bekijken.
De RX9070 heeft dezelfde die als een RX9070 XT, maar dan met wat CU's uitgezet. Daar wordt de die niet opeens kleiner van of zo.

De eerlijke vergelijking is dus 9070 XT vs 7800 XT (beiden de volledige benutting van de die).
Die 53,9 miljard is inclusief de memory cache die's, die zitten er bij de 28,1 miljard niet in. De 9070 heeft die on-die.

Gezien verschil tussen de 7900 XTX en 7900 GR (57,7 vs 53,8 miljard), zijn de memory cache die's dus (57,7-53,8)/2=1,95 miljard per stuk.

Bij die 28,1 moet je dus eigenlijk 4x 1,95 miljard optellen. Dan zit je op 35,9 miljard. Als je die gaat vergelijken met de 53,9 miljard, kom je op 50% meer dan de 7800XT.

- 6% meer CU (64 vs 60)
- PCI-E 5.0 ipv 4.0
- betere encoding
- betere raytracing
- betere ondersteuning voor AI
Het is idd een twijfelachtige vergelijking (van mij), maar het is wel wat Tweakers presenteert. Ik vraag me dan ook af waar die transistors zitten, dus blijkbaar in de aspecten die jij aangeeft :) bedankt voor de aanvulling!
Ik betwijfel of dit de grote doorbraak zal zijn voor AMD...
Als ze leveren met goede drivers (geen black screens) en 32bit physics "ondersteunt" blijft zie ik een goede kans voor een doorbraakje... op dit moment. De 50xx Serie is in mijn ogen de grootste backstab die Nvidia haar game-consumers kan geven en niet alleen mede door de prijs.
AMD ondersteund(e) sowieso geen 32 bit of 64 bit PhysX, want dat is een technologie die exclusief van Nvidia is. Zal dus geen verschil maken. Maar hoop inderdaad dat ze de kans pakken om te laten zien dat AMD drivers wel degelijk beter zijn dan die van Nvidia.
Je kon toch altijd al physx via de CPU draaien?
Kan dat nu ook niet meer? Of kon dat nooit met een AMD gpu/cpu?
Jawel maar op de CPU is het beduidend langzamer. Je had in het begin van Physx ook een losse kaart die je kon installeren voor als je een AMD video kaart had.
Heb nooit problemen met AMD drivers. Mocht er wat zijn, heb ik het ook zo wer gefikst. Allemaal kleine dingetjes.
Is wel een sentiment wat (redelijkerwijs) overgebleven is van vroeger. Crimson drivers zouden zogenaamd de stabielste ooit zijn, maar crashten meerdere keren per dag. Vandaag de dag is dat uiteraard heel anders.
Heb ik nooit last van gehad, van crashen elke dag. Ik gebruik al jaren grafische kaarten uit het rode kamp. (AMD).

Dus niet echt een sentiment maar een ervaring.

[Reactie gewijzigd door Tourmaline op 4 maart 2025 16:30]

Wel, mogelijks moeten ze gewoon leverbaar zijn om een doorbraak te forceren ...
Black screens alleen gehad bij RDNA 1.

RDNA2 en RDNA 3 doen het gewoon perfect hier.
AMD is dan "midrange at best". Het kan toch niet moeilijk zijn om wel in highend wat te hebben.

Midrange moeten ze met de RTX5070 en RTX5060 gaan concurreren. Helaas voor AMD blijft Nvidia ook in dit segment grote heerser. AMD zal iets marktaandeel pakken, maar Nvidia zal er geen nacht van wakker liggen.

Komende jaren moeten we het weer met een monopoly doen van de man in de leren jas.
Huh.. de 9070XT is slechts gemiddeld 2% langzamer dan de 5070Ti die voor 1400 euro verkocht wordt en de 9070XT krijgt een prijs van 700 euro en dan noem je Nvidia een grote heerser? De normale 9070 is ca. gemiddeld 20% sneller dan de 5070 die voor exact dezelfde prijs verkocht gaat worden (in ieder geval qua MSRP). En dan nog vind je Nvidia "heer en meester"?

8)7

[Reactie gewijzigd door ArcticWolf op 28 februari 2025 20:55]

Ik hoop wel dat ze een RX 9090 XT(X) komt, de RX 7900 XTX ben ik heel erg tevreden over, en was/is zeker geen midrange.
Ik denk dat het uitermate lastig is om een GPU te maken die met de 5090 kan concurreren. Met name omdat de monopoly van Nvidia in de professionele markt alleen maar groter is, en daar zal deze kaart met name worden ingezet. AMD gaat zich naar eigen zeggen richten op gamers en een 5090 is op een paar uitzonderingen na geen goede keuze voor het de meeste gaming PCs.
Midrange zit meer geld dan high end, waar je gewoon minder van verkoopt maar wel veel duurder is om te produceren.

Niet iedereen heeft high end nodig.

[Reactie gewijzigd door Tourmaline op 3 maart 2025 16:16]

Ik ben benieuwd of de prijzen daadwerkelijk zo zullen zijn en wat de echte performance is. Als je daadwerkelijk een 9070xt kan krijgen voor 696€ kan kopen zou dat een goede prijs zijn als de performance er is.

De slides zeggen me niet veel. Staat native. Maar ik wil wel zien of het echt zonder upscalers is. Als dat zo zou zijn zou dat zeker een heel goede stap in de richting zijn.
Komende van een RX 6800 is de XT wel heel interessant als die oude kaart voor een mooi prijsje verkocht kan worden. En aangezien ik voornamelijk onder Linux werk is ray tracing ook niet zo boeiend.

Nu maar hopen dat de webshops zich inhouden, maar ik vrees voor een €100-150 tax.
Nja MSRP+ BTW van de 5070 ti is omgerekend ongeveer €870.
De goedkoopste 5070ti is op dit moment €1200.
Is nogal een verschilletje die €38% ofwel €330.

Betekent ook dat een 9070 XT van €696 wanneer deze €960,48 kost nog steeds de betere optie is tov de 5070ti. Maar goed, aangezien AMD zegt dat het ook een AI powerhouse is verwacht ik kan het voor de vorm die €1000 ook gaat overschrijden waardoor het weer meh gaat zijn.
€1000 gaat hem hier niet worden.
Nja.... Dat is wel wat je voor een 5070 ti betaald... De verkoopprijs daarvan zou ook 38% lager moeten liggen.

Het gaat er helemaal aan liggen hoe de fabrikanten en tussenpersonen te werk gaan.

Hopelijk gaat de 9070 XT een prima prijsje krijgen en dan gaat deze mijn 6900 XT vervangen. De nieuwe media engine van de 9070 XT zou een flinke verbetering voor mijn werk zijn.

[Reactie gewijzigd door itContinues op 2 maart 2025 21:14]

En toch kopen mensen 5070 ti's... Dus wat zeg je nou?
Dat het teveel geld is voor een medium kaart....
En die 5070 die is ook al boven de 1000.

Wat ik nu zeg? Dat mensen hun verstand moeten gebruiken.
Zo moeilijk is het toch niet?
Ow we zijn het helemaal eens hoor... maar jammer genoeg doen veel mensen dit niet. Ik wil mijn 6900XT ook best vervangen voor een 9070XT. Maar niet voor dat geld. Die 6900XT is ook voor "maar" €700 gekocht en dat is wat het me waard is.

[Reactie gewijzigd door itContinues op 3 maart 2025 16:23]

Ik zelf zit nog met oude kaart { 1070ti } wilde ook een nieuwe kaart maar deze hype/gekte doe ik niet aan mee.
De 9070xt kost in Amerika nog geen 600 dollar dus dan kan die hier toch niet 700/800/1000 euro gaan kosten?? zijn mensen dan echt zo DOM?
De prijs in de VS is excl lokale belastingen.

Onze lokale belasting is BTW, deze moet je er nog even bovenop rekenen... kortom. 21% moet er hier echt bovenop. Daarmee kom je gewoon uit op bijna €700 als minimale prijs.

Je kan de kaart voor de lokale MSRP kopen via AMD.com (als ze op voorraad zijn). Dan omzeil je de AIB-partner markup (lees die van derde fabrikanten).

Overigens.... tweedehands kaarten zijn ook een goed idee... neem een RTX3070 of RX6800 (ik zou voor de AMD variant gaan 16GB is handig). Maar dat is een mega upgrade die je voor een redelijke prijs kan vinden.

[Reactie gewijzigd door itContinues op 3 maart 2025 16:28]

Ik draai ook een RX 6800, maar die blijft hier voorlopig gewoon pruttelen. Ik kijk over een jaar of wat wel verder.
6800XT hier en mijn KCD2 draait aan 100+ fps op ultra 1440p. Rustig laten pruttelen zou ik zo zeggen! :Y)
Gaan de prijzen de pan uit, dan ik ook, had paar maanden geleden besloten om weer in 2027 een nieuw systeem samen te stellen, wellicht dat dat het gaat worden. De 6800 doet nog alles wat ik van hem vraag.
Mijn vega56 was langer aan vervanging toe
Covid
Crypto
Poetin
Energie
Werk
Trumph.
Ps4 is ondertussen PS5 de rest is 2018 tech.
Doen ze makkelijk die winkel tax bovenop. Doen ze al jaren nu. Dus geen 700 maar 800+ minima.
Nee vraag aanbod gerelateerde prijs beleid. Heel normaal.
Het is beleid dat nvidia de supply laag houd. Mogelijk andere sku voorrang AI.
Deze markt beperkte wafer allocatie. Ze meer graaien met AI sku.
MSRP = manufacturer's SUGGESTED retail price.
Tot ze in de winkel liggen is er niets over te zeggen.
Sommige winkels hadden al de nieuwe Radeon kaarten liggen sinds december vorig jaar en begin januari. Online zijn ook foto's te zien van mensen die ze al hadden kunnen kopen. Alleen zijn de officiële drivers nog niet uit, dus heb je er vrij weinig aan :P
En dat geeft mij hoop op een redelijke voorraad in tegenstelling tot Nvidia.
Op de Instagram van Megekko is door hen zelf gereageerd dat de voorraad beter is dan de Nvidia voorraad (quote: "Deze kwamen inderdaad wat makkelijker op voorraad", na het vastgestelde verschil tussen voorraad Nvidia en AMD door een reageerder). Ook in het filmpje zie je naar mijn idee enkele pallets vol met AMD 9000 videokaarten liggen, waar ze dat bij Nvidia niet aandurfden om in beeld te brengen. Zegt wat mij betreft voldoende.
De slides zeggen me niet veel. Staat native. Maar ik wil wel zien of het echt zonder upscalers is.
Tijdens de presentatie is expliciet gemeld dat de benchmarks op de slides zonder enige upscaling of frame gen zijn, met uitzondering van 1 slide die speciaal bedoeld was om de prestaties van FSR4 te laten zien.
Uiteraard altijd goed om te wachten op onafhankelijke benchmarks.

Dat gezegd hebbende: "native" laat geen ruimte over voor semantische truukjes.
De eerste weken zullen de prijzen waarschijnlijk wel hoger zijn vanwege de hype train.
Het komt altijd terug op vraag en aanbod.

Aanbod van de 5000 series was letterlijk handjevol per land en ja, dan zullen de prijzen omhoog gaan.
Ja als iedereen 6 maart naar de winkel rent dan zullen de prijzen voor een korte tijd wel stijgen totdat vraag en aanbod weer in evenwicht zijn.
Winkels zijn al voorzien de drivers waren nog niet klaar. Dus ik verwacht flinke buffer dan krijg je de reguliere supply wat weer afhankelijk is van wafer allocatie. Als dit ook niet hoog is. Dan hoeft AMD ook niet te stunten met prijzen. Een flinke buffer is moeilijk voor scalper op te kopen. Dus hopelijk krijgen we dat fenomeen deze keer niet.
Wanneer komt de flagship dan? Want er is praktisch geen vooruitgang met de 7900 xtx.
Als je een beetje het nieuws hebt gevolgd weet je dat AMD al heeft aangeven uit de high-end markt te zijn gestapt.
Dit klinkt alsof ze definitief gestopt zijn met high end terwijl ze alleen hebben gezegd dat er geen high end komt voor deze generatie. Ze hebben al bekend gemaakt dat ze met UDNA wel weer mee gaan doen in het topsegment.
Als ik het me goed herinner hebben ze niet eens gezegd dat er geen high end komt, maar dat hun focus daar niet op ligt. Ze hebben hun focus er nu op gericht om de beste mid range kaart te maken.
Ik vermoed dat ze de chiplet productie efficiëntie ook naar gpu willen brengen maar niet gelukt is. Zodra hier een doorbraak in is. Heeft eerder te maken met interchip-let connect. Lowpower short parallel connecties omdat prestige big chip met dure top nodes zeer productie in-efficient zijn. En dus dure productie en dat voor prestige en imago om die kroon te pakken. Als gpu chiplet werkt dan kan er zeer flinke soc samengesteld worden. Ander probleem is dat AMD niet kapitaal heeft om te concurreren bij TSMC wafer allocatie. Dus in heden is zelfde node als nvidia ook niet vanzelf sprekend.
AMD heeft al eerder naar buiten gebracht deze generatie niet een flagship model uit te brengen en te focussen op kaarten in een price range waar de meeste mensen ze zullen kopen. Waarschijnlijk komen er geen betere als deze uit, maar als de beschikbaar goed is en de prijzen zo blijven is er weinig mis mee vgm
Nou idd, als ze dit echt waar kunnen maken (de snelheid en de prijs) dan koop je voor de helft van de prijs dezelfde prestaties, dat vind ik toch wel een vooruitgang.
idd en dan moet eindelijk nvidia terug eens gaan concureren , de 5060 en co kunnen dan aantrekkelijker worden
lol zo typisch, een concurent moet verlagen in prijs zodat de andere mee moet want ja we kopen eigenljik alleen maar die andere ;) En dan daarna maar klagen dat de concurrent toch weer niet lager in prijs gaat en eigenlijk toch nooit goed genoeg is.
Tja de ene maakt een beter product dan de andere en vraagt er meer geld voor.
Vind het ook jammer, bijna 2,5 jaar na de 7900XTX en er is geen beter alternatief. Wordt een generatie overslaan ben ik bang.
Het is ook gewoon vrij normaal om een generatie over te slaan. Elke generatie een nieuwe GPU kopen is echt een verspilling van geld.

Maar goed. Eigen keuze natuurlijk.
Deze generatie komt er geen flagship hebben ze aangekondigd.
De vorige generatie was er al geen enthusiast kaart (5090 tegenhanger). Deze keer komt er geen high end (5080 tegenhanger).
Die komt niet. Dat zegt AMD al vanaf het begin over de 9000 serie.
Voor 99% van de gamers zijn dit flagship GPUs.
Nou eerder als afgelopen jaar bij 1080P of 1440p blijft zonder RT en medium high settings. Is dit voldoende
Waar heavy mod games of ruk ports misschien niet maar 95% is zat.
Net zoals dat 5090 sommige moderne games in 8K kan en wat oudere ook.

Ik kijk wat g-kaart binnen de 350 wat past. Dat mijn ceiling.
Had begrepen dat er geen AMD foundation kaarten komen dus het is wel een echte MSRP en we hebben bij NVIDIA gezien hoe enorm veel lager de MSRP is t.o.v. de feitelijke prijzen.
Vind het nog een hoop geld maar als de XT echt <700 euro is dan is dit een (tegenwoordig) schappelijke prijs, de non-XT had vind ik wel meer dan 60 euro goedkoper moeten zijn (wederom in mijn optiek, ik ben echter niet iemand die ooit 1000,- of meer neertelt voor een GPU).
Launch prijs van de RX 6800 was iirc €629, en dat was wat mij betreft ongeveer het maximale.
Bij launch via AMD shop een RX6800 gekocht voor 579,- (De XT was volgens mij 100,- duurder)
De RX6700XT was daar toen 487,- (90 euro weer goedkoper).
Zoals ik zei had het verstandiger gevonden als ze de non-XT echt 100,- goedkoper dan de XT hadden gemaakt.
Van mij was ook via AMD dus dat moet ook 579 geweest zijn. Nog steeds tevreden over de kaart, maar een betere die niet een arm en een been kost, is altijd welkom.
bij NVIDIA gezien hoe enorm veel lager de MSRP is t.o.v. de feitelijke prijzen.
Dit is gewoon omdat de 50 serie kaarten schaars zijn. Dat komt wel weer goed zodra de verkoop vertraagt en de voorraad verbetert.
Waarom is de niet XT nou weer zo weinig goedkoper... Nu zijn krijgt het weer die upselling bijsmaak...
Was bij de 7900XT en 7900XTX ook zo. Toen is AMD ook door zo'n beetje iedere reviewer geflamed voor de prijs van de 7900XT. Tegenwoordig zitten die 2 kaarten 250-300 euro uit elkaar, dus dat gaat waarschijnlijk over tijd met deze kaarten ook gebeuren
De RX 7800 XT en RX 7700 XT idem dito bij release MSRP van $450 vs $500 . Alleen bij die twee is het prijsverschil niet echt veel groter geworden
Waarschijnlijk omdat ze waarschijnlijk even duur zijn om te maken. Enige verschil is dat de ene wat disabled cores heeft en misschien net iets andere stroomtoevoer (ivm lager verbruik).

In de tabel zie je dat goed terug dat de vorige serie veel meer verschillen tussen de modellen heeft en daarom ook (iets) grotere prijsverschillen had.
Blij om te horen dat de ray tracing prestaties verbeterd zijn. Als dat niet het geval was zou ik de prijzen te hoog vinden, gezien je voor deze bedragen geen kaart koopt om alleen oude games te spelen maar waarschijnlijk ook de nieuwste games, met wat toeters en bellen.

Zeker nu er nieuwe games zijn (en aankomen) waarbij RT niet meer uitgezet kan worden is dat geen overbodige luxe.

Hopelijk kan AMD wat marktaandeel terugwinnen (volgens Gamers Nexus is dat inmiddels 10%, en 17% als je integrated meeneem volgens SteamDB). Ik vrees echter dat ze daarvoor alsnog net iets te duur zijn als RT en upscaling onder het niveau van de concurrentie zit.

Ben benieuwd hoe ze uit de bus gaan komen in de onafhankelijke reviews.
Welke dan? Want Indiana Jones moet volgens de vereiste van steam RT nodig zijn. Je kunt het gewoon uitzetten kwam ik net achter. Heb m net gekocht.
Zelfs als je disabled in game gebruikt het nog steeds RT voor global illumination
Weet niet of ik ze allemaal heb, maar in elk geval: Star Wars Outlaws, Indiana Jones (ik weet niet wat je gedaan hebt; 'path tracing' kan uit, maar je kunt RT in elk geval niet uitschakelen 😅. De game heeft geen rasterfallback), Doom: The Dark Ages en Assassin’s Creed Shadows.

In Metro Exodus Enhanced Edition kan het trouwens ook niet uit, maar in principe kun je de normale versie spelen. (Al is dat natuurlijk niet wat je wilt als je een dure, nieuwe kaart koopt.)

Het ziet er (op high settings) niet alleen beter uit, maar RT zonder rasterfallback kan ook nog eens goedkoper zijn om te maken, omdat het minder manuren vereist dan wanneer artiesten de verlichting handmatig moeten plaatsen (zoals bij baked lighting, light probes, shadow maps, SSE, etc.). De verwachting is dat er in de toekomst nog veel meer RT-only titels zullen verschijnen.

Je ziet overigens de trend al langer. Sinds 2018 is RT elk jaar belangrijker geworden. Anno 2025 hebben we nu RT-only titels, en ik zou geen kaart meer kopen die niet goed presteert in RT, zeker niet als je er vijf jaar mee wilt doen.
Ziet er een beetje verwarrend uit in de settings, die global illumination staat niet onder RT, waardoor ik het idee had dat het helemaal uit staat.

Naja, weer wat geleerd.
Haha, ja, dat is inderdaad verwarrend. Ik weet ook niet of ze misschien niet wat te vroeg zijn geweest met een RT only-titel, gezien de AMD-kaarten en de oudere Nvidia RTX 20-kaarten er niet zo goed in zijn.

Als de nieuwe RX 9000-kaarten er wél goed in zijn en de oudere RTX-kaarten worden uitgefilterd, heb je een iets breder draagvlak. Benieuwd hoe Assassin’s Creed en Doom: The Dark Ages gaan draaien.

(Verder vind ik Indiana Jones overigens echt een tof spel. Ik weet niet hoe ver je bent, maar de Dishonored-aspecten zijn erg leuk.)
Ssssssssh, net begonnen
Prijs ziet er wel goed uit. Nu nog even afwachten of ze ook voor die prijs leverbaar zijn ;)

Wat ik wel verdacht vind, is dat ze niet opscheppen over hoeveel % sneller hun raytracing nu is. Dat doet me vrezen dat het nog steeds niet op het niveau van NVidia zal zijn...
In de tweede slide onder het kopje 'RDNA 4-architectuur: verbeterde compute-units, raytracing en AI' staat 2x zo snel als voorheen :). Ik weet alleen niet of ze die ook exact zo tijdens de stream hebben vertoond.
Die 2x zal slaan op de dedicated raytracing hardware (ray traversal/intersection). Dat zal zich zeker niet 1-op-1 vertalen in in-game performance, hooguit enkele tientallen procenten, omdat er gewone compute nodig blijft voor shading (en denoising). Nvidia heeft ray traversal/intersection vgm namelijk ook iedere generatie verdubbeld, waarbij zo'n soort uplift te zien was.
Dat zou geweldig zijn. Al wacht ik toch echt even de onafhankelijke benchmarks af.

Op dit item kan niet meer gereageerd worden.