'AMD Radeon RX 9070 XT is 42 procent sneller dan RX 7900 GRE bij 4k-gaming'

De AMD Radeon RX 9070 XT is gemiddeld 42 procent sneller dan de RX 7900 GRE bij 4k-gaming op ultra-instellingen. Dat blijkt uit cijfers die VideoCardz heeft kunnen inkijken. De RX 9070 is bij 4k-gaming op dezelfde instellingen 21 procent sneller dan de RX 7900 GRE.

De cijfers zijn door AMD zelf gedeeld tijdens een briefing met de media, claimt techwebsite VideoCardz. Daaruit blijkt dat de Radeon RX 9070 XT met een 4k-resolutie gemiddeld 42 procent sneller is dan de RX 7900 GRE, die eind vorig jaar uit de verkoop werd gehaald. Bij 1440p zou dat verschil rond de 38 procent liggen. Die cijfers zijn gebaseerd op 'ruim dertig verschillende games', waaronder Call of Duty: Black Ops 6, Starfield, Cyberpunk 2077, Dragon Age: The Veilguard en Black Myth Wukong.

De techwebsite kon ook cijfers over de lager gepositioneerde AMD Radeon RX 9070 inkijken. Deze gpu zou bij 4k-gaming op max settings ongeveer 21 procent sneller zijn dan de RX 7900 GRE. Als er gegamed wordt op 1440p-resolutie met ultra-instellingen, is de RX 9070 gemiddeld genomen ook zo'n 20 procent sneller.

AMD kondigde de Radeon RX 9070-videokaarten begin januari aan, maar deelde toen nog geen concrete details over de videokaarten. De twee kaarten worden op 28 februari officieel aangekondigd via een YouTube-livestream, die om 14.00 uur Nederlandse tijd van start gaat. Het bedrijf gaat de reeks dan volledig onthullen. De release volgt begin maart.

De Radeon RX 9070-videokaarten worden gebaseerd op een nieuwe RDNA 4-architectuur, met betere raytracingrekenkernen en ondersteuning voor de komende FSR 4-upscalingtechniek. De gpu's zouden gebruikmaken van een nieuwe Navi 48-chip, die wordt geproduceerd op een N4-procedé van TSMC. Uit geruchten blijkt dat de kaarten 16GB GDDR6-vram krijgen.

Vermeende gamingprestaties van de RX 9070 (XT) vergeleken met de RX 7900 GRE (via VideoCardz)
Game AMD Radeon RX 9070 vs. Radeon 7900 GRE
(1440p op Ultra)
AMD Radeon RX 9070 vs. Radeon 7900 GRE
(2160p op Ultra)
AMD Radeon RX 9070 XT vs. Radeon 7900 GRE
(1440p op Ultra)
AMD Radeon RX 9070 XT vs. Radeon 7900 GRE
(2160p op Ultra)
F1 24 104% 105% 123% 123%
Warhammer 40,000: Space Marines 2 109% 108% 123% 128%
COD Black OPS 6 111% 111% 130% 133%
STALKER 2 118% 118% 130% 133%
Starfield 118% 117% 132% 134%
Assassin’s Creed Mirage 121% 128% 132% 143%
Cyberpunk 2077 115% 126% 132% 148%
Final Fantasy XVI Demo 118% 122% 133% 140%
Dragon Age: The Veilguard 126% 125% 138% 141%
God of War Ragnarök 123% 124% 143% 146%
Black Myth: Wukong 122% 120% 144% 142%
Avatar Frontiers of Pandora (RT) 112% 111% 134% 136%
Far Cry 6 (RT) 126% 125% 137% 146%
The Witcher 3 (RT) 115% 122% 139% 148%
Star Wars Outlaws (RT) 122% 123% 144% 148%
Watch Dogs Legion (RT) 125% 130% 145% 152%
Hitman 3 (RT) 128% 128% 157% 159%
Dying Light 2 (RT) 132% 130% 159% 156%
Cyberpunk 2077 (RT) 133% 133% 164% 166%
F1 24 (RT) 138% 134% 168% 166%
Gemiddeld +20% +21% +38% +42%

Door Jay Stout

Redacteur

24-02-2025 • 10:52

144

Submitter: zafer94

Lees meer

Reacties (144)

144
143
41
6
0
91
Wijzig sortering
Wat is dat vergeleken met de 7900 xtx?
Yariva Moderator internet & netwerken @Joshuffle24 februari 2025 10:56
Dat zou je bijvoorbeeld op deze pagina kunnen checken met relatieve performance lijsten: https://www.techpowerup.c.../radeon-rx-7900-gre.c4166
Voor andere:

7900 XTX is ~37% sneller dan een 7900 GRE volgens de link van de moderator.

Dus gemiddeld zou de 9070 XT ~5% gemiddeld sneller KUNNEN zijn dan de 7900 XTX volgens dit tabel.

Dit maakt het misschien wel interessant om te wachten, al zou ik DLSS wel missen (aangezien het soms jammer genoeg nodig is)

[Reactie gewijzigd door Joshuffle op 24 februari 2025 11:01]

Goed punt alleen is de 42% voor Raster EN RT. In vergelijkingstabel van TechPowerUp wordt alleen Raster gebruikt (correct me if I am wrong). Als je gemiddelde neemt van de verbeteringen in Raster kom je uit op 37% en dat betekent dat de 9070 XT precies op de zelfde level komt als 7900 XTX in Raster.

[Reactie gewijzigd door zafer94 op 24 februari 2025 11:46]

Er staan een aantal games genoemd waar RT tussen haakjes achter staat. Dat lijkt me te duiden op resultaten bij ingeschakeld raytracing settings.

Als dit bovendien duidt op een bovengemiddelde verbetering op het gebied van RT prestaties, én AMD op het gebied van upscaling ook het gat weet te dichten, kon dit wel eens een interessante nieuwe baseline worden voor het directe vergelijk met Nvidia.
Verbetertede RT prestaties zouden echt top zijn, zeker nu er steeds meer RT only titels uitkomen waarbij ray tracing niet uitgezet kan worden.

Ik vermoed dat mensen die meer dan 600 euro uitgeven aan een kaart dat niet doen om oude games te spelen. Je mag ook wel verwachten dat je nieuwe games met wat toeters en bellen kan draaien, en dus ook die RT only titels.

Het is een zeer slechte zaak dat AMD nog maar 16.4% marktaandeel heeft op de GPU markt. Ray tracing is niet de enige maar wel onderdeel van het probleem, en dat probleem wordt niet kleiner met die RT only titels.

Ik kan niet wachten op deze kaarten, ik hoop echt dat ze nvidia het vuur eindelijk weer eens aan de schenen gaan leggen. Hopelijk drukt het ook de prijzen.

[Reactie gewijzigd door DLSS op 24 februari 2025 17:35]

Mee eens, het gat dichten is altijd goed.

Alleen is het wel belangrijk te weten dat de eis RT te ondersteunen volledig los staat van hoe zwaar RT is in de betreffende game. Cyberpunk valt zonder RT te spelen, maar zet je de game op max, heeft zelfs een 5090 er nog een hele kluif aan.

Pak ik er wat resultaten van Indiana Jones bij: https://www.dsogaming.com...-pc-performance-analysis/
Dan valt dus op dat ook de 7900 XTX gewoon goede resultaten biedt onder de Supreme settings.

Dat is weer een beetje het klassieke geval van tesselation, waar sommige games dusdanig onrealistisch hoge settings afdwingen, dat de prestaties bij één merk gewoon inkakken, terwijl als je de RT settings wat beter zorgvuldig uitkiest en implementeert, ook AMD kaarten gewoon goed meekomen.

Maar goed, dat is iets waar de gemiddelde GPU koper zichzelf op aan mag kijken. Aan de ene kant schreeuwt men dat games tegenwoordig niet geoptimaliseerd worden. Aan de andere kant is men bereid anderhalve rug voor een Nvidia GPU uit te geven, omdat men niet bereid is optimalisaties in te schakelen in het settings menu voor games met RT.
Ik kan niet wachten op deze kaarten, ik hoop echt dat ze nvidia het vuur eindelijk weer eens aan de schenen gaan leggen. Hopelijk drukt het ook de prijzen.
Zodat jij een Nvidia kaart kan kopen voor een puike prijs en het marktaandeel van AMD laag blijft? :+
Nee ik ben al voorzien van een RTX 4090. Die zal de komende jaren nog in mijn PC blijven denk ik. Ik hoop gewoon op een gezondere GPU markt met meer concurrentie. Lagere prijzen trekken meer mensen en hoe meer zielen, hoe meer vreugd :P
Als de prijs van de 9070 reeks wat meevalt en FSR 4 zo goed is als die demo van CES, dan is de kans groot dat die mijn volgende kaart wordt.

Ik zit nu met een derde (of meer ?) hands 3070 die het na wat nieuwe thermal paste nog altijd voorbeeldig doet. Daarvoor was het een 1070, daarvoor een 970. Mijn laatste AMD kaart was die daarvoor, met de HD6970.

Nvidia heeft me 3 upgrade cycli bij hun kunnen houden, maar hun gedrag en pesterijen rond supply ben ik echt grondig beu. Hier trek ik de lijn. En ik bouw ook heel wat PCs voor vrienden. Als de price/performance van die AMD kaarten beter is in de relevante prijsklasse, dan gaan die er gewoon in.

Ik heb meer dan een jaar de prijzen van de 30 serie zitten volgen om een redelijke deal te krijgen op die 3070. Never again. Foert!
In de data in het artikel is dat inderdaad zo. Maar de "Relative Performance" metric op TPU is Raster-only. Maar TPU doet ook RT-only tests en daar is de 7900XTX ook maar rond de 35% sneller dan de 7900GRE. Als de 9070XT zoals in de resultaten hier 53% sneller is in RT, dan zou dat wijzen op een flinke inhaalslag wat betreft RT performance (en nVidia heeft op dat vlak deze generatie helemaal niks laten zien). De 9070XT zou in dat geval ergens rond/net onder de 5070 Ti uitkomen op RT en rond de 5080 op Raster.

AMD zou dan nog steeds achterlopen op RT, maar lang niet meer zo erg als dat tussen de 7000 en 40 series het geval was.

Maar zien is geloven. Dit blijft een leak. En als de 9070 XT uiteindelijk even veel kost als een 5070 Ti (MSRP), dan slaan ze de plank weer mis en zal de kaart niet verkopen. Het moet echt richting de 500 tot max 600 dollar gaan voor de 9070 XT (met deze prestaties).

[Reactie gewijzigd door Darkstriker op 24 februari 2025 14:56]

Volledig mee eens. Prijs van €600 voor de 9070XT en AMD gaat er veel van verkopen. Evenveel als de 5070Ti aan €850 niet. Dan gaat iedereen Nvidia pakken.
Let wel op dat die 42% sneller in RT is waar RDNA4 een grote stap gaat maken. Daar zal hij ruim sneller zijn dan de XTX maar in Raster zal het ook regelmatig net onder de XTX kunnen zijn.

Als je naar de raster games kijkt die ze hebben laten zien zaten de prestaties wel rond de XTX wat opzich al erg leuk is.

Nu is het vooral de vraag hoe veel geld gaat amd hier voor vragen. Afgelopen jaren zijn ze niet echt scherp geweest qua prijs stelling.

En mensen lijken graag 150/200 euro extra te betalen voor een nVidia kaart.
Nu is het vooral de vraag hoe veel geld gaat amd hier voor vragen. Afgelopen jaren zijn ze niet echt scherp geweest qua prijs stelling.
Het 'probleem' met AMD releases de laatste jaren is naar mijn mening eigenlijk een beetje dat ze qua launchprijs altijd vrij hoog inzetten, om vervolgens erachter te komen dat het slecht verkoopt en de straatprijzen naar beneden gaan tot het moment dat het wel verkoopt. Dat heeft echter wel twee grote nadelen:

- In Launchreviews komen ze er veelal slecht vanaf omdat ze vergeleken worden met een klasse hoger van de concurrent dan het eigenlijk bedoelt is mee te concurreren. Dat 6-12 maanden later de kaarten (pun intended :+ ) heel anders geschut kan zijn maar de launchreviews blijven online en voor mensen een belangrijke graadmater bij het vormen van een oordeel. De 7900XT is hiervan een perfect voorbeeld, ding was voor 1100 euro gewoon te duur, terwijl het nu voor 700 euro de meest interessante kaart is als je iets zoekt in die performanceklasse en niet wilt wachten. Het feit dat Hub en GamersNexus beide met nieuwe videos zijn gekomen om de kaart opnieuw te beoordelen op basis van de straatprijs zegt denkt ik genoeg, maar de 'schade' is dan bij een groot deel van de consumenten gedaan want launchreviews.
- Mensen wie verder kijken dan launchreviews kopen je product niet meer zodra het uitkomt omdat ze weten dat het 100en euro's goedkoper gaat worden, veelal al na ~ 1 jaar. Nvidia en ook Intel producten zijn een stuk 'waardevaster' daarin. De 7700X koste bij launch bijv. 500 euro, een in de praktijk gelijkwaardige 7700 7 maanden daarna nog maar 320 euro. Weer een half jaar later 225 euro. Gevolg is dat als AMD iets uitbrengt ik rustig de kat uit de boom kijk of de prijzen naar beneden gaan, want dat lijkt bijna een gegeven met alle AMD producten.
Dit is zo een domme beslissing die AMD elke keer weer lijkt te maken. Hoog inzetten op de initiële prijs voor wat? Een klein beetje extra winst ten koste van negatieve reviews.

Nu dat ze hebben aangegeven marktaandeel terug te willen winnen is er wellicht een beetje hoop dat ze het slimmer aanpakken want je maakt het mij niet wijs dat het kleine beetje extra winst aan het begin dat resulteert in lagere verkoopcijfers over de gehele tijd het waard is. Hardware Unboxed en Gamers Nexus kaarten dit ook lang genoeg aan dat kaart X bij een net iets lagere prijs en absolute aanrader zou zijn. I.p.v een goede koop mits *lijst van Nvidia pluspunten* voor de koper niet relevant zijn. Hoog tijd dat iemand bij AMD eens naar die videos komt en het roer omgooit.
Helaas lijkt het gezegde "AMD never misses an opportunity to miss an opportunity" altijd waar te zijn voor de grafische afdeling.

Hoog tijd dat AMD de marketing en financiële afdeling van de grafische tak ontslaat en de CPU afdeling dit laat oppakken.
dlss en fsr zijn bijna gelijk bij 1440p en 4k als ze de nieuwste versies gebruiken (naast dlss 4 dan). dus die ga je echt niet missen. en het zal al helemaal gelijk zijn met fsr4 dat ook net zoals dlss is. Dus dat zal goed komen.

Bovendien is die link boven alleen raster. en zal het verschil alleen groter zijn als je ook raytracing aan zet. al hoewel bij 4k dit wel een probleem kan zijn bij sommige spellen. aangezien 16gb genoeg is voor 1440p maar niet altijd bij 4k met alles aan

[Reactie gewijzigd door rickhol op 24 februari 2025 11:16]

ze zijn dus bijna gelijk als je op hogere resolutie en de nieuwste, of zelfs toekomstige versie voor amd er bij pakt, maar niet voor nvidia als je ze vergelijkt. Ik denk dat je dan de kwaliteit verbetering van het transformer model wat tekort doet. Zeker waar dat deel van dlss4 nou net wel weer compatible is met eerdere generaties videokaarten.én het bij nvidia inmiddels in de app mogelijk is om bij een hele stapel spellen de DLSS versie te updaten.


(ja het kon al via dll swappen en wat profile inspector werk, maar het is nu druk op de knop beschikbaar voor de gemiddelde gebruiker)

[Reactie gewijzigd door blackdiablo op 24 februari 2025 11:20]

ja dlss 4 is veel beter. dat is gewoon zo. maar de oude fsr was behoorlijk dichtbij de vorige versie van dlss. ik heb zelf een amd gpu maar me partner heeft nvidia. en als ik (dlss 4 even ter zijde) ze naast elkaar legt is het verschil tijdens gamen echt weinig op te merken tenzij het de enorm slechte fsr 1 is. Dus fsr4 zal meer dan genoeg zijn om je er niet aan te gaan ergeren. vooral als amd er voor zorgt dat je die idd ook gewoon aan kan zetten in alle spellen. omdat sommige devs te lui zijn om het up te daten xD

en zover het erop lijkt kan je fsr4 ook zelf aanzetten. (https://overclock3d.net/n...1-games-with-rdna-4-gpus/)
alhoewel dit wel eerst 3.1 is ben ik er van overtuigd dat amd er ook voor kan zorgen dat dit bij lagere versies mogelijk zal zijn.
Een ding is mij namelijk wel gebleken. op het software front is amd veel beter. nu is nvidia wel wat dichterbij na de recente geforce app update. maar amds adrenalin software vindt ik nog vele male beter
Als het werkt, wel ja... maar dat doet het vaak niet.

Gebruikers (waaronder ik) hebben last van dit probleem, zoals beschreven in de volgende link:
https://www.reddit.com/r/...e_ui_not_starting_solved/

Oftwel, gewoon de applicatie killen en opnieuw openen totdat het werkt. Soms werkt dat wel, maar mijn overlay is dan alsnog stuk.

Ik heb gehoord dat versie 24.10 wel werkt, maar ik heb dat nog niet getest. Ik wacht de driver-update af, die over twee weken plaatsvindt.
ben die bug nog nooit tegen gekomen. interessant. enigste wat ik eerst had maar dat was al een tijd geleden opgelost is dat de oc die ik plaatste ge reset was naar default soms.
ik gebruik op t moment 24.12.1 geen enkele issues.
Ik heb recent uitvoerig Black Myth Wukong lopen testen op zowel de 1080Ti als RTX 5090, maar zover ik het kan zien is de beeldkwaliteit van de DLSS implementatie daar beter dan bij FSR. Ik merkte ook op dat zodra je met framegen gaat werken dat FSR er veelal voor zorgt op de hogere instellingen dat de performance juist slechter dan beter wordt.

Heb het op 720P/1080P/1440P/2160P/2880P/4320P zowel Low als Cinematic getest zowel FSR als DLSS met 50% en 100% scaling met en zonder RT, dat zijn enorm veel benchmarks.
  • Speaking of overall image quality with upscaling enabled, all upscaling solutions in Black Myth: Wukong have their own issues:
  • The DLSS Super Resolution implementation at 1080p and 1440p has noticeable shimmering on vegetation and especially tree leaves, and unfortunately it is visible even when standing still. Perhaps using a newer version of DLSS, e.g. version 3.7, rather than 3.1, would fix this. Regarding other aspects of the overall image quality, the image is pretty stable during fast motion. It is free of any ghosting artifacts and particle effects—of which this game has many—are rendered completely, and without any visible breakups or pixelation in motion. Enabling DLAA will noticeably reduce the shimmering in vegetation, and in conjunction with DLSS Frame Generation, will produce the most stable image quality while offering similar performance gains as DLSS in Quality mode.
  • The XeSS 1.3 implementation in its DP4a mode has even more shimmering on vegetation and tree leaves to a point that it might be very distracting for some people during actual gameplay. Also, the shimmering and flickering artifacts are visible not only at 1080p and 1440p resolutions, but at 4K XeSS Quality mode as well. On a positive note, the XeSS image is free of ghosting or disocclusion artifacts, similarly to the DLSS image.
  • Surprisingly, the FSR 3 implementation has the most stable image in terms of shimmering in moving vegetation, however, the overall image is suffering from excessive ghosting, pixelation in motion and heavy disocclusion artifacts. Every swing of the players weapon or any fast movement of your character in general is followed by very visible pixelation, ghosting and smearing artifacts, which is very distracting, especially during intense boss fights. The FSR 3 image also has a degraded quality of particle effects, especially visible on fire, waterfalls and water effects in general. As this game is not using the 3.1 version of FSR, enabling FSR 3 Frame Generation with FSR upscaling will exaggerate the ghosting and pixelation artifacts to be even more visible during gameplay. To alleviate any concerns over the GPU hardware used, we tested FSR 3 upscaling and Frame Generation using not only a GeForce RTX 4080 GPU, but also a Radeon RX 7900 XT, to see how FSR 3 upscaling and Frame Generation would perform on different GPU architectures—the results were identical.
  • The TSR implementation also fails to reconstruct the details in vegetation rendering, but in a very different style compared to other upscaling solutions. The TSR upscaling algorithm simply can not render the vegetation properly, producing not only a shimmery output, but the image also has significant flickering, with big chunks of very visible black pixels in vegetation, especially on tree leaves in the distance, that flicker even when standing still. These artifacts are visible the most at 1080p and 1440p resolutions. Also, the ghosting artifacts around the main character are present, but to a lesser degree compared to the FSR 3 image.
Bron: https://www.techpowerup.c...s-fsr-vs-xess-comparison/

[Reactie gewijzigd door CriticalHit_NL op 24 februari 2025 12:39]

Hier sluit ik me bij aan. BMW buiten beschouwing gelaten, het is algemeen bekend dat DLSS 3.8 upscaling beter is dan FSR 3.1 op talloze gebieden Genoeg outlets zoals Digital Foundry en Hardware Unboxed die dat aantonen.
de oude fsr was behoorlijk dichtbij de vorige versie van dlss
Dus wat hier gezegd werd door rickhol... ik kan me er totaal niet in vinden. Voor mij zijn de verschillen direct te merken tijdens gameplay op 4K quality preset.
Tegelijk is FSR 3.1 natuurlijk relatief oud nieuws, zeker op dit heel specifieke vlak. Het nieuws in relatie tot dit artikel is dat we hopelijk over 1-2 weken weten wat FSR 4.0 hiervan maakt op een RDNA 4 kaart. Dat is AI based net als NVidia DLSS al veel langer is, maar nu voor het eerst vanuit AMD. Dat stuk nieuwe driver en nieuwe hardware in combinatie zal vast ook pril zijn bij release, waarschijnlijk moet dat voor de zomer nog wat sneller wat grotere stappen door, tot het in de loop van 2025 wat meer zijn uiteindelijke vorm vindt, terwijl het RNDA 4 marktaandeel langzaam groeit.
Dat blijft natuurlijk wel een pijnpunt voor AMD, ze kunnen dat voorlopig echt enkel maar op deze 2 nieuwe kaarten, en zal een aardige worsteling voor ze zijn rond de marketing ervan ook en naar huidige winkelvoorraden, willen ze gek genoeg misschien niet dat FSR 4 met AI op launch day al te spectaculair goed werkt in al te veel games ;)

[Reactie gewijzigd door OruBLMsFrl op 24 februari 2025 13:45]

Vergeet ook niet AMD wilde lang niet aan de AI based upscaling en framegen. Die liepen daar tegen beperkingen aan en zouden nu dezelfde technologie gaan inzetten met FSR4. Weliswaar enkel voor deze nieuwe RDNA4 kaarten gaven ze eerder aan, maar dat zou voor FSR vs DLSS wel eens de grote gelijkmaker kunnen worden voor alles tot en met Framegen x2.
En persoonlijk vind ik framegen x3 en x4 ook redelijk nutteloos want de schermen hier zijn voor mij al meer dan vloeiend met 120 en 144Hz maximaal. Ze geven als basis op moet je minimaal 60fps halen voor een goede framegen ervaring, maar 180 of 240fps kan ik niet weergeven en met de games die we hier spelen is 120Hz al luxe, zou er ook geen extra input latency voor over hebben.

[Reactie gewijzigd door OruBLMsFrl op 24 februari 2025 11:45]

Ik vind zelf fsr3 vs dlss3 nou niet echt bijna hetzelfde. Misschien op de allerhoogste kwaliteit. maar zodra je richting performance gaat op 1440p, of balanced op 4k (en de correcte amd versies) zie je toch zeker flink verschil, zeker tijdens het spelen.
laat dan dlss4 even niet ter zijde en het verschil is echt dag en nacht.

Ik vind het wat voorbarig om, bij een techniek die AMD nog niet echt uit gebracht heeft. Het nog niet duidelijk te vergelijken is (afgezien van een show floor met een spel waar een karakter idle staat te staan, zonder dlss3 en 4 er naast) de claim te maken dat het wel goed genoeg zal zijn.
Eerst even zien, dan geloven.

Wel is het automatische updaten van 3.1 naar 4 goed mo te zien, daar doet AMD het wel écht heel netjes.
Ik vind de AA van FSR nog steeds zwaar ondermaats met FSR 3. Dat doet DLSS (ook versie 3) gewoon vele malen beter. DLSS is zeker niet perfect (ook DLSS4 heeft nog zo z'n artefacten) maar ze vergelijkbaar te noemen is volgens mij een veel te rooskleurige blik op FSR3. Ik moest het laatste weer eens gebruiken in Civ VII (omdat DLSS ontbreekt terwijl FSR & XeSS beide beschikbaar zijn). Uiteindelijk heb ik daar XeSS aangezet omdat het een stuk stabieler was.

Hardware Unboxed had er afgelopen jaar ergens een gigantische deepdive over gemaakt en FSR is sindsdien niet verbeterd terwijl DLSS met versie 4 nogmaals een grote stap voorwaarts heeft gezet. In veel gevallen is DLSS4 Performance nu beter dan DLSS3 Quality dat voorheen was en DLSS4 Balanced is ronduit beter dan DLSS3 Quality.

DLSS en de RT performance zijn de enige twee hordes die mij mogelijk van een 9070 XT weg houden. Dat laatste lijkt een stuk beter te worden (maar is afwachten voor reviews). Ik ben zeer benieuwd naar FSR4. Mij lijkt de kans klein dat ze bij vergelijkbare prestastiewinst dezelfde beeldkwaliteit kunnen leveren. Het blijft kijken hoe dicht ze bij DLSS4 komen. Het doet er namelijk praktisch niet meer toe of FSR3 bij DLSS3 in de buurt komt omdat nagenoeg elke DLSS game met een hand vol clicks DLSS4 heeft.
Het is inderdaad verstandig om de reviews af te wachten, maar de geruchten en leaks over de RX 9070-serie videokaarten geven nu al een redelijk beeld van wat we kunnen verwachten op het gebied van prestaties.

Daarnaast heeft Digital Foundry een uitgebreide vergelijking gemaakt tussen FSR 4 en DLSS. Op basis van de huidige implementatie van FSR 4 zijn zij enthousiast over de resultaten, wat erop wijst dat AMD’s upscalingtechnologie een serieuze concurrent kan zijn voor NVIDIA’s DLSS.
YouTube: Our First Look At FSR 4? AMD's New AI Upscaling Tech Is Impressive!
Het is inderdaad verstandig om de reviews af te wachten, maar de geruchten en leaks over de RX 9070-serie videokaarten geven nu al een redelijk beeld van wat we kunnen verwachten op het gebied van prestaties.
Er zijn ook zat geruchten die op een veel magere verbetering wijzen. Ik ben ook optimistisch maar AMD heeft in het verleden, juist ook bij GPUs, een handje ervan veel te veel te beloven en vervolgens niet te leveren. Net vorige generatie nog moest de 7900XTX een 4090-killer worden. In plaats daarvan werd het een nek-aan-nek race met de veel zwakkere 4080 met juist een achterstand op de meest belangrijke rendering-techniek voor de toekomst (namelijk RT). Voor puur raster was de 7900XTX een stukje sneller dan de 4080 maar nog steeds veel dichter daarbij dan een 4090 en het is veel minder relevant omdat de 4080 net zo goed in praktisch alle rasterized games in 4K ruimschoots voldoet voor max settings. In RT was het een rampzalige vertoning en dat is de afgelopen 2 jaar alleen erger geworden omdat devs erachter zijn gekomen dat je voor een noemenswaardige upgrade dmv RT ook echt veel meer rays moet benutten, iets wat de Radeons op nog grotere afstand zetter (om niet te beginnen over DLSS3.5 Ray Reconstruction - een technologie waar AMD vooralsnog helemaal geen antwoord lijkt te hebben).
Daarnaast heeft Digital Foundry een uitgebreide vergelijking gemaakt tussen FSR 4 en DLSS. Op basis van de huidige implementatie van FSR 4 zijn zij enthousiast over de resultaten, wat erop wijst dat AMD’s upscalingtechnologie een serieuze concurrent kan zijn voor NVIDIA’s DLSS.
YouTube: Our First Look At FSR 4? AMD's New AI Upscaling Tech Is Impressive!
Dat is een "first look" zoals ze dat zelf al in de titel stellen. Geen "uitgebreide vergelijking"! En ja, ze waren toen enthusiast maar dat was ook voordat ze DLSS4 in detail konden bekijken. Ook HUB had een eerste beschouwing geplaatst, maar geen van beide waren uitgebreid en geen van beide konden ook maar in de buurt komen van het detail dat ze normaal in zo'n analyse presenteren. Is FSR4 een stuk beter? Vrijwel zeker. Kan het DLSS4 bijhouden? Misschien. Zelfs DLSS3 inhalen zou al een grote stap zijn. En dan moet AMD natuurlijk nog zien de support voor FSR4 in bestaande games op orde te krijgen (lastig als alleen RX 90 serie kaarten het ondersteunen waardoor de hardware installbase voor een lange tijd veruit het laagst zal zijn van alle upscalers). Kan allemaal wel. Maar of het lukt is een tweede.

[Reactie gewijzigd door Darkstriker op 24 februari 2025 21:49]

Thanks voor je toelichting. We gaan het vrijdag en volgende week met de release maar zien. :)
I wish. Met mijn 6900XT heb ik FSR op 4K wel nodig, maar in sommige games ziet het er gewoon niet uit. Ik mis DLSS wel degelijk. Maar ja, het alternatief was toen een 3080 10GB en dat wordt op 4K inmiddels ook wel wat krap.
Wellicht toch op 1440p blijven gamen. Ik zie teveel dat mensen toch met 4K wat "aankwakkelen". Men wil graag op 4K gamen, maar instellingen en ook de GPU's zelf zijn er toch niet goed genoeg voor.

Ik zou terug gaan naar 1440p en dan mooie goede settings instellen, en je GPU die dat beter bijhoudt.
Als je terug gaat naar 1440p kun je net zo goed FSR/DLSS Balanced aanzetten op 4K. Ongeveer zelfde prestaties en toch beter beeld (al helemaal met DLSS). Voor mensen die nu een 4K display hebben is terug stappen ook niet echt zinvol. Dan liever de kosten van een redelijke 1440p monitor extra in je GPU stoppen (daarmee kom je ruim boven de nVidia monopoly-tax uit en krijgt de betere upscaler)

Maar ja, als je op 1440p speelt, dan is daar in principe niks mis mee. 4K heeft voor- en nadelen.
voor mij was het meer alleen als ik pixelpeep dat ik problemen zie. maar niet tijdens gamen. zolang het geen fsr1 is. kan ook best zijn dat de spellen die jij speelt de slechtere versies hebben. dan is het idd wel te zien. 10gb op 4k is idd niet geweldig. 16gb is ook een beetje aan de lichte kant moet ik zeggen. maar het is wel beter.
Ik kom helaas met regelmaat shimmering tegen en dat vind ik toch wel erg vervelend. Ook ghosting en smearing komt wel eens voor, waardoor bijvoorbeeld regendruppels nagenoeg verdwijnen.
Gelukkig is AMD wel bezig om het te verbeteren, maar naar mijn idee doet DLSS dit soort dingen in veel gevallen (niet alle!) beter.
Als mogelijk gebruik XeSS zelfs dat is beter ondanks dat het hun eerste versie is. Dat zegt genoeg over FSR... ik ben er niet echt fan van behalve voor stroom besparen.
Zeer goede suggestie! Voor RX 6000-kaarten en nieuwer (en een enkele late RX 5000-kaart) werkt XeSS soms inderdaad beter. Ook voor GTX-kaarten uit de 10- en 16-serie kan het een degelijke optie zijn.
Fsr3 is visueel een stuk minder dan dlss. Merkte dat toch echt wel.
Daarom krijgt RX 9070 series ondersteuning voor FSR4.Is niet meer software matig, maar via hardware en dus vergelijkbaar met DLSS van NVIDIA. Tijdens CES had Hardware Unboxed een video over gemaakt.
Beiden zijn hardwarematig, ze pakken het alleen op een andere manier aan. Bij de een maken ze geen gebruik van ML en bij de ander (FSR4) wel.
*mogelijk

Dat moeten we nog maar afwachten. De resultaten van beeldkwaliteit tussen DLSS4 en FSR4 zijn er niet , dus dat kan niemand weten of het gelijkwaardig is.
Het was een demo, niet met officiële drivers van AMD. Het zag er wel beter uit dan FSR3, minder artifacts te zien en details waren beter. Van mij hoeven ze niet gelijkwaardig aan DLSS 4 te zijn, DLSS 3 (quality) was voor mij al voldoende.

Waar ze vooral in kunnen verbeteren is Ray Tracing, meer competitie is altijd beter. Pusht NVIDIA ook wat meer. Nu lijkt het alsof team groen wat te relax is met de RTTX 50 serie (en de problemen).
Nou moet ik zeggen dat ik niet echt een uitgebreide vergelijking gedaan heb, maar mijn ervaring is dat ik bij fsr vaker de reactie "ew dat ziet niet uit" had terwijl ik bij dlss juist vaak nauwelijks verschil zag. Misschien dat fsr verbeterd is en ik het niet meer bij nieuwere implementaties vergeleken heb (ik heb ook geen Nvidia kaart meer), dat zou kunnen. Het was specifiek starfield waar ik fsr bij release onacceptabel vond (en ben toen van een 3070 naar een 7900XT gegaan zodat ik het niet nodig zou hebben).
starfield heeft idd in het begin fsr 2 gehad. nu is het fsr 3.1 en ik vindt die zelf prima. natuurlijk speel ik wel liever zonder. :)
Ik wacht sowieso op de AMD kaarten, het aanbod van Nvidia is minimaal en wat er wel te koop staat zit ver boven MSRP.

Mijn hoop is dat AMD daadwerkelijk genoeg gaat leveren om aan de vraag te voldoen
AMD gaat gewoon iets onder Nvidia liggen. Waarom denk je dat ze de lancering van videokaarten hebben uitgesteld? $750 voor de 5070 Ti is te goed om waar te zijn. Het was een paperlaunch van Nvidia om AMD te dwarsbomen met hun midrange killer. AMD zat waarschijnlijk rond de $800-900.

AMD heeft even rustig gewacht om te kijken of het geen paperlaunch was, en ja, het blijkt zo te zijn. De prijzen schieten al ver boven de adviesprijs uit. Nu gaat AMD gewoon 50-100 dollar onder Nvidia liggen, Dus voor ons rond de €1200-1300, met de marges van boardpartners/webshops erbij. Dus er zal wel wat voorraad zijn, maar het zal niet zo goedkoop zijn als mensen hopen.
AMD heeft ook gewoon framegeneration en upscaling. Het heet alleen anders.
Dus missen doe je niks wat dat betreft.
Beeldkwaliteit is ook een belangrijke factor. Als ik de Digital Foundry video's bekijk, dan is het voor mij wel duidelijk: Bij Nvidia zou ik DLSS Quality overwegen, daar waar ik FSR Quality eigenlijk liever vermijd. Shimmering, ghosting en het verlies van detail, dat zijn compromissen die ik enkel aan zou willen gaan als ik anders onder de 60 fps zou komen. Maar het zijn geen compromissen die ik aan zou willen gaan als een game toch al 80 fps loopt.

Wanneer de compromissen met DLSS (of, hopelijk, FSR4) te verwaarlozen zijn, heb je effectief gratis frames.

Framegeneration laat ik wel ff links liggen. Responsiveness voor alles.
Dit maakt het misschien wel interessant om te wachten, al zou ik DLSS wel missen (aangezien het soms jammer genoeg nodig is)
Het heeft even geduurt, maar met deze nieuwe serie kaarten kan FSR nu eindelijk de concurrentie aangaan:
https://www.pcguide.com/n...even-in-performance-mode/

DLSS is wel alweer een stap verder met hun nieuwe implementatie op basis van een transformer model, maar dan lever je ook prestaties in wat het doel een beetje voorbij schiet denk ik.
Dan zou hij kunnen concurrent moeten zijn met een 4080S, 5070 ti. Dat is goed nieuws gezien de huidige prijzen. Hopelijk heeft AMD wel een voorraad aangelegd :)
Je moet naar ray tracing performance kijken. Dat is waar die 40% behaald word. Daarmee zou deze ongeveer gelijk zijn aan een 5070, voor een vergelijkbare adviesprijs.
Raster is 37, zit dichtbij de 4080s. Daarnaast is een 5070, 12GB wat voor 4K weinig is. Als deze kwa prijs goed valt kan het nog steeds een goede concurrent bieden voor de 5070ti
Raster is 20 en 21% (1440p en 4k), volgens de tabel.
Voor raster zal de 9700XT op niveau van 7900XTX en 5070Ti zitten volgens die tabel, voor RT boven de 7900XTX. Niet slecht. Was ook nodig dat AMD een inhaalslag maakte op gebied van RT tov Nvidia. Bijkomend voordeel dat de kaart 16GB vram heeft, belangrijk als je op 4K wilt spelen tov de 12GB vram vd 5070. Zou interessante kaart zijn als hij 600€ zou kosten. Ga ik mss weer eens naar AMD.
Maar een paar procent sneller .. je spreekt hier natuurlijk over een XTX (the best) ..

Gaat dus uitkijken worden wanneer de RX 9070 XTX later verschijnt .. die zou wel eens rechtstreeks met een RTX5080 kunnen gaan concurreren
Ik vind de vergelijking met de uitgeklede Rx7900GRE ook nogal vreemd. Waarom niet minstens de 9700XT vergelijken met de 7900XT ?
Hopelijk heeft het te maken met de prijsstelling? De 7900GRE is een stuk goedkoper dan de 7900XT
Daarom zou je juist verwachten dat er een vergelijking is van ongeveer even dure kaarten. Dat is namelijk waar de meeste slimme tweakers immers naar kijken.
De GRE valt ongeveer in dezelfde prijsklasse.
9070xt zou normaal gezien dichter in prijs komen te liggen tegen de GRE als de XT. Valt natuurlijk nog af te wachten.
Omdat ie voor dezelfde prijs gaat verkocht worden, daarom de vergelijking wat je voor dezelfde prijs krijgt en wat de prestatiewinst is .. ;)

RX7900GRE <- zelfde prijs -> RX 9070 XT
Als aanvulling op de rest: 16GB vs 16GB vRam. Zodat de winst niet aan meer geheugen ligt.
9070 gelijk aan 7900 xt (iets trager in raster, sneller in RT, 9070xt gelijk aan 7900 xtx (met dezelfde voetnoten).
Dan zou de 9070XT een paar procent sneller zijn dan de 7900XTX, die ook ongeveer rond de 30-40% sneller is dan de 7900 GRE. Eerst zien dan geloven. "AMD never misses an opportunity to miss an opportunity"

En de reguliere RX 9070 iets sneller dan de 7900XT

Bron: review: Radeon RX 7900 GRE - AMD's antwoord op de RTX 4070 Super

Als je alleen de RT titels uit de test pakt, kom je uit op 50 en 53% ipv 38 en 42 met alle games voor de 9070XT vs de XTX. Dan zit je ergens midden tussen de 4070Ti en de 4080 Super.
Flink sneller dan de 7900XTX in RT, die 32% sneller is in de boven gelinkte bron.

ALS dit allemaal klopt, en de prijs niet tegen valt, dan wordt de 9070XT een prima koop voor mensen die een videokaart zoeken in het 4080 klassement. Ik hoop dat AMD een beetje competitief durft te prijzen, zeg 800 euro omgerekend.

Dusja, laten we hopen dat deze excel math op basis van gelekte cijfers ergens op slaat, want nu de 4070 en hoger voorraad min of meer van de aarde afgevallen is, heb je momenteel niet veel keuze.

[Reactie gewijzigd door youridv1 op 24 februari 2025 11:14]

Vergelijking

RX7900GRE
zelfde prijsklasse als de

RX 9070 XT (maar is 42% sneller)
en een rechtstreekse concurrent voor de RTX4080 en de RTX5070Ti
.

Later komt AMD zeker en vast met een RX 9070 XTX op de proppen, mogelijk een rechtstreekse concurrent van de RTX5080 of de toekomstige RTX5080 Ti / SUPER .. ?
AMD heeft nog geen prijs informatie gegeven. We weten niet of de 9070 XT in dezelfde prijsklasse zal vallen als de 7900GRE deed toen deze nog verkrijgbaar was. Ik acht die kans klein. Ik denk niet dat de 9070XT ~600 euro gaat kosten.

AMD heeft al in een officieel statement aangegeven dat ze niet op de high end gaan concurreren deze generatie. Ik zou er vanuit gaan dat de 9070XT het snelste model in de 9000 serie wordt.

[Reactie gewijzigd door youridv1 op 24 februari 2025 12:07]

Dank voor de samenvatting! Goeie info.
Flink sneller dan de 7900XTX in RT, die 32% sneller is in de boven gelinkte bron.
Als je alleen naar 1440p kijkt, ja. Maar de 7900 XTX is een 4K-kaart, en t.o.v. de 7900 GRE is ie daar ~40% sneller. Alles bij elkaar krijg ik meer de indruk dat de 9070 XT en 7900 XTX gelijk liggen qua rasterized performance. RT perf van de 9070 XT is beter, maar je levert ook in op VRAM (16 GB vs 24 GB). Dus al met al... het komt vooral neer op de betere prijs.
Met 800 euro zit je al ver boven wat mensen aan een gpu uit willen geven. Ze zullen dichten bij de 600 moeten zitten willen deze uit de schappen vliegen en willen ze marktaandeel winnen.
Het zou fantastisch zijn als ze 600 euro zouden rekenen. Ik zie dat alleen niet zo snel gebeuren. Nvidia kaarten met vergelijkbare performance, de 4070Ti Super tot 4080 Super, kostten zo'n 900 euro of meer toen ze nog fatsoenlijk verkrijgbaar waren.
Wel typisch dat ze informatie loslaten over een vergelijking van een nieuwe kaart met een oude kaart die niet de snelste is van de vorige generatie.

Ok het is natuurlijk wel een mid-end kaart vergelijken met een mid-end kaart, maar goed.

Zal de prijs ook mid-end zijn? en het stroom verbruik?
Persoonlijk vind ik het niet meer dan logisch dat ze dat niet doen? Je verwacht toch ook niet dat Nvidia de 5060 gaat vergelijken met de 4090? Of dat Apple de M5 straks gaat vergelijken met de M4 Ultra? Of dat Qualcomm de Snapdragon 4 gen 4 gaat vergelijken met de Snapdragon X Elite?
wat ik zeg... tenzij de prijs wel high end is... en het stroomverbruik...

als ik een mazda kan kopen voor € 200.000,- en hij 1 op 6 loopt.... dan mag ik em toch ook vergelijken met een ferrari van € 200.000,- die 1 op 6 loopt...
Nee, want Ferrari neemt op al hun wagens een hogere winstmarge dan gemiddeld. Ferrari komt daar mee weg omdat ze Ferrari zijn.
nVidia begint dat tegenwoordig ook te denken.
Het lijkt mij juist dat je dat vergelijk wel maakt. Waarom zou ik mijn 4070 niet vergelijken met een 3080Ti als dat wel de performance van die GPU is? Dat de MSRP niet gelijk is is voor dat vergelijk eigenlijk niet zo heel relevant. Het is wel een goede indicatie van de performance verbetering tussen de huidige en de vorige generatie.
Ook vind ik de MSRP van de vorige generatie niet bijster interessant, want die koop ik niet. Ik koop de huidige generatie. Alles wat er toe doet is de marktprijs van de huidige generatie, want die moet in mijn budget passen.

Ik krijg zelf bij de cijfers die in deze tabel staan het gevoel dat de marge ten opzichte van de 7900XT en XTX dus niet voldoende is om in marketing mee te schermen.
Ook het feit dat ze alleen percentages geven en geen absolute cijfers geeft mij weinig hoop dat AMD met deze generatie wel iets neerzet dat competitief is. 131% klinkt mooi, maar als de basis 21FPS was, dan zit je nog steeds op een onspeelbare 28FPS.
Yariva Moderator internet & netwerken 24 februari 2025 11:01
Mochten deze cijfers correct zijn en afhankelijk van de prijs zou dit wel eens mijn volgende kaart kunnen worden (mits ook goed verkrijgbaar.) Ik game op een 3440x1440 monitor en vooral de wat rustigere games (Hogwards Legacy etc.) Deze heb ik nu met flinke concessies gespeelt op mijn GTX1080, ik zou het top vinden om hem opnieuw te spelen met alles op high detail 100 FPS+.

Destijds keek ik naar de 4080 super en deze voldeed aan mijn wensen. Echter iets met kopen en stemmen met je portemonnee. En het überhaupt een duur product vinden. Mocht deze kaart onder of rond de 900 euro vallen (ongeveer 700 euro met inflatie berekend sinds ik mijn GTX1080 2dehands kocht voor 400 euro) ben ik wel tevreden voor de hoeveelheid prestaties welke je ermee zou krijgen.

[Reactie gewijzigd door Yariva op 24 februari 2025 12:37]

Toevallig heb ik Hogwarts Legacy zelf kort geleden (uit)gespeeld op 3440x1440 op hoge settings (geen RT) en +60 fps. En inderdaad, dat was genieten! De reden dat ik hier even op inhaak is omdat ik denk ik wel kan helpen om je verwachtingen meer vorm te geven. Zelf heb ik in het voorjaar van 2021 m'n 'nieuwe' PC samen mogen stellen met o.a. een 5900X, 6800 XT en 64GB RAM (3600 MHz). Ik kwam toen van een i7 4770 en GTX 970. M'n huidige setup heeft altijd probleemloos gedraaid (denk aan driver issues o.i.d.) en het verschil tussen deze systemen was, zoals verwacht, enorm en stelt mij in staat om de games die ik vaak speel op 3440x1440 op hoge settings te spelen met minimaal 60 fps, maar vaak ver daarboven(!). Ik merk wel dat de nieuwere spellen meer beginnen te vragen van het systeem of dat ze simpelweg slechter geoptimaliseerd zijn. Ook ik ben daarom erg benieuwd wat de 9070 XT te bieden gaat hebben en vooral tegen welke prijs. Als AMD de 9070 XT tussen de 600 - 800 euro gaat prijzen, een flinke uplift in performance kan bieden én voldoende voorraad achter de hand heeft, denk ik dat ze hier veel gamers blij mee kunnen maken.

Kijkende naar het bredere plaatje heeft Nvidia op een aantal punten een streepje voor (CUDA, RT performance, DLSS), maar de prijzen die ze de laatste jaren - en zeker nu - vragen staan niet meer in verhouding met wat de kaarten bieden (t.o.v. AMD). Maar dat is mijn mening... Ik ben tot op heden altijd zeer tevreden geweest met de prestaties van m'n AMD CPU én GPU en zou ook nu weer dezelfde keuze maken. Wellicht dat jij binnenkort ook jezelf de trotse eigenaar van een 9070 XT mag noemen en kan genieten van je hernieuwde ervaring met Hogwarts Legacy!
Yariva Moderator internet & netwerken @CasseenovaTech24 februari 2025 15:43
Leuk om te lezen dat je er zoveel plezier van heb :) En ik deel je mening. Betere features zijn leuk maar er zit een limiet aan de meerwaarde (in de portemonnee.)
Ik heb ook 1080 gtx en kijk ook rijkhalzend uit naar deze kaarten.

Ik had een paar eisen, moest minstens +90% prestaties zijn (6950xt is laagste kaart die dat haalt, 7900xt +105%, 7800xt +80%. De eisen komen door plots omschakeling naar 1440p (scherm is al gekocht, nog iet gebruikt) en 144hertz) en ook hoe zot sommige games worden (black myth wuking - ik zal deze game niet kopen uit protest tegen de zeer slecht optimalisatie).

Prijs graag 650€ en die heeft 7900xt net niet gehaald. Dan kwam nog verbruik, 6950 xt 400 watt, 7900xt 340 watt, vind ik teveel in huidige tijden, bv 4070 super verbruikt maar rond 220 watt (1080 gtx rond 190 watt).

Dusja, zeker die 9070 qua verbruik lijkt dat te halen. De 9070 xt is leuk omdat hij 12.5% extra cores heeft, die kunnen op lage klokt goed doorschalen en meer fps halen met zelfde kloks als 9070. Maar ben bang van prijs van 9070 xt, als amd me verrast (580-650€ aftermarket modellen zoals 7900 gre) dan twijfel ik niet.
Het stroomverbruik is inderdaad ook nog zoiets. Met wat tweaken en undervolten heb ik mijn 6800 XT naar een stroomverbruik van zo'n 220-280W gekregen. Het vergt natuurlijk wat tijd, aandacht en geluk om dat te halen en stabiel te krijgen. Het mooiste is dat je je kaart minder stroom kan laten gebruiken, terwijl je de prestaties verder kan verhogen. Daar zat namelijk nog wel wat speelruimte.

Los van de prijs is het natuurlijk leuk dat de 4090/5090 serieus snel is, maar je verbruikt dan ook wel 450-600 watt aan stroom. En dat is dan alleen de GPU. Ben benieuwd wat de 9070 XT van de voeding gaat vragen.
Volgens geruchten 9070 220 total board power en 9070 xt 340 total board power, OC varianten doen nog wat op, dus +45 watt elk denk ik zo, dan heb je maximum verbruik in heel zware shit (90-100% gpu). Bij elke gewone game of gedoe die geen 100% vraag zie ik 180-270 watt makkelijk gehaald worden.

Maar zal reviews afwachten en ben heel niewsgierig, stiekem is de 7900 gre al heel goed daarin, en de 9070 zal ongetwijfeld beter zijn.
De gains lijken vooral ook op RT te liggen en niet zozeer raster performance. Verwacht gezien de beschikbare info, dat de 9070XT zal presteren als een 7900XT met betere RT performance. Dan kom je haast uit op een 4070Ti achtige performance. Als AMD de prijs goed kan plaatsen zal het (hopelijk) wat martktaandeel van Nvidia pakken. Concurrentie is altijd beter voor ons als consument.
Als je de gemiddeldes uit bovenstaand tabel neemt voor Raster games, kom je uit op 37% sneller dan 7900 GRE, dus ongeveer gelijk aan de 7900 XTX. 9070 zal ongeveer even snel zijn als 7900XT in Raster

[Reactie gewijzigd door zafer94 op 24 februari 2025 11:47]

Verwacht dat het wat sneller zal zijn dan de 7900XT, denk niet dat die qua raster gelijkwaardig zal zijn aan de XTX. Ben in ieder geval erg benieuwd naar de reviews. Hopelijk plaatsen ze de kaart (9070XT) ergens in de $650/700 MSRP en is er genoeg voorraad. Denk het niet, maar hopen mag. Zal in ieder geval een behoorlijke klap geven aan Nvidia.
De 7900 XTX is ~32% sneller dan de 7900 GRE, dus dan zal de 9070 XT de 7900 XTX net overstijgen?
Als je de tabel leest dan zou het ~30% sneller zijn dan de GRE in games zonder RT, dus de 9070 XT iets langzamer dan de XTX in raster en ~50% sneller in de RT tests dan de GRE, de winst t.o.v. de XTX zit voornamelijk in RT.
Wat je kon verwachten met wat AMD heeft gezegd over deze release.
Geen top of the range kaart qua performance, de focus op minder energieverbruik en betere RT.
AMD positioneert het onder de 7900 XTX gebaseerd op hun officiele presentatie. Ik denk hat het iets langzamer zal zijn dan de 7900 XTX.
Let wel op dat de GRE erg bandwidth constrained is, dus 4k zal meer inflated zijn dan verwacht.
Mooie cijfers. Maar de prijs zal er ook wel naar zijn. Het prijsverloop van welhaast alle kaarten is stijgend in plaats van dalend momenteel. Hopen dat ze flink onder de de msrp van de 5070 gaan zitten en niet maar 5 tientjes. Voor msrp kopen zit er vast niet in met de tekorten en scalpers voorlopig. :'(
ze vergelijken het met een gre omdat dat hun prijspunt zal zijn.

Gok dat de 9070xt ongeveer 630 euro zal kosten en de 9070 ongeveer 450-500. Wat dus best een goede prijs zal zijn. Het zal ook niet zo gescalpt worden omdat er al lang veel stock is bij retailers. die kaart zou namenlijk al in januari uit komen. dus stock is er al.

en de perf van de 9070xt is echt goed. wel grappig dat de 70 classe van amd ongeveer gelijk of beter is dan de hoogste classe van vorige generatie. normaal zou je dat eigenlijk bij nvidia moeten verwachten.
980ti - 1070
1080ti - 2070 super (de echte 2070)
2080ti - 3070

en toen ging het downhill.
3090ti- 4080
4090- 5090

denk dat ik maar mijn 6950xt op de markt zal zetten wanner de 9070xt uit is ;)
Ik hou van je optimistische kijk, maar denk niet dat het voor 630 euro te krijgen is. Denk eerder 950 euro.

Maar hoop heel erg dat jij gelijk krijgt!
Denk dat jij je geen zorgen hoeft te maken. Amd weet wel dat hun prijs goed moet zijn. Ze hebben zelfs verschillende youtubers zoals HUB gevraagd voor hun input.

De gre is een goede kaart om het tegen te benchen vanwegen de prijs. Er is geen enkele andere reden waarom amd het anders zou doen. Aangezien ze ook gewoon de 9070xt kunnen vergelijken met een 7900xt. Maar ze kiezen specifiek voor een 7900gre.
Waar zijn die geruchten dat AMD Hub gevraagd heeft? wil die wel eens zien (heb all Hub podcast beluisterd daar is het alvast niet).

Nvm gevonden, Twitter ofzo :) Ook veel op reddit. Dacht dat ze dit zeker in podcast zouden vermelden maar neen. :)

Wie weet 500$ 9070xt hahaha, kunnen maar dromen, dan koop ik zeker.

[Reactie gewijzigd door Matti7950 op 24 februari 2025 18:23]

yup geen gerucht gewoon direct van hun mond zo gezegd. dat samen met het feit dat ze het tegen de 7900gre zetten zegt mij 630~ euro
Dat is wel heel hoopvol :-)
Ik weet niet wat ik moet zeggen anders dan donnerwetter.

Op dit item kan niet meer gereageerd worden.