Door Reinoud Dik

Redacteur

Waar Nvidia spartelt, overtuigt AMD

Radeon RX 9070 & 9070 XT Review

05-03-2025 • 15:00

295

Singlepage-opmaak

Conclusie

AMD zet met zijn RX 9070-serie videokaarten op basis van de RDNA 4-architectuur grote stappen. De fabrikant is aan de slag geweest met zo'n beetje elk bekend pijnpunt van eerdere Radeons om hierin verbetering aan te brengen. De adviesprijzen zijn behoorlijk scherp ten opzichte van Nvidia en de featureset van AMD is concurrerender dan deze in lange tijd is geweest. Dat is hoe dan ook goed nieuws voor de consument, want er valt echt wat te kiezen. Voor nu is de grote onzekerheid wat de prijzen in de praktijk gaan zijn.

RX 9070 XT: vooral veel prestaties per euro

De rasterisationprestaties van de RX 9070 XT liggen minder dan één procent onder die van de RTX 5070 Ti, terwijl de adviesprijs maar liefst 194 euro lager uitkomt. Vanzelfsprekend betekent dit dat de prijs-prestatieverhouding van de RX 9070 XT een heel stuk beter is dan die van de RTX 5070 Ti. Zoals we afgelopen generaties al gewend waren van AMD, liggen de raytracingprestaties iets lager dan bij Nvidia. De RX 9070 XT is dan gemiddeld 13 tot 14 procent langzamer dan de RTX 5070 Ti, wat een iets kleinere achterstand is dan we vorige generaties zagen.

RX 9070: erg veel prestaties per watt

De RX 9070 valt vooral op door zijn uitstekende prestaties per watt dankzij relatief lage kloksnelheden en een bescheiden tdp. De kaart scoort daarin ruimschoots beter dan elke andere geteste videokaart. De rasterisationprestaties liggen op de RX 9070 gemiddeld 6 tot 7 procent hoger dan op de RTX 5070, terwijl de adviesprijs van die eerste 15 euro lager ligt. De prijs-prestatieverhouding van de RX 9070 is daarmee beter dan die van de RTX 5070. De prijs van de RX 9070 ligt wel wat dicht bij de RX 9070 XT, wat die laatste in verhouding interessanter maakt.

De straatprijzen - het grote vraagteken

De RX 9070 en 9070 XT zijn goed presterende videokaarten die nog iets gunstiger naar voren komen dankzij de tegenvallende prestatiewinsten en prijzen van Nvidia's RTX 5070 en 5070 Ti ten opzichte van hun voorgangers. Om te kijken hoe het aanbod van AMD zich verhoudt tot dat van Nvidia, hebben we in onderstaande tabel de prijs-prestatieverhoudingen op een rijtje gezet. Afgaande op de adviesprijzen zet AMD een betere deal neer, met name bij de RX 9070 XT.

Videokaart Adviesprijs Gemiddelde van
vier prestatiescores*
Prijs-prestatieverhouding
in euro per fps
(lager is beter)
Radeon RX 9070 639 euro 63fps 10,14
GeForce RTX 5070 654 euro 61,2fps 10,68
Radeon RX 9070 XT 695 euro 73,8fps 9,42
GeForce RTX 5070 Ti 889 euro 77,9fps 11,41

*Gemiddelde van prestatiescores voor 1440p Ultra en 4k Ultra, zowel met als zonder raytracing

De adviesprijzen van AMD zijn dus erg scherp, maar de grote vraag is hoe dat er in de praktijk gaat uitzien. Met het ontbreken van een referentiekaart die AMD's adviesprijs aanhoudt zijn kopers overgeleverd aan het aanbod van boardpartners en de prijzen van webshops. Boardpartners brengen niet zelden luxere versies van videokaarten uit, wat de prijs opdrijft. Als winkels door een verstoorde balans tussen vraag en aanbod de prijzen dan nog verder verhogen, kan er van een eventuele betere prijs-prestatieverhouding dan weinig overblijven.

Afgaand op de gang van zaken bij Nvidia's RTX 50-serie is er genoeg reden om sceptisch te zijn over scherpe prijzen bij de nieuwe Radeons. Toch horen we van verschillende webshops dat hun voorraden van de RX 9070 XT 'enkele honderden' kaarten bedragen, wat al flink beter is dan de praktisch onbestaande voorraad van de RTX 5070. Of het genoeg is om de horde teleurgestelde potentiële kopers van de RTX 50-serie hiermee te bedienen, is de volgende vraag. Duidelijk is in ieder geval al wel dat de nieuwe Radeons met hun features en prestaties een mooie sprong maken binnen hun segment.

De Radeon RX 9070 en RX 9070 XT zijn vanaf 6 maart 15.00 uur Nederlandse tijd beschikbaar bij webshops.

Reacties (295)

295
291
111
13
0
130
Wijzig sortering
Het stuk over FSR 4 had wat mij betreft meer uitgebreid gemogen. De zojuist geüploade Digital Foundry FSR 4 / DLSS 3 / DLSS 4 video laat zien dat FSR 4 een enorme sprong is t.o.v. FSR 3.1.

FSR 4 is vergelijkbaar (soms zelfs beter) met het laatste DLSS 3 CNN model, en die was al prima. Petje af voor AMD - héél goed gedaan. Ontzettend veel problemen van FSR 3.1 zijn verholpen en image quality is daardoor stukken beter. Het is geen concurrent van DLSS 4, maar dat is ook niet nodig. AMD's upscaling is nu eindelijk aan te raden.

[Reactie gewijzigd door IlIlIllII op 5 maart 2025 15:26]

@Trygve

Aanhakend op dit bericht: gebaseerd op alle andere FSR 4 reviews en de tekst/scores in dit artikel kan ik met 99% zekerheid concluderen dat jullie niet FSR 4 Quality hebben getest, maar de ''native AA'' modus van FSR 4. NVIDIA's DLSS heeft een soortgelijke modus: DLAA
Met de Quality-modus probeert FSR 4 een betere beeldkwaliteit dan op de native resolutie te bieden, terwijl FSR 4 Performance een lagere basisresolutie gebruikt waarop upscaling wordt losgelaten zodat de prestaties hoger komen te liggen.
Dit is bijvoorbeeld onjuist. Zowel quality als performance mode gebruiken allebei een lagere basisresolutie. Dit geldt voor zowel FSR 3.1 als 4. De interne resolutie percentages zijn onveranderd gebleven; te weten 67% en 50% respectievelijk.

FSR 4 NativeAA wordt hier door Tweakers verward met FSR 4 Quality. Wat jullie zeer waarschijnlijk hebben getest is de native AA modus, waarbij alleen FSR TAA wordt toegepast en de interne resolutie hetzelfde blijft. Dit wordt verder bevestigd door jullie nagenoeg identieke ''FSR 4 quality'' en ''native'' performance resultaten, terwijl andere tech reviews enorme gains laten zien bij FSR 4 Quality.

De uitleg van Tweakers is sowieso onjuist, maar de misstap bij de benchmark kan ik niet plaatsen. Wellicht een fout van Treyarch in het BO6 graphics menu of een user error bij Tweakers. Hoe dan ook, de huidige tekst en prestaties kloppen niet en geven een onjuist beeld.

Gelieve dit gedeelte van het artikel aan te passen! FSR 4 benchmarks opnieuw uitvoeren (met meerdere games) lijkt me heel verstandig.
AuteurTrygve Redacteur @Daraxo5 maart 2025 20:40
Die tekst leek dat inderdaad foutief te suggereren, dus dat heb ik aangepast.

We hebben de FSR 4-modi (gelukkig) niet door elkaar gehaald bij het testen. Ik vond het resultaat ook wat vreemd en heb het juist daarom gedubbelcheckt. Ik kan niet veel andere media vinden die FSR4 ook hebben getest in Black Ops 6, behalve PCGamesN dat hetzelfde ziet als wij: "We found that FSR 4 on the Quality setting was actually slower than using the native resolution." Wel zeggen ze daarbij dat de prestaties beter worden als variable rate shading wordt uitgeschakeld.

Kortom, FSR 4 (Quality) lijkt in Black Ops 6 gewoon minder goed te werken dan in andere titels die door andere media zijn getest. Ik voeg daarover een note toe in de review. Blijkbaar is dat door AMD en/of de developer niet helemaal goed doorgetest, want deze game stond wel op de lijst van ondersteunde titels die AMD ons voorafgaand aan de release heeft verstrekt.

FSR 4 uitgebreider analyseren staat uiteraard hoog op onze wensenlijst, zeker ook in vergelijking met DLSS 4. Voor deze launch review was dat helaas niet haalbaar, maar we komen daar zeker op terug in een apart artikel.
Heel erg bedankt voor het aanpassen en deze opheldering. Opvallend is dat Black Ops 6 juist aanzienlijk is gebruikt in de marketing van de 9070 (XT) en FSR 4.

Het zou mij niets verbazen als Black Ops 6 in dit geval de game op native resolution draait in plaats van 67% resolution, ongeacht van wat de game settings aangeven. In principe is die interne resolutie ook wel te achterhalen met tools zoals Special K en good ol' pixelcounting, maar eerlijk gezegd... het is de moeite niet eens waard. Het is duidelijk dat er hier iets niet klopt in vergelijking met alle andere spellen. Jammer dat Tweakers nou net die ene rotte appel heeft gebruik voor het stuk over FSR 4, maar dat valt jullie natuuurlijk niet kwalijk te nemen.

Ik kijk uit naar de grote FSR 4 review binnenkort!
De image quality is wel veel beter, maar het is wel een grote performance hit als FSR 4 Quality hetzelfde aantal fps geeft als native op 4k resolutie.
maar het is wel een grote performance hit als FSR 4 Quality hetzelfde aantal fps geeft als native op 4k resolutie.
En hier is als het sleutelwoord. Ik weet niet waar je je op baseert, maar dit is natuurlijk totaal niet het geval. FSR 4 Quality (met 4K output) geeft betere performance dan 4K native, zoals je zou verwachten. Eén blik op de review van LTT laat dat zien.

[Reactie gewijzigd door IlIlIllII op 5 maart 2025 16:22]

Waarschijnlijk baseert hij zich op de Tweakers review waaronder we hier reageren, en waarbij FSR quality identieke performance heeft aan native.
Ah, die had ik over het hoofd gezien. Dat lijkt me dan een enorme uitschieter. Het is compleet tegenstrijdig om vergelijkbare performance te krijgen met native als je een game op 2/3e van de resolutie draait. Geen enkel algoritme is dusdanig zwaar, ook niet FSR 4. :P Ik ga uit van een config/driver probleem in het geval van BO6. LTT laat een verbetering zien in meerdere games, zoals het hoort.
Gewoon bagger geïmplementeerd door Treyarch. Is ook geen verassing, er bevinden zich memory leak issues in Black Ops 6 PC die al spelen sinds BO:CW.
Al kan ik FSR 3.1 nog wel bekoren (daarvoor was het ruk), kijk ik wel uit naar een upgrade eind van het jaar en dan met FSR 4 erbij.
Dit is gewoon een grote grap, kaarten waren in 4 minuten uitverkocht binnen Nederland.
Azerty heeft de prijs ook al flink verhoogd...
Heel teleurgesteld.
Ze waren niet uitverkocht maar ze hadden door dat mensen die wel 900 euro zouden betalen voor een 5070ti dat ook zouden doen voor een 9070
Geduld is een schone zaak bij het aanschaffen van een videokaart tegenwoordig. Als je geen haast hebt, zou ik over drie maanden nog eens kijken, wanneer de voorraden zijn aangevuld. Vermoedelijk liggen de prijzen van zowel Nvidia als AMD dan dichter bij de adviesprijs
Bedankt voor de review, jammer het schaamteloze gegraai van de webshops weer. Hopelijk dat over een tijdje de prijzen normaal worden!
Wie stemt er nog op Megekko voor beste webwinkel? Gierigste dat zeker wel.

[Reactie gewijzigd door FreekPlakjeCake op 7 maart 2025 03:25]

Zolang iedereen blijft betalen zullen dit soort winkels blijven verkopen tegen de waanzinnig hoge prijzen.
Inderdaad, iedereen die nu een kaart kopt helpt hier aan mee.
Inderdaad, gewoon boycotten die webshops. Er zit genoeg marge op de hardware. Dit is gewoon ordinair gegraai.
Het is leuk dat de 9070XT het zonder raytracing zekers gelijkwaardig doet als de 5070TI of beter (voor meer stroom), maar kijk je naar games met Raytracing (Cyberpunk, Inidiana Jones, etc) dan legt die het toch nog steeds aardig af met zo'n 20% verlies.

Als ik 10 kaarten overweeg en die halen allemaal 120 - 200 fps in games zonder RT dan ga ik toch echt kijken naar wie het beste scoort in verhouding tot prijs/stroomverbruik bij het gebruik van RT, want daar kom je sneller op een FPS-aantal uit waar je blij mag zijn als je de 60+ weet aan te stippen (tegenwoordig natuurlijk makkelijker met alle AI trucs).

Bovendien is nu iig nog DLSS beter dan FSR, dus dat weegt ook mee.

PS: beetje lame om dit te downvoten als de conclusie je niet bevalt. 20% meer power voor 200 meer (wanneer de prijsen naar adviesprijs zakken) vind ik een goede tradeof. Ik zeg niet dat de 9070XT slecht is, enkel dat de 5070Ti beter is voor een iets hogere prijs.

[Reactie gewijzigd door Morkatog op 6 maart 2025 16:16]

En zie hier hoe GAMERZ altijd wel een reden vinden om toch Jensen een machtiging te geven op hun bankrekening.

Cyberpunk is basically een 'laat nvidia winnen' simulator, en het gat tussen amd en nvidia in RT performance is bij cyberpunk steevast groter dan in andere games met RT. Het is dus een echte uitschieter in het voordeel van nvidia, dat vooropgesteld. Je moet je dus afvragen of je die ene game van enkele jaren terug je hele aankoop moet bepalen.

Maar goed, laten we naar de prestaties kijken: de 9070 XT presteert met RT aan op het niveau van de 4070ti, en tussen de 5070 en 5070ti. De 5070 ti kost momentele 1200 euro. De 4070 ti zit rond de 1000€. De 5070 is nog niet te koop, maar de voorraad lijkt wederom miniem, met extreem hoge prijzen tot gevolg: ik verwacht minimaal 900€. De 9070 heeft een lagere msrp en volgens webwinkels is de voorraad van deze gpus in de VS erg goed. Laten we hopen dat dit ook hier zo is, dan zal de verkoopprijs dus dichter bij de msrp liggen dan bij nvidia.

Dus zelfs als je enkel naar Cyberpunk met RT kijkt: de 9070XT biedt veel meer waar voor je geld dan team groen.

Waar blijf je dus maar over klagen? Geef dan gewoon toe dat je enkel nvidia wilt kopen, das wel zo eerlijk.

[Reactie gewijzigd door kiang op 5 maart 2025 22:39]

Dit is toch wel erg kort door de bocht. Het gaat niet alleen om Cyberpunk: er zijn meer games met raytracing support. Techradar had laatst een betere review over de 9070XT geschreven. Daaruit komt naar voren dat met raytracing de 9070XT zo'n 20% minder performed dan de 5070TI. Die is weleenswaar duurder, maar je krijgt dus wel een aanzienlijke performance winst met raytracing.

Nu is het aan jezelf om te bepalen of je raytracing wel of niet iets vindt toevoegen: ikzelf in ieder geval wel. Daar mag je een andere mening over hebben, maar het is niet aan jou wat ik wel/niet aanschaf.

Ik heb zelf overigens zeker geen haast om te upgraden, dus ik wacht rustig tot die 5070 ti aardig in prijs zakt.

Bovendien gebruikt iedereen ook DLSS of FSR en op dat gebied verslaat Nvidia AMD ook nog steeds.

Ik draag team rood een warm hart toe en heb genoeg AMD-kaarten gehad, maar ik zit in een positie waar 200 euro meer of minder niet direct een verschil maakt en dan ga ik liever voor het meest maximale onder de zwaarste omstandigheden. 20% meer performance winst voor (als de prijzen eenmaal zakken) 200 euro meer vind ik een prima tradeof.

Daarnaast: ik klaag niet, ik constateer. Allicht dat je zelf een bepaald gevoel hebt bij dit onderwerp maar projecteer dat niet op anderen.
Daaruit komt naar voren dat met raytracing de 9070XT zo'n 20% minder performed dan de 5070TI. Die is weleenswaar duurder, maar je krijgt dus wel een aanzienlijke performance winst met raytracing.
Het is wel erg makkelijk om gewoon te zeggen "ja, hij is duurder maar hij is ook sneller!" zonder de cijfers erbij te halen. Op die manier kan je ook de goedkope 7600 met de RTX 5090 ergelijken, en roeptoeteren dat de 5090 beter is: "ja hij is duurder maar hij is wel sneller!". Zonder cijfers betekent die uitspraak niets.

Bij deze dus:

De 5070 Ti kost minimaal rond de 1250 euro. De 9070 XT kost nu 825 euro, en zal vermoedelijk goedkoper worden (hij is slechts enkele uren verkrijgbaar), maar goed, laten we deze prijs hanteren.
Dat is dus 51% meer geld voor 20% meer RT performance.

Nog een vergelijking: in RT is de 9070XT bijna zo snel als de 4070Ti Super in RT: de 4070Ti Super is 5.1% sneller. Echter kost hij momenteel minimaal 1050 euro.
Dat is dus 27% meer geld voor 5% meer RT performance.

je hebt het dus over 200 euro meet voor 20% meer performance, maar dat is team groen beidt ofwel 5% meer voor 200 euro extra, of 20% meer fps voor 425 euro extra.

En dat is dus, nogmaals, enkel voor RT. Voor raster is het dezelfde performance voor 425 euro minder.

Zoals ik al zei: je verzint irrationele excuses om nvidia geld te geven.
Ik zie dat je door je haat voor kamp groen en je liefde voor kamp rood weinig ruimte voor rationaliteit hebt, desondanks een poging:

Het prijsverschil heb ik benoemd en dan ga ik uit van de adviesprijs. Dat is 200 verschil en is idd meer dan 20% die je wint met RT performance, maar het is niet alsof AMD (helaas) een alternatief heeft dat echt de strijd aan kan qua performance met de 5070ti, 5080 of 5090. Dan hebben we het nog niet over zaken als DLSS vs FSR (4 moet zich nog bewijzen maar tot nu toe is dit altijd een +1 voor kamp groen geweest).

Bovendien, ja, de prijzen liggen nu boven de adviesprijs: als je het voor de huidige prijs haalt ben je wmb sowieso gek. De prijs gaat voor beide vanzelf een keer omlaag en wanneer je op de adviesprijs zit, krijg je een aanzienlijk kleiner prijsverschil.

Zolang op RT en upscaling gebied AMD niet minimaal kan bijbenen op het niveau van een XX70TI / XX80 is dat voor mij geen interessante optie. Als de RT performance jou niet boeit en je met minder genoegen neemt, dan gefeliciteerd: je hebt een goedkoper alternatief.

Ik weet niet wie je probeert te overtuigen maar het argument 'neem met minder performance genoegen want dat kost in verhouding nu minder' zonder ook nog met zaken als upscaling, stroomverbruik, adviesprijs, etc rekening te houden slaat nergens op.
Het prijsverschil heb ik benoemd en dan ga ik uit van de adviesprijs
Maar die prijs bestaat in de praktijk niet, en de afgelopen 2 generaties (zowel bij de 3000 als de 4000 serie) bleek dat dit gedurende de hele levensduur van de generatie zo bleef.

De cijfers die ik noemde zijn overigens outdated: inmiddels, nog geen 24u na de start van de verkoop, is de 9070XT gewoon aan MSRP te krijgen: hier is hij te krijgen voor 695 euro. De 5070 Ti is echter nog steeds 1200 euro, dus vandaag is het verschil 500 euro, oftewel 70% meer geld voor 20% meer RT performance en identieke raster performance.
De prijs gaat voor beide vanzelf een keer omlaag
Waar baseer je dat op? Het prijsverloop van de 4070 ti is gewoon een zo goed als vlakke lijn. Voor de 3000 serie geldt hetzelfde: die prijzen zijn enkel gestegen.

Je mag van mij gerust de theoretische oefening maken door MSRP prijzen te vergelijken, maar zolang deze nergens bestaan slaat dat nergens op. Maar zelfs dan...
wanneer je op de adviesprijs zit, krijg je een aanzienlijk kleiner prijsverschil.
Dan betaal je dus 30% meer voor identieke raster performance en 20% meer RT performance. Minder onredelijk, maar alsnog een slechtere deal.

Wat in de praktijk doorslaggevend is, is dan voor de meeste mensen: hoeveel wil je uberhaupt uitgeven aan je GPU, en wat is in dat segment de beste deal. En daar wint AMD nu voertuigens: wie 700 euro te besteden heeft kan kijken naar de 9070XT, of naar de 5070 met een MSRP van 650 euro. En dan is de vergelijking: de 5070 is 5% sneller in RT, terwijl de 9070 25% sneller is in raster. Maar die cijfers zeggen nog niet alles: je moet ook even stilstaan bij de 33% extra geheugen die de 9070XT biedt, wat die kaart veel en veel toekomstvaster maakt.

jij beschuldigt mij van blinde haat, maar ik ben heir de enige die met echte cijfers komt om mijn standpunt te onderbouwen. Ik zou dus eerder stellen dat jij hier blinde voorliefde voor team groen aantoont.
Ik ben het met je eens, maar ik wil vooral even dat linkje van 695 euro dubbelchecken. Was hij daar echt 695 euro? De link werkt nu niet meer, en ik zie nu alleen nog maar XT's vanaf minimaal 949 euro. :o
Alternate had enkele modellen van 695 euro ja, helaas nu allemaal uitverkocht.

De voorraad komt wel, en hopelijk snel. De huidge beschikbare modellen van 900-1000 zijn belachelijk, de webwinkels zijn gewoon 30-50% bovenop de prijs aan het doen. Fuck hen.

[Reactie gewijzigd door kiang op 7 maart 2025 18:30]

Tja, hebben we zelf veroorzaakt.
Op marktplaats meer betalen dan in een winkel 8)7 . Wat denk je dat en winkel dan gaat doen.
Ja, de 5070Ti heeft dan ook een adviesprijs van 899 en de 9070XT 695. Ik vind het wel een beetje appels met peren vergelijken als er een prijsverschil van 200 euro tussen zit.

Deze kaart zit in adviesprijs maar 40 euro boven de 5070 non Ti, die hij zowel in raster als RT duidelijk verslaat.

[Reactie gewijzigd door youridv1 op 5 maart 2025 15:40]

Daar zit inderdaad wel iets in. Ik vergelijk het vooral omdat dat natuurlijk op best veel sites gedaan wordt en laten we wel wezen: de 5070 is ronduit een slechte koop. Als ik het budgetair kan veroorloven en een 9070XT of 5070Ti overweeg kijk ik dus naar welke de meeste performance biedt en dan is er toch een duidelijke winnaar.

De 9070XT is zeker een kaart die waar voor je geld geeft, maar als je het maximale zoekt kom je helaas nog steeds bij kamp groen uit.
Als je het maximale zoekt komt je ook niet uit bij de 5070Ti, maar bij de 5090.
De hele vergelijking tussen de 5070Ti en 9070XT is vanwege de vergelijkbare raster performance. Maar je krijgt geen goed beeld van de onderlinge verhoudingen tenzij je videokaarten die hetzelfde kosten vergelijkt.

[Reactie gewijzigd door youridv1 op 6 maart 2025 16:13]

Sure, maar de reden dat ik het op deze manier inschiet is natuurlijk ook omdat in dit artikel de vergelijking tussen beide wordt getrokken en een rooskleuriger beeld wordt geschetst over RT dan andere reviewsites die daar iets dieper op induiken.

De prijs/kwaliteitverhouding is op het oog idd prima, maar bij echt belastende games gebruik je ook upscaling en het is nog niet duidelijk hoe FSR4 zich gaat houden tegenover DLSS4. Dat zal op korte termijn moeten blijken.

Ik zou zelf dan ook liever zien dat de review zich richt op de meest belastende omstandigheden en hoe dan de beeldkwaliteit zich vergelijkt tussen de verschillende kaarten (ook de 5070, 9070, etc.). Dat is mij op basis van deze (maar ook andere) review(s) nog niet duidelijk.

Uiteindelijk komt het ook neer op wat je ermee doet. Stel dat je alleen maar CS:GO speelt zonder RT dan is de 9070XT zeker een uitstekende keuze.
Als je idd het maximaal wil betalen zit je best bij Nvidia, en blijf je best Nvidia sponseren als je er ook aandelen van hebt. Mijn visie hierop is vrij simpel, als je geen profesioneel gamer bent koop je beste bang for buck. Als je zelfstandige bent en je moet geen btw betalen dan koop je ook Nvidia op vader zijn rekening bv :) Als je alle toeters en bellen wil hebben om te gamen dan geef je best 10K uit, dan heb je bijna van alles het beste en de hoogste resolutie. Maar 2 jaar later schiet er van die 10K bijna niks meer over, want hardware is na een auto de meest waardeverliezende investering.
AMD maakt gamen op een PC nog iets of wat betaalbaar, wat bij Nvidia laatste jaren niet het geval is door hun absurde prijzen. De vraag die je moet blijven stellen is of het zin heeft 30% hogere prijs te betalen voor > een klein performance verschil ? Laat me nog eens duidelijk stellen dat profesioneel iets kopen tegenover vrijetijdsbesteding een enorm verschil uitmaakt !
Als ik 10 kaarten overweeg en die halen allemaal 120 - 200 fps in games zonder raytracing dan ga ik toch echt kijken naar wie het beste scoort in verhouding tot prijs/stroomverbruik bij het gebruik van raytracing
En zo heeft ieder zijn eigen voorkeuren. Ik ga dan naar de prijs kijken en wat blijkt? AMD biedt gelijke prestaties voor zo'n 3/4 van de prijs.
Op papier idd, maar als je naar raytracing kijkt kom je op +- 20% meer uit bij de 5070Ti en dat rechtvaardigt een (advies)prijs van 200 meer wel naar mijn mening. Ik heb ook geen haast dus als die prijzen daarop zijn belandt is wmb een goed moment.
Bovendien is de kwaliteit van DLSS nu nog een stuk beter dan van FSR, dus dat speelt zeker ook mee in de overweging.
En AMD zal nog wel wat perfomance winst maken met updates van drivers kan ook natuurlijk.
Je zit ook nog steeds te hameren op adviesprijs ? Nvidia is gewoon niet te krijgen voor adviesprijs, en dit al jaren niet ! Nvidia is ongelooflijk goed in paperlaunches om de prijs op te drijven.
Amd kaarten waren te krijgen voor bijna de MSRP prijs. Het hogere geheugen op de AMD kaart wil je toekomsgericht natuurlijk ook niet zien ofzo ? Koop jij maar Nvidia, zodat de AMD kaart nog wat zakt in prijs :)
Als je naar spellen kijkt is lang niet alles ray traced. Stel het is 50/50, dan hou je van die 20% maar gemiddeld 10% over. Tenzei je natuurlijk alleen maar raytraced spellen speelt.
Ik heb liever dat ze het vergelijken zonder RT. Ik zit niet op RT te wachten, ik voel het gewoon niet. En zie liever de ruwe verschillen zonder bevlekte RT verschillen waarvan we al jaren weten dat je daarvoor naar Nvidia wilt gaan al je full-on RT wilt.
Sommige games zijn gewoonweg niet speelbaar zonder RT, en dat worden er alleen maar meer. Ik vind het bizar dat dit nog apart gerekend word in plaats van gewoon meegenomen in het gemiddelde.

Want niemand gaat klagen dat ze 100FPS halen in plaats van 120 in een oude game. Het is allebei goed. Maar of je 40 of 60FPS haalt is nogal een verschil. Selectief kijken naar games waar geen enkele geteste kaart moeite mee heeft begint inmiddels een vreemde traditie te worden. Alsof we nog de DirectX9 performance apart testen want sommige Tweakers geloven niet in DirectX11 8)7

Dat was in 2018 logisch, maar inmiddels is RT gewoon onderdeel van het landschap. Zeker nu sommige games het verplichten.

[Reactie gewijzigd door Wolfos op 6 maart 2025 10:44]

er is maar 1 game niet speelbaar zonder RT. En dat soort games zullen ook weinig gaan verkopen, want je sluit een groot deel van je markt uit. Zolang veel mensen niet eens kaarten hebben met raytracing zal het zo'n vaart niet lopen. En dit is nog raytracing op ultra. Er zijn ook lagere settings.

Eerst maar zien of er echt zoveel games enkel werken met raytracing.Want to nu toe is het er maar eentje.
Momenteel is er, denk ik, inderdaad nog maar één spel dat niet speelbaar is zonder RT, namelijk "Indiana Jones and the Great Circle".
De volgende is "Doom: The Dark Ages" en dan was er denk ik nog een andere game dat onderweg was, maar dat kan ik niet direct meer vinden.

Daarnaast, als je de Steam Hardware Survey resultaten bekijkt, dan zijn er niet zo super veel kaarten meer in het lijstje dat geen RTX kaart is of een AMD kaart met Ray Tracing mogelijkheden. Het totale percentage van kaarten zonder Ray Tracing is echt al erg klein.
In de laatste Indiana Jones game was RT een vereiste (letterlijk). Als je dat niets vindt is dat uiteraard aan jezelf: iedereen mag daar een mening over hebben. Persoonlijk wil ik de meeste power onder de zwaarste omstandigheden. Ik heb geen scherm dat meer dan 120FPS aan kan dus alles dat zonder RT boven de 120FPS uit komt is wmb een 'whichever' en dan kijk ik liever naar waar het echt moeilijk wordt.
Sorry, maar het prijsverschil tussen de 9070Xt en 5070TI is toch wel een flink aantal honderden euro.

Daar komt bij dat de Nvidia launch een aantal flinke gebreken had (waaronder die incidentele 8 missende ROPs) en de AI frame generation die matig werk leverd op lagere FPS...

Maar we gaan het wel zien in de verkoopcijfers. Denk helaas dat te veel bedrijven ook aan Cuda blijven hangen. Zou wel mooi zijn als er wat meer competitie uit ATI kwam en dit is een goede stap.
Op dit moment wel inderdaad, maar het is een beetje hetzelfde als met games: koop ze niet op de release datum :p misschien heb je door omstandigheden zelf geen keuze, maar ik wacht wel tot de prijzen richting de adviesprijs zakken.

Eens overigens dat de launch van Nvidia matig was. Ik hoop/vertrouw er op dat ze dat op korte termijn wel fixen.

Vergeet trouwens niet de competitie van Intel: die maken in hun segment ook goede stappen.
Intel is de derde op volgorde inderdaad, maar qua afmeting en verkoopcijfers is die bijna te negeren. Maar hoe meer competitie, hoe beter voor de consument, dus hoop inderdaad wel dat ze door blijven ontwikkelen.
Ikzelf zou de 5070ti ook overwegen mits voor 750 euro verkrijgbaar. Maar een 5070 met 12GB VRam die gewoon crasht in Indiana Jones laat ik liggen, dat is toch een 5060 waar ze 200 euro minder voor moeten vragen.
Groot verschil nog tussen 9070 en 9070XT, terwijl de adviesprijs van de XT versie maar 8% hoger is
prestatiewinst van 9070XT tov 9070 is vnl door brute force.

Denk dat de 9070 alleen interessant is voor de milieubewuste gamers, tenzij (waar ik bang voor ben) de actuele winkel prijs van de XT versie ook snel boven 800 euro ligt en de 9070 rond msrp blijft hangen.
De 9070 is voor mij idd de ideale kaart, superzuinig zo te zien en dus niet zoals de XT sterk overklokt om goede prestaties neer te zetten. Blijft dus een pak koeler verwacht ik en een pak stiller.

Dat terwijl de XT gemiddeld slechts 8% hoger is. Het is maar net hoe je ernaar kijkt, he?
Ik zie het als tijd om die XT eens flink terug te klokken, voor de euros per Compute Unit hoef je het niet te laten. Wel weer interessant is dat beide in het referentie-ontwerp dezelfde geheugenbandbreedte hebben, dus spellen die daar veel op leunen zijn beter af met de vanilla versie.
Helaas lijkt de rek van GDDR6 er wel uit op 20 GB/s, dus daar valt minder mee te spelen voor board partners.
Je gaat dan 60€ of meer uitgeven terwijl je als undervolt nog dichter bij de non XT komt?

Lijkt mij niet erg zinvol. Maar ik zie bij Sapphire een 2-fan non XT uitvoering en geen 2-fan XT variant. De non XT is dan weer aantrekkelijk voor iedereen met een wat krappere behuizing .
Correct, maar als het goed is blijf ik altijd boven de vanilla qua prestaties, en naar verwachting zeker qua prestaties/watt. Daarnaast heb ik een ietwat overbemeten koeling (want die zou 300W moeten koelen en hoeft nu nog maar 200W), dat houdt de kaart vermoedelijk stiller dan de vanilla. Verder ben ik dol op 'complete chips' met alle units enabled, maar da's hooguit bonus (misschien moet ik juist wel de non-XT kopen en kijken of die laatste CUs te unlocken zijn, zoals in de goeie ouwe tijd met een BIOS-flash).
Zit op dezelfde koers als jij, begreep dat op AMD kaarten ook een power limit zit, die je standaard ook op -10% kan zetten? Dan ga je toch al vrijwel gratis naar 270W verwacht ik met nauwelijks te meten performance impact. Al helemaal als het voltage ook net een klein stapje lager kan, maar goed, dat is ook deels geluk hebben altijd met het exemplaar dat je krijgt.
Terugklokken? Ondervolten bedoel je.
XT is gemiddeld dan 15% sneller en 8% duurder. Voor mijzelf zou denk ik 9070 prima zijn, maar als in de praktijk de een 639 kost en de ander 695, dan leg ik denk ik liever die 56 euro extra neer voor in verhouding meer prestatiewinst. Het in verhouding 50% extra stroomgebruik neem ik dan maar voor lief, vooral omdat ik niet 24/7 game (eerder 3-6 uur per week), dus het op jaar basis maar een paar euro per jaar is
Eens. Maar als performance niet je top prioriteit is, krijg je een out of the box zeer zuinige kaart en ja, ik ben daar gevoelig voor. Het gaat mij niet eens zozeer om de poen, maar vooral de stille performance die ik ervan verwacht, zonder een superlomp koelblok.

En het prijsverschil zal echt niet altijd zo klein zijn, als je per brand gaat kijken.
Zo valt mijn keus denk ik op Sapphire kaarten. We zullen zien wat er van die 60€ verschil overblijft.

[Reactie gewijzigd door Madrox op 5 maart 2025 15:52]

Een lomp koelblok koelt natuurlijk wel beter dan een kleine koeler he.
Als je een stiller en zuiniger systeem wil ben je waarschijnlijk beter af met een geundervolte xt dan een reguliere 9070, mits de prijzen redelijk zijn natuurlijk.

Ze hebben allebei exact dezelfde chip, de XT heeft de beste bin van die chip terwijl de 9070 de "afgekeurde" XT's zijn waar een paar compute units en flink wat stream processors zijn uitgeschakeld en de boost clock flink is verlaagd.

Ja het is niet out of the box direct zuinig, maar 2 slidertjes aanpassen in de amd adrenaline software is ook weer niet zo ingewikkeld.
En je hebt dan ook het voordeel dat je hem later weer op de normale instelling kunt draaien als hij wat ouder is, en houd hij zijn waarde beter vast als je hem later doorverkoopt.
De 9070 zie ik bij Sapphire in een 2 fan variant, de XT niet. De non-XT past dus in meer kasten, dat bedoel ik meer.

Heb al jaren het model eronder gekocht, "Afkeurde" modellen zoals jij het noemt en ze hebben mij nog nooit in de steek gelaten. Het voordoen als onbetrouwbare modellen is dan ook puur een hersenkronkel.

Voor de waarde moet je alleen al geen pc hardware kopen.

[Reactie gewijzigd door Madrox op 5 maart 2025 17:08]

Ahja als hij niet in je kast past wordt het lastig..
Alhoewel, ik zou dan eerder gewoon een andere kast kopen, die kosten maar een paar tientjes.

Ik zeg nergens dat ze slecht zijn hoor, ze zijn gewoon prima binnen de specificatie waarin ze verkocht worden en misschien zelfs wel meer dan dat.
Het is goed mogelijk dat je de chips leuk kunt overklokken als je een beetje een goede chip te pakken hebt.
Al moet de kaart daar dan natuurlijk wel op gebouwd zijn want het stroomverbruik stijgt mee.

Maar dat maakt het verder niet minder waar dat de XT de betere chips heeft en de normale 9070 de afgekeurde dat is gewoon een feit.
ik heb ook liever een kaart welke out of the box gewoon een betere energiefficientie heeft. Ik kan het verhaal van Madrox wel volgen. Daarbij heb ik nu een elegante PC, en zit ik niet te wachten op een soort mini-koelkast op mn bureau.
Voor een paar tientje koop je een prullenbak, sorry maar dat vind ik echt flauw wat je nu zegt. En bovendien wil niet iedereen zo'n lompe bak.
Als jouw pc kast niet meer voldoet aan de huidige eisen is het tijd om een andere te kopen.
Dat is beter dan een minder goede videokaart kopen, omdat een kast niet veel kost terwijl een videokaart wel een flinke investering is.
Ik zou niet weten wat daar flauw aan is.
En je kunt inderdaad voor een paar tientjes een fatsoenlijke kast kopen zie hier.

Lomp heeft er verder niks mee te maken, dat ligt aan jouw eigen keuze.
Er zijn zat mooie kleine kastjes te koop waar wel ruimte is voor een normaal formaat videokaart.

Ja je kan ook voor die ene kaart gaan met 2 fans en dan flink in de herrie zitten, maar ik zou daar persoonlijk niet voor kiezen, ik wil namelijk een zo stil mogelijk systeem, ik dacht jij ook.
Wie zegt dat ik het over mijn kast heb. Je klinkt nogal arrogant, ik denk in het algemeen en niet perse vanuit mijn eigen ego. Heb een lian li en daar past genoeg in. Gewoon toegeven dat niet iedereen een lompe, grote kast wil: is dat teveel gevraagd?

De XT is gewoon niet altijd de beste keus, de non XT heeft zeker bestaansrecht en gezien de prijzen nu, waar het gat algauw veel meer is dan 60€, des te meer.

Seriously, prullenbakken van een paar tientjes vind jij acceptabel? Ja, die lc power meuk, dat is rommel. Srry, ik neem je niet meer serieus. Happy gaming, vriend!

[Reactie gewijzigd door Madrox op 8 maart 2025 09:35]

Maakt niet uit of het voor jou is of voor iemand anders het advies blijft hetzelfde.
Er zijn zat kleine kastjes te koop voor weinig.
Ik zeg nergens dat mensen een grote kast moeten nemen dat maak jij ervan.
In de link die ik stuurde staan zat leuke kleine micro atx kastjes waar gewoon een normaal formaat videokaart in kan.
Overigens een beetje triest om meteen over te gaan op de persoonlijke aanvallen als je geen argumenten meer hebt.

[edit]
Er staan ook gewoon degelijke merken in de lijst maar die heb je dan zeker express over geslagen.
Deze aerocool bijvoorbeeld, een prima model van een bekende fabrikant.

Ik zeg nergens dat de XT altijd de beste keuze is hoor, misschien even wat beter lezen.

Ik probeerde je enkel goede tips te geven, maar het is inmiddels wel duidelijk dat dat verspilde moeite was.

[Reactie gewijzigd door xenn99 op 8 maart 2025 11:30]

Jawel, want a, het prijsverschil is geen 60€ en b , je negeert totaal dat niet iedereen een lange kaart willen of je andere optie is nog meer geld uitgeven, desnoods voor een prullenbak van 20 €. Nee, dat is goed advies. En ja, jij neemt zomaar aan dat ik een te kleine kast heb.

Jij maakt het er persoonlijk om te beginnen, niet ik.

Voorlopig is het gat tussen de twee algauw 120€ of meer. Dat maakt het nog aantrekkelijk om nu een 9070 te nemen ipv van de xt. Daar kan je gewoonweg niet omheen. Beide zijn goede opties op dit moment, als het gat echt zoveel kleiner word, geef ik jou ruiterlijk gelijk. Tot dan, is s het maar net wat je er voor over hebt.

[Reactie gewijzigd door Madrox op 8 maart 2025 11:39]

Ik zie high-end videokaarten ook relatief vaak doodgaan na een paar jaar, gevoelsmatig vaker dan low-end videokaarten. Mijn gok is dat dat een resultaat is van het dichter tegen de grens aan zitten. Of dat nou het voltage of de temperatuur is.

[Reactie gewijzigd door bwerg op 5 maart 2025 17:36]

Denk dat je een typo maakt. High-end vaker dan high-end staat er nu.
Nee hoor, het staat er gewoon goed. O-)

[Reactie gewijzigd door bwerg op 5 maart 2025 17:37]

"Stares and squints eyes" ~ Maarja, is nu inderdaad beetje gevoel alsof het oude kaarten gewoon bruteforce meer consumeren voor meer performance en dan ook nog eens makkelijker in de fik kunnen vliegen.
Ik heb ook eens een statistiek gezien, klopt inderdaad dat de highest end minder robuust is.
Er komen steeds goekopere componenten op van mindere kwaliteit na alle test zijn uitgevoerd op de pas gelanceerde kaarten :) Zie zie je in veel reviews die opnieuw gedaan worden na een paar maanden gigantische verschillen in stabiliteit en performance bij veel hardware componenten. Het draait altijd om zoveel mogelijk winst te maken om de jaarcijfers omhoog te krijgen, zodat mensen blijven aandelen kopen :)
Het draait altijd om zoveel mogelijk winst te maken om de jaarcijfers omhoog te krijgen, zodat mensen blijven aandelen kopen :)
nVidia verkoopt geen aandelen. Aandelen die je koopt, koop je van andere investeerders en nVidia krijgt daar niets voor.

Vind het vrij vervelend dat zoveel kritiek op kapitalisme komt van mensen die niet snappen hoe het systeem waar ze tegen zijn eigenlijk werkt.
[...]

nVidia verkoopt geen aandelen. Aandelen die je koopt, koop je van andere investeerders en nVidia krijgt daar niets voor.

Vind het vrij vervelend dat zoveel kritiek op kapitalisme komt van mensen die niet snappen hoe het systeem waar ze tegen zijn eigenlijk werkt.
Als jij zo een aandeel koopt stel jij jouw geld ter beschikking en in ruil daarvoor word je voor een deel eigenaar van dat bedrijf. Een aandeel is dus niets anders dan een (verhandelbaar) bewijs van deelname in het kapitaal van een onderneming.
Waartoe zijn aandelen op deze wereld?
Aandelen zijn in de eerste plaats een instrument waarmee bedrijven zichzelf financieren. Ondernemingen geven aandelen uit om geld aan te trekken dat zij nodig hebben voor hun activiteiten. Het geld dat een onderneming met aandelen ophaalt, staat in beginsel voor onbepaalde tijd ter beschikking van de onderneming en heet het eigen vermogen van de onderneming.

Ik vind het nog vervelender dat je totaal niet weet waarover je praat ! Nvidia verkoopt wel aandelen zoals ieder beursgenoteerd bedrijf, als Nvidia of ander bedrijf bv slechte jaarcijfers heeft dan dalen aandelen en verkopen investeerders. Omgekeerd wanneer goede cijfers, gaan mensen investeren en komt er vers geld binnen voor Nvidia. Kapitalisme heeft 2 kanten, de goede kant is dat ze voor jobs zorgen en de mindere kant is het steeds groeiende monopolie die voor onbetaalbare prijzen tot gevolg hebben.
Als jij zo een aandeel koopt stel jij jouw geld ter beschikking en in ruil daarvoor word je voor een deel eigenaar van dat bedrijf. Een aandeel is dus niets anders dan een (verhandelbaar) bewijs van deelname in het kapitaal van een onderneming.
Correct.
Waartoe zijn aandelen op deze wereld?

Aandelen zijn in de eerste plaats een instrument waarmee bedrijven zichzelf financieren. Ondernemingen geven aandelen uit om geld aan te trekken dat zij nodig hebben voor hun activiteiten. Het geld dat een onderneming met aandelen ophaalt, staat in beginsel voor onbepaalde tijd ter beschikking van de onderneming en heet het eigen vermogen van de onderneming.
Ook correct.
Nvidia verkoopt wel aandelen zoals ieder beursgenoteerd bedrijf
nVidia heeft bijna al zijn aandelen verkocht bij zijn IPO op 22 Januari 1999. Op moment zijn 96% van de aandelen in publieke hand:
NVIDIA's public float—the number of shares available for public trading—is about 23.447 billion shares, representing 96.10% of the 24,400.00 Mil total shares outstanding.
als Nvidia of ander bedrijf bv slechte jaarcijfers heeft dan dalen aandelen en verkopen investeerders.
De investeerders verkopen dan aan andere investeerders. Ook als staat er in de krant graag dat "Mensen massief verkochten", verkopen ze aan andere inversteerders. Er wordt net zo veel gekocht als verkocht - maar misschien wel voor een lagere prijs. Bedrijven doen soms aan stock buybacks, waarbij ze hun eigen aandelen terugkopen, maar dat is maar zelden het geval. Vaak als bedrijven teveel geld hebben om nuttig te besteden, zoals Apple, of in 2024 ook nVidia. Vóór 2024 heeft nVidia dat voor zover ik achterhalen kon niet gedaan.
Hoe zou een bedrijf dat überhaupt ook kunnen financieren? nVidia heeft op moment ca. 26 miljard dollar cash & cash equivalents. Het aandeel is 112.69 dollar, dus hebben ze geld voor 231 miljoen aandelen, ca 1% van de 23.447 miljard vrij verhandelbare aandelen. Volgens jou logica zou nVidia (een financieel extreem gezond bedrijf!) falliet moeten gaan zodra 1% van de beleggers zijn aandelen verkoopt. En andere bedrijven hebben zelfs bijna helemaal geen cash.

Je lijkt te denken dat als je een aandeel koopt, dit van het bedrijf komt. Dat is fout. Een market maker brengt aandeelhouders die willen kopen en verkopen bij elkaar bij een passende prijs.
Omgekeerd wanneer goede cijfers, gaan mensen investeren en komt er vers geld binnen voor Nvidia.
Nee, nee, en nee. De prijs die een market maker tussen verschillende deelnemers uithandelt stijgt als het goed gaat met een bedrijf of als mensen positieve verwachtingen hebben. Een bedrijf kan nieuwe aandelen uitgeven, maar dat gebeurt niet vaak, en meestal alleen als het bedrijf dringend veel geld nodig heeft. Wederom lijk jij te denken dat je direkt met nVidia handelt als je een aandeel koopt. Dit is niet waar, je koopt het van iemand anders.
Kapitalisme heeft 2 kanten, de goede kant is dat ze voor jobs zorgen en de mindere kant is het steeds groeiende monopolie die voor onbetaalbare prijzen tot gevolg hebben.
Nou ja, ik kan het er in elk geval mee eens zijn dat kapitalisme zonder regelgeving in veel gevallen slecht werkt.
@ zuinige kopers

9070xt heeft meer cores en die schalen met zelfde kloksnelheid beter (is altijd al zo geweest).

Ik ben van plan 9070 xt te kopen, en klokspeeds 9070 te gebruiken, zou toch +5 tot +9% moeten geven door die cores.

Gewoon al boostclock omlaaghalen van 3ghz naar 2.5, en base klok ook zelfde instellen.
Lijkt mij sterk dat de 9070 XT zuiniger word dan de 9070. Nee, AMD heeft puik werk afgeleverd. Max prestaties voor de liefhebbers en een zeer goed alternatief voor diegeen die bijv. Een 2 fan kaart willen die bovendien out of the box zeer zuinig is en amper langzamer in de meeste gevallen.
Zou makkelijk moeten zijn, als de paralelle 12.5% cores ook veel snoepen (denk gezien te hebben dat dat niet lineair scaled, dus niet zo), dan doe je gewoon -50 mhz, onder 9070, want je zit in 'volt efficiency' curve land, met ultra hoge efficiency, dan komt alsnog op zelfde 220 watt als 9070 xt

Zelfs ram is 100% identiek, dus kan eigenlijk maar van game en boostclock afhangen en in minder mate extra cores.
Hoelang ben je dan bezig om die extra 60+ € terug te verdienen. Nee, undervolten vind ik in dit geval niet bijster slim. Als het al 60€ is....
Niet per se undervolt omdat dat prutsen is (per kaart anders), maar het is duidelijk dat:

2000mhz piece of cake is, sub 100 watt
2500 megahertz , nog altijd mega makkelijk 220 watt of minder is
2650 megahertz is zowatt waar het begin uit hand te lopen (260 watt denk ik)
3100 megahertz meteen 340 watt.

en TBP (total board power kun je ook zetten xd TEgen dat ik eindelijk kaart vind zullen er genoeg consensussen over makkelijk settings hiervoor.

Mijn probleem is dat 9070 net niet 7900xt performance haalt (m'n minimum doel), hierdoor kan ik m'n beide doelen eindelijk verenigen 7900xt of meer prestaties, maar ook 220 watt (zelfde als 1080 gtx).
Ik had ergens gekeken dat de verwachting is dat dit prijsverschil in de praktijk groter zal zijn door het aanbod van de boardpartners
Of dit erg is weet ik niet. Beide kaarten presteren meer dan prima en zijn de aanschaf meer dan waard. Vooral omdat hij 16 GB Vram heeft wat de 5070 niet biedt.

Wat toekomstige games gaan doen weet niemand, maar met de 9070 sta je voorlopig nog het heertje. Ik ben dan ook zeer verheugt dat AMD nog mee kan komen in de midrange markt. Nvidia doet dingen die niet netjes zijn om het zacht uit te drukken en de weg is geheel vrij om er een flink aantal te maken. Waarom?

Het overgrote merendeel gaat voor midrange en het zou mij niets verbazen dat Nvidia het nog wel eens benauwd gaat krijgen.
Nvidia vindt de gaming gpu markt niet zo heel belangrijk meer denk ik, die verdienen geld met kisten door AI gpu´s te slijten tegen ongeziene winstmarges.
Ik verwacht dat de 9070 uiteindelijk genoeg in prijs gaat dalen om leuk te worden. niet iedereen heeft een 1000+watt voeding. Dat maakt de 9070 op termijn een killer gpu voor de prestaties per watt.
De kracht van de Markt zal er inderdaad wel snel voor zorgen dat ze verder uit elkaar getrokken worden
Vermoed dat er door vraag en aanbod de prijs van de 9070XT gaat stijgen en dat over een paar maanden de prijs van een 9070 iets gaat zakken.
Hoe zit het met VR? Als ik hier snel op zoek kom ik hier eigenlijk niets over tegen?
VR werkt prima op mijn 7900XTX, maar ik gebruik dan ook een Quest 2, ik hoor mensen hier en daar wel weer zeggen werkt beter op de Quest 3, geen idee hoe het met de andere brillen zit
Prima is natuurlijk relatief. Een 7900XTX is een erg snelle kaart, dus hij kan VR inderdaad prima doen. Maar een RTX4080 die vergelijkbaar is in reguliere spellen, rent rondjes rond een 7900XTX in VR, en dat is nog exclusief de betere video encoders.

Als je primair een kaart koopt voor reguliere spellen, maar je wil ook VR doen, dan zal een 9070(XT) zeker geen slechte koop zijn. Wil je hem primair voor VR gebruiken? Dan zou ik liever toch specifiek reviews daarvoor afwachten. Met het jammere dat die nauwelijks meer bestaan. En granted, het is niche. Tegelijk of die 47 verschillende websites die Cyberpunk benchmarken op een kaart nou echt wat toevoegen kan je jezelf ook afvragen.
Juist, bij VR wireless streaming zijn de encoders zeer belangrijk, dus in theorie zou meerdere encoders, zoals bv bij de 5090, voordeel moeten bieden.
Ergens is er iemand die grafische frame time VR testen heeft gepubliceerd met de 7900XTX en de RTX 4080 en dan zie je ook duidelijk dat de 4080 een mooie strakke lijn heeft terwijl de 7900XTX veel fluctueert in frame times, maar ook dat de frame times met de AMD hoger liggen in de grafiek. De 4080 is duidelijk op alle fronten de winnaar.
Persoonlijk hecht ik trouwens in VR veel waarde aan een constante frametime verloop dan een lage frame time gecombineerd met een sterk fluctuerende verloop.

Ben wel benieuwd naar de prijzen, maar ik heb het vermoeden dat de AMD scalper winkels in NL, veel geleerd hebben van de Ngreedia winkels en bewust gelimiteerd Vkaarten gaan vrijgeven.
Met actuele hardware inderdaad. Maar, eerlijkheidshalve maakt dat niet zoveel uit zolang er maar een goede vergelijking is tussen deze kaarten en bijvoorbeeld de 5070TI
Ja geen idee eigenlijk of iemand van de mainstream uberhaupt test met VR, het gaat altijd om de populaire games en VR is (helaas) nogsteeds vooral een kinder-playerbase met hier en daar een groepje profesionele gamers..
Hier met Virtual Desktop draadloos vanaf m’n Quest 3 naar mijn RX 6800, nooit problemen.
Idle is zoals wel vaker vrij zuinig, maar is de multi monitor bug deze keer wel opgelost?

Het viel mij op dat de vorige gen daar last van had, een kennis met een 7900 xt ergerde zich daar aan omdat met 2 schermen de idle verbruik ruim 70 watt was, met 1 ging dat fors omlaag zoals de meeste reviews toonden.

Verder mooie kaarten, wel zonde gezien de performance dat ze op 16gb vram zitten, terwijl de 2 top model voorgangers met meer kwamen.

[Reactie gewijzigd door Mizgala28 op 5 maart 2025 15:14]

Verder mooie kaarten, wel zonde gezien de performance dat ze op 16gb vram zitten, terwijl de 2 top model voorgangers met meer kwamen.
Dat komt omdat die vorige generatie nog als top-tier werden neergezet (al konden die nvidia niet bijbenen) en de nieuwe als mid-tier.

Gezien de verschillen tussen die 2 kan je ook gewoon kiezen welke je koopt toch? Als jij de hoeveelheid RAM belangrijk vind dan koop je dus gewoon een 7900XTX en anders de 9070XT.

[Reactie gewijzigd door watercoolertje op 5 maart 2025 15:45]

Dit dus. Je mag als consument van geluk spreken dat die 7900 XTX kaarten nog op voorraad zijn voor normale prijzen. Bij team green stegen de prijzen van de 40 series massaal en was alle voorraad opeens op, enkele dagen voordat de 50 series op de markt kwam.

Mocht je VRAM dus belangrijker vinden: sla je slag en ga voor die 7900 XTX nu het nog kan. Kwestie van tijd voordat prijzen stijgen / voorraad vermindert.
daar was al een bugfix voor en je kan dit ook oplossen door 2 schermen op eenzelfde frequentie te hebben.

als je de review leest dan zal je lezen dat AMD hieromtrent acties ondernomen heeft.
Idle is zoals wel vaker vrij zuinig, maar is de multi monitor bug deze keer wel opgelost?

Het viel mij op dat de vorige gen daar last van had, een kennis met een 7900 xt ergerde zich daar aan omdat met 2 schermen de idle verbruik ruim 70 watt was, met 1 ging dat fors omlaag zoals de meeste reviews toonden.

Verder mooie kaarten, wel zonde gezien de performance dat ze op 16gb vram zitten, terwijl de 2 top model voorgangers met meer kwamen.
Lijkt er wel op, 20W ipv 10W bij techpowerup.
Ja, is met deze generatie opgelost. Zie review:

https://www.computerbase....en_spiele_youtube_desktop

AMD vega had hier geen last van geen vanwege het gebruik van HBM geheugen. Wat veel minder stroom verbruikt dan GDDR geheugen.
Mijn afdronk van deze review:
  • De XT is interessanter dan de non XT bij het huidige prijspeil edit: puur kijkend naar euro's per fps
  • De nieuwe XT is een "XTX light" als het aankomt op ruwe power (rasterization), en juist een XTX Ti/ Super (om in nVidia termen te spreken) als het aankomt op DXR
  • Er is een stap gemaakt met DXR, Maar nVidia blijft superieur (check die Wukong verschillen!) edit: als je de hoogste DXR prestaties wilt en geld geen rol speelt
  • Als de MSRP ook gehanteerd zou worden is het in termen van euro's per fps een topdeal in vergelijking met de huidige 50xx serie, maar ook de oude 7900 serie (waar een XTX nog rond de €1.000 zit)

[Reactie gewijzigd door Evanesco op 5 maart 2025 15:53]

Er is een stap gemaakt met DXR, Maar nVidia blijft superieur (check die Wukong verschillen!)
Hebben wij dezelfde review gelezen? De 9070XT is in elke andere game dan Wukong sneller dan de 5070, die op hetzelfde prijspeil zit.

De 9070XT is 40 euro duurder dan de 5070 qua adviesprijs en slaat hem in zowel raster als dxr stuk

[Reactie gewijzigd door youridv1 op 5 maart 2025 15:45]

Ook terecht punt! :) Ik zag al het groen in de topregio van de DXR prestatie scores en daar sloeg mijn opmerking vooral op. Voor de allerhoogste DXR prestaties heeft AMD gewoon geen aanbod, hoeveel geld je ook neer wilt leggen. Maar idd: in hetzelfde prijssegment zijn ze weer bij ten opzichte van nVidia!
Precies dat. Het lijkt erop dat AMD probeert de price/performance van Nvidia te matchen in DXR en dat je de betere raster er als bonus bij krijgt. In het slechtste geval heb je dezelfde value als bij nvidia en in het beste geval veel beter.

Lijkt een beetje op wat intel doet, die hun price performance baseren op DX11 games omdat ze weten dat daar hun zwakke plek ligt.

[Reactie gewijzigd door youridv1 op 5 maart 2025 15:52]

AMD heeft gewoon geen aanbod voor het higend.. En raytracing (zeker pathtracing) met een beetje fatsoenlijke fps draaien (zeker op 4K) kan alleen nog steeds helaas in het higend..

Dat is ook mijn enige minpunt aan deze videokaarten.. Ja, ze zijn leuk als je een gemiddelde PC gamer bent en op niet hoger dan 1440p speelt, maar iemand die het hogerop zoekt kan eigenlijk alleen nog maar steeds bij Nvidia terecht.. Persoonlijk zou ik mijn Nvidia RTX 3080 nu wel kunnen omruilen voor een AMD Radeon 9070XT, dan ga ik 44% omhoog qua rasterization en 33% qua raytracing prestaties, voor ongeveer hetzelfde geld wat die 3080 mij kostte eind 2020.. Niet de grote prestatie upgrade stap die je normaal verwacht na een generatie overslaan, maar het in ieder geval iets.. Hopelijk is er genoeg voorraad en kan je ze voor iets dat op de adviesprijs lijkt kopen.. Ook nog heel even wat meer reviews afwachten en dingen over FSR4 etc bekijken..
Ben ik niet me je eens, in Cyberpunk is de non XT 54% zuiniger!!! Dat vind ik nogal wat. De XT is op zijn best zo'n 25% sneller in Cyberpunk. Maw: de XT heeft tot 2x zoveel stroom nodig dan de non-XT om die prestaties neer te zetten. Als je performance per watt kijkt, valt de XT juist tegen.

Geef mij maar een koelere, stille en zuinige kaart. Heerlijk! Misschien ook omdat ik helaas geen zonnepanelen op mijn dak heb.

[Reactie gewijzigd door Madrox op 5 maart 2025 15:37]

True, misschien had ik erbij moeten zeggen dat het verbruik voor mij secundair is (tenzij het echt de spuigaten uitloopt). Dus kleine nuance: de XT is een betere keus dan de non XT als je alleen naar euro's per fps kijkt. :)
Je kunt een kaart toch gewoon undervolten e.d. om hem wat minder stroom te laten gebruiken? Max framerate en graphics omlaag zetten helpt ook altijd.
Heeft er voorij amper mee te maken, hou vooral van een super stille pc. Maar als je het er toch over hebt, ja onze energiefoot print hoeft niet te stijgen, due is al hoog en idd slecht voor het milieu en nu al slecht voor onszelf, luchtverontreiniging, hitte etc.

Jammer dat je dat als indoctrinatie ziet, ik bedoel, kijk om je heen, jij ziet toch ook wat er gebeurt? Haal je kop eens uit het zand zou ik zeggen.

[Reactie gewijzigd door Madrox op 5 maart 2025 16:14]

Maar ik begrijp wel dat sommige mensen er zo mee bezig zijn tegenwoordig door alle indoctrinatie waarmee je wordt doodgegooid i.v.m. klimaatverandering, duurzaamheid en energietransitie..
Man man man, wat een reactie weer. Je zou een beetje om het milieu geven, misschien een wat bewustere keuze willen maken en niet totaal sch*t aan alles hebben. Nee hoor, dan ben je gelijk "geindoctrineerd".

Daarbij is je opmerking over de kosten ook nog eens niet achterhaald. Als je 6 uur per week gamet (voor sommige veel, sommig weinig) is met de gemiddelde stroomprijs (32cent inclusief) elke 100 watt verbuik 100 euro per jaar extra. Het gaat al lang niet meer om een paar euro. Een 5090 laten stampen kost gewoon behoorlijk wat geld.

Maar goed, ook als je niet echt van gaming houdt kan het in de kost e lopen. ik werk veel thuis en mijn PC verstookt behoorlijk wat als ik bezig ben met segmentatie van imaging data of iets gelijks. Zou je kunnen zeggen, doe het op je werk. Maar ja, thuiswerken scheelt een hoop reistijd en gemak dient de mens. Heb ik toch graag efficiënte hardware :)

Edit: berekening klopte niet.

[Reactie gewijzigd door Thekilldevilhil op 5 maart 2025 19:52]

Effe rekenen.

6u per week 100w meer kost je 10eur op jaar meer. Geen 100.
6u per dag met 100w meer kost 70eur op jaarbasis

Dit met basis kost van 32c per kw

neemt niet weg dat statement van onnodig energie versplillen ter dege correct is.

[Reactie gewijzigd door d3x op 5 maart 2025 20:48]

Oeps, ik was aan het rondprutsen met getallen om een soort van rond bedrag te krijgen. Maar besloot dat 12 uur per week met 500 watt verbruik (een fatsoenlijke game PC) niet helemaal lekker klonk. Moet je wel wel het eindbedrag aanpassen hahaha.

Feit blijft wel, als je randapparatuur meetelt is het toch een fors bedrag. Ik zie hier nu een beetje muziek (via koptelefoon) te luisteren met mijn vrouw naast me die nog wat werk afmaakt. Totaal:
1x desktop
1x budget laptop
3x 27" scherm
Een NAS met 4 schijven op idle.

Zitten we toch op ruim 300watt vanaf de muur, en dan doe ik niet eens echt wat. Ik vind de opmerking over de stroomkosten echt veel te laconiek.
@Trygve Komt er ook een vergelijkende test van de verschillende merken zoals bij de Nvidia 50 series?
Absoluut, daarvoor zijn we momenteel druk aan het testen met de kaarten die tot nu toe binnen zijn gekomen.
Persoonlijk vind ik het echt jammer dat er nul comma nul wordt gesproken over niet gamer toepassingen. Bij de reviews van zoveel NVIDIA als AMD

Geen Davinci of Première Pro, geen 3D toepassingen zoals Blender of Unreal Engine (de editor, niet games ermee gemaakt).

Zelfs geen AI, terwijl dat momenteel zo gehyped wordt. Toch maar buitenlandse reviews bekijken dan.

Is dit een gamer site of Tweaker site? Uiteraard horen games er ook bij maar de tijd dat een grafische kaart enkel was voor gamen is al heel lang geleden...
Dan raad ik je aan deze video van LTT te kijken YouTube: AMD, I Could Kiss You - 9070 and 9070 XT Review
Ze laten ook de tests zien m.b.t. AI, Video encoding etc.
Iets waarop AMD nog steeds flink achterloopt.
Dankjewel, ja ik kijk ook naar LLT, en de artiikelen hier zijn ook heel interessant:

Puget systems

Maar op je favoriete tweakers site het kunnen lezen, en ook hun mening zien had ik wel tof gevonden.
AuteurTrygve Redacteur @nevyn675 maart 2025 16:01
In de reviews van de RTX 5090, 5080 en 5070 Ti hebben we wel gekeken naar prestaties in D5 Render met ondersteuning voor multiframegen.
Misschien is het ook een idee om Procyon en/of LLM-prestaties te meten? Want die toepassing is tegenwoordig ook relevant voor de mensen die Tweakers bezoeken.
512GB Uma Mac studio M3 ultra
Vs nvidia Digits 128GB
Maar ja g_kaart zou ik aanschaffen voor games.
Mac mini/studio met wat extra ram meer dan 32GB dek je ook 5090.
AMD heeft met deze kaarten een duidelijke focus: mid-market gaming kaarten. Geen 32 GB, geen AI, geen workstation kaarten. Dan is het ook logisch dat dit product getest wordt voor z'n doel.
Advies prijs 750 euro nu te koop voor 1249 lekker hoor.
Net eentje besteld bij azerty 959 incl. btw Gigabyte ben zeer benieuwd. Morgen in huis.
Zo hé, nette deal zeg met een adviesprijs van € 695,-
Zo lang mensen dat blijven belonen, blijft dit gebeuren.
Er zijn gewoon versies voor 695 beschikbaar? Waarom 959 betalen?
Stuur je mij de link, graag wel gigabyte of Asus.


Om te kunnen reageren moet je ingelogd zijn