Door Willem de Moor en Reinoud Dik

Radeon RX 9060 XT 16GB Review

Geduchte tegenhanger voor Nvidia's middensegment

04-06-2025 • 15:00

161

Singlepage-opmaak

Conclusie

Met de Radeon RX 9060 XT heeft AMD een antwoord op de RTX 5060- en 5060 Ti-kaarten van Nvidia. De 9060 XT is in onze indices op zowel 1080p als 1440p ongeveer tien procent sneller dan de RTX 5060, maar de adviesprijs van de AMD-kaart ligt wel iets hoger dan de actuele prijzen van de goedkoopste RTX 5060-kaarten. Tenminste, dat geldt voor de door ons geteste 16GB-kaart: de 8GB RX 9060 XT zou een meer met de 5060 vergelijkbare prijs moeten hebben. Die zou echter hetzelfde probleem hebben als de 5060: weinig vram. In 2025 is een 8GB-kaart ook voor 1080p-gaming mager en niet erg toekomstbestendig.

Vergeleken met de RTX 5060 Ti-kaarten kan de RX 9060 XT net niet helemaal meekomen: je levert ten opzichte van de 8GB-kaart gemiddeld tot 4 procent qua prestaties in, al is het verschil vaak nog kleiner en regelmatig is de 9060 XT zelfs sneller dan de 8GB RTX 5060 Ti. De standaardgeklokte 9060 XT-kaart met 16GB vram zou echter net iets goedkoper moeten zijn dan de goedkoopste 8GB 5060 Ti-kaarten, dus met het oog op toekomstbestendigheid zou de AMD-kaart de betere keus zijn. Vergeleken met de 16GB 5060 Ti is de RX 9060 XT iets langzamer, tot 7 procent, maar je betaalt ook fors minder, zo'n twintig procent minder, voor de kaart. Qua prijs-prestatieverhouding is de Radeon dus ook hier een betere keus.

Vergeleken met de vorige generatie 'instappers', de 7600 XT en 6600 XT, heeft AMD flinke stappen gezet. De 9060 XT is minstens een derde sneller dan de 7600 XT en zeker vijftig procent sneller dan de 6600 XT. Bovendien zijn die oudere RDNA 2- en 3-kaarten veel slechter in raytracing: AMD heeft die techniek flink verbeterd met de RDNA 4-architectuur en de 9060 XT kan de 5060 Ti 8GB aardig bijhouden, al is de 16GB-versie nog wel wat sneller. Vergeleken met de 7600 XT is de 9060 XT minstens anderhalf keer sneller geworden, en tegenover de 6600 XT is de kaart zelfs twee tot vier keer sneller.

We hebben ook wel wat te klagen, want hoewel FSR met versie 4 inmiddels flinke prestatiewinsten levert, werkt het allemaal nog niet vlekkeloos. Bij het testen werkte de 9060 XT weliswaar prima mee, maar de 9070 wilde in Quality-modus helemaal niets doen. Alleen met Ultra Performance-instellingen zagen we consistent verbeteringen. Die verbeteringen zijn dan wel weer indrukwekkend, met twee tot drie keer de framerates met FSR ingeschakeld versus de framerates zonder FSR.

Tot slot is de kaart − in ieder geval ons model met standaardkloksnelheden − vrij zuinig en ligt de performance per watt op hetzelfde niveau als bij de Nvidia-concurrenten. Let wel: fabrikanten kunnen overgeklokte modellen uitbrengen, die betere prestaties combineren met een hoger energiegebruik - en een hogere prijs. Met die prijs staat of valt het succes van de Radeon RX 9060 XT, zoals gebruikelijk. De adviesprijs van AMD is met 320 euro voor de kaart die je niet wil en zeg maar 375 euro voor de 16GB-kaart behoorlijk competitief met Nvidia's concurrerende kaarten. Die zijn wat gedaald vergeleken met hun advies- of introductieprijzen, en zelfs als AMD's 9060 XT dat niet direct doet, is het een goed alternatief voor de 5060 Ti-kaarten. En dan bedoelen we de 16GB-kaart, want de kleinere 5060 Ti is nauwelijks interessant met zijn beperkte vram, net als dat voor de 9060 XT geldt. Dan blijft alleen de vraag of je een meerprijs van twintig procent een prestatiewinst van tien procent waard vindt. Het excuus dat alleen Nvidia raytracing goed aanpakt is inmiddels in ieder geval niet meer van toepassing. Al met al heeft Kamp Rood met de RX 9060 XT een geduchte tegenhanger voor Nvidia's RTX 5060 Ti ontwikkeld.

Redactie: Willem de Moor, Reinoud Dik Testlab: Joost Verhelst, Tim de Groot Eindredactie: Monique van den Boomen

Reacties (160)

160
155
60
2
0
71
Wijzig sortering
9000 serie zijn mooie kaarten, alleen vind ik de prijs niet competitief genoeg vergeleken met wat je "" opgeeft "" als je voor een soortgelijke nvidia kaart zou gaan.
dan heb je gewoon een nvidia only mindset, dat is het probleem. Het favoriete +merkgebonden scoring is natuurlijk ook weer leuk van de partij. Maar al die NV fans vergeten wel dat de enige reden waarom die 5060ti in prijs verlaagt is deze kaart. De enige reden dan NVIDIA de 5060ti 16gb geeft is deze competitie. Als het aan NV lag had je 16gb enkel op een 5080. Dat is realiteit voor de fanclub.

[Reactie gewijzigd door d3x op 4 juni 2025 19:50]

Ik snap dat je die conclusie trekt maar de realiteit is dat AMD nauwelijks Radeon kaarten verkoopt. De nieuwste Radeon kaarten zijn nog altijd niet in de steam survey te bekennen en ook de omzet van het afgelopen kwartaal was dramatisch laag. De omzet bedroef 647 miljoen en het kwartaal daarvoor slechts 563 miljoen. Die omzet is inclusief (!) de console chips, dus niet alleen Radeon.

Ondertussen doet Nvidia afgelopen kwartaal dood leuk 3800 miljoen met hun gaming tak. Dat betekent 3800 miljoen aan RTX 5xxx kaarten tegen circa 300 miljoen aan Radeon RX kaarten. Nvidia verkoopt dus letterlijk 10x meer.

Nvidia concurrent vooral in de vervang markt met hun eigen producten. Ze willen dat mensen met een 2xxx of 3xxx weer een nieuwe videokaart aanschaffen. Dat dwingt ze tot innovatie dan wel prijs verlaging.

[Reactie gewijzigd door sdk1985 op 5 juni 2025 10:13]

Tjah, de hardware survery doet niet eens moeite om AMD kaarten goed in kaart te brengen. Genoeg reports online waar de kaart niet goed gerapporteerd wordt door de survey.

[Reactie gewijzigd door Cerv47 op 5 juni 2025 15:08]

Dat geeft toch geen verklaring voor 300 vs 3800 miljoen? Bij elkaar is dat 4100 en dan zou het aandeel van Radeon uitkomen op 7%. In die context is het niet raar dat het een tijd gaat duren voor de survey de Radeon kaarten laat zien. Immers is de survey een optelsom van álle kaarten die in gebruik zijn. Je moet er dus héél veel verkopen in de top 100 te komen.

[Reactie gewijzigd door sdk1985 op 5 juni 2025 15:00]

Dat is Q1. Die kaarten werden pas verkocht in Q2. Andere reports laten zien dat AMD kaarten beter verkopen dan nVidia. Einde van deze maand kan het er anders uitzien.
AMD's desktop GPU market share hits all-time low despite RX 9070 launch, Nvidia extends its lead [Updated]

Update 6/6/2025 9:00 am ET: Jon Peddie has kindly provided us with comments regarding AMD's GPU business underperformance in Q1 2025. He believes that the sources of AMD's decline in GPU shipments lie in the company's failure to accurately predict demand for its GPU products six to nine months in advance, as well as the necessity to balance its TSMC allocations between Zen CPUs and Radeon GPUs. Read the exact comments below.
Steam survey update overigens elke maand en ze zijn in maart begonnen met het leveren van 9070 XT kaarten. Dat was die vertraagde launch waardoor ze extra voorraad hadden, welke alsnog snel weg was. Met andere woorden gedurende maart, april en mei zijn er al kaarten verkocht.

[Reactie gewijzigd door sdk1985 op 8 juni 2025 19:16]

Als dat zo was zou ik AMD nooit overwegen.

Ik wil best een AMD kaart kopen, maar feit is dat er veel aspecten zijn die NVIDIA gewoon beter doet.
Ik zou graag willen weten wat nvidia beter doet. Waarom het nog steeds de beste keuze js ondanks alle bullshit die ze doen, niet alleen nu want het is al jaren bezig.
Als je zelf bezig bent met lokale AI ipv in de cloud is het verschil gigantisch.
Ik ben zelf bezig met lokale AI, SD.Next draait prima op mijn RX 9600 XTX met 24 GB onder zluda. Puur ROCm moet ik nog proberen.

Ongetwijfeld kan ik met een 4090 voor 2000+ euro sneller plaatjes maken. Maar het hoeft niet industrieel, het is een hobby. Anders kocht ik wel een Apple, die zijn nog veel beter dan NVidia.
nVidia is beter in te veel geld vragen, misleidende marketing en planned obsolescence.

AMD heeft geen DLSS, maar wel FSR en als je een 9070 XT koopt kan je gewoon alles native 1440p draaien.
Stop toch eens met de nvidia mindset onzin. Kom met argumenten in plaats van de butthurt AMD fan uit te hangen.
en wat voeg jij hier dan toe, ik heb al verschillende links gegeven uit de review tegen de statements van "advanced03"

tweakers review staat vol met argumenten dat deze kaart een keuze kan zijn, er is effectief een "keuze" tussen 9060xt voor iets minder fps en de iets duurdere 5060ti met meer fps. Dat is een groot verschil met "alles is beter bij NV"

Er zijn andere review sites die er ver over gaan van statements:
At $350, the 9060 XT would become the ultimate budget GPU and an outstanding value
The Radeon RX 9600 XT 16GB hits a real sweet spot for gamers who want smooth Full HD or Quad HD gaming without breaking the bank.

niks buthurt AMD fan, realisme is hier ver te zoeken het is het typische digitale forum wit/zwart. In het echt hebben ze 0 kennis van zake.
Mijn grootste bezorgdheid is hoe de stroom binnen komt op de 4000(?) en 5000 series. YouTube: How Nvidia made the 12VHPWR connector even worse. hier uitgelegd en hoe het fout kan gaan YouTube: 12VHPWR on RTX 5090 is Extremely Concerning

Als Nvidia klant heb ik toch nu wel bedenkingen, dit is niet waar ik over na wil denken als ik +1000 eur ga uitgeven als ook het stuk eigen schuld dikke bult verkeerd aangesloten = warranty void

De nieuwe lading gamers lacht alle Fanboys uit, zij zitten op console.
Huh? AMD's strategie is sinds oprichting prijsvechter zijn. Het brengt modellen uit a.d.h.v. wat de concurrentie uitbrengt en prijst de artikelen dusdanig scherp dat het de prijsvergelijking meestal wint. Bij deze 9000 serie heeft AMD de release een maand uitgesteld. Niemand weet precies waarom, maar wat vermoed jij gezien AMD's strategie? We(lees ik, want ik ben goedgelovig :D en er stond wordt verwacht bij dit artikel) weten nog niet wat deze videokaarten gaan kosten, maar ik kan het alvast raden. Als je 1080/1440 wil gamen en geen interesse hebt in AI is dit vast de beste koop.

Ik doe hier ook mijn voordeel mee, ik zeg ook hardop zonder schaamte dat ik mijn boodschappen doe bij de Lidl! Sinds ik 30 jaar geleden voor het eerst een PC kocht heb ik op twee keer na een AMD CPU in mijn machine gehad.

[Reactie gewijzigd door ABD op 5 juni 2025 18:16]

We weten nog niet wat deze videokaarten gaan kosten, maar ik kan het alvast raden.
Ondertussen heb ik een RX 9060 XT besteld voor €399. Er zijn goedkopere 16GB varianten. Prijzen beginnen vanaf €374.

Naast onze 2 RX 9070XT kaarten is deze een ideale en uitstekende toevoeging voor de huiskamer-PC. Heeft mij dus voor dezelfde, marginaal minder en vaak betere prestaties, issues met drivers, missende ROPs en een onbehaaglijk gevoel van "genaaid worden" en ook nog voor 3 kaarten minimaal € 500 bespaard. (T.o.v. 2 RTX 5070 TI's en 1 RTX 5060TI) Waar is die € 500 gebleven hoor ik jou denken? Hmmm... oh ja! Een Ryzen 7 9800X3D.

[Reactie gewijzigd door Obfzk8R op 5 juni 2025 18:52]

Eerst afwachten waar de winkelprijzen settlen, maar dat valt mij tegen want dit is volgens tweakers dé 5060 killer, maar die kaart start bij €305. Daar staat minder ram tegenover.
5060 killer... Die bijnaam doet de kaart tekort. Kijk maar zelf naar de diverse reviews, waar die tegenover een 5060ti wordt gezet en bepaal zelf of je deze moet vergelijken met een 5060 of een 5060ti.

YouTube: AMD Radeon RX 9060 XT 16GB Review - 45 Games Tested (4K, 1440p, 1080...

YouTube: Sapphire NITRO+ Radeon RX 9060 XT Review & Benchmarks
To kill betekent doden. Wat wil je nog meer? Murder, rape and maim? (Sarcasme uit). De goedkoopste 5600 is 23% goedkoper, dat is niet des AMD's.

[Reactie gewijzigd door ABD op 5 juni 2025 18:33]

Zou een synoniem voor de term "5060 killer" ook kunnen zijn "Obsolete Maker " of "The irrelevator" in deze context?

Dekt deze titel jouw definitie?:
And just like that, the 5060 is irrelevant - 9060XT Review

[Reactie gewijzigd door Obfzk8R op 5 juni 2025 18:43]

Betere upscaling, betere frame generation (deze worden ook in meer games ondersteund dan FSR), cuda cores, betere efficiëntie, betere ray tracing en ik kan zo nog wel doorgaan.

[Reactie gewijzigd door Advanced03 op 4 juni 2025 18:35]

Ik denk dat het eerder betere adoption door game developers is. Ik denk dat er niet veel mensen zijn die FSR4 van DLSS4 kunnen onderscheiden tenzij ze er met een vergrootglas op zitten.
AMD heeft een gigantische inhaalbeweging gemaakt met de 9000 serie en bijhorende drivers en features.
Als Redstone in de volgende helft van het jaar uitrolt, en daarmee ook de AMD variant van ray reconstruction, denk ik dat er niet veel is dat je moet missen.
Physx misschien... maar daar is de 32bit support ook weg bij nvidia (64bit is er nog wel)
Efficiency voordeel is ook grotendeels weg in deze prijsklasse.

Daar staat dan tegenover dat bij nvidia deze generatie heel wat is misgelopen.
* driver issues
* crashes
* bricked gpus door driver updates
* missing rops issue
* smeltende connectoren
* opgeblazen power stages
* absurde prijzen (ook wel bij AMD... maar zeker erger bij nvidia)
* Multi framegen is de punchline van een slechte mop.
* de bovengemelde truncation van 32bit physx
De lijst is hier ook nog langer...
Nvidia heeft hier ineens gekeken wat allemaal mis kan en gekozen om alles tegelijk te doen.

Op het einde van de rekening moet je gewoon kijken wat je zelf wil natuurlijk. Zolang je de gpu zelf goed vind is het goed genoeg.
Heeft AMD de game recording en AI noise suppression features flink opgekrikt dan?

Vooral de AI noise suppresion op de mic is echt tranentrekkend slecht. Zo slecht dat toen ik net van een Nvidia naar een Radeon was gewisseld (en dus van RTX Broadcast naar AMD's noise suppresion) en met een voice chat met m'n vrienden verbond ze me vierkant uitlachten en vroegen wat ik in hemelsnaam met m'n microfoon had gedaan.
Dat vraag ik mij ook af, want welk pakket gebruik je dan voor voicechat?
Ik ontken dit niet, en ben het ook eens dat ze een inhaalslag hebben gemaakt. Uiteindelijk is het een afweging inderdaad.
Betere, heb je de review effectief gelezen? Voor beetje betere staat ook effectief de hogere prijs. Je marginale betere is totaal oppervlakkig in %, typische benchmark lovers tot op de laatste FPS en %.

Cuda Cores, propiatory dingen bedoel je, wat ga je er mee doen op een kaart van 3-400eur. Niks

Het enige betere is in je NVIDIA mindset zoals ik al vermeld hebt. Jij komt niet om te overwegen jij komt hier om gewoon te trollen. Ga gerust je NV kaart kopen. Zonder alternatieven ga je alleen maar meer betalen voor minder. Typisch.

[Reactie gewijzigd door d3x op 4 juni 2025 19:51]

Mensen meteen wegzetten als troll omdat ze geen AMD fanboys zijn... zo overtuig je mensen echt niet om voor team rood te gaan.
Ik denk niet dat @d3x mensen wil overtuigen om over te stappen naar het rode team. Ik lees dat hij zeer valide argumenten inbrengt m.b.t. prijs/kwaliteit. En als iemand meer geld wil uitgeven aan geen, weinig of onbruikbare meerwaarde, is dat hun goed recht. En iemand anders mag daar best iets van vinden. Een BMW-rijder overtuig je niet in een paar zinnen om naar Skoda over te stappen en ook niet andersom. Uiteindelijk rijden beiden met 100 - 130 km/u op de snelweg en kan je je best afvragen wat of een snellere wagen of langzamere het geld waard is voor bepaalde usecases. (Zoals bijvb. dagelijks naar je werk rijden)
alles is sowieso beter bij het andere kamp helpt ook niet om een correcte mening op te bouwen :9

je hebt niet eens de review gelezen want dan zijn sommige van je punten namelijk efficientie al niet door. Ook de beter RT score is enkel op 1440 waar je al op een fps zit dat voor poor man gaming is. Wil je deftig gamen en lange termijn aankoop kijk je sowieso hoger op. Dat je dan 5-10fps meer hebt bij het andere merk wat 2-3-4% is doet er helemaal niet toe. Zels de conclusie merkt op dat het zeer game afhankeijk is om uberhaupt een verschil te geven.
ah een nieuwe wind op het forum O-)

ik kom tweakers niet persoonlijk aanvallen. Het antwoord van iemand dat alles beter is bij NV geef ik antwoord op. Als deze 9060xt (want hoho je antwoord voegt hier ook 0 waarde in het forum) rond msrp beschikbaar zal zijn dat er een alternatief beschikbaar is. Eentje met iets lagere prijs en iets minder performance. Maar beide een goede keuze voor 1080p.

ik antwoord op de persoon en zijn originele zin "alles is beter bij NV"

[Reactie gewijzigd door d3x op 5 juni 2025 07:39]

AI prestaties - stel je eens voor dat je meer met je desktop doet dan gamen - en mindere RT en DLSS en DLAA. Dat laatste is een must als je upscaling gebruikt, want anders worden de beelden wazig.

[Reactie gewijzigd door ABD op 5 juni 2025 18:27]

Wellicht zit ik in een bubbel, maar ik vind dat AI punt altijd zo overdreven. Hoe veel procent van de mensen die een gpu koopt doet nou echt AI workloads? Als je dat doet, tuurlijk dan is het een goed argument. Maar om daarmee de gehele kaart als minder af te schrijven omdat je dat dan opgeeft, tsja...
Ja, waarschijnlijk zit jij in een bubble, net als ik en een ieder ander in een bubble zit. Altijd al geweest, vroeger heette dat verzuiling met een mooi woord, maar ik dwaal af. Dat doet er niet aan af dat het grote geld in AI zit en dáár het grote geld in wordt verdiend. Niet aan die paar budgetgamers die dit soort videokaarten kopen.

Praktisch iedereen gebruikt AI, je hebt niet eens door. In smartphones en laptops zitten SoCs met NPU waar de fabrikanten inderdaad mee te koop lopen, terwijl mijn GPU minstens 60x zoveel NPU performance heeft. Wat kan die NPU? Het zou je laptop tot 20x zuiniger kunnen maken waardoor je batterij veel lang meegaat. Of je telefoon kan veel beter en energiezuiniger jouw "Hey Google" commando interpreteren. Je hoeft er dus niet eens actief mee bezig te zijn met software, waaronder het OS waarop je apparaat draait die AI gebruikt. Software waarvan de waslijst steeds groter wordt.

edit: spelfouten eruitgehaald. Had ik AI voor kunnen inzetten :D

[Reactie gewijzigd door ABD op 5 juni 2025 21:21]

Heb net een 9070xt gekocht voor €729. Goedkoopste 5070ti is €889.

22% stijging was het mij niet waard.
Als je die features niet gebruikt is het zeker een solide kaart.
Hier sinds launch day een 9070XT voor 799 euro, nog altijd zeer tevreden.
uitvoering: ASRock AMD Radeon RX 9070 XT Steel Legend

5070ti in prijs gezakt, dinsdagavond besteld en dat waren toen de prijzen.

[Reactie gewijzigd door kever678 op 5 juni 2025 02:32]

Eigenlijk is het deze generatie erg simpel, de Nvidia 5000 serie is een groot drama ! Van missing Rops, black/blue screens, en verschrikkelijke drivers. Keuze is nu heel simpel, of je koopt een 16Gb RX-9070XT, of als je een wat zuinigerer gamer bent, de 16Gb RX-9060XT . Of te wel, ver weg blijven van Nvidia ! Wil je toch meer, wacht dan een maand of 4-5 , voor de RX-9080XT met 24Gb Gddr7 Vram , *wat Radeon al stiekem bevestigd heeft !* Zelfs een RX-9090XT met 32Gb Gddr7 is mogelijk ! Maar nog niet bevestigd ! PERSOONLIJK wacht ik liever nog 15 maanden, omdat ik ZEER benieuwd ben, wat Radeon UDNA ons 'gamers' gaat opleveren !! Ik verwacht met UDNA een echte ' game changer ' ! ( Pun intended ) En ik denk dat Nvidia dit ook weet, en daarom eigenlijk nu al afscheid neemt van hun Gamers fanclub ! AMD & Radeon is de enige en echte toekomst voor Gamers ! Nvidia gaat 100% vol gas naar A.I. en Intel sterft een langzame dood. Maar wat Nvidia nu nog niet door heeft, is dat ze de A.I. competitie gaan verliezen, en rond 2027 / 2028 gaan huilen, om hun Gamers terug te krijgen. Nou IK ga daar iig niet intrappen ! Dag Nvidia ! Bij deze ben je voor mij compleet afgeschreven, en zal je NOOIT meer in mijn game PC willen !
Fijne review!

Wel een vraagje @willemdemoor of @Trygve:
Zijn er misschien ook grafieken beschikbaar van de prestatiescores in games, maar dan met de 1% lows in plaats van de gemiddelde framerate in elk spel? Dat geeft mij meer een idee van hoe vloeiend ik kan verwachten te gamen met deze kaarten dan op dit moment het geval is.
Zijn er misschien ook grafieken beschikbaar van de prestatiescores in games, maar dan met de 1% lows in plaats van de gemiddelde framerate in elk spel?
Je hebt boven elke grafieken ook nog tabjes (99p), is dat niet wat je bedoeld?

[Reactie gewijzigd door watercoolertje op 4 juni 2025 15:43]

Klopt, maar dat is inderdaad niet wat ik bedoel.

Wat ik bedoel is een paar grafieken zoals de prestatiescore nu, maar dan gebaseerd op de 99p in ieder spel in plaats van gemiddelde framerate in ieder spel.
Nee die hebben we niet, ik heb het wel even voor je op een rij gezet in mijn eigen sheet:
Avg 99p RX 9060 XT RTX 5060 Ti 16GB RTX 5060 Ti 8GB RTX 5060 RTX 4060 Ti RTX 4060 RTX 3060 Ti RTX 3060 RX 7800 XT RX 7700 XT RX 7600 XT RX 6600 XT RX 7600 Arc B580
1080p Medium 8,2 8,0 8,3 9,0 8,9 10,6 10,4 13,0 7,0 8,1 11,0 13,3 12,0 12,0
1080p Ultra 13,0 12,3 12,8 14,7 13,9 17,3 16,2 21,1 10,9 13,3 17,6 21,8 19,8 18,6
1440p Medium 11,3 10,7 10,7 12,6 12,2 15,2 14,1 18,1 9,1 10,7 15,8 18,9 17,0 15,4
1440p Ultra 17,4 16,2 16,4 20,1 19,2 24,2 22,2 29,0 14,0 16,3 24,1 31,4 27,9 24,5
Ik hoop dat je daar iets aan hebt. Let wel, dat zijn gewoon gemiddelden, geen gewogen gemiddelde oid ;)
Ha dankjewel, dat is goed genoeg voor mij! :D
Heldere review, dankjewel! Zouden jullie wellicht de RX 9070 kunnen toevoegen aan de grafieken? Ik ben erg benieuwd naar het procentuele verschil qua performance en stroomverbruik!
Eens, ik begrijp dat hier voornamelijk low budget kaarten met elkaar vergeleken worden maar ik zit net te twijfelen tussen deze en de 9070.

Wat is het verschil? Zeker nu de 9070 stappen heeft gemaakt door driver updates (dus zelf vergelijken met de originele review gaat ook niet)
Compromis: ik vind een kaart hierbij zetten die twee keer duurder is wat vertekenend, dus ik laat hem hier weg.

Maar: ik zet hem in de Best Buy Guide testdata (hier dus) erbij, zodat je alles met alles kunt vergelijken.

Deal?
Youtube reviewers hebben het wel gedaan, alleen het trekt een beetje scheef omdat gamers op die kaart al snel ook op 4K gamen, en dan vallen deze goedkopere modellen wel wat door de mand.
4K gaming wil je eigenlijk niet eens op een 5070 doen. Ik zou het pas overwegen met een 5080. En 5060 lekker 1080p spelen.
Ik heb de 9060XT voor 4K. Hoef niet meer dan 60FPS omdat de tv het toch niet aan kan en met FSR4 upscalen moet daar toch wel aardig mee te casual gamen zijn. Ieder z'n voorkeur.
Kan je deze videokaart ook gebruiken om een LLM op te laten draaien? (via Ollama bv.) Of heb je daar toch CUDA van Nvidia voor nodig, vraag ik me af. 16 GB geheugen is wel interessant voor deze prijs.
Ik vind het ontbreken van dat soort testen ook een gemis. Het wordt steeds meer gamers, en minder enthousiastelingen.
Want games kunnen geen enthousiastelingen zijn of enthousiastelingen draaien altijd LLM’s :?

Sowieso sluit de één de ander niet uit maar het grote gros van de gebruikers zal inderdaad gamen op deze kaart dus logisch dat ze games testen.
Ik zou naar review: AI op AMD- en Nvidia-videokaarten - Taalmodellen, upscaling en imageg... kijken, ik zou verwachten dat het redelijk lineair zou moeten zijn aan de 9070 en 9070XT om een vage verwachting te hebben van hoe het draait.

In principe ondersteunt Ollama AMD wel, maar echte peformance testen lijken er niet te zijn.
Allemaal leuk en aardig, maar men klaagt altijd dat Nvidia zo duur is en dat die de laatste 2 generaties maar relatief weinig meer prestaties hebben geboden voor hetzelfde geld, wat ook zo is, dus dan begrijp ik niet goed dat AMD kennelijk nog steeds niet in staat is een snellere videokaart te leveren voor hetzelfde of zelfs minder geld.. Ja ze zijn iets goedkoper maar ook gewoon nog steeds langzamer, vooral met raytracing wat steeds belangrijker wordt in nieuwe games.. En ook de feature support blijft maar achter lopen, DLSS4 b.v. wordt door veel meer games ondersteunt dan FSR4 en is bovendien van betere kwaliteit.. Dus tja, je koopt met zo'n AMD kaart wel een iets goedkopere videokaart maar ook nog steeds minder product, wat imho gewoon terleurstellend is..
Maar het verschil met een vergelijkbare kaart is best gekrompen. Raytracing heeft wederom een flinke stap gemaakt.
Nvidia is duur maar AMD natuurlijk ook.
Het is niet zo dat Nvidia zich inhoud. Ze besteden miljarden aan R&D en 'netwerken' om een machtspositie te houden.
Als AMD daaraan voorbij wil zullen ze niet alleen enorm veel moeten investeren maar moeten ze ook de garantie hebben dat de verkopen die investering minimaal terugbetalen. Iets dat heel lastig is als ze het niet eens voor elkaar krijgen om genoeg productiecapaciteit te reserveren, omdat Nvidia en anderen ook daarin meer macht en invloed hebben.
AMD heeft in het verleden pogingen gewaagd maar om verschillende redenen nooit op hetzelfde niveau als Nvidia gekomen en heeft zich er min of meer bij neergelegd dat er meer te verdienen valt met hoe ze het nu doen.
Of Nvidia zich inhoudt weten we niet, met de 5090 niet denk ik, maar alles daaronder wel vermoed ik.. Dat verklaart ook het enorme gat tussen de 5090 en 5080.. En die 5090 is ook evenredig veel duurder geworden.. Dus je krijgt amper tot niet meer prestaties voor hetzelfde geld.. En in die situatie is AMD dus kennelijk niet in staat om iets beters te leveren.. Die hebben het highend nu zelfs helemaal opgegeven, zelfs voor de 5080 geen alternatief biedend, laat staan de 5090..

Beide bedrijven zijn nu gewoon meer bezig op andere markten die voor hun fiancieel veel interessanter zijn denk ik.. Gaming GPU's staan op een relatief laag pitje.. Het is een aantoonbaar feit dat de prestatiewinsten bij Nvidia de laatse paar generaties flink teruglopen.. Waar generaties lang het **70 model gelijke prestaties leverde van het vorige topmodel kan je dat nu wel vergeten.. Maar kijkend naar de 5090 is daar dus geen echt technische reden voor, ze kunnen het nog wel maar willen het niet (meer).. We moeten het nu doen met vooral nieuwe ontwikkelingen op meer AI gebaseerde hulpmiddelen zoals DLSS en framegeneration.. Het is wat het is, zeker als de concurrentie infeite hetzelfde doet..

Ik heb uiteindelijk zelf een RTX 5070Ti gekocht ruim een maand geleden.. Prima upgrade alsnog vanaf een RTX 3080 10GB voor ongeveer hetzelfde geld als wat die 3080 eind 2020 kostte.. Alles daarboven is beetje overkil en veel te duur, vooral de 5090.. Nog getwijfeld over de 5080, maar vond die de meerprijs niet waard.. Met de 5070Ti bleef ik in dezelfde prijscategorie als de 3080 en die doet voorlopig alles wat ik wil kunnen doen in mijn games.. Zo kan ik nu b.v. Cyberpunk 2077 draaien met pathtracing aan met wel 200+fps als ik zou willen, wat echt bizar is.. Met de 3080 onmogelijk.. Nu maar afwachten wat de toekomst gaat brengen, of Nvidia b.v. met de 60-serie wel weer iets veel beters op de markt zet voor "normale" prijzen.. Maar zolang ze veel meer geld kunnen verdienen met hun AI producten verwacht ik er weinig van..

[Reactie gewijzigd door Inflatable op 5 juni 2025 12:23]

of Nvidia b.v. met de 60-serie wel weer iets veel beters op de markt zet voor "normale" prijzen.. Maar zolang ze veel meer geld kunnen verdienen met hun AI producten verwacht ik er weinig van.
Ze hebben in de 50xx-serie al de nieuwe chips en geheugen maar dat lijkt qua lompe rekenkracht weinig op te leveren.
Geen idee dus wat er van een toekomstige 60xx serie te verwachten valt.
Eerst maar eens zien of er Super-versies komen en wat die gaan doen.
Wat Nvidia met AI en hun serverkaarten verdient lijkt enkel gerelateerd aan de prijzen die ze voor de gaming GPU's vragen. Ik weet zeker dat als de verkopen enorm tegen waren gevallen, ze de prijzen ook verlaagd hadden.
Maar het lijkt er ook op dat ze de GPU-markt nog steeds belangrijk genoeg te vinden om niets uit handen te geven of terrein te willen verliezen qua technologie. Ze willen nog steeds dominant zijn in de mid-range omdat ze daar de meeste invloed mee uitoefenen op de hele gaming markt. Games (en bij voorkeur alle software) moeten uiteraard zoveel mogelijk gebruik maken van deep learning en AI-tech.

De 5080 is een rare kaart. Als ze daar een iets bredere geheugenbus op hadden gezet en dus ook iets meer VRAM dan was het misschien een goede opvolger voor de 3080 en 4080 geweest en misschien zelfs wel de €1200+ waard geweest die het ding ding kost.
Ik hecht wel waarde aan grafische pracht in games maar het zal me voorlopig een rotzorg wezen dat pathtracing Cyberpunk 2077 onmogelijk te spelen maakt op mijn 3080, puur door het simpele gegeven dat die GPU's van Nvidia te duur zijn voor wat ze bieden.
Sinds de 20xx serie en het RTX gebeuren lijkt het al op een soort verkapte geplande veroudering met iedere keer een nieuwe DLSS die niet (volledig) draait op oudere kaarten.
Ik vind het ook een raar idee om een naar mijn idee minder capabele GPU aan te schaffen enkel omdat die wel binnen een gevoelsmatig correct budget valt.
Het interesseert me persoonlijk ook helemaal niet meer waarom de prijzen zijn zoals ze zijn. Als dit is wat PC-Gaming met pathtracing of wat dan ook op een fatsoenlijk aantal fps moet kosten, dan vind ik het de prijs niet meer waard.
Dan besteed ik die €1200 liever aan een vakantie.
.
Vast blijven zitten in de oude gedachten over welke prestatieverbeteringen je zou moeten krijgen voor hetzelfde geld bij elke nieuwe generatie GPU's is uiteindelijk nutteloos omdat er gewoon geen echte keuze is, daar was ik wel al achter gekomen maar jij kennelijk nog niet.. Ook lijkt het erop dat je niet echt weet wat je wilt.. Je wilt geen €1200 voor een 5080 betalen maar ook geen 5070Ti kopen omdat je dat kennelijk een downgrade vindt naar een zogenaamd minder capabele GPU?!? Dat vind ik dan juist weer raar..

Ik ben gelukkig wel tevreden met mijn *upgrade* naar een 5070Ti vanaf een 3080 (samen met de upgrade van een i7 10700k naar 9800X3D systeem).. Ik heb nu gemiddeld 45% meer raterization prestaties, 65% meer raytracing prestaties, 60% meer VRAM en 4x multi-framegeneration support.. En dat voor met de inflatie meegerekend zelfs iets minder geld als wat ik eind 2020 voor mijn 3080 betaald heb.. Ik wilde niet nog langer met de 3080 blijven zitten omdat het mij wel een rotzorg is dat ik de nieuwste games met de mooiste graphics kan spelen.. Ik wilde ook in ongeveer dezelfde prijscategorie blijven en niet over de €1000 gaan, en dus was de keuze voor een 5070Ti voor mij vrij logisch.. Welke modelnaam het verder heeft boeit me weinig, het gaat om de prestaties en wat het kost.. Waar je het geld verder nog allemaal aan uit zou kunnen geven vind ik verder totaal niet relevant..
Vast blijven zitten in de oude gedachten over welke prestatieverbeteringen je zou moeten krijgen voor hetzelfde geld bij elke nieuwe generatie GPU's is uiteindelijk nutteloos omdat er gewoon geen echte keuze is, daar was ik wel al achter gekomen maar jij kennelijk nog niet.
Duidelijk wel aangezien ik er letterlijk melding van maak.
Er heeft sinds jaar en dag een bepaalde lijn gezeten in de performance- en prijstoenames van nieuwe series en typenummers. De nieuwe x60 wordt vergeleken met de oude x60, enz..
Afgezien van het gegeven dat de prijzen rare dingen hebben gedaan heeft Nvidia met de 40cc serie al geprobeerd er een typeverschuiving in te manoeuvreren met 2 versies van de 4080 en na 'correctie' met een 'verdachte prijsstelling. Is genoeg over geschreven.
Hetzelfde geintje flikken ze nu iets minder opvallend met de 50xx maar vreemd genoeg wordt er amper over gesproken. Puur gekeken naar performance zijn de typenummers niet logisch.
Je wilt geen €1200 voor een 5080 betalen maar ook geen 5070Ti kopen omdat je dat kennelijk een downgrade vindt
Ja. Ik ga je niet uitgebreid uitleggen waarom, want ook daar is genoeg over geschreven, maar het is helemaal niet vreemd om een bepaalde performancetoename te verwachten voor een bepaalde prijs.
Zelfs al is er een goede reden dat alle prijzen van alle kaarten enorm gestegen zijn is die prijs van de 5080 nog steeds niet in lijn met de rest.
Ik ben gelukkig wel tevreden
En je bent niet de enige.
Velen zijn bereidt te betalen voor wat er geboden wordt. Velen ook duidelijk niet.
Velen noemen inflatie en allerlei redeneringen maar dat is niet nodig. Het is voor iedereen verschillend.
Ik wil best betalen voor kwaliteit, maar die prijs/kwaliteitsverhouding is naar mijn idee uit balans.
Jij leeft nog met de ijdele hoop dat we ooit weer gaan terugkeren naar een tijd waarin de **80 serie van Nvidia sneller is dan het topmodel van de vorige generatie voor een prijs minder dan €1000.. Zeer grote kans dat zodra de 60-series over een kleine 2 jaar ofzo uitkomt jij je hele verhaal over waarom je niet gaat upgraden weer kunt herhalen.. (Highend) PC gaming opgeven en een paar keer extra op vakantie gaan is inderdaad ook een optie.. Gelukkig is dat voor mij geen keuze want hoef niet het één voor het ander te laten, en ondertussen geniet ik wel ook gewoon van de nieuwste games met de grafische kwaliteit en prestaties kunnen spelen die ik wil.. Met de 3080 ging dat niet meer..

[Reactie gewijzigd door Inflatable op 6 juni 2025 11:59]

Deze 9060XT zal echt bij de 375 euro uit moeten komen anders kunnen ze het ding beter helemaal niet uitbrengen. Voor 450 euro heb je namelijk een 5060Ti 16Gb.
bij MSRP is de 9060xt een alternatief in een iets lagere prijsklasse. Iets minder fps voor iets lagere prijs.
Het is wel 75eur verschil met op 180p enkel 2-3% fps verschil. Dat geeft beide kaarten eenzelfde levens duur verwachting.

Maar zoals steeds posten hier vele met de mindset "je kan alleen maar op een NV gamen" want alles bij NV is beter.

[Reactie gewijzigd door d3x op 5 juni 2025 07:30]

Ik snap jou reactie niet helemaal.

Het punt van AtariXLfanboy is dus juist dat de 5060Ti 16GB betere performance levert dan de 9060XT. Als die laatste voor de MSRP uitkomt, dan is het een goede deal. Maar AMD partners hebben nogal moeite om kaarten uit te brengen voor de MSRP. Dus als de 9060XT duurder wordt, bijv. richting de 400 of 425 euro, dan wordt het ineens helemaal geen goede deal, en zou je beter wat extra geld kunnen uitgeven voor de die 5060Ti. Die is dan iets beter in rasterization en nogal wat beter met raytracing.
maarjah het is wel een NV, de enige waar je op kan gamen....
Ik begrijp niet helemaal goed of dit nu sarcasme is, of een serieuze opmerking. Maar voor de volledigheid wil ik toch zeggen dat er miljoenen mensen zeer tevreden gamen met een AMD videokaart, en ik ben daar op het moment toevallig een van (en in het verleden genoeg kaarten van ATi, Nvidia en AMD gehad). Het best kijk je op het moment dat je een nieuwe kaart nodig hebt welke kaar het best bij je wensen en budget past en koop je die, ongeacht welk merkje er dan op zit.
Dat was toch overduidelijk sarcasme. Hij wijst op het punt dat NV een soort status heeft gekregen waardoor gamers voor dezelfde prestaties meer willen betalen voor NV dan voor AMD. Beetje een cult zeg maar.
Daar had mijn opmerking nauwelijks iets mee te maken, maar als de 9060XT dus rond de 425 euro uit komt dan is die 25 euro meer al gauw aantrekkelijk voor een 5060ti 16Gb. En dat is niet alleen om de paar procent performance winst.

En aanvulling : Dit keer is dus AMD volop voor MSRP te krijgen... dus ja dan is Nvidia gewoon te duur in dit segment!

[Reactie gewijzigd door AtariXLfanboy op 5 juni 2025 20:21]

Als er 1 cult is dan is het wel in het AMD kamp.
Het is natuurlijk wel een beetje zo dat er twee kampen zijn. Het ene kamp dat graag meer concurrentie ziet voor lagere prijzen, en het kamp dat graag meer concurrentie ziet voor lagere prijzen en die daar AMD koopt wanneer prijs / prestatie gelijkwaardig zijn.

Je kan van de laatste moeilijk kwalijk nemen dat ze zich er actief over uitlaten dat het wat frustrerend is te zien dat het andere kamp al jaren zonder blikken of blozen gerust 25% meer uitgeeft voor soms hooguit 10% meer frames.
De oplossing is eenvoudig: AMD moet maar concurrentieel zijn. Het is de volledige implosie van AMD op de GPU markt dat NVIDIA toelaat met deze praktijken weg te komen.
Waarom val je iedereen persoonlijk aan die een andere mening heeft?
niks mis met een mening, er is een verschil met een mening geven of gewoon zeggen "alles is altijd beter bij NV" dan heb je geen mening dan ben je gewoon biased.

Een sarcasme post, daar hebben precies veel een probleem mee, het zal aan het type leden liggen tegenwoordig. Het is hier dan ook een consumenten site geworden met de djingels op de radio.

[Reactie gewijzigd door d3x op 5 juni 2025 07:28]

Ik droom nog steeds van een Low Profile variant van deze kaart
Het zou toch moeilijk zijn 160-180W te koelen met een low profile koeler, en ook nog eens relatief stil te zijn. Eventueel kunnen de kloksnelheden nog wel een stuk omlaag, maar ik denk dat je dan toch eerder moet hopen op een RX 9050.
Als ze het TDP terug weten te schroeven naar 150W zou het moeten kunnen. Dat is ook wat de 5060 LP van Gigabyte verbruikt.
Hopelijk komt iemand er dan mee. Ik zou ook wel een snellere LP AMD videokaart willen voor mijn gaming HTPC met ChimeraOS (ondersteunt alleen AMD), er zit nu nog een RX 6400 in.
Intel nucs en de Asus varianten ondersteunen externe videokaarten.
met een dremel misschien op te lossen? }>
Ik blijf dit met interesse volgen, mijn GTX1660 super is wel aan een upgrade toe. Nu de RTX5060 en RX9060 beiden op de markt zijn, ga ik de prijsontwikkelingen even in de gaten houden.

Primair gebruik ik vooral davinci resolv en DXO photolab, waarbij de videokaart ook ingezet wordt. Wel wordt CUDA beter ondersteund dan openCL, hetgeen bij renderen betere resultaten zal leveren als ik voor de RTX 5060ti ga. Ik ga daar nog eens in duiken.

Gamen doe ik een enkele keer, maar mijn Eizo scherm is toch gelimiteerd, dat redden beide series prima.
Blender is nog zo'n voorbeeld waar de 5060 Ti aanzienlijk beter uit de verf komt. In dit specifieke geval gaat het dan om prestaties met gebruik van OpTiX (nVidia) versus HIP (AMD). Zelfs de Intel Arc B580 is een kwart sneller dan de 9060 XT en zit op dit moment €75 onder MSRP van de laatstgenoemde. Zoek je een kaart primair voor productiviteitsdoeleinden dan is er voor de kaarten van AMD (of beter gezegd de software) nog wel wat werk aan de winkel.
Ik zal in dit geval kiezen voor een videokaart van Nvidia
Waarom is de 8 GB versie niet meegenomen? Ben wel benieuwd naar het prestatie verlies van 8 t.o.v. 16GB, en of dat bij de AMD kaarten even groot is als bij die van NVIDIA.
We hebben enkel de 16GB; zodra we een 8GB bemachtigen testen we die uiteraard ook!
VRAM softwarematig limiteren wellicht?
Ah, ok dan moet ik nog eventjes geduld hebben ;)
Bedankt!
Net als nvidia weigert AMD die te leveren?🤔

Ik blijf het opmerkelijk vinden dat de pers massal is overgestapt op vram shaming. Wat is nu precies het probleem dat je een game niet op de aller hoogste settings kunt spelen? Texture details en texture pool size is al decennia lang in te stellen en games helpen je actief met het kiezen van de juiste instellingen.

Eindstand komt het er nu op neer dat er wordt gesteld dat een kaart met een MSRP van 375 het minimum is. Maar dat is natuurlijk niet zo. Op een goedkopere kaart met 8 GB vram kun je de komende jaren ook prima gamen. Net als dat je anno 2025 ook op een kaart met 4GB kunt gamen. Voor sommige mensen is 375 euro een hoop geld en die kopen liever iets van bijvoorbeeld 250 euro. Dan moet je concessies doen en dat is verder helemaal niet erg. Het is wat mij betreft veel erger dat we jaren lang games hebben gezien die niks met VRAM deden.

Hoe dan ook is het gevolg van VRAM shaming dat zowel Nvidia als AMD de 8GB kaarten niet richting de pers sturen.

[Reactie gewijzigd door sdk1985 op 5 juni 2025 10:08]

geen enkele reviewer heeft een 8GB sample gekregen en moeten hem zelf kopen. Dit is een bewuste keuze vanwege het gedoe met de 5060 8GB, zodat ze hem niet meteen kunnen vergelijken.
Durft iemand wat te zeggen over hoe groot de performance-impact nu is als je op PCI-E 3.0 zit, en je hebt een x8 kaart?

Vooral met de 8GB modellen een ramp wat ik heb gezien in benchmarks (alhoewel het nog steeds kan verschillen, maar er zijn best wat 'instort' situaties).

Maar bij 16gb modellen waar je minder zwaar leunt op de PCI-E bus speed als dingen gewoon in vram passen? Is het dan minder? Of nog steeds een issue?

Want als dat wel een ding blijft, dan ruled dat eigenlijk ook de 5060ti voor me uit, 16gb of niet, goede prijs of niet… dan wordt het kiezen tussen een 9060XT of een 5070, en tsja... dan is de keuze snel gemaakt.
Zie DF filmpje over 9060XT. Paar % verschil maar niet zo erg als bij de 5060.
d'oh.. had de DF video aanstaan maar op pauze gezet om tweakers te lezen ;).

Die 5060 maakte me een beetje teleurgesteld inderdaad, maar dan las ik weer ergens anders dat de 5060ti 16gb er minder last van had, dus tsja, wat moet ik dan geloven. DF dus.


Om te kunnen reageren moet je ingelogd zijn