Gerucht: AMD Radeon RX 9060 XT komt begin juni uit

AMD brengt de Radeon RX 9060 XT naar verluidt begin juni uit. Dat zegt bekende AMD-leaker Hoang Anh Phu. AMD bevestigde eerder al dat de RX 9060 XT in het tweede kwartaal op de markt komt, maar de releasemaand was nog niet bekend.

AMD zou de Radeon RX 9060 XT aankondigen tijdens de Computex-beurs in Taipei, zegt Hoang Anh Phu op sociale media. Die beurs vindt dit jaar plaats vanaf 19 mei. Een release zou twee weken na de aankondiging volgen, wat neer zou komen op de week van 2 juni. De exacte data waarop de kaart wordt aangekondigd en uitkomt, zijn nog niet bekend. AMD heeft nog niet bevestigd wanneer het bedrijf zijn Computex-keynote houdt.

De RX 9060 XT wordt een midrangevideokaart die beschikbaar komt in varianten met 8GB of 16GB vram, schrijft VideoCardz. Hij word gebaseerd op de RDNA 4-architectuur, net als de RX 9070 en 9070 XT, en krijgt naar verwachting een Navi 44-gpu. De 9060 XT zou daarnaast 2048 streamingprocessors krijgen, precies de helft van het aantal cores in de RX 9070 XT. De adviesprijs is nog niet bekend.

Vermeende specificaties van de Radeon RX 9060 XT naast die van de RX 9070 (XT)
Videokaart RX 9060 XT RX 9070 RX 9070 XT
Architectuur RDNA 4 RDNA 4 RDNA 4
Gpu Navi 44 Navi 48 Navi 48
Streamingprocessors 2048 3584 4096
Boostclock 3,2GHz 2,5GHz 2,9GHz
Geheugen 8GB/16GB GDDR6 16GB GDDR6 16GB GDDR6
Geheugenbus 128bit 256bit 256bit
Geheugenbandbreedte 320GB/s 640GB/s 640GB/s
Adviesprijs Nnb 639 euro 695 euro
Release Juni 2025 6 maart 2025 6 maart 2025

Door Daan van Monsjou

Nieuwsredacteur

17-04-2025 • 07:41

53

Lees meer

Reacties (53)

53
53
51
3
0
2
Wijzig sortering
Snel geteld heeft de RX 9060 XT dus ongeveer 43 procent minder shading units dan de RX 9070, maar wel een 28 procent hogere boost clock. Als we ervan uitgaan dat de snelheid van de kaart perfect schaalt met de kloksnelheid en het aantal shading units (wat in de praktijk meestal niet zo is), dan zou je verwachten dat de RX 9060 XT ongeveer 73 procent van de prestaties van de RX 9070 levert. Dat zou dan in lijn liggen met de 5060 Ti. De geheugenbandbreedte is echter wel een stuk lager dan die van de 5060 Ti, dus ik ben benieuwd hoe deze kaarten zich met elkaar gaan vergelijken.
Een redelijke verwachting is dat je een kwart tot de helft van je kloksnelheid terug ziet in echte performance. Die verhouding klopt altijd redelijk met overclocken in mijn ervaring.
En dat tegen een relatief hoog verbruik. Kaarten als de 9070 zijn vaak ideaal voor een stille, zuinige doch krachtige build.

Zodra er wordt beknibbeld op shaders en het gecompenseerd wordt met kloksnelheid, zie je bij AMD toch vaak dat de verbruik/prestatie verhouding er onder lijdt.
Vergeet niet dat AMD "Infinity Cache" gebruikt om te compenseren voor de lagere geheugenbandbreedte. Hoeveel dat werkelijk gaat schelen is niet aan mij om te beoordelen.
Daarintegen zal de efficientie een stuk lager ligen, als je al ziet wat 2,9ghz doet met de efficientie voor de 9070xt tegenover de veel efficientere 9070 met zijn 2,5ghz boost clock.
Snel geteld heeft de RX 9060 XT dus ongeveer 43 procent minder shading units dan de RX 9070, maar wel een 28 procent hogere boost clock. Als we ervan uitgaan dat de snelheid van de kaart perfect schaalt met de kloksnelheid en het aantal shading units (wat in de praktijk meestal niet zo is), dan zou je verwachten dat de RX 9060 XT ongeveer 73 procent van de prestaties van de RX 9070 levert. Dat zou dan in lijn liggen met de 5060 Ti. De geheugenbandbreedte is echter wel een stuk lager dan die van de 5060 Ti, dus ik ben benieuwd hoe deze kaarten zich met elkaar gaan vergelijken.
Zo goed schaalt die clock niet. Ik zou het simpeler maken, de specs zijn letterlijk de helft van de 9070 XT. De cores zijn precies de helft, de bandbreedte is precies de helft en de bus is precies de helft. Dus dan is het niet heel gek de helft van die prestaties te verwachten. Die 300 Mhz is een boost clock, geen gegarandeerde clock en 3.2/2.9 = 110%. Dus dat gaat in de praktijk aan de clock kant over enkele procenten.

[Reactie gewijzigd door sdk1985 op 17 april 2025 16:43]

Grappig dat de boostclock hoger ligt bij de 9060XT. Zou te maken kunnen hebben dat de GPU minder krachtig is, minder warmte produceert en dus hoger kunnen klokken?

Afgaande op de specs hoop ik dat ie rond de €500 uit komt.
Als ik het aantal dies per wafer uitreken kom ik op de volgende getallen uit met een 12" wafer:

navi44 DPW (12") 400
navi48 DPW (12") 165

Beiden zijn gemaakt op 5nm. De yield bij navi44 zal tevens hoger zijn dan bij navi48 omdat fouten in de productie percentueel gezien minder effect hebben op de yield.

Verder zal het TDP ongetwijfeld lager zijn en dus de benodigde koeler kleiner. Ik denk dat een MSRP van 400 dollar mogelijk moet kunnen zijn.
Het is een iets hoger geclockte halve 9070 XT, je zou zeggen dat 400 euro de max is. Maargoed, we gaan het meemaken. Qua prijs zou hij dan erg populair kunnen worden, als de prestaties "kloppen".
De 9060XT en 9070XT en hebben verschillende gpu's (Navi 44 resp. Navi 48), dus de 9060XT is geen halve 9070XT. Het is echt een eigen ding, geen hogere gpu met uitgeschakelde onderdelen.
Zo bedoeld @Megalodon86 het denk ik niet helemaal, maar dit; de Navi 44 is 'een halve Navi 48' v.w.b. de specificaties. En dat klopt.
Wordt natuurlijk de benchmarks afwachten. Als de kaart een stuk beter presteert dan de 7800 XT, dan reken er maar op dat 'ie 499 gaat kosten.
Als de kaart een stuk beter presteert dan de 7800 XT, dan ...
Die kans is letterlijk nul, "een stuk beter dan de 7800 XT" is namelijk; de 9070 met +/- 20% in raster (over alle resoluties gemiddeld in de laatste cijfers van Tweakers [5060 Ti Review]).
Dit gebeurt al jaaaaren: de GTX 980ti had bvb een lagere clock dan de 980: Wikipedia: GeForce 900 series

Het is precies wat je zegt: kleinere chip produceert minder warmte dus kan een hogere spanning en klok aan. Dat gebeurt wel op een kleinere oppervlakte, dus dit schaalt ook weer niet oneindig omdat je koeling ook sterker moet zijn per vierkante mm.

[Reactie gewijzigd door kiang op 17 april 2025 09:24]

Als hij niet onder de 450 euro is dan is het DOA. The 7800XT zit al rond de 500 euro, de 7900 GRE daar iets boven en ik verwacht niet dat de 9060XT beter zal zijn (buiten mogelijk ray tracing).
Nee, het is meer prestaties eruit knijpen ten koste van efficiëntie.
Grappig dat de boostclock hoger ligt bij de 9060XT. Zou te maken kunnen hebben dat de GPU minder krachtig is, minder warmte produceert en dus hoger kunnen klokken?

Afgaande op de specs hoop ik dat ie rond de €500 uit komt.
Is deze niet bedoeld om op de markt te concureren met de 5060 van nvidia, als ze dan even krachtig zijn dan zal hij ergens vanaf de 405 euro te koop zijn, en als zijn specs lager zijn dan de 5060 zal de prijs ook lager zijn anders verkoop je er niets van.
Waarom GDDR6 nog? ALs je de 9060 vergelijkt met de 5060 met gddr7 dan is dat 320GB/s vs 448GB/s qua geheugen bandbreedte
AMD "Infinity Cache" ?
ETA; GDDR6 + Infinity Cache zou volgens AMD logica snel genoeg moeten zijn, en toch goedkoper om te maken.

[Reactie gewijzigd door Terr-E op 17 april 2025 09:47]

Snap niet hoo enkele mb's aan snel geheugen zoveel gaat helpen als je pakweg enkele gb's aan data in je vram moet laden.
Niet bij het inladen, wel bij het gebruiken.

De cache helpt ervoor zorgen dat je cores niet moeten wachten op data uit je VRAM als je die data regelmatig nodig hebt. De eerste keer moet dat uit VRAM komen, de tweede en verdere keren zit dat in de cache. Het is vaak niet zozeer de bandbreedte, maar de latency die je in de problemen brengt. Maar die cache heeft natuurlijk ook als voordeel dat je veel minder vaak tot aan je RAM gaat en dus minder bandbreedte nodig hebt.

Je ziet bij de X3D processors een heel gelijkaardig effect. Waar bij de normale AMD CPUs het heel belangrijk is om snel geheugen te hebben, maakt dat bij de X3D chips bijna niets meer uit. Daar kan je stock JEDEC settings draaien zonder dat je er veel voor opgeeft. Dat wil je niet proberen zonder die cache.

Het werkt dus echt wel, de vraag is alleen of het goed genoeg werkt om het verschil dicht te rijden en misschien zelfs het snellere VRAM voorbij te steken (zoals we zien bij X3D). Eventjes wachten op reviews dus.
Ah zo, ok bedankt :)
Het is idd te hopen voor AMD dan , lagere prijzen fsr 4 en defetige performance kunnen ze echt wel gebruiken daar om wat amrktaandeel terug te winnen.
Omdat er praktisch geen prestatiewinst is tussen GDDR6 en -7. Zie nVidia kaarten.
? Heb je daar een bron voor?
Als ik 4060 ti vs 5060 ti dan zie je de 4060 ti slechter rpesteren hoe hoger je gaan in resolutie en detail.
Wat je zou verwachten met evenveel geheigen/minder bandbreedte.
Als het een groot verschil zou maken, dan zou je ook een groot verschil verwachten tussen 40 en 50 series kaarten. Maar de generationele verschillen zijn historisch gezien nog nooit zo klein geweest.
Je gaat van "prachtisch geen" naar "geen groot"

Als ik de 5060 ti tegen de 4060 ti dan verliest die 10% in games in hogere resoluties en 15-20% in synthetische benchmarks of productiviteit (zoals ai) . Ik zou 10-20% winst daar toch niet "practisch niks " noemen.
Of je 10-20% praktisch niets noemt ligt aan de minimale fps van een game.........bijv. produceert de 5060ti 30 fps, dan is 20% maar 6 fps extra, wat niet zorgt voor een significant betere spel ervaring qua soepelheid.
Jij zult dus naar games moeten kijken waar de 4060ti tegen z'n max aanloopt, en dan kijken hoe de 5060ti presteert in diezelfde game, gaat zoals eerder gezegd van 30 naar 36 fps, dan niet de moeite waard. Gaat ' ie van 30 naar 45 fps, dan is er een merkbare prestatie winst.
Percentages zeggen weinig, ga je van 1 fps naar 2 fps heb je al een prestatiewinst van 100%, maar het spel blijft onspeelbaar.
Door percentage te vermelden lijken de resultaten groter dan ze werkelijk zijn, daarom gebruiken bedrijven ze vaak.

[Reactie gewijzigd door EMR77 op 17 april 2025 11:42]

Dat slaat nergens op, de vraag was of bandbreedte effect heeft en geziend de benchmarks kan je zeggen van wel .
Nee, nog steeds niet gezien ook de architectuur veranderd is........conclusie architectuur incl. gddr-7 geheugen en verdubbeling geheugenbandbreedte leiden tot 10-20% verbetering in games. Dus de cruciale veranderingen die zijn doorgevoerd voor de nieuwe gpu leiden maar tot een marginale verbetering, die je in de meeste gevallen qua games niet noemenswaardig zal merken. Dus, dus kun je het nut ervan in twijfel trekken.
Onze k995 denkt alwetend te zijn op het gebied van videokaarten, ook al sleept ie met regelmaat de grootst mogelijke onzin erbij... Hoe is over 4K gaming beginnen (want: "GDDR7 is daar [misschien] sneller!") überhaupt relevant bij een 60 serie kaart?

Als je op hogere resoluties wil presteren, en GDDR6 wil gebruiken, ga je voor een (veel) bredere geheugenbus. Dat is wat je dus ook altijd ziet bij hogere series videokaarten.

Als je iedere dag, de hele dag, niets anders doet dan synthetische benchmarks draaien om zo hoog mogelijke cijfertjes te zien op 60 serie kaarten; neem iets met GDDR7! :+
De sprong van generatie naar generatie is groter geweest waarbij de VRAM hetzelfde is gebleven. Die 10-20% winst kan ook volledig verklaarbaar zijn door de nieuwe GPU. Overigens als ik kijk naar de 4080 Super en 5080 is het verschil < 10%.
IK spreek dan louter tussen de verschillende resoluties.

Als je ziet dat een 5060ti 15% sneller in een benchmark op 1080p en 25% sneller in 4k dan komt die "extra" 15% waarschijnlijk wel grotendeels van die hogere bandbreedte, aantal vram is immers hetzelfde.

Daarbij net zoals bij vram zelf zal die extra snelheid maar opbrengen in het inladen (als je een game start) of in het gaan tussen locaties of als de vral volzit. Iets wat men niet courant test.
Dat kan ook komen door de nieuwere GPU architecture en het meer GPU bottlenecked zijn op hogere resoluties.

De 7900 XTX en 4080 super hebben dezelfde VRAM en je ziet hetzelfde gebeuren naarmate de resoluties hoger worden: https://gamersnexus.net/g...-4080-super-rasterization
?
24gb 384 bit vs 20gb 256bit
Bandwidth (GB/s) 960 vs 816
De 7900 xtx heeft meer(zal weinig uitmaken hier gezien de hoeveeleheid) en sneller geheugenbandbreedte en idd dan zie je hetzelfde als bij de 5060 vs 4060 waar de 5060 ook grotere geheugenbandbreedte heeft.

Dat toont gewoon nogmaals mijn punt aan.
9070xt heeft ook GDDR6, en die presteert beter in 1% lows dan de 5070ti in vrijwel elke game, lijkt erop dat GDDR6 geen bottleneck is in dat geval.
Infinity cache met goedkope vram is productie efficiëntie. Vooral voor merk die ivm missende of mindere features lager prijs in de markt gezet wordt.
En al helemaal voor low budget g-kaart.
Deze kaart moet minder gaan kosten dan een 5060 Ti, anders wordt het een kansloos verhaal. Op basis van de specs verwacht ik namelijk niet dat de prestaties daar (ver) bovenuit gaan komen.

Als deze kaart voor max € 400 op de markt komt, kan het een heel mooie high-fps 1080p of 60fps 1440p kaart worden.
probleem is natuurlijk dat "onder de 5060 ti" net zo goed 500 euro kan zijn, als NVIDIA leveringen niet op orde krijgt. In de meeste landen waar de 5060ti momenteel al beschikbaar is ligt de vraagprijs van de "premium" 5060ti momenteel op hetzelfde niveau als de 5070.

Als de 5060ti werkelijk beschikbaar komt voor zo'n 450 euro dan is 400 euro een redelijke kans.
Nouja, goedkoopste 5060-ti/16GB zie ik al voor 459 staan, gemiddeld lijkt het op 550..
Ik doelde er vooral op dat de prijs lager dan een 5060 Ti moet zijn, ongeacht wat die prijs wordt natuurlijk.
Ik hoop dat deze kaarten een beetje normale prijs krijgen, want consoles zijn goedkoper dan een pc-component om op 4k te gamen....... 8)7 8)7
Console games draaien meestal dan ook op 1080p of lager en dan upscalen ze naar 4K. Hoeft in principe niet heel verkeerd te zijn maar het is niet vergelijkbaar met de 4K benchmarks van Tweakers.
Toch niet alle games? En, voornamelijk om 60 fps te halen. Maar, volgens mij wel minder beeld artefacten, aangezien er is geoptimaliseerd voor de desbetreffende console.

[Reactie gewijzigd door EMR77 op 17 april 2025 12:32]

Assassin’s Creed: Shadows is 1080p in quality mode, op 30FPS. Performance mode is 1440x810 en balanced (40fps) ligt er ergens tussenin.

Dat is niet heel bijzonder. Bij nieuwe games is een echte 4k modus niet gebruikelijk. Alleen de eerste lichting aan ports die nog van de XBO kwam konden vaak op 4k.
Waarom zo'n lage geheugenbus?
Omdat dit de budget-kaart van deze serie moet worden. En 128-bit is heel gangbaar voor een budget-kaart. Al is "budget" relatief, het segment van onder de 200 euro kan je tegenwoordig wel ongeveer doodverklaren. De RX6400 en RX6500 waren laptopchips die in desktops nogal sub-optimaal waren, en de RX7000-serie heeft daarvan ook geen refresh gezien.

Zo nu en dan heb je nog tussenvarianten met 192-bit en 12GB geheugen, maar AMD kiest er deze generatie voor om geen brede line-up te hebben, met enkel navi44 en navi48, waarbij navi44 een halve navi48 is.

[Reactie gewijzigd door bwerg op 17 april 2025 09:23]

Performance vind ik van de huidige Radeon kaarten tegenvallen. Kijk maar eens naar een 6800 xt uit 2020. Deze heeft G3D mark van 25000 vs 27000 van 9070 xt uit begin dit jaar. Het lijkt erop dat de rek er een beetje uit is.
Dat is jouw conclusie? gebaseerd op een enkele benchmark die niemand in de wereld meer serieus gebruikt?

In elk "real-world" game wordt de 6800 absoluut vermorzeld. Indien ray-tracing wordt aangezet, zijn de resultaten niet eens op dezelfde planeet.
Volgens de geruchten zou deze maand nog de 9070 GRE uit moeten komen in China.
nieuws: 'AMD Radeon RX 9070 GRE met 12GB vram komt binnenkort uit in China'
Als dit gaat net als met de eerdere "China-only" GRE kaarten, dan zullen die vast ook hier opduiken.
Ik ben benieuwd of dit de prijs van de 9060 XT een beetje gaat drukken, en hoe de prestaties zich gaan verhouden.
De RX 9060 XT wordt een midrangevideokaart
Tja, dat is helaas de RX 9070 XT ook. Erg jammer dat AMD in deze serie geen topkaarten heeft.
Het is dat Nvidia zichzelf gigantisch uit de markt prijst, anders zou ik voor m'n nieuwe pc waarschijnlijk voor een 5080 gaan.
ik wacht de praktijk benchmarks af en of de kaart voldoende onder de 9070 (XT) zit qua prijs

Op dit item kan niet meer gereageerd worden.