AMD Radeon RX 9060 XT is een derde sneller dan voorganger volgens eerste review

Een reviewer heeft vroegtijdig testresultaten gedeeld van AMD's Radeon RX 9060 XT 16GB. Die worden pas op 4 juni verwacht, gevolgd door de officiële releasedatum van 5 juni. De RDNA 4-gpu blijkt een derde sneller dan de RX 7600 XT.

Het gaat om een review van het Britse eTeknix, die inmiddels alweer offline is gehaald. Onder meer X-gebruiker Johnhughes1993 heeft enkele screenshots gemaakt en doorgestuurd naar VideoCardz. Daarop zijn de gemiddelde prestaties te zien in tien games, op 1080p en 1440p.

Volgens deze testresultaten is de RX 9060 XT 16GB goed voor gemiddeld 187fps in 1080p, gevolgd door 134fps in 1440p. Dat is nagenoeg hetzelfde resultaat als de RX 7700 XT in full-hd, terwijl de RDNA 3-videokaart gemiddeld 3,7 procent sneller is in 1440p. Ten opzichte van zijn voorganger, de RX 7600 XT, is de RX 9060 XT 16GB 35 procent sneller in beide resoluties.

Wat de concurrentie betreft, is de nieuwe RDNA 4-gpu 3,7 procent langzamer dan Nvidia's RTX 5060 Ti 16GB in 1080p. In 1440p loopt het verschil uit en is de RX 9060 XT 16GB 5,7 procent trager. Opvallend is dat de AMD-gpu in beide resoluties betere 1% low fps-waarden behaalt: 3,5 procent meer in 1080p en 7,8 procent meer in 1440p.

AMD kondigde de Radeon RX 9060 XT formeel aan op 21 mei, tijdens de Computex in Taiwan. Deze gpu heeft met 32 compute-units precies de helft van het aantal rekeneenheden van de RX 9070 XT. De kaart komt beschikbaar in varianten met 8GB en 16GB GDDR6-geheugen, die los van de hoeveelheid geheugen verder precies dezelfde specs leveren. Beide varianten komen uit op 5 juni, met een adviesprijs van respectievelijk 299 en 349 dollar. Omgerekend en met btw komt dat neer op 318 en 371 euro.

RX 9060 XT 16GB Review eTeknixRX 9060 XT 16GB Review eTeknix

Door Idriz Velghe

Redacteur

03-06-2025 • 13:49

58

Reacties (58)

Sorteer op:

Weergave:

Ik weet niet in hoeverre dit te vertrouwen is. Het verschil tussen de 9070 xt en non xt is 30 fps gemiddeld. Bij Hardware Unboxed was het tijdens de review gemiddeld 10 fps en bij Gamers Nexus was het verschil maximaal 20 fps. Dus hoe konden ze hier gemiddeld 30 fps verschil krijgen tussen deze 2 kaarten?

Zou zeggen wacht gewoon op volledige reviews.
Dat soort zaken kan soms in een andere test suite zitten, zeker als je dan relatief weinig games test en ergens zit een or meerdere uitschieters, positief of negatief, kan dat doorwerken in de gemiddelden. Ik weet niet of dat hier het geval is, maar het zou een verklaring kunnen zijn.

Een reden waarom de 40+/50+ game reviews die bijvoorbeeld HuB vaak wel waardevol zijn vergeleken met de 6 tot 12 games die de meeste reviewers in hun standaard suite hebben zitten.

[Reactie gewijzigd door Dennism op 3 juni 2025 14:21]

Dit zie je erg vaak isd. Daarom is het ook belangrijk om benchmarks te vinden voor de spellen die je van plan bent te spelen.
Alleen naar FPS kijken zegt weinig, dat is volledig afhankelijk van de games en de instellingen. Als je een onderlinge verglijking wilt maken zal je de procentuele verschillen moeten vergelijken, dan krijg je al een stuk beter beeld.

[Reactie gewijzigd door Thekilldevilhil op 3 juni 2025 15:20]

En de gebruikte cpu en ram, er zijn teveel variabelen waardoor verschillende tests niet 1:1 vergelijkbaar zijn.
eTeknix is goed te vertrouwen, ik ben al jaren met hun in contact, ik heb deze video (die per ongeluk) te vroeg open heeft gestaan helpen nakijken op kwaliteit.
Maar wacht inderdaad maar op de officiele video, hij is leuk.
Zou zeggen wacht gewoon op volledige reviews.
Dat advies lijkt me vanzelfsprekend.

Deze screenshots komen ook uit een volledige review, alleen die was dus te vroeg gepost...
De resultaten lijken goed te kloppen met wat Gamers Nexus via hun glazen bol al aangeeft in hun 5060 review :P. Ze hinten namelijk de hele tijd op een 7700 XT die in de toekomst vergelijkbaar gaat zijn, met "iets".

Daarnaast moet je niet kijken naar FPS zoals al is aangegeven maar naar percentages.
Het is altijd wachten op volledige reviews, maar deze geven misschien al een beeld
Wat ik mij nu nog afvraag is in hoeverre de ray tracing prestaties beter zijn geworden. De ray tracing prestaties van mijn RX 6600 (8GB) is abominabel te noemen en als de RX 9060 XT dat met verve overtreft, dan is het een prima vervanger voor in mijn 1080p gaming-pc. Zeker als ook het stroomverbruik niet veel hoger ligt dan 150w max :D

[Reactie gewijzigd door John Stopman op 3 juni 2025 14:00]

Ray Tracing is een waardeloze toevoeging voor gamers ! Totaal onnodig. Hecht er totaal geen waarde aan. Zonde van de die space !
Wat een kul, raytracing maakt het wel degelijk een stuk mooier.
Ik vind het ook wel mooier eruit zien maar ook weer niet zoveel mooier dat je de performance hit maar op de koop toeneemt, en kan er dus ook goed mee komen dat dit voor vele gamers niet echt vooruitgang is.

Zou me ook niks verbazen als dit ook een van de redenen is dat Videokaarten duurder zijn en minder echte vooruitgang lijken te boeken. Stukje hardware voor raytracing had ook voor wat anders gebruikt kunnen worden. Zeker op goedkopere kaarten waar Raytracing sowieso al nutteloos is door gebrek aan kracht.

Als ik mocht kiezen tussen Raytracing of gewoon snelle en goedkopere hardware is de keuze zeer makkelijk gemaakt voor mij

[Reactie gewijzigd door Sinester op 4 juni 2025 11:06]

Alleen hoe een GPU werkt is het niet zo simpel als 'snelle en goedkopere' hardware. En het moet ergens beginnen, kijk naar hoe de eerste 3D kaarten werkten en hoe de huidige GPU's werken, daar zit een wereld van verschil tussen. Als je ook kijkt naar de 1e lowend kaarten met dedicated raytracing cores, de RTX2060, en de huidige, de RTX5060, dan zit daar ook al 85% verbetering tussen, tussen de 4060 en de 5060 zit al zo'n 25% verbetering alleen al in de RT cores.
En het is natuurlijk dat de rest van de 5060 ook gewoon een vooruitgang heeft gehad die gelijk staat als het verschil tussen voorgangers.
Het produceren van die nieuwe chips met die kleinere procede is juist wat die kaarten allemaal steeds zo duurder maakt, want het zijn alle fabrikanten die daar mee worstelen, alleen Nvidia krijgt de vinger daarvoor toegewezen, terwijl AMD echt niet anders is.
En het probleem met snellere en goedkopere hardware is iets dat niet snel opgelost zal worden, want men wil steeds snellere hardware, maar de rek is er met de huidige technieken wel een beetje uit waardoor het niet zo simpel meer is om steeds snellere en goedkopere hardware te maken, anders dan dus goedkoper wel maar wel met de performance van de vorige generatie wat betreft snelheid, maar wel dan ook weer wat zuiniger.
Sneller gaat op dit moment eigenlijk alleen maar door nog meer energie er in te stoppen, en dat zie je dus ook aan het gebruik van de nieuwe kaarten, die ligt bij maximum snelheid dus weer een stuk hoger dan vorige generatie, maar bij vergelijkbare snelheid slurpt het wel weer een stuk minder.
Ja, het is mooier.

Maar...

...De "mooiigheid" staat IMHO niet in verhouding tot prestaties die er gevraagd worden. Voor mij geldt: stabiele, hoge, ECHTE FPS > looks.

Doch gezien de 9060 XT en de 5060 (TI) ongeveer PS5 Pro GPU prestaties leveren, kun je ervan uitgaan dat de prestaties van deze kaarten de aankomende jaren genoeg zijn om games te kunnen spelen met RT. Aangezien de PS5 de gold standard is voor game ontwikkeling.
Ja misschien, soms vind ik het er juist lelijker uitzien ! En wat heb je eraan, als je een snelle 'first person' shooter game speelt ? Je heb dan echt geen tijd om naar mooie spiegeling en/of schaduws te kijken !

EDIT : Kortom RT vind ik gewoon zonde van het Vram gebruik ! En als je het echt zo mooi vind, en het perse wilt hebben, koop je natuurlijk geen '60' class kaart, dan moet je toch minimaal naar een '80' class kaart hebben. Dus het zou slimmer zijn om RT compleet te verwijderen, op de LOW-end GPU's !

[Reactie gewijzigd door UnknownTweaker op 12 juni 2025 17:19]

Nee dus, helemaal niet slimmer, want uiteindelijk worden de xx70 en xx80 serie ook weer lowends, en de 5060 is weer een behoorlijke vooruitgang ten opzichte van de 4060 welke dat ook weer was op de 3060 en die weer op de 2060.
echt geen tijd om naar mooie spiegeling en/of schaduws te kijken !
Nouja, betere spiegeling en schaduwen kunnen je juist een voordeel bieden, want zo kun je in principe dus in de ruit van een huis in een zijstraat of de vya de glanzende zijkant van een auto, of zelfs een waterplas, mensen om de hoek zien staan. Maar sowieso met die stelling van je kun je dan bet zo goed nog bij de Playstation 1 graphics blijven...
Laten we het erop houden dat smaken nu eenmaal verschillen.
Jij vindt het belangrijk !
Ik vindt het totaal onbelangrijk ! Ik heb liever meer RASTER dan RT's !
Ik kan mij wel vinden in je opmerking. RT vergt onevenredig veel rekenkracht voor de kleine winst in pracht en praal IMHO. Nu ben ik dan ook niet zo'n "graphics whore" om het maar even plat te zeggen.

Voor mij hoeft het hele RT ook niet, maar voor developers is het wel een flinke vooruitgang. Ze kunnen veel sneller goede en mooie belichting in het spel maken en zien direct het resultaat, i.p.v. eerst uren de belichting moeten "bakken". Dus het wordt alleen maar meer verplichte RT in de nabije toekomst.

Ik ben erg geinteresseerd in de RX 9060XT 16GB VRAM als opvolger van mijn RX6600. Nu speel ik niet zoveel moderne spellen, meestal oud of retro of een leuke indie game, maar recent met Oblivion Remastered is mij wel duidelijk geworden dat wat meer power en VRAM niet verkeerd is!
VRAM is anders ook ontzettend overrated op een kaart die nooit op 4k gaat zitten.
Ik speel héél veel games op 4k 60FPS of 120FPS op mijn RX 6600. Zoals eerder gezegd, ik speel voornamelijk oudere ((A)AA) games of (pixel) indie games. Voor die games is 8GB VRAM meer dan genoeg. Ook op 4k.

Het zijn voornamelijk de moderne spellen die om steeds meer VRAM vragen, meer dan 8GB, ook op 1080p, met als resultaat: stuttering, lagere FPS. Voor de toekomstbestendigheid en de kleine meerprijs die er gevraagd wordt voor de 16GB variant t.o.v. 8GB variant van de RX 9060 XT en voor dat - ongeveer - ene uitstapje in het jaar dat ik een moderne ((A)AA) game speel, zou ik toch echt de 16GB variant kiezen.

Edit: zie hier Digital Foundries review waarin de problemen met 8GB VRAM ook aan de orde komen. YouTube: AMD Radeon RX 9060 XT 16GB Review vs RTX 5060 Ti vs... PlayStation 5...

[Reactie gewijzigd door Jittikmieger op 5 juni 2025 07:51]

Precies ! een '60' class GPU, is niet bedoelt voor 4K , persoonlijk vind ik 1440p meer dan genoeg.
Tis hyped en voor mijn smaak vaak teveel. Ik zie overdreven reflecties, glans en zaken die als details iets kunnen toevoegen maar over the top zijn, iets waar nvidia duidelijk baat bij heeft.

Als ik hier door de straat loop zie ik geen enkele auto zo extreem spiegelend hoogglans reflecteren dus realistisch (als dat t doel is) is t ook gewoon niet.
Voor raytracing heb je helaas weinig aan een 60-klasse videokaart, ongeacht of die kaart nu van Nvidia/AMD/Intel is of van een oudere generatie of de huidige...
De 'beste' van de 60-klasse is momenteel de RTX 5060 Ti 16GB en die haalt volgens de Tweakers review op 1080p met raytracing minder dan 60 fps gemiddeld (en dat zijn niet allemaal bizar zware of de allernieuwste games). Wat raytracing betreft gaat de 9060 XT dat zeker niet verslaan, maar veel beter dan de 6600 is het met zekerheid! ;)
Steeds meer games vereisen ray tracing en werken vaak prima op de xx60 kaarten. Benchmarks draaien alleen vaak op de hoogste instellingen en/of 4K en geven een vertekend beeld.
@John Stopman zegt
Wat ik mij nu nog afvraag is in hoeverre de ray tracing prestaties beter zijn geworden. De ray tracing prestaties van mijn RX 6600 (8GB) is abominabel te noemen en als de RX 9060 XT dat met verve overtreft, dan is het een prima vervanger voor in mijn 1080p gaming-pc.
Lijkt me duidelijk niet over 'alleen de vereisten' te gaan maar over 'gebruiken omdat hij het wil gebruiken'. Ik haal uit de Tweakers review de 1080p DXR resultaten aan omdat dit; relevante info is voor iemand die op 1080p met raytracing speelt. Als Tweakers 'het zo fout heeft' of je veel betere info voor hem hebt geef dat dan i.p.v. over "4K" (niet van toepassing) en "vertekend beeld" (heb je zelf wat beters?) te beginnen...
Tweakers test voor DXR de volgende games:
Black Myth Wukong op very high. Het moge duidelijk zijn aan de resultaten dat dit geen geoptimaliseerde modus is - zelfs de 4090 haalt hier geen stabiele 60+FPS op 1080p.
Doom Eternal op "nightmare", lijkt VRAM gelimiteerd te zijn waardoor de xx60 kaarten hier dramatisch presteren.
Cyberpunk 2077 ultra met path tracing, wat meer een experiment is voor de volgende generatie.


Kijk je naar games als Star Wars Outlaws, Indiana Jones en DOOM: The Dark Ages, welke alle drie RTGI vereisen dan schalen deze beter. Deze kunnen op medium settings (of hoger) allemaal 60+FPS halen op deze GPU's. De laatste twee draaien zelfs op consoles op 60FPS.

Maar ook daar speelt dat sites bijna alleen maar op ultra benchmarken, en dat is niet wat je doet met een "budget" GPU.

[Reactie gewijzigd door Wolfos op 3 juni 2025 17:12]

Maar ook daar speelt dat sites bijna alleen maar op ultra benchmarken, en dat is niet wat je doet met een "budget" GPU.
Kijk, daar is de olifant in de kamer!
Want; iemand die 'een 60-klasse heeft en weer wil' voor raytracing, wat voor de volle 100% een 'eyecandy feature' is, zou om met 'raytracing eyecandy' te kunnen spelen heel graag andere eyecandy (high/ultra settings) willen verlagen?

Ja, mogelijk is het wel, maar verre van ideaal is het minimaal ook, daarom dat ik begon met
Voor raytracing heb je helaas weinig aan een 60-klasse videokaart,
omdat je, linksom of rechtsom, altijd met (flinke) compromissen zit en in sommige games raytracing nu al helemaal niet te gebruiken is (ongeacht de settings!) wat er in de toekomst uiteraard alleen nog maar meer gaan worden...

Een kaart kopen die 'de dingen die je nu graag wil 'gemiddeld redelijk' (maar soms ook 'net aan' en soms 'gewoon helemaal niet') kan' lijkt me zelden een hele goede aanbeveling, immers; zo'n kaart koop je meestal niet voor maar 6 maanden tot een jaar, maar dat zal dan wel aan mij liggen dan.
RTGI gaat steeds vaker verplicht worden dus nee, het is geen "eye candy feature", het is belangrijk dat een GPU hiermee overweg kan. En zowel de RTX 5060 Ti als de 9060 XT kunnen dat gewoon, maar dan moet je wel een geoptimaliseerde preset gebruiken en niet één die een RTX 4090 tot z'n knieën dwingt.

Dit is veel realistischer dan die 15FPS in Black Myth: Wukong:
https://www.notebookcheck...takes-lead.1015027.0.html

[Reactie gewijzigd door Wolfos op 4 juni 2025 16:28]

Is 30 fps niet het minimum om op te mikken ipv minstens 60 fps voor sommige gamers? Ikzelf doe het met zo'n 40 ook prima.

Laat ik het zo zeggen, 1080p 30fps op redelijke settings in de nieuwste games die iemand wil of bezit betekent dat even wachten met upgraden nog mogelijk is. Ikzelf game op een 3070 ti, een vriend heeft een AMD vega 64.
De 9060 XT en de 5060 (TI) leveren ongeveer PS5 Pro GPU prestaties, dus kun je ervan uitgaan dat de prestaties van deze kaarten de aankomende jaren genoeg zijn om games te kunnen spelen met RT. Aangezien de PS5 de gold standard is voor game ontwikkeling.

Zie ook hier de review van Digital Foundry waarbij ze deze kaarten vergelijken met de PS5 Pro: YouTube: AMD Radeon RX 9060 XT 16GB Review vs RTX 5060 Ti vs... PlayStation 5...

Edit: ik bouw al jaren PC's die qua power ongeveer overeen komen met de hardwareprestaties van de op dat moment relevante generatie consoles. Dan heb je vaak de "meeste knal voor je knaken PC".

[Reactie gewijzigd door Jittikmieger op 5 juni 2025 08:44]

Ja daar zit iedere generatie een grote verbetering in. Bij Nvidia zijn ze nog steeds beter, maar daar betaal je ook voor.

EDIT:
Zelfs daar lijkt het niet persé op. Gaat lekker.
https://www.notebookcheck...takes-lead.1015027.0.html

[Reactie gewijzigd door Wolfos op 3 juni 2025 14:23]

Waarschijnlijk zal de rt performance beter zijn, amd is al veel beter met rt met de 9070xts in vergelijking met de vorige generaties. Als de rt performance goed is dan wordt dit misschien wel een van de betere “budget” tot midrange kaarten
Hm ik hoopte dat hij mijn 6800xt kon vervangen.
dan zou ik naar de 9070(XT) kijken :).
Zelfs dat valt mee met een gemiddelde performance uplift van 50% tov de 7800XT (/6800XT). In Ray Tracing zal de kloof wel groter zijn.

Beter kan je nog een generatie wachten, dan ligt het stroomverbruik ook weer een stukje lager (kleinere processnode) en gaan we hopelijk naar 24GB VRAM voor een 700 € kaart.
Volgende generatie pas ben ik bang. Op RT performance na is er gewoon geen usecase op dit moment waar een andere kaart de benodigde investering kan verantwoorden. De 6800xt doet het zelfs op 4k raster nog goed genoeg om bijna alle games met 60fps te kunnen draaien. Echte performance gains ga je pas vinden in het segment 1000+ en dan komt al snel de "value" van zo'n upgrade onder druk te staan.

Volgende gen zal wel weer ~15% meer performance zijn waardoor mogelijk de rtx 6080 of een mogelijk AMD equivalent pas echt de moeite waard gaat zijn door 100% meer performance te leveren
Wat voor verbruik heeft deze kaart dan ten opzichte van zijn voorganger?
Het oorspronkelijke artikel op VideoCardz over deze leak zegt daar niks over.
180W voor de RX 9060 XT, volgens de sheets bij de aankondiging: nieuws: AMD brengt Radeon RX 9060 XT-videokaart op 5 juni uit vanaf 320 euro

Een standaard RX 7600 XT zou een verbruik van 190 W hebben: uitvoering: AMD Radeon RX 7600 XT
Zal er vanaf hangen of AMD hier 'echt MSRP' heeft gehanteerd en dit inderdaad voor +- €319 (8GB Sku) en €369 (16GB Sku) in de winkel komt te liggen (zonder dat alleen de eerste batch gesubsidieerd wordt zoals bij de 9070(XT) modellen het geval geweest lijkt te zijn), of dat AMD ook hier met een MSRP kwam dat alleen voor een paar kaarten op dag 1 van toepassing is, en daarna eigenlijk niet meer te vinden.

Zijn de MSRP's echt en zijn de kaarten ruim voorradig lijkt dit een heel mooi aanbod en zal Nvidia vermoedelijk moeten reageren, want dan ziet de vooral de 5060 en 5060 Ti 8GB er niet heel interessant meer uit voor de doelgroep. Heeft AMD op Computex 'Fake MSRP's' gebracht, en gaan de kaarten niet voor die prijzen verkocht worden dan weet ik het zo net nog niet, want dan ziet het er al weer minder goed uit.

[Reactie gewijzigd door Dennism op 3 juni 2025 14:12]

Ik heb de 9070XT MSRP soap niet helemaal gevolgd, maar als ik nu in de pricewatch kijk is het goedkoopste model ongeveer MSRP toch (€ 729)? MSRP van $ 599 + NL BTW = 720. De markt voor GPU's is gewoon compleet overspannen maar als je een tijdje na de release kijkt is het meeste wel rond MSRP te koop, inmiddels zelfs de 5090.
Fair enough en dank voor de link. € 729 is nog geen 5% meer dan dan € 695, dat is wat mij betreft nog steeds "rond MSRP". Dat die dingen duurder waren toen ze net op de markt kwamen komt naar mijn idee nog steeds omdat mensen vonden dat ze ze meteen moesten hebben.
€729 is verre van MSRP, het dollar MSRP is $599. Tegen de koers bij launch was de conversie van dollar naar euro en dan BTW toevoegen uit mijn hoofd +-€670 (dollar was toen 0.92xxx volgens mij). Echter vandaag de dag, doordat de koers gedaald is naar 0.88xxx, is $599 omgerekend €526,88 (moment van schijven), gooi daar de BTW overheen en een basis model RX9070XT zou nu +-€635 mogen kosten en niet €700+

Die €729 of €720 is dus nog bijna 100 euro te duur voor de goedkoopste modellen op dit moment.

[Reactie gewijzigd door Dennism op 3 juni 2025 14:39]

Ziet er goed uit als de prijzen een beetje meevallen maar dat zullen we nog wel zien. Vind al fijn dat de 1% lows beter zijn. Wel jammer dat het op average iets achter de 5060 Ti 16GB.

[Reactie gewijzigd door pinqeh op 3 juni 2025 13:55]

Ik denk dat je redelijk vergelijkbare resultaten in games gaat krijgen, de min is iets hoger, de average is iets lager, zal voor de meeste games maar weinig FPS schelen.

Ik ben vooral benieuwd of hij ook voor dit bedrag verkocht gaat worden of dat het meer rond de 5060 TI 16 gb prijs van 450 gaat zitten.
persoonlijk denk ik niet dat AMD het zich kan permitteren om tot dat prijsniveau te gaan, want RT en FSR/DLSS zullen waarschijnlijk niet hebben aangestaan in deze tests en daar lopen ze nog vaak achter (wat voor oudere titels ook wel belangrijk is qua prestaties).
Als de prijzen MSRP zijn is dit wel echt een mooie toevoeging. Presteert minder dan de 7800XT, maar met de nieuwe FSR echt een mooie upgrade van mijn 5700XT
VideoCardz heeft daarover ook een artikel geschreven met wat gelekte mogelijke prijzen. Prijzen genoemd in $ US dollars variëren tussen de 319 en 389, en prijzen genoemd in £ Engelse pond tussen de 269 en 359.
Even snel omrekenen met BTW dus 349 en 399 in Europa? Dat is nog wel een soort van te doen als het werkelijk die prijs wordt.

De 5600XT was bij release $279,- (in 2020) en had ongeveer dezelfde diesize als de 9600XT. Dus het lijkt er op dat het midden segement een niet echt duurder is geworden of dat ze aan shrinkflation hebben gedaan.

[Reactie gewijzigd door Thekilldevilhil op 3 juni 2025 15:18]

Wanneer kunnen we het tweakers review verwachten?
Gok het embargo morgenmiddag om 15:00 afloopt (een dag voor release) en anders zal het op de dag van de release zijn zoals ook het geval was bij de release van de RX 9070 & 9070 XT.
hopelijk gaan de prijzen van die oudere kaarten naar beneden, ik heb het over de rx 7600, over de rx 7800 xt 16 GB, ja zelfs over de rx 7700 xt, weet ik veel waar ik het allemaal over heb

[Reactie gewijzigd door Salvatron op 3 juni 2025 17:20]

Benieuwd hoe de 8GB versie er dan uit komt, zal wel niet even hoog zijn.
Vervolgens heb je twee kaarten met dezelfde naam maar erg verschillende performance, net als de 5060ti...

Op dit item kan niet meer gereageerd worden.