AMD brengt Radeon RX 9060 XT-videokaart op 5 juni uit vanaf 320 euro

AMD heeft de Radeon RX 9060 XT aangekondigd. Het is een midrangevideokaart op basis van de RDNA4-architectuur, die eerder dit jaar zijn debuut maakte in de RX 9070-serie. De kaart komt op 5 juni uit in varianten met 8GB en 16GB vram, respectievelijk vanaf omgerekend 320 en 374 euro.

AMD kondigde de Radeon RX 9060 XT op woensdag formeel aan tijdens de Computex in Taiwan. Het bedrijf positioneert de videokaarten tegenover de RTX 5060 en 5060 Ti van Nvidia, die beide onlangs op de markt kwamen. Het gaat dus om een midrangekaart die lager gepositioneerd is dan de RX 9070 en 9070 XT.

De RX 9060 XT heeft 32 compute-units, voor een totaal van 2048 shaders. Dat is precies de helft van het aantal CU's in de RX 9070 XT. De gpu krijgt daarbij een boostclock van 3,1GHz en gebruikt, in tegenstelling tot de voorgaande 7600 XT, een volledige PCIe 5.0 x16-interface. De kaart komt beschikbaar in varianten met 8GB en 16GB GDDR6-geheugen, die los van de hoeveelheid geheugen verder precies dezelfde specs leveren.

Volgens AMD presteert de RX 9060 XT 16GB gemiddeld zes procent beter dan de Nvidia RTX 5060 Ti-variant met 8GB geheugen, die met een adviesprijs van 379 dollar wat duurder is dan AMD's 16GB-tegenhanger. Het bedrijf claimt dat op basis van eigen tests in 'meer dan veertig games'. Op het gebied van 'prestaties per dollar' zou AMD's kaart gemiddeld 15 procent sneller zijn in diezelfde games. Er zijn op het moment van schrijven nog geen onafhankelijke benchmarkcijfers beschikbaar.

AMD vergelijkt zijn kaarten ook niet met de 16GB-versie van de RTX 5060 Ti, die weliswaar ook zo'n 85 euro duurder is dan die van AMD. De chipmaker geeft ook geen prestatiecijfers voor de RX 9060 XT 8GB. Bij Nvidia's recente releases kwamen de 8GB-versies over het algemeen slecht uit de verf; die hoeveelheid vram is wat karig voor moderne games, wat kan leiden tot framedrops. AMD biedt een 8GB-versie aan om 'consumenten meer keuze te geven op een lager prijspunt', zo vertelde het bedrijf in een briefing met journalisten.

AMD brengt zelf geen Radeon RX 9060 XT-referentievideokaart op de markt; bedrijven zullen dus alleen maar met hun eigen ontwerpen komen. De goedkoopste 8GB-modellen moeten op de markt komen voor 299 dollar, terwijl de 16GB-varianten beschikbaar moeten komen vanaf 349 dollar. Omgerekend en met btw komt dat respectievelijk neer op 320 en 374 euro. AMD hanteert voor zijn europrijzen doorgaans zulke directe conversies vanaf de dollarprijs.

Door Daan van Monsjou

Nieuwsredacteur

21-05-2025 • 05:00

84

Reacties (84)

84
83
49
2
0
28
Wijzig sortering
Ik ben niet meer helemaal thuis in alle nieuwste technieken, maar werkt deze kaart ook nog gewoon op een PCI-E gen 4 aansluiting? Wat zijn daarbij de gevolgen wat betreft performance?
Zeker, als er al verschil in performance zal zijn, mag je deze verwachten in de grootteorde van max. 1-2%.
Zelf een 5090 heeft amper verlies in performance als je deze in een PCIe gen 4 slot steekt en aangezien 9060 zo te zien de volledige x16 gebruikt, zal dit zeker niet het geval zijn bij deze kaart.
Oh dus op een GIGABYTE B550 GAMING X V2 zou hij perfect werken bijvoorbeeld?
Zeker, zou geen problemen mogen geven.
Maar zoals ze hier ook al aangeven, ga wel zeker voor de 16gb variant. Hoe minder data je van de ram moet halen ipv vram, hoe beter. Dat is algemeen, of het nu pci-e gen 4 of gen 5 is. Maar als je het doet zal gen 5 er net wat beter mee om kunnen.
Maar sowieso zou ik al niet echt begrijpen waarom je in 2025 voor de 8GB zou gaan...
Werkt prima, maar bv. een 5060ti heeft wel wat performance drop (2-6 frames). Kennelijk meer verschil op 8gb dan 16gb, maar waarom weet ik niet.
Kennelijk meer verschil op 8gb dan 16gb, maar waarom weet ik niet.
De 8GB versie zal vaker data tussen RAM <=> VRAM moeten kopieren omdat er niet genoeg VRAM is om alles tegleijk op de GPU te houden, dus dan is het logisch dat de PCIe transfer snelheid meer invloed heeft op de prestaties. Als een game ten alle tijde alle GPU data in VRAM kan houden dan maakt PCIe 4 vs 5 praktisch gesproken geen drol uit.
Wel een behoorlijke red flag als ze bewust hun 16GB kaart met de 8GB kaart gaan vergelijken en dat ook nog op 1440p. Dat was een resolutie waarbij je in verschillende benchmarks een behoorlijke bottleneck zag optreden bij 8GB kaarten. Techspot heeft een mooi vergelijk.
Heeft weinig met red flag te maken, tenzij je het puur ruk-performance van een 8 GB kaart als red flag ziet.

Qua price point zitten de 8 GB van Nvidia en de 16 GB van AMD aardig op dezelfde lijn. Bovendien is het marketing-materiaal. Dus AMD zal (binnen “uitlegbare grenzen”) hun beste kaart tegen een mindere van Nvidia willen leggen.
Ik denk inderdaad dat het vooral in de prijs zit: laten zien wat je voor hetzelfde geld bij AMD kan kopen in vergelijking met Nvidia. Want dat is AMD eigenlijk in heel veel gevallen, meer vram voor dezelfde prijs.
Alleen heeft AMD 2 maanden geleden al laten zien dat de opgegeven MSRP niet per se de echte prijs of echte MSRP is (of enkel voor de eerste paar weken).
Sinds wanneer geloven we marketing praat?
Gewoon even de reviews afwachten :)

Misschien is het wel zo gekozen omdat alle websites reviews hebben van de 5060 met 8GB en niet altijd van de 16GB.
Marketingpraat gaat praktisch altijd uit van de meest gunstige omstandigheden. Daarnaast is het inmiddels aangetoond dat een 8GB kaart toch echt wel serieuze tekortkomingen heeft bij hogere resoluties en grote textures. Zeker nu meer en meer spellen zonder problemen gewoon meer dan 10GB aan videogeheugen gebruiken...

Dus los van de performance van de chip zelf is het zeer dubieus om een 16gb kaart met een 8gb kaart te vergelijken.
Ik heb zelf de 16 GB 5060 ti in mijn SFF build gestopt, omdat ik een kaart zocht die redelijke perfromance gaf of 1080 / 1440p en niet te veel stroom verbruikte. Maar in de meeste reviews die ik gezien heb kwam de 8 GB kaart toch echt vergelijkbaar met de 16GB kaart eruit, ondanks dat hij helemaal met de grond gelijk gemaakt lijkt te worden.

Mijn keuze voor de 16 GB was vooral omdat ik denk dat hij langer mee gaat en ik denk dat er meer spellen gaan komen waarvoor 8 niet genoeg is (indiana jones etc.).

Ik denk dat deze AMD kaart redelijk vergelijkbaar met de 5060 TI gaat presteren. Maar ik ben zeker benieuwd of ik over een maand denk - had ik toch maar even gewacht. Of dat ik denk - nee dit was de juiste keuze :)
Zelf had ik verwacht dat de 5060 RX 16 GB duurder zou zijn dan de 5060 TI en dan qua prestaties tussen die en de 5070 in zou zitten.
Maar in de meeste reviews die ik gezien heb kwam de 8 GB kaart toch echt vergelijkbaar met de 16GB kaart eruit, ondanks dat hij helemaal met de grond gelijk gemaakt lijkt te worden.
Zolang je op 1080p speelt en de settings niet te hoog zet, heb je helemaal gelijk, hangt ook heel erg van het spel af

Ga je wat hoger, of wil je RTX zaken gebruiken, dan is 8GB al heel snel te kort, ga nog maar eens zoeken. Dit is echt in heel veel reviews te vinden
Ik snap de vergelijking wel, de AMD kaart is namelijk goedkoper (oké praktisch dezelfde prijs) als de 8gb variant van de 5060ti, dat is waar de kaart mee concurreert. Waarom zou je hem dan tegen een duurdere kaart vergelijken?
Ik snap ook wel de twijfel: aangezien AMD zelf geen kaarten op de markt brengt, is die MSRP (potentieel) evenveel gebakken lucht als al de andere marketing koek.

Zowel de 9070 als de 9070 XT zijn niet verkrijgbaar voor MSRP, dus best eerst afwachten wat deze kaarten echt gaan kosten, alvorens we weten met welke Nvidia kaarten ze gaan moeten concurreren.
Als je gewoon naar de prijs kijkt vind ik het helemaal geen red flag. Wat maakt de configuratie nou daadwerkelijk uit? Het gaat om de performance. Een 16gb variant zal weer duurder zijn en is dus ook geen eerlijk vergelijk .
En let op, ze zeggen 15% beter prijs/prestatie gezien, dus niet raw-power.
Ik snap die 8gb versie niet, net als de 8gb versie van de 5060 ti. Consumenten die zich niet verdiepen in het product kunnen zo per ongeluk een slecht product kopen dat niet aan de verwachtingen zal voldoen bij games die veel vram vragen.
Omdat lang niet iedereen zware spellen speelt, of op een hoge resolutie gamed
Maar in zo’n geval ja een 9060xt/5060ti niet nodig.

De chips zijn te sterk voor de hoeveelheid vram
Met welke games doel je op dan voor deze GPU?
Zou hij voor Cyberpunk 2077 en Black Myth: Wukong ook 'te sterk' wezen?
Nee, de GPU is absoluut niet te sterk voor die games.

Het punt is juist dat de 5060 Ti te sterk is voor 8GB geheugen. De kaart zou bepaalde games prima op hoge instellingen prima kunnen draaien, als die 8 GB VRAM hem niet de das omdeed.

Games vragen steeds meer videogeheugen, dus het zal waarschijnlijk steeds vaker voorkomen dat die 8 GB de videokaart de das omdoet, terwijl de kaart op zich snel genoeg is.
Omdat je ook aan de onderkant van de markt zoveel mogelijk nieuwe dingen wenst te kunnen verkopen. Zo eenvoudig is het. De 60 variant is tegenwoordig zowat het goedkoopste wat je nog kunt vinden in current gen, en daar wil je dan ook een zo goedkoop mogelijke variant van maken waarbij je er ook van uit gaat dat mensen die dat voor de goedkoopste kaart gaan sowieso niet verwachten van 4k gamen te gaan doen.
We missen simpelweg instapmodellen aan de onderkant van de markt. De chips in de 5060 en 9060 zijn eigenlijk te krachtig voor slechts 8 GB VRAM. Nagenoeg alle moderne games zouden prima op deze kaarten kunnen draaien, ware het niet dat het beperkte geheugen een knelpunt vormt. Het is zonde en zal voor veel mensen een perongeluke miskoop zijn.
Het is ook wel een beetje de taak van de consument om even 2 minuutjes onderzoek te doen voordat ze een duur item kopen. Als ik met een caravan van 2.5 ton op vakantie wil en een auto koop met 60pk om die te trekken dan moet ik niet bij de fabrikant gaan klagen dat ze slechte auto's bouwen omdat ik de berg niet op kom.

Idem met deze kaarten: er zullen genoeg gamers zijn die esports titels/games met lage systeemeisen spelen maar een hoge refreshrate willen. Fortnite en CSGO zijn goede voorbeelden. Dan maakt 8GB - 16GB geen donder uit, maar je hebt wel het voordeel van een snelle GPU om hoge framerates te halen.

Degenen die wel op hogere resoluties willen games of spellen willen draaien met hogere systeemeisen hebben dan de optie om de 16GB versie te halen.

Tuurlijk, ik wil ook zo veel mogelijk VRAM voor minder geld, maar we moeten variatie op de markt niet de nek omdraaien omdat sommige kopers te lui zijn om zich even een paar minuten in te lezen over hun aankoop.

[Reactie gewijzigd door Richardus27 op 21 mei 2025 09:53]

Eens, eigenlijk zou je altijd goed onderzoek moeten doen, ik doe dat zelf ook meestal uitgebreid. Maar we weten allebei dat dat in de praktijk lang niet altijd gebeurt.

Mensen kijken vooral naar de GPU naam 5060Ti of 9060, zoeken daar een goede prijs bij (de 8GB modellen zullen scherper geprijsd zijn). De performance zal vervolgens in lijn met de verwachting liggen, totdat ze een game starten die meer dan 8 GB VRAM vereist. Dan blijkt ineens dat ze een kat in de zak gekocht hebben.
"Consumenten die zich niet verdiepen in het product kunnen zo per ongeluk een slecht product kopen"

Dat is precies wat ze willen, ze geven niet om de consument, alleen om centjes.

Welkom in de zaken wereld.
8 gb werkt prima op een virual pinball cabinet.
Daar is bv de 1660 Super ook nog wel genoeg voor? Of doen vpc's inmiddels ook aan raytracing?
Heb dus Indiana Jones op 1440p uitgespeeld op een 6650XT 8 GB.

En dit wil ik wel even kwijt. Ten eerste is het nog steeds goed genoeg. Ten 2e moet je wel een ontzettende mierenneuker zijn om maar te zeuren als een oud wijf, ja maar dat kan niet meer hoor!

Het verschil 2K tegenover 4k ziet het menselijk oog niet. Tenzij je zowat een bril hebt met min 15.
8 GB in combinatie met een 6650 XT is een veel betere keuze dan een 5060 Ti met dezelfde hoeveelheid geheugen. De 5060 Ti is aanzienlijk duurder en kan in theorie weliswaar zwaardere games of scenario’s aan, maar wordt daarin genekt door de beperkte 8 GB VRAM, waardoor de prestaties alsnog instorten in sommige games/settings.

Er is helemaal niets mis met gamen in 2K, maar het verschil tussen 2K en 4K is behoorlijk groot. Heb je ze ooit naast elkaar gezien? Ik heb hier een setup met drie monitoren – twee op 1440p en één op 4K – en ik zie het verschil dagelijks. 😅
Absoluut het verschil gezien. Vandaar de claim. Wellicht omdat ik 50+ ben het verschil amper zie, is er geen reden om de 8GB kaarten af te te doen als overbodig/niet nuttig. Voor veel mensen zal het heus wel te zien zien zijn en waarneembaar, dus ik begin alvast een brillenwinkel gespecialiseerd in jampot glazen in kek montuurtje. Gekkigheid.

Maar veel mensen zien dat verschil niet. En is 8GB genoeg.

Zal daar dan anders over denken met GTA6 waar ik alles zo scherp mogelijk wil zien. Als ik me dan toch al scheel betaal..
Ik vind het altijd wel interessant hoe 8GB kaarten afgebrand worden omdat ze altijd vergeleken worden mat kaarten voor gaming. Ik ben zeer content in mijn werk-PC met de 5060Ti. Kantoorapplicaties als Teams, Zoom, Word, Excel etc. maken intensief gebruik van de GPU en de beperkte AI mogelijkheden. En met wat eenvoudig 3D CAD tekenen en rendering, en het editen en afspelen van instructievideo's op een 4K scherm, is 8GB meer dan voldoende. Maar het verschil met een built-in GPU is echt als dag en nacht.
Ik vind het altijd wel interessant hoe 8GB kaarten afgebrand worden omdat ze altijd vergeleken worden mat kaarten voor gaming.
Niet heel vreemd toch, het is letterlijk een gaming kaart

En ik weet ook bijna zeker dat voor alles wat jij nu noemd je een veel goedkopere kaart had kunnen pakken die dat ook allemaal makkelijk zou kunnen
Met het steeds meer standaard worden van het gebruik van AI in toepassingen, en het gebruik van de GPU voor deze taken, verwacht ik dat de verschuiving steeds meer naar geïntegreerde GPU's die ook AI ondersteunen. Het zal mij niets verbazen als de next-gen CPU's meer daarop gericht zijn omdat de behoefte er nu steeds meer is.
Nvidia heeft daar al een compleet andere lijn voor, specifiek gericht op AI (denk aan de A100, H100, H200 etc.)

Gamers kopen nog steeds volle bak 9070XT/4080/5080/4090/5090 modellen van 750 tot 3000 euro, ze zijn niet aan te slepen en bijna altijd volledig uitverkocht.

Ik denk niet dat die over zullen stappen op integrated graphics 😅, dat volstaat gewoon niet.

---------------

Edit: Ik denk dat ik je bericht verkeerd gelezen heb, je bedoelt dat mensen die minimale AI toepassingen willen gebruiken op een huis tuin en keuken laptopje of PC over zullen stappen naar eeb geïntegreerde GPU?

Dat lijkt me een goed product, al denk ik dat AMD en Nvidia niet staan te springen om hun eigen ruiten in te gooien op dat vlak. Ik gok dat ze liever een duurdere losse GPU verkopen (zelfs als het gaat om instapmodellen zoals de 5060 en 9060).

[Reactie gewijzigd door DLSS op 21 mei 2025 16:21]

Voor die prijs mag ik van harte hopen dat het verschil als dag en nacht is
Voor mij is 8GB prima als ik alleen OW2, Valorant en Marvels Rivals speel op low/medium settings voor 240fps+. Voor zwaardere games die meer vram vragen is zo'n midrange kaart te langzaam dan kan je beter voor een RX 9070 of een 5070TI gaan om genoeg FPS te kunnen halen.

[Reactie gewijzigd door monoking op 21 mei 2025 14:02]

Oke dus de echte prijzen zijn €450 voor de 8GB en €500 voor de 16GB? :)
Ik zie dat je gedownvote bent maar ik begrijp je reactie. Hoe zeker zijn we nu dat de aanbevolen prijs niet alleen geldt voor de eerste zoveel kaarten die door de winkels verkocht worden. Zoals bekend werd bij de 9070 release.

[Reactie gewijzigd door xs4allan op 21 mei 2025 09:07]

Ik denk dat hier ook een deel in zit dat er geen referentiekaarten zullen verschijnen.
Dus de prijzen zullen uiteindelijk door de board-partners bepaald gaan worden.
Ik denk eerder iets van €350 en €450 afgaande op de de RX 9070 prijzen. Retail price van AMD lijkt er alleen nog voor om de Shills zoals Linus Tech Tips en Gamers Nexus weer de releases van AMD te kunnen laten hypen. Hopelijk is Tweakers deze keer wat realistischer iiig
Een prijsverschil van 100 euro voor enkel +8GB werkgeheugen?
Wellicht €400 voor de 8GB en €450 voor de 16GB wat realistischer.

En haha, nee, Tweakers is ook een advertentieplatform voor fabrikanten.
Ah nee, dat was idd niet de bedoeling. Had 350 en 400 moeten zijn. En dan zal de RX9060 daar iets van 50 euro onder liggen?
Tweakers reageert ook nog wel eens anders dan de beruchte tech youtubers. Maar idd dat wordt het wel steeds meer een advertentieplatform ala Hardware info.
Hoe verhouden deze kaarten zich tov de laatse xbox en ps?
Deze kaarten zijn krachtiger. PS5/XBSX presteren ongeveer op het niveau van een RTX 3060 (non ti). Digital foundry heeft hier wat video’s over als je geïnteresseerd bent.
Enige probleem is dat kracht vergelijken weinig zin heeft als de games niet zo goed geoptimaliseerd zijn op PC zoals op PS/XB.
Nee DF vergeleek daarom ook niet kracht (daarbij leggen de consoles het uiteraard sowieso af) maar in-game prestaties bij vergelijkbare settings. Ik heb de video zo niet bij de hand maar je kan het vast vinden.

Bij pc-games heb je trouwens nog wel eens last van shader compilation stutter, bijvoorbeeld wanneer bepaalde effecten voor het eerst in beeld komen. Op consoles heb je daar meestal geen last van.
Ziet er redelijk goed uit! Hoop dat het verbuik een beetje binnen de perken blijft. Als er dan een 16GB met één fan uitkomt heb ik iets leuks voor mijn case (<180mm) :)
afwachten wat deze kaart in onafhankelijke tests doet ipv cherrypicking van firstparty, want 6% is maar een dunne marge
Ik ben zo benieuwd naar de benchmarks. Ik sta op het punt ergens de komende maanden mijn 5700XT te upgraden. Ik zat al langere tijd te kijken naar de 7800XT. Ik was te laat voor de 7900 GRE. Ik denk dat deze kaart (16GB) goed in mijn straatje past.
dat zal sws een goeie perf boost zijn. daarvoor kan je zeer zeker de 9060xt 16gb kopen.
De processor is tegenwoordig in moderne game engines even belangrijk, als je nog op AM4 zit is een 5700X3D ook een aanrader! (+ B550 mobo voor PCI-e 4.0)

Toekomstig gericht 7500F/7600 ook een goede.
En daar werkt deze videokaart mee? Sinds die op PCI 5.0 draait
Dus AMD brengt voor een goedkopere prijs een 16GB VRAM GPU op de markt waar iedereen op zit te wachten, dit tgv een 8GB VRAM van Nvidia die duurder is .. 8)7 .. byebye Nvidia
Nou, helemaal nog niet zo bye bye Nvidia, want juist andere bepaalde functies zoals raytracing, DLSS4 of misschien de betere video encoders lunnen een reden zijn om Nvidia te kiezen. Bv als je VR doet dan zijn de Nvidia kaarten nog altijd de betere kaartebln omdat die beter ondersteuning hebben.
Ja, want op DLSS4 zitten we allemaal te wachten. Raytracing en upscaling door AI dat daarbij nog eens extra vertraging voor je GPU geeft. Als je hier geen gebruik van maakt, waarom zou dit dan een meerwaarde moeten zijn ?

Trouwens is AMD hierop zijn eigen variant FSR 4-upscalingtechniek aan het verbeteren, dan heb je nog steeds meer VRAM dat je kunt aanspreken.
Zucht, maar andere mensen zitten daar dus wel op te wachten, en die kopen gewoon Nvidia. Want de meeste mensen zien het verschil met die nieuwe DLSS4 sowieso al niet, zeker niet zonder side by side en er dan ook nog echt op aan het letten, dus met je neus op de monitor en niet bezig met de game, en daarbij komt dan ook nog de framegeneration die wel je FPS flink kan verhogen en ook hier weer, de meeste mensen zien het verschil toch niet tenzij ze er op gewezen worden. En de toegevoegde latency is echt voor de meeste mensen ook weer niet waarneembaar.
Maar zoals ik ook al zei, nvidia video encoders zijn ook nog steeds beter, en bij de hogere varianten hebben ze er zelfs meer, dus ook handig om meerdere streams tegelijk te doen.
Ook zoals ik al aangaf voor VR zijn de nvidia kaarten vaak beter omdat die betere drivers heeft, zeker als je wireless wil.
tja, en als jij dan alsnog met commentaar komt als 'waarom zou dit dan een meerwaarde moeten zijn', dan kan ik ook zeggen, hee ik heb een potlood en een tekenblok, en maak geen gebruik van een GPU, dus wat heeft die AMD kaart dan voor meerwaarde......
Je hebt gelijk daarin. Wat hebt een Nvidia kaart überhaupt tegenwoordig voor meerwaarde tegenover eentje voor AMD?

Misschien dat bij launch DLSS4 meer games ondersteund dan FSR4 zal doen maar verder dan dat is me een raadsel.
Het zou fijn zijn als mensen eens minder naar het merkje zouden kijken en meer wat ze voor hun geld krijgen. Wat minder fanboy-gedrag.

Maar Nvidia is voor dezelfde prijs misschien vaak minder snel qua pure hardware, door hun betere software zijn er ook weer veel pro’s te bedenken.

Zoals bv:
- Cuda (is veel beter ondersteund dan wat AMD heeft)
- DLSS (beter dan de AMD-variant)
:? .. Welk "Fanboy" gedrag .. ?? .. :D
Het zou fijn zijn als mensen eens minder naar het merkje zouden kijken en meer wat ze voor hun geld krijgen. Wat minder fanboy-gedrag.
Ik koop beide merken, heb momenteel 2 Nvidia GPU's steken in desktops en 1 AMD GPU in een desktop.
Mijn laptop heeft trouwens ook een Nvidia GPU.
Mijn vorige laptop en desktop hadden ook een Nvidia GPU

Naar mijn weten kun je dan van geen fanboy gedrag richting AMD spreken.

Maar het gebrek aan VRAM dat Nvidia de laatste jaren bij telkens zijn nieuwe series aan z'n GPU's heeft meegegeven en de daarbij stijgende prijzen beginnen mensen wel mateloos te irriteren en ik ben duidelijk niet de enige. Het is gewoon omdat AMD met 16GB VRAM GPU's komt dat Nvidia nu volgt. Momenteel is de goedkoopste Nvidia met 16GB VRAM een RTX5060Ti .. maar daar betaal je wel €500 voor.

Als je dan bij AMD de RX 9060 XT met 16GB VRAM kan kopen voor €100 minder terwijl die sneller is, gaat waarschijnlijk wel op €400 komen is dat een mooie en veel betere deal.

De gebrekkige software van AMD zoals het vroeger was is nu wel beter, trouwens geeft de RTX50** series van Nvidia nu ook heel wat problemen met oude software, dat op de RTX40** series nog wel werkte.
Haha, dat fanboy was totaal niet op jou gericht.

Het komt er op neer dat veel mensen gewoon een bepaald merk kopen omdat het dat merk is.

En dat is in de praktijk vaak Nvidia, terwijl AMD veel mensen een prima vervanging zou zijn, voor minder geld.

Het zou fijn zijn als meer mensen AMD zou kopen zodat er wat gezonde concurrentie zou zijn. Maar als slechts 10% van de mensen die nu Nvidia kopen opeens AMD zou kopen, dan kan AMD dat waarschijnlijk helemaal niet aan qua productie.

Ik heb sinds mijn Geforce 2 Pro geen Nvidia meer gehad.
- Radeon X1950 GT
- Radeon HD 5850 (crossfire)
- Radeon RX 480
- Radeon 5700 XT
Wel ja, ik heb eerst een Voodoo2 gehad in m'n huiskamer PC .. maar dit was voornamelijk om Command & Conquer: Tiberian Dawn / Command & Conquer: Red Alert / en de toenmalige Age of Empires, Age of Empires: The Rise of Rome, Age of Empires II: The Age of Kings & Age of Empires II: The Conquerors op te spelen buiten wat werk om.

Daarna en ernaast een Playstation 2 in de huiskamer voor andere games .. :)

Dan mijn eerste gameroom met daar een nieuwe build met een GeForce 4 Ti4600 in (die werd teruggeroepen door temperatuurproblemen) en werd vervangen door de GeForce Ti4200 * Toen ben ik pas echt uitgebreid op PC beginnen gamen van Hitman games, tot Dungeon Siege, Empire Earth, Rise of Nations, Disciples 2, TES, Ghost Recon, Rainbow Six, Max Payne, Mafia en zelf GTAIII en Vice City..

Dan een nieuwe huiskamer PC met een Matrox Parhelia-512
.. werkte niet bijster goed met tal van zaken.

Dan een upgrade in de gameroom met een FX5600 Ultra .. toen ging de Ti4200 vervolgens naar de huiskamer PC ..

Dan de Playstation 3 vanaf 2008

Nieuwe PC in de gameroom met de Sapphire Radeon X1650 PRO 512MB .. was in 2009
.. deze ging in 2010 naar de huiskamer ..

Nieuwe PC in de gameroom met de ASUS MATRIX 5870 PLATINUM 2GB .. was in 2010
.. deze ging in 2013 naar de huiskamer ..

Nieuwe PC in de gameroom met de MSI GeForce GTX 660 Afterburner 2GB OC .. was in 2013
Deze heeft in 2017 een upgrade gehad met een MSI GeForce GTX 1060 AERO ITX 6GB OC
.. deze ging in 2018 naar de huiskamer waar ie nu nog steeds dagelijks staat te draaien ..

Dan de Playstation 4 Pro vanaf 2017

Vanaf 2018 een nieuwe PC in de gameroom ..
met een Sapphire Radeon NITRO+ RX VEGA64 in .. _/-\o_
Nu nog enkel in gebruik om Rome Total War (met alle mods) / Total War: Rome II en voornamelijk Total War: Attila op te spelen vanaf het herfst begint te worden .. :? .. vraag me niet waarom, is gewoon zo .. :D

vanaf 2019 een game en werkbuild met een RTX2080Ti 11GB .. mijn dochter moest deze eens gebruiken voor school en is vanaf toen als vermist opgegeven, waarschijnlijk ergens verloren geraakt in haar kamer .. die heb ik nooit meer terug gezien .. 8)7 :D

Momenteel heb ik zelf een ASUS ROG Strix LC GeForce RTX 3090 Ti OC in gebruik in afwachting van een mogelijke upgrade naar ..?? Nvidia / AMD ?? ..


Om te kunnen reageren moet je ingelogd zijn