Gerucht: AMD werkt aan Radeon RX 9070 XT-variant met 32GB geheugen

AMD werkt mogelijk aan een Radeon RX 9070 XT-videokaart met 32GB geheugen. Dat claimt de bekende leaker zhangzhonghao op Chiphell. De kaart zou in het tweede kwartaal op de markt komen.

Zhangzhonghao schreef op het Chinese techforum Chiphell dat AMD plannen heeft voor een Radeon-videokaart met meer vram. Later verduidelijkte de leaker, die een goede reputatie heeft op het gebied van AMD-geruchten, dat het gaat om de Radeon RX 9070 XT 32GB. De kaart moet aan het einde van volgend kwartaal uitkomen, wat mogelijk betekent dat de kaart in mei of juni 2025 op de markt verschijnt.

De 32GB-variant wordt volgens de leaker 'aanzienlijk duurder' dan de gewone RX 9070 XT met 16GB geheugen, waarvan de adviesprijs overigens nog niet bekend is. De 32GB-variant moet verder beschikken over dezelfde Navi 48-gpu als de 9070 XT. De Radeon RX 9070 XT 32GB is met zijn extra geheugen 'vooral bedoeld voor het draaien van AI-modellen', schrijft zhangzhonghao.

AMD's Radeon RX 9070-videokaarten gebruiken GDDR6-vram. Dat geheugentype is beschikbaar in modules van maximaal 2GB per stuk. Om de RX 9070 XT van 32GB geheugen te voorzien moet AMD daarom vermoedelijk op zowel de voor- als de achterkant van het pcb geheugenchips plaatsen. In het verleden heeft AMD workstationvideokaarten met 32GB GDDR6-geheugen op de markt gebracht, maar nooit consumenten-gpu's met die hoeveelheid vram.

AMD Radeon RX 9070 en 9070 XT

Door Daan van Monsjou

Nieuwsredacteur

12-02-2025 • 15:06

111

Lees meer

Reacties (111)

111
111
52
2
0
49
Wijzig sortering
Nou kom op AMD, pak de kans voor een serieuze aanval op de troon. Een snelle en stille high end kaart voor een acceptabele prijs. Wil je de concurrentie aangaan met de 5090 dan concureer je al met een prijs tussen de 1500 en 2.000 euro.

Ik gun het AMD nu om snel wat markt (terug) te veroveren.
Nou kom op AMD, pak de kans voor een serieuze aanval op de troon. Een snelle en stille high end kaart voor een acceptabele prijs. Wil je de concurrentie aangaan met de 5090 dan concureer je al met een prijs tussen de 1500 en 2.000 euro.

Ik gun het AMD nu om snel wat markt (terug) te veroveren.
Amd vergelijkt in eigen slides de 9070 xt met de 4070 super (ti).

https://imgur.com/5nOwWHd
Nvidia's mid range model van 1 jaar terug, ik weet niet waarom mensen verwachten dat AMD gaat concurreren in het high end segment ondanks dat ze zelf al hebben aangegeven dat deze generatie niet te doen.
maar ja wat heb je aan een 4070 super met 32 gb ram? voor gaming dan:P

[Reactie gewijzigd door loki504 op 12 februari 2025 15:58]

AI wordt steeds meer een ding, en fatsoenlijk AI dingen draaien op je eigen machine is vooral nog weggelegd voor onbetaalbare videokaarten. Een midrange kaart met 32 ram kan best nog wel eens vraag voor zijn, want nu ben je daarvoor aangewezen op de x80+ series met bijbehorende prijskaart. Zeker als je meerdere van die dingen wilt om wat serieus werk te doen zonder capaciteit extern te moeten inkopen.

Voor gaming lijkt me het nut inderdaad beperkt, die videoram heb je nodig voor hoge resoluties (textures en output) in highend games. Maar ik denk niet dat je 4k moet verwachten met dit soort kaarten (nog dat die doelgroep dat intereseerd), dus wat moet jet dan met al dat ram.

Highend kaarten daarentegen zouden best wel eens meer dan 32gb mogen krijgen. Lijken me ook geen gigantische kosten aan te zitten. Reden dat het niet gebeurd is denk ik nogmaals AI, om niet te veel te concureren met die peperdure kaarten met 80gb+.
Die x80+ maak daar maar x90+ van. AMD had ook al genoeg 16GB kaarten in vorige generaties, betaalbaar genoeg, zelfs 20GB. De volgende stap is echt 32GB en deze kaart zou ik dan ook best graag hebben om de 3080 hier op te volgen. Meer geld dan nodig hoeft het ook niet te kosten, een 5090 zal hopelijk met zijn introductieprijs al het dubbele kosten van deze AMD. Als de geheugenbandbreedte verdubbeld met de extra chips zou het helemaal concurrerend worden.
Ben benieuwd naar de 4k gaming prestaties.
Ik wil een deze dagen weer eens een fatsoenlijke gamepc bouwen, ik werk nu met een laptop met een mobiele 3060. Zwaar luidruchtig ding en prestaties rechtvaardigen het niet echt, dus ik wel weer eens een serieuze echte bak bouwen. Dus ik kijk sowieso de 5 series even uit de boom, maar het ziet er naar uit dat je financieel een stuk beter af bent met een van de vorige generatie. Het is niet dat ik erg warm wordt van het nieuws over de 5 serie.

AMD maar eens goed in de gaten houden, hun mid/high end kon nog best wel eens interessant worden aangezien nVidia maar minimaal vernieuwd tegen dit soort prijzen. Zolang je niet in 80/90 geïnteresseerd bent in ieder geval.
Bedoel je de vorige generatie AMD kaarten, heb gisteren nog zitten kijken voor een videokaart wel Nvidia maar een RTX 4090 is bijna onmogelijk te vinden tenzij je 2800 euro wil spenderen, een 4080 minstens 1500. Vrees dat het niet veel minder gaat worden, de 40 serie zal verdwijnen en zal nog een hele tijd duren voor de 5080 of 5090 tegen een "betaalbare" prijs uitkomt. Ik denk echt dat ze de schaarste met opzet hebben gecreëerd. Een nieuwe generatie videokaarten aankondigen begin Januari en dan weten dat in China het nieuwjaar gaat zijn en fabrieken stil liggen dat moeten ze bij Nvidia toch ook weten.
Nee dan zit ik sowieso aan 70 te denken, ook al kon je eraan komen 80/90 prijzen zijn gewoon te debiel, 70 is al duur zat. En in dat segment is het wellicht interessanter ook naar AMD te kijken.

En zeker omdat ik nog wel eens wat met AI hobby en de VRAM van mn mobiele 3060 echt niet voldoende is, kan een midrange kaart van AMD met 32GB wel eens heel erg interessant zijn. Mits dat fatsoenlijk ondersteund is aangezien spul nog wel eens op CUDA leunt.

[Reactie gewijzigd door Zoop op 13 februari 2025 01:15]

Vergeet niet dat we ook nog met inflatie zitten vandaar dat deze producten zo duur zijn.
Dat zou toch iets van 12% zijn? Dit is echt heel veel meer dan dat. Nee, net zoals zoveel dingen heeft het vrij weinig met inflatie te maken maar gewoon met corporate greed.
AI wordt steeds meer een ding, en fatsoenlijk AI dingen draaien op je eigen machine is vooral nog weggelegd voor onbetaalbare videokaarten. Een midrange kaart met 32 ram kan best nog wel eens vraag voor zijn, want nu ben je daarvoor aangewezen op de x80+ series met bijbehorende prijskaart. Zeker als je meerdere van die dingen wilt om wat serieus werk te doen zonder capaciteit extern te moeten inkopen.
Dat is zeker een markt. Ikzelf heb een systeem opgetuigd met twee oude Tesla P40 kaarten en ben nu in het gelukkige bezit van 48GB VRAM. Maar tijdens het uitzoeken en bouwen ben ik zo ontzettend veel mensen tegengekomen die ervan balen dat er eigenlijk geen opties zijn om AI thuis te draaien. Er is een levendige handel in tweedehands videokaarten, juist met dat doel: veel GB's om zelf LLM's te draaien.

Nvidia wil de kip met de gouden eieren niet slachten en weten dat ze momenteel geen concurrentie hebben, dus die vragen belachelijke prijzen. AMD zou hier bovenop moeten springen, het is echt een mooie kans om terug te komen. Dit gerucht klinkt alsof ze dat zelf ook zo zien.
Het is ook zo dat SLi hiervoor compleet nutteloos is, want het VRAM wordt gecloned in de kaarten, dus je verhoogd geen capaciteit. Die Tesla's kan je wel aan elkaar hangen toch? Dat moeten ze gewoon naar consumenten kaarten brengen, zodat je 4x 5060 16gb in een kast kan hangen ofzo, en dan worden dit soort kaarten van 32gb helemaal leuk. Het gaat op dit punt niet eens om computing power, want zeker voor thuis AI is het meestal een kwestie van wat meer geduld hebben, maar die VRAM is een harde limiet waardoor je ook niet met langer wachten er zal komen. Dus als er maar een manier is om goedkoper aan een lading VRAM te komen, maar ik denk zomaar dat die tesla en co kaarten hun grootste bestaansrecht zijn (in dit vakgebied in ieder geval, en zeker de wat oudere kaarten)..

Ik hoop dat dit inderdaad een gat is waar AMD in zal springen, want ze hoeven niet meer nVidia te concureren op de dikste GPU. Sterker nog, dat mag best een simpel en zuinig ding zijn (zo'n ai kan best wel even bezig zijn, dan is al een stuk minder leuk als je daar een lading xx90's voor heb draaien), als het maar een lading ram heeft en de bandwidth om het aan te kunnen. Dat lijkt mij technisch haalbaarder dan een inhaalslag te maken en de xx90-series van hun troon te stoten.

[Reactie gewijzigd door Zoop op 13 februari 2025 14:22]

Nou de "geruchten" zeggen ook dat de 9070 XT dichter bij de 5080 zit dan de 5070 maar wel in de 5070 prijsrange gaat komen. Ik hoop dat deze geruchten waarheid worden.
Was dat niet dichter bij de 4080 ipv 5080, en dan ook niet de 4080 super, maar de oudere 4080 zonder super? Ik herinner me iets dat AMD een performance vergelijking toonde al in de weken voordat de 5080/5090 (nvidia eigen benchmarks) bekend werden gemaakt.

[Reactie gewijzigd door OruBLMsFrl op 12 februari 2025 22:52]

De 5080 is max 15% beter dan de 4080 super.... en in veel gevallen dat niet eens. Dus je kan die twee niet eens goed onderscheiden. Maar de 9070 XT zou dus net beter moeten worden dan de 4080 super. Voor de prijs van een 5070. Dat zou inhouden dat het een 90% van de prestatie van een 5080 heeft voor een 30% lagere prijs.

Als dat waar is (wat DwarV hieronder terecht aanhaalt) dan gaat AMD goede zaken doen. Maar nog steeds minder verkopen dan Nvidia. Want groen = goed in de ogen van de gemiddelde consument (en ondergemiddelde tweaker).
Laat je niet gekmaken door geruchten. Bioj voorgaande kaarten van AMD was de prijs redelijk gematched aan de prijs van de performance gematchte nVidia kaart. De "AMD gaat een kaart maken die sneller en goedkoper is" komt ook elke release cycle terug, maar zorgt altijd voor teleurstelling. Er is geen reden om aan te nemen dat dat deze keer niet weer zo is.
Gaan ze niet doen.
Ze (AMD) hebben duidelijk aangegeven deze generatie géén alternatief voor de RTX5080/5090 series te maken, dus geen 9080GRE ofzoiets.
Het gros van de mensen kopen kaarten in het segment xx60 en xx70 dus als AMD met een kaart komt die goed op prijs en prestaties concurreert op deze segmenten kunnen zij best wat markt aandeel pakken.
Echter ik ben bang dat dit lastig word want dat deden ze al met de 7800XT en die was ook bij verre niet zo populair als de 4070 super.
De 7800XT was inderdaad de betere kaart tov de 4070. De 4070S bleek uiteindelijk een stuk duurder. Maar de 7800XT liep op de meer cutting edge vlakken toch flink achter. Met RT kwam ie niet eens in de buurt van de 4070 en ook wat betreft upscaling loopt AMD nog steeds fors achter.

DLSS heeft zeker zijn nadelen, maar het worden er steeds minder. Met de nieuwe modellen in DLSS 4 is het kwaliteitsverschil alleen maar verder opgelopen. En hoewel 12GB VRAM krap bemeten was voor de 4070 was het gebrek aan degelijke RT en goede upscaling toch echt een probleem.

Nou klinkt het uit geruchten alsof de achterstand op RT nagenoeg volledig ingehaald wordt (de 50 Serie maakt wat dat betreft immers een pas op de plaats) en ook FSR4 ziet er veelbelovend uit. Maar het blijft de vraag of AMD ineens genoeg grond kan goedmaken om het overwicht van nVidia op die vlakken tegen te gaan. En zelfs als het ze lukt zullen ze toch ook mensen moeten overtuigen om het te proberen. En dat betekent een zeer scherpe prijs. 15%-20% beter in raster/dollar en meer 33% meer VRAM was duidelijk niet genoeg om mensen breed over de streep te trekken. Ookal levert nVidia deze generatie niks nieuws (behalve die nieuwe DLSS4 modellen), AMD zal moeten leveren. Anders blijft alles zoals het is.
Maar ook in dat segment heb je het al snel over 500 euro. Ik denk dat daar het probleem zit - videokaarten zijn gewoon enorm duur geworden voor gaming hardware.
Als je zoveel geld uit geeft dan gaat die FOMO over ontbrekende features zoals DLSS veel eerder spelen, denk ik zo.

Vroeger keek je gewoon naar een momentopname. Prijs/prestatieverhouding. Toekomstbestendig waren videokaarten toch niet, en voor €100 hoefte dat ook niet.
Uiteindelijk vormen de topmodellen ook reclame voor de modellen die eronder zitten. Als "iedereen" weet dat Nvidia de snelste kaarten maken worden de goedkopere kaarten van Nvidia ook aantrekkelijker. Beetje zoals goed scoren in de Formule 1 ook reclame voor de gewone consumentenmodellen van die fabrikant is ook al hebben die technisch geen enkele overeenkomst met die Formule 1-auto.
Klopt, en dat is best krom. Zeker wanneer je naar de midrange kaarten kijkt valt er veel meer te vergelijken qua prijs kwaliteit verhouding. Dat ze het verliezen van de topmodellen, ok, maar was je van plan dan een kaart van 2k+ te kopen? Nee? Dus wat boeit het dan? AMD kan prima mee, maar nVidia heeft inderdaad een paradepaard die al hun marketing voorziet.
Het grootste probleem zijn toch wel bepaalde zaken waar Nvidia de software beter voor elkaar heeft,
en dan bedoel ik vooral de vendor-lock op zaken zoals Physx, Hairworks etc…
Ook de DLSS werkt momenteel beter dan dat van AMD, en weet Nvidia toch de meeste uitgevers financieel te strikken. (Gratis kaarten + een grote zak geld voor de ontwikkeling van Nvidia techniek in de games)

AMD heeft in de vorige generatie in mijn ogen betere hardware keuzes gemaakt, zo had het midden segment bij AMD wel voldoende VRAM. Helaas was dat niet genoeg om Nvidia aandeel in te kunnen pikken.
het is geen kwestie van niet willen, maar van niet kunnen. AMD loopt een generatie én tier achter op Nvidia, dat is ook de reden waarom die laatste kan vragen wat het wil voor hun krachtigere kaarten, omdat er simpelweg géén alternatief is.
Ik gun het ze ook en het zou erg goed zijn voor de markt. Maar ik zie AMD niet snel concurreren met de 4090/5090. Nvidia is enorm en ze hebben bijna oneindig budget vanwege de succesvolle AI-chips. Zij hebben ook meer andere bedrijven overgenomen dan AMD, o.a. voor het slimste personeel. Deels is dit het gevolg van succes, maar deels ook van een gebrek aan regulering.

AMD maakt nog wel altijd prima mid-range en mid-high-end kaarten, en die segmenten hebben veel hogere verkoopcijfers. Maar onder gamers is het merk Nvidia zeer sterk momenteel, en dat heeft toch iets te maken met de performance-kroon die komt van de 4090/5090-modellen. Ondanks dat de meeste gamers niet dat budget hebben, en ook ondanks de problemen die er zijn met de stroomvoorziening van die kaarten.

Al met al zie ik het somber in voor de GPU-markt. Ook Intel maakt geen hele grote stappen, hoewel dat ook gewoon jaren kost. Hopelijk komen AMD en Intel toch nog omhoog, maar Nvidia is bizar dominant.

[Reactie gewijzigd door geert1 op 12 februari 2025 15:28]

Concurrentie? Met een 5090? Nvidia maakt ze liever niet, gaming GPUs, allemaal gemiste inkomsten. Het geld ligt bij de H serie, niet bij de RTX varianten.

Ik vraag me echt af of het Nvidia zelfs uitmaakt wat amd doet, als amd een 5090 presterende kaart op de markt brengt aan de helft van de prijs van een 5090, dan zit je met een snelle kaart zonder cuda. En eerlijk, hoe zou amd dat zelfs doen, alle productie capaciteit op de wereld die je nodig hebt om een gpu van die performance te maken is afgekocht door Nvidia.
Hoop echt dat dit er komt. Een midrange kaart hoort gewoon 32 gb Vram te hebben.
Ik was eigenlijk van plan te upgraden dit jaar maar heb dat maar uitgesteld. Ik wil geen 5090 omdat ik de wattages absurd vindt. En dan zit je al weer vast aan een 16gb kaart, kun je alsnog je game gaan lopen tweaken om het netjes te draaien.

Jammer alleen dat AMD zo veel achterloopt wat betreft AI upscaling, dat is wel een dealbreaker.
Zeker dat het niet de prijs is? Het stroomverbruik kan je zelf naar beneden halen. :+
Nee ik wil echt geen 5090 vanwege de wattages. Als de 5090 voor 2500 euro op 300 watt zou draaien zou ik het wel doen. 300 watt vind ik eigenlijk nog te veel. Ik zou ook wel een 5080 met 32 gb willen hebben.
>500 watt is absurd. Veel te luid, veel te warm en onbetrouwbaar voor de middellange termijn. Stroomverbuik naar beneden halen is onzin, dan kun je net zo goed een midrange kaart kopen
En nu nog een 16 gb kaart kopen vind ik zonde van het geld. Nvidia had al jaarlijkse releases aangekondigd, goede kans dat er volgend jaar wel mid range nvidia kaarten met 32 gb uitkomen.
Nee ik wil echt geen 5090 vanwege de wattages.
dan trek je de power slider omlaag...
Je wou veel ram op een zuinige kaart, prijs maakt niet uit… dan koop je toch gewoon die 5090 en verlaag je die zijn verbruik.

Een midrange kaart met 32GB, dat is pas dom, heeft enkel nut voor AI, en daar heeft Nvidia een andere productlijn voor.

Ik wil je gerust een 5090 verkopen met een gemodde bios waardoor ie maar 300 watt verbruikt, ik verkoop hem aan u voor 2500€ en ik noem het een midrange kaart. Deal?

[Reactie gewijzigd door BlaDeKke op 13 februari 2025 10:38]

Waar heb jij bij een midrange kaart 32Gb voor nodig bij het gamen.
Ik lees hierboven Star Citizen en weet genoeg :) .
FSR4 lijkt een flinke verbetering te worden.
Wellicht. Ben echter niet vergeten hoe slecht Start Citizen was met FSR.
Zonder FSR was het wel ok wil je zeggen? nvm, dacht aan Starfield.

Star Citizen heeft FSR 2.0, inmiddels is FSR 3.x al tijden uit en komt FSR 4.0 er aan. Beetje alsof je nu DLSS beoordeelt op wat er in de eerste titels met DLSS1.0 zat.

[Reactie gewijzigd door DLeijen op 12 februari 2025 20:03]

Welke troon?

AMD heeft een jaar geleden al aangegeven niet meer mee te doen met kaarten als de 4080/5080 en 4090/5090.
*Deze generatie. Ze klonken in ieder geval toendertijd wel van plan het met UDNA te proberen.
Waarom ? voor die 0.01% van de gaming enthusiasts ? die voor 2000/3000+ euro een super snelle kaart wil kopen ? en die markt is al heel erg klein,
En de normale consument, vindt t al goed wat er in een ps5 of ROG Ally X zit,
Dus Ik denk dat AMD denkt .. "pffff who cares ?? "


Zo te zien focussen ze zich liever op the console markt en de handhelds, wat meer geld in het laadje brengt.

[Reactie gewijzigd door Metallize op 12 februari 2025 17:58]

Vanwaar altijd de drang naar de snelste? ik ben altijd veel meer geinterreseerd in de beste prijs/performance in het midden segment.
Voor jou hebben ze een kaart die voor 1 euro 1 fps doet. :+
Ik ben benieuwd waarom zoveel mensen hier zo anti AMD/ pro Nivida zijn.

Kan iemand duidelijk uitleggen wat je niet kan RX 7900 XTX en wel met een 4900/5800 of 5900?

Kan AMD 'maar 90 fps' in 4k leveren en Nivida minimaal 120 fps in 4k (wie en hoe merk ik dat), zijn het vooral modellen die veel sneller gegeneerd kunnen met Nvidia, is alles vanwege ray tracing of iets anders (ik heb al 5+ video's gecheckt maar ik kan geen verschil zien met of zonder ray tracing, maar wellicht moet je dit in het echt zien om goed te ervaren)?

Voor mij als leek lijkt een 7800 of 7900 ruim voldoende, maar blijkbaar is er een hele wereld waarvan ik niet begrijp dat die er ook is (en nodig).

Ook tweakers heeft nog nooit goede uitleg gegeven via een duidelijke video wat kan je allemaal niet met een RX 7900 XTX en wel met high end Nivida kaarten?
De raytracing prestaties waren voor zover ik begreep minder op Radeon kaarten. Bovendien vind ik persoonlijk de drivers van GeForce veel beter en duidelijker werken. Waar ik bij AMD vaak last had van vreemde crashes en verborgen settings, heb ik dat bij nVidia niet/nauwelijks.

Maar dit gezegd hebbende; ik denk dat qua prijs/prestaties mijn volgende kaart ook weer AMD gaat worden.
Dan ben ik toch benieuwd welke generatie van AMD jij had... :)

Ik heb zelf een 6800 xt, en heb daar zelf nog nooit problemen gehad met drivers/ rare crashes.
net dit , vele verwijzingen naar verleden en velen die altijd de leverancier als schuldige geven en nooit zichzelf of hun eigen kunnen en boeltje.

ik zelf heb 2 * 6800XT in gebruik al sinds launch dus weet uit ervaring. Daarvoor had ik al een 5700XT en ja die was echt wel wat minder stabiel met drivers. Wil niet zeggen dat er nooit iets slecht in zit met driver, maar om nu te zeggen meer /minder dan de andere leverancier? nope

beide vendors hebben trouwens pro en cons

trouwens leuk dat gerucht weer, maar wat ze vergeten is dat deze ontwikkeld word als Radeon PRO GPU in eerste instantie en misschien nu wel ook naar consument komt met alle AI hype... daar is altijd een hogere vRAM versie van, maar soit, tweakers website is zot op geruchten.

[Reactie gewijzigd door d3x op 12 februari 2025 16:18]

ik heb sinds 24h2 toch wel problemen met me 7000 series kaart.
Wat voor problemen dan?

En gaf die Windows update zoiezo niet problemen met vanalles?
screen flicker verder is de update wel ok voor me

[Reactie gewijzigd door appiemo op 12 februari 2025 17:34]

Bij mij is het zowaar andersom: ik heb behoorlijk wat historische AMD- en ATI-kaarten (gehad), zoals de HD 2600XT, 4670 AGP, 4870, 6770M, 6950, R9 280, RX Vega 64 en RX 590, maar mijn 6900 XT is m’n eerste videokaart waarmee ik ooit serieuze driverproblemen heb gehad. Op sommige drivers geeft mijn kaarten vreemde blooming op youtube fullscreen en 2D-games flikkeren soms ineens met een grijs scherm. Misschien is het wel een hardwareprobleem, maar zie dat maar eens aan te tonen bij een webwinkel als de nieuwste driver het wel prima doet. Gigabyte zelf reageert niet eens als je een mail stuurt.
Zeker als we het hebben over Linux gaming. Daar zijn de AMD drivers de referentie.
Dat zou ik niet willen zeggen, de AMD drivers op linux staan ook redelijk bol van de problemen, vooral met de iGPU's. Ik heb er meer problemen mee dan de closed-source NVidia drivers als ik heel eerlijk ben. Het voordeel is dan weer je voor AMD gewoon netjes bug reports kunt filen en er daadwerkelijk mensen naar gaan kijken als er genoeg reports zijn, en er daarom vaak wel oplossingen of workarounds te vinden zijn. Bij NVidia op Linux is het 'werkt het niet? pech gehad en wacht maar lekker af of en wanneer NVidia het oplost'.

Traditioneel waren de Intel drivers de referentie voor GPU's als het om stabiliteit en features ging, echter hebben die wat dat betreft weer een paar stappen terug gegaan toen ze naar de Xe architectuur zijn overgestapt, hoewel het inmiddels geloof ik wel weer aardig op de rit is.
Ik heb verschillende instabiele kaarten gehad; de 9600XT, de R9 280, de 580 (of zoiets), de 590. Die hadden allemaal last van rare crashes, glitches, artefacten en die rare Crimson software die vaak maar half werkt(e) met detecteren van je tweede scherm bijvoorbeeld. Misschien toevallig slechte batches gehad, maar met nVidia nooit driverproblemen gehad. Ik heb de GeForce MX400 (geloof ik), de oude 4850, de 1660 en de 3070 gehad en dus echt wel ervaring met beide fabrikanten.
Het grote verschil zit in dingen specifiek van Nvidia zoals CUDA, DLSS en betere ray tracing.
CUDA is handig voor veel AI en ook andere software, terwijl AMD’s alternatief (ROCm) minder wordt ondersteund.

DLSS maakt games soepeler zonder (veel) kwaliteitsverlies, terwijl AMD’s FSR nog steeds minder geavanceerd is (geen MFG enz.)

Ray tracing draait op Nvidia beter. AMD won altijd juist op VRAM, maar nu heeft de 5090 32gb en de normale versie van de 9070 krijgt 16gb, dus op dat vlak verlies AMD ook.

Voor 4K-gaming is een RX 7900 XTX prima, maar voor AI, ray tracing en DLSS heeft Nvidia toch echt een flinke voorsprong.
De 5090 kan je niet met de 9070 vergelijken. Laatste staat tegenover de 5070 serie. Daarmee kan AMD nu dus weldegelijk Nvidia de loef afsteken, door dus een 32GB kaart in dat segment uit te brengen. Die zal vast significant duurder zijn dan de 16GB versie, want complexer, maar zelfs al zou deze 200-400 Euro duurder zijn (en dus totaal niet interessant voor gamers), zou het alsnog een interessante kaart zijn voor niet-gaming toepassingen. En bovendien significant goedkoper.

Verder heb je wel gelijk. De prijs is er echter ook op aangepast, waardoor een 7900 XTX zich wel goed kan weren. Maar wanneer die features een must-have zijn, haken velen al af.

Daarnaast is men hier overigens helemaal niet overwegen pro-Nvidia, maar juist een stuk genuanceerder. Met als noot dat de underdogpositie van AMD op het moment ook nog voor een enigszins gunfactor zorgt. "We" willen immers allemaal graag een wat gezondere concurrentie.

[Reactie gewijzigd door Cid Highwind op 12 februari 2025 15:48]

Om de 5090 direct met de 9070 te vergelijken was inderdaad niet heel genuanceerd van mij... Met de aanvullingen van jouw ben ik het compleet eens, dank daarvoor! _/-\o_
Ik denk dat een vergelijking in VRAM vooral prijs-voor-prijs uitmaakt. Iemand die een 9070 (non-xt) overweegt gaat niet naar een meer dan 3x duurdere 5090 omdat die meer vram heeft. AMD had met de 7000 series in dezelfde prijscategorie vaak een VRAM voorsprong en ik verwacht dat dat met de 9000 series niet gaat veranderen.
VRAM alleen zegt niet zoveel. Doorvoersnelheid in GB/s wel.

VRAM grootte, soort GDDR geheugen (6,7) en frequencie waar het geheugen en busbreedte (192, 256) op draait bepalen samen de doorvoersnelheid.

Het is overduidelijk dat Nvidia terughoudend is met VRAM vergroten omdat ze al een stap maken van GDDR6 naar GDDR7. Omdat ze met dat de doorvoersnelheid ook al vergroten tov de 40 serie.

[Reactie gewijzigd door kujinshi op 12 februari 2025 16:18]

Onzin.

Je kunt de snelheid zien als hoe snel je aan iets kunt werken. Je kunt de grootte van het Vram zien als het tafelblad waar je dingen op kunt leggen. Heb je minder geheugen, dan kun je minder dingen tegelijk.

Snelheid maakt een gebrek aan Vram echt niet goed.

Het uit Vram moeten gooien van assets en het laden van nieuwe assets is vele malen trager dan het geheel in Vram kunnen houden.

Uiteraard moet er een balans zijn, die is afhankelijk van vele settings en voor iedere game anders.

Je hebt weinig aan 32 GB GDDR3-geheugen, dan is de snelheid van het geheugen in 99% van de gevallen de overgrote bottleneck, terwijl 4 GB DDR7 ook totaal niet nuttig is.

Maar 12 GB voor een kaart van € 1.000 is gewoon zeer karig, er zijn zat spellen die al meer nodig n. Wat heb je aan een kaart die op 4K tig fps kan halen als je de details op medium moet zetten omdat je gpu te weinig Vram heeft?
Veel gamers die in de markt zijn voor een high-end kaart geven daar alleen zoveel geld aan uit als daar mooiere en soepelere graphics tegenover staan. Bij de AAA titels komt dat tegenwoordig neer op path tracing als de volgende stap in realisme. Dat draait eigenlijk alleen maar soepel met behulp van machine learning algoritmes als super resolution, ray reconstruction, geavanceerde denoising en aanverwante oplossingen.

Al die zaken heeft een 7900XTX (nog) niet. En daar bovenop draait rechttoe rechtaan ray tracing ook nog eens slechter op AMD kaarten dan z'n nVidia prijsgenoten.

Voor het ouderwetse grafische werk volstaat een AMD prima. Maar ja, geef je veel geld uit aan een grafische kaart, dan wil je toch alle toeters en bellen?
Zou mooi (en leerzaam) zijn als er ergens duidelijke video's / docu's zijn die dat uitleggen voor een (casual) enthusiast pc gamer.
Het is een (onderzoeks)gebied dat erg in beweging is. Elke paar maanden worden er weer verbeteringen in algoritmes bedacht en doorgevoerd. Een aantal YouTube kanalen volgen de ontwikkelingen en doen daar nu en dan verslag van. Digital Foundry en Hardware Unboxed zijn voorbeelden van twee populaire outlets.
Meen dat de software van AMD wensen lieten overslaan, maar tegenwoordig zijn deze vrij goed.
Raytracing is mooi, maar voor mij niet perse nodig, Nvidia gebruikt ook minder stroom en beter voor AI applicaties en/of machine learning omdat het betere support heeft.

Zelf bezitter van 7900 XTX, prima kaarten, snel en voor mijn use-cases meer dan genoeg, enige wat ik mis is support voor AI, LLM's werken prima, maar soms heb je nieuwe tech dat alleen op nvidia werkt.

Maar is het een 900 vs 1400 euro waard om een switch te doen naar een mooie kaartje die mogelijk flam kan vatten? Nope. Teleurgesteld dat ze met 5000 series hetzelfde route op zijn gegaan.
Ik heb zelf een 7900XTX en kwam van de 3070. Ik heb de kaart nu iets meer dan een jaar in gebruik.
Het belangrijkste nadeel is toch wel raytracing, maar ik had de kaart net gekozen voor zn raster-kracht ten opzichte van de prijs. Had vorig jaar iets boven de €800 betaald voor de kaart tijdens een mooie actie.
Ik had ergens wel gehoopt op een betere ontwikkeling van FSR, alhoewel ik er game-studios soms wel van verdenk om een vrij middelmatige implementatie van FSR in hun games te voorzien.
Op zich is de kaart krachtig genoeg om zonder FSR "4K ultra" te leveren op 60fps mij de spellen die ik speel.

Voor mij zijn de belangrijkste verschillen dus de mindere versie van upscaling, en toch wel zwakkere kracht op raytracing. Het VRAM overschot compenseert dan weer terug, want ik zit vaak boven 16GB VRAM gebruik door geen FSR te gebruiken.

Dit waren ook de zaken die ik verwachtte en goed had afgewogen bij de keuze, en waar ik nog steeds tevreden over ben.

[Reactie gewijzigd door verci op 12 februari 2025 15:34]

Geen CUDA, slechte GPU Encoding.
Vorige spel dat ik speelde was cyberpunk 2077 op mijn 4090 in 4k/ultra met path tracing heb ik native een 20-30 fps. Onspeelbaar dus.
Een 7900 XTX zit nog veel lager.

Ik moet dlss/fg aanzetten om dat speelbaar te houden, en ja de grahics zijn dan gewoon beste ooit gezien en zeker de moeite waard .
DLSS wordt meer ondersteund bij game,s dan de AMD tegenhanger.
Nvidia is altijd iets beter geweest met software en AMD beter in de hardware.

Meerdere keren AMD/ATI gehad maar het was altijd of lawaaibakken of driverproblemen, als het wel goed ging was de performance super.

Geen idee waarom het altijd mis ging, als de AMD kaart ook maar iets van 3D toont (main menu game bijvoorbeeld) ging de fan al naar 100%, misschien dat het tegenwoordig beter is heb ik geen idee.

[Reactie gewijzigd door mr_evil08 op 12 februari 2025 16:05]

CUDA is het toverwoord in dit geval. Voor de casual gamer is een midrange kaart prima, voor de pro-gamer/sumer die het beste wil niet. Dan kan AMD alsnog 64GB hebben, heeft Nvidia alsnog een voorsprong. Al gok ik dat als AMD een 64GB kaart uit zou brengen dat er snel naar alternatieven gezocht gaat worden voor CUDA bijvoorbeeld.
Het schone is dat AMD een CUDA/cuBLAS alternatief heeft, ROCm/hipBLAS, maar de ondersteuning is gewoon onvolledig en ben je bijna verplicht Linux/WSL te gebruiken, waardoor een tweedehands Quadro RTX 5000 interessanter blijft dan bijvoorbeeld een Radeon VII (een kaart mét HBM2.)
Gevalletje Stockholm syndrome. Teveel geld uitgegeven aan een nvidia gpu en willen dat juist praten door nvidia te blijven steunen. Terwijl we allemaal wel weten dat nvidia gestoord is geworden. Een xx70 kaart voor 630 euro met 12gb wat een lachertje.
Wellicht ben ik een simpel persoon, maar wat voor effect heeft 32gb op het verbeteren van prestaties? Het is zeker future-proof met zoveel VRAM. Ik zal zeker niet zeuren over meer VRAM, zeker als ik kijk naar lagere segmenten, maar kan iemand mij vertellen wie de doelgroep is? Zover mijn kennis reikt, is team groen nu (jammer genoeg) de gene die de local AI business runt en zijn de prestaties van team rood in 3D rendering zoveel slechter vanwege hun technologie en niet hun VRAM capaciteit. Concreet: Wat is de doelgroep?
Simpel: LLM's houden van veel VRAM. En dan is die 32GB toch wel een stuk prettiger dan die kunstmatige beperkingen van nVidia.
Maar llms werken niet Lekker met amd.
Jawel hoor, je kunt gewoon eenvoudig llm's gebruiken, alleen zijn er veel AI apps dat een stuk ingewikkelder werkt met AMD in plaats van Nvidia.

Kijk oa naar https://lmstudio.ai/ als je een eenvoudig installatie wilt.

[Reactie gewijzigd door ilaurensnl op 12 februari 2025 15:24]

Zoals anderen ook aangeven: LMStudio is al erg flexibel:
LM Studio supports multiple variants of llama.cpp engines (CPU-only, CUDA, Vulkan, ROCm, Metal) as well as an Apple MLX engine. These engines receive frequent updates, especially when new models are released.
Veel engines (ook Jan) zijn gebaseeerd op llama.cpp. Dus dat opent flink wat mogelijkheden voor een AMD kaart met 32GB RAM mocht deze ook daadwerkelijk uitkomen.
Dat klopt niet, ik draai Ollama prima hier op een RX 7900 XTX; en die 24GB VRAM is erg fijn omdat ik daardoor grotere modellen kan draaien. Je zal op een Nvidia kaart die (misschien sneller is in ML) prima grote modellen kunnen draaien, maar als dat niet in het VRAM past dan is een AMD kaart met meer geheugen toch sneller.
Voor inference gaat het tegenwoordig prima, training is een work in progress maar ook dat is tegenwoordig mogelijk op AMD
Ik denk ook deels marketing, hele wereld is over nvidia gevallen vanwege toch wel weinig vram op hun nieuwe gen kaarten.

Daarnaast, gta 5 uit 2013! Is mijn 3060ti met 8gb vram net genoeg op 4k. Dus als weer zo,n slechte port komt van gta 6 naar pc kan ik mij voorstellen dat 20>gb vram geen overbodige luxe is.... En dan baal je flink als je nu een 5070 hebt gekocht..
NVIDIA komt binnenkort me RTX Neural Texture Compression die de grote van textures tot wel 96% kan verminderen zonder kwaliteits verlies.

Kost wel performance, maar er zullen vast presets komen zoals met DLSS. Een 33% reductie zou al een heel verschil maken op een game die 12GB VRam verbruikt.

Er is een Demo van te downloaden.

[Reactie gewijzigd door TheDeeGee op 12 februari 2025 15:52]

Daarvan wil ik eerst cijfers uit de praktijk zien want Nvidia gebruikt altijd het meest extreme geval voor hun marketing. Dus net die ene tech-demo, waar het neurale model ook op getraind is, bijvoorbeeld. Waarschijnlijk vergelijken ze tussen hun eigen compressie en geen compressie. Maar dat is niet het complete plaatje: er zijn ook andere compressietechnieken. Dus we zullen onafhankelijke reviews en eigen ervaringen nodig hebben voordat er iets te zeggen valt over die Neural Texture Compression.

En wie LLM's lokaal wil draaien kan dat extra VRAM sowieso goed gebruiken; daar is textuurcompressie niet van toepassing. Bij Nvidia moet er dan geüpgraded worden naar hun AI-chips met een flink prijskaartje.

[Reactie gewijzigd door geert1 op 12 februari 2025 17:15]

Voor 99% van de spellen: nagenoeg niets. Er is echter ook een héél klein aantal spellen (Indiana Jones, binnenkort Doom: The Dark Ages) waar de performance voornamelijk met VRAM doet scalen en niet zozeer GPU compute. Als er daadwerkelijk een 9070 XT met 32 GB VRAM komt kunnen de benchmarks in die twee spellen nog interessant worden (denk aan vergelijkbare performance met de RTX 5080, om een voorbeeld te noemen).
Jaren geleden toen 2-4gb nog normaal of zelfs high end was. Kocht ik een RX 580 met 8GB VRAM. Die kaart heeft het bijna 2 keer zo lang vol weten te houden dan de RX580 4GB die een maat van mij had.

Nu zit ik op een RX 7800 XT met 16GB ram, wat ik een relatief kleine stap omhoog vond in ruim 6 jaar tijd... En ik heb al enkele keren te maken gehad met een volle VRAM en daarbij microstutters/framedrops omdat 4k ultra pixels...... echt ontzettend veel geheugen vereist.

Ik heb deze kaart net geen jaar en nu voel ik de VRAM bottlenecks al. De GPU kan al het pixel geweld met gemak aan, maar als het niet genoeg data krijgt om die pixels te berekenen, gewoon sund. Ik vind het nu al jammer dat 16GB genormaliseerd is door Nvidia op mid-high end doordat ze zelf jarenlang veel sterke kaarten dan de RX580 zaten te bottlenecken met 6gb VRAM oid.

Ach ja, hier op tweakers ook al een paar de wind van voren gekregen want de meeste mensen denken dat VRAM niet zo belangrijk is of zo. Terwijl ik het nu gewoon al jammer vind dat mijn GPU straks veel eerder afgeschreven wordt door het lullige beetje geheugen... Je kan het AMD ook niet helemaal kwalijk nemen dat ze er maar 16GB in stoppen, gezien Nvidia nog te koop liep met 12GB high end GPU's.

Ik vind gewoon sund, de GTX 760 2GB werd al zeer hard gebottlenecked door de gebrekkige hoeveelheid geheugen. RX580 was op 4GB gericht, maar de 8GB variant is pas nu een beetje afgeschreven voor high pixel 1080p gaming.
En pak dan gelijk door en doe een 64GB variant. Voor LLM inference. Kan je mooi concureren met NVIDIA, want die houden de prijzen hoog en geheugen hoeveelheden laag om zichzelf niet in de vingers te snijden. Daar is wel marktaandeel van af te snoepen op die manier.

[Reactie gewijzigd door - peter - op 12 februari 2025 15:29]

En waar wou je die overige 32 GB aan chips plaatsen? In het artikel wordt al uitgelegd dat er simpelweg geen grotere chips beschikbaar zijn, dus je loopt tegen fysieke grenzen aan, aangezien men nu dus al de mogelijkheid gebruikt chips op de achterkant te plakken.

Misschien dat men CrossFire weer in het leven kan roepen voor zoiets, maar dan met een shared-memory principe, in plaats van eentje waar content gedupliceerd moet worden?
Samsung maakt GDDR6W modules van 32Gb.
AMD heeft ook professionele videokaarten met veel geheugen, 64 GB consumenten kaart zie ik dan niet snel gebeuren.
RX9070xt gaat zeker meer dan 700 worden. Zwakte euro en winkels gaat lekker voor jackpot verkopen.
Word heus wel een €1000 kaart in de EU.
Maak Dan gelijk 2000 van. Ik ga het niet kopen als het boven 600 is.
Als deze kaart echt uitkomt, lijkt me dit een interessante kaart voor iedereen die (zwaardere) AI workloads wil draaien.

Met 32gb zal hij een stuk beter overweg kunnen met grotere modellen dan de standaard 16gb variant. Het enige echte alternatief is nu de 5090, maar die is flink duur, en op dit moment ook lastig te krijgen.

Net zoals de normale 9070, zal de populariteit van deze kaart erg afhankelijk zijn van het prijskaartje dat AMD eraan plakt.
Precies dit. Ik kan op zich wel wat spelen met LLMs met een 4080 met 16 GB maar 32 GB biedt de mogelijkheid om zwaardere models te draaien. De prijs is dan wel afwachten, ik ga geen 1500 euro neerleggen voor zo'n videokaart puur voor het extra geheugen
Enkel voor AI ?

of een futureproof betaalbare 4K-gaming GPU die er zit aan te komen .. :9
Cool... en dan weer 1 of andere "AI" functie in de drivers propper waardoor de game ervaring slechter word net zoals bij 24.12.1 Hou je gewoon liever bezig met gewoon een goede en zeer betaalbare game GPU maken dat is de enige manier waarop je die 9070 nog gaat verkopen want bij 700+ euro knappen mensen al af en kopen ze liever voor een paar honderd meer een Nvidia kaart met meer/beter functionerende features en betere ray tracing die tegenwoordig noodzakelijk begint te worden door luie devs.
Dit is hoe concurrentie hoort te werken!
Nvidia is met 50-serie kaarten veel te karig met RAM, mogelijk vanuit een arrogantie toch geen high-end concurrentie te hebben en nu slaat AMD terug:
"Goedkope" kaarten met 32 GB ram: game on!
NVIDIA komt met RTX Neural Texture Compression, kan tot wel 96% verminderen zonder kwaliteits verlies.

Goedekope kaarten bestaan niet meer, als de MSRP voor de 9070XT $700 gaat zijn, word de kaart in de EU €1000.

[Reactie gewijzigd door TheDeeGee op 12 februari 2025 15:55]

Nee ongeveer 50%, er zijn al praktijktesten beschikbaar op internet.
De Demo geeft een ander beeld en zit toch echt tegen de 90% aan.

Maar er zullen vast presets komen zoals met DLSS.

[Reactie gewijzigd door TheDeeGee op 12 februari 2025 18:08]

een 4060 koop je nog altijd voor 300 euro hoor, intel en amd hebben gelijkaardige kaarten
Ja want vram is het enige wat snelheid bepaald.
De 4060 TI maakte reedelijk duidelijk hoe nutteloos 16gb (laat staan 32gb vram) voor gaming is op dergelijke gpu.
Met een 128bus is dat inderdaad nutteloos.
3060 192bit 12gb of een B570 ook 192bit 10gb is trager dan een 4060 128bit 8gb zelfs op 4k.
32GB op een videokaart die amper tot niet in staat is met fatsoenlijke fps te draaien op de resoluties en instellingen die zoveel VRAM vragen is totaal nutteloos.. Game-instellingen die meer dan 16GB vragen zijn minimaal 4K Ultra HD textures met pathtracing etc, daar zal een 9700 zeker niet snel genoeg voor zijn.. Het is geen RTX 5090..
Zo’n kaart is overduidelijk op AI toepassingen gericht.
Maakt AMD eigenlijk nog videokaarten voor (gaming)laptops? of zijn ze daar helemaal uitgestapt. Ik ben benieuwd, een graphicskaarten markt zonder concurrentie is ook niet goed...
Van de 7000 generatie is 'gewoon' een mobile versie van uitgekomen. Die zit niet in heel veel laptops, want die zijn voornamelijk Nvidia...

Op dit item kan niet meer gereageerd worden.