AMD onthult Radeon RX 9070-videokaarten op 28 februari, ontkent komst 32GB-model

AMD kondigt de Radeon RX 9070 en RX 9070 XT officieel aan op 28 februari. De fabrikant bevestigde tijdens de CES in januari al dat die videokaarten eraan komen, maar deelde toen nog weinig concrete details.

AMD houdt op vrijdag 28 februari om 14.00 uur Nederlandse tijd een livestream op YouTube, zo bevestigt de fabrikant op sociale media, waarin de Radeon RX 9000-serie volledig wordt onthuld. De daadwerkelijke release van de videokaarten volgt begin maart, benadrukt het bedrijf. Naar verwachting deelt het bedrijf de specificaties, prestaties en adviesprijzen van de Radeon RX 9070 en 9070 XT; die zijn vooralsnog niet bekend.

De Radeon RX 9070-videokaarten werden tijdens de CES al aangekondigd, hoewel het bedrijf toen nog weinig details over de gpu's deelde. AMD deelde toen alleen de namen van de videokaarten en bevestigde dat ze gebruikmaken van een nieuwe RDNA 4-architectuur met betere raytracingcores en FSR 4-upscaling.

Frank Azor, AMD's 'Chief Architect of Gaming Solutions', gaat daarnaast in op recente geruchten over AMD's komende RX 9070 XT. Die stelden dat er op termijn ook een variant van die videokaart uitkomt met 32GB vram, maar Azor zegt dat 'de 9070 XT-kaart niet beschikbaar komt met 32GB'.

AMD Radeon RX 9070 en 9070 XT

Door Daan van Monsjou

Nieuwsredacteur

14-02-2025 • 07:38

112

Lees meer

Reacties (112)

Sorteer op:

Weergave:

Bijzonder vreemd om dat niet te doen, ROCm, DirectML en zelfs Zluda begint allemaal steeds "sneller" en stabieler te worden (vooral Zluda) en dan had dit je een goede edge kunnen geven, maar... Dan worden die kaarten enkel aan generatieve AI besteed en niet aan de gamers, dat zou jammer zijn.
Allemaal nieuwe woorden op de vroege ochtend! Ff opgezocht:

ROCm:
AMD ROCm™ is an open software stack including drivers, development tools, and APIs that enable GPU programming from low-level kernel to end-user applications. ROCm is optimized for Generative AI and HPC applications, and is easy to migrate existing code into.
DirectML
DirectML is a high-performance, hardware-accelerated DirectX 12 library for machine learning. DirectML provides GPU acceleration for common machine learning tasks across a broad range of supported hardware and drivers, including all DirectX 12-capable GPUs from vendors such as AMD, Intel, NVIDIA, and Qualcomm.
Zluda
ZLUDA is a drop-in replacement for CUDA on non-NVIDIA GPU. ZLUDA allows to run unmodified CUDA applications using non-NVIDIA GPUs with near-native performance.

ZLUDA supports AMD Radeon RX 5000 series and newer GPUs (both desktop and integrated).
Vooral de Zluda lijkt interessant om het nVidia overwicht in die markt te doorbreken.
Dit inderdaad. Als je bijvoorbeeld lokaal een LLM wil draaien, maar een AMD-kaart hebt, kun je niet om Zluda heen. Alle bestaande LLM's zijn gebouwd voor CUDA.
CUDA is de voornaamste reden dat ik geen AMD kaarten neem. Maar support hiervoor én veel geheugen aan een lagere prijs en ze komen voor mij terug in aanmerking.
Nu nog iets dat in buurt komt van een 4090 en met meer geheugen aub.
Ik vind het niet vreemd, waarom zou je een mid-end gepositioneerde kaart met zoveel RAM uitrusten?

Gewoon 16GB, model erboven misschien 24GB en het nieuwe topmodel 32GB zou logischer zijn.
32GB zou mooi zijn voor txt2vid, img2vid icm flux modellen. Die laatste is resource-heavy en daar zou die hoeveelheid vram goed tot zijn recht komen.
Dan begeeft AMD zich plots in een segment waar ze juist (nu nog) weg willen blijven.. GenAI is onder het beoogde publiek niet boeiend, die willen voor een normale prijs goed kunnen gamen. 16GB op een midrangekaart is net goed als FU naar Nvidia die kaarten van 1000 euro uitrust met 12GB. Mij lijkt het slim om naast de datacenter crowd met hun Epyc lineup de gamers te vriend te houden, kapitaal en R&D te bouwen, en als AI dan nog leeft, iets neer te zetten dat direct kan concurreren met de 'Fire Hazard 5000 tm'
Kijk even bij amd mi300: tot 256gb hbm geheugen. And zit echt wel in die hoek maar niet voor thuis.
Zijn voor deze toepassingen de FirePro kaarten niet op de markt? Deze kaarten zijn toch vooral gericht op gamen lijkt me.
Klopt, maar FirePro is een jaartje of wat geleden vervangen door Radeon Pro en Radeon Instinct. De eerste meer gericht op WS gebruik, de tweede meer voor servertoepassingen.

FirePro gooide het over een andere boeg als Cuda en Tesla, waardoor ze toch goed in de markt bleven waar Nvidia's minder geschikt voor waren. Zoals bijvoorbeeld de #1 positie in de Green500
Vroeger hadden bijvoorbeeld de RX 480 en de RX 580 ook een 4GB en een 8GB uitvoering. Dus zo gek zou een RX 9070 XT 32GB niet zijn.
Eigenlijk net zoals de 3060 met 12GB voorheen. Prima voor content creators die meer VRAM nodig hebben, in plaats van pure horsepower. Een mid-end kaart met meer geheugen is dus prima voor een bepaald (niet gamer) doelgroep.
32gb is ook wel beetje overdreven. Maar qua marketing zou niet eens zo'n gekke zet zijn vanwege vram een hot topic momenteel is.
Vanuit het perspectief van een consument is dat heel jammer. Maar voor AMD zou het een schot in eigen voet zijn. De GPUs met meer ram zijn immers een stuk duurder. Dus voor AI toepassingen hebben ze waarschijnlijk liever dat je die duurdere kaart koopt. Vooral omdat elke GPU leverancier nu zo werkt. En bedrijven die hier zwaar op leunen kunnen wel €2k voor een GPU neer leggen.
Een mi300 met 256gb kost 20k.. een nul meer :)
Waarom zouden ze die kaart uitbrengen voor een schijntje als ze er veel meer voor kunnen vragen door ‘m uit te brengen als Radeon Pro kaart? Dat is op dit moment niet anders, als je een Radeon kaart wil met 32GB VRAM zit je aan de Radeon Pro W7800, met prijskaartje van meer dan €2000.
AMD is ook geen liefdadigheidsinstelling en wil gewoon zoveel mogelijk geld uit de zakken van de klanten kloppen, dat is in dit geval niet anders.
Ik denk juist dat het heel logisch is, AMD heeft, net als Nvidia, ook een professionele workstation lijn die hetzelfde silicon gebruiken als de consumenten kaarten. En wat is daar juist vaak de onderscheidende factor op hardware gebied, een flinke hoeveelheid meer geheugen dan de consumenten modellen. Een andere onderscheidende factor is dat er veel meer marge zit op die kaarten ;)

Het zou me dus niets verbazen als er straks 'ineens' Radeon Pro modellen opduiken met 32GB geheugen juist voor de toepassingen die je aanhaalt.
En vroeger in het Quadro/FirePro tijdperk toch ook lagere performance voor veel meer geld maar gecertificeerde (kleuren) drivers dacht ik.
Heb je zelf ervaring met Zluda? Ik begreep dat AMD de financiering heeft stopgezet. Hoe goed functioneert Zluda in de praktijk? Ik ben in overweging om een nieuwe videokaart te kopen en ook te experimenteren met lokale AI modellen. De nieuwe kaarten van AMD lijken een goede prijs/kwaliteit verhouding te hebben als Zluda een goed alternatief is.

https://www.tomshardware....ws-to-rebuild-his-project
Installeer Stability Matrix, allerlei paketten in 1 omgeving en overtuig jezelf :) (installeer comfyui-zluda) Zelfs met mijn OC op de 780M (iGPU) (en wat aangepaste ROCm library's) ging bijv. 1024x1024 op SDXL aardig rap.

Zie o.a. mijn post in het topic forumtopic: Het grote AI art show- & kletstopic
Als ze een kaart uitbrengen met 32 GB en die dan 9070 XTX of bijvoorbeeld 9080 XT noemen dan hebben ze nog steeds gelijk als ze zeggen dat 'de 9070 XT-kaart niet beschikbaar komt met 32GB'.
Het is heel goed mogelijk dat er wel kaart komt met 32 GB en de Navi 48-chip, maar de kans dat die uitkomt onder de Radeon Pro-paraplu is natuurlijk aanzienlijk groter dan als reguliere Radeon.

De huidige Radeon Pro W7900 heeft 48 GB, het dubbele van een 7900XTX.

Je wilt toch onderscheid maken, onder andere omdat je dan meer kan rekenen, maar ook omdat, als je de kaart voor games gebruikt, je waarschijnlijk niets aan die 32 GB hebt, de kaart nagenoeg even snel is als een 16 GB variant en de kaart dus een erg slechte Price-Performance heeft (en dus slecht uit de meeste reviews zal komen).
Exact wat ik dacht.
Nu toegeven dat er een "beter" model uitkomt is gewoon slecht voor de verkoop.
Het is geen toeval dat nVidia eerst de duurste kaart in de verkoop brengt en de traagste een paar maand later.
Kan iemand mij uitleggen waarom 32 GB niet op elke gpu zit? Of 64 GB? Of nog veel meer? Hoe verhoudt gpu ram zicht tot 'gewoon' ram? Bij gewoon ram is 32 GB een fluitje van een cent en heel goedkoop.
Omdat dat ten koste van je winstmarge gaat.
waarom dan? Apple vraagt ook belachelijke prijzen voor modellen met de meeste opslagruimte. Dus alleen maar hogere marge daar.
Het grote verschil is dat bij Apple de meeste mensen de ballen verstand hebben van tech. Die kopen het omdat het hip is. De mensen die een eigen pc bouwen zijn precies wat het gross van de Apple base niet is. Het zelfde met mensen die liever Starbucks koffie halen als gewoon een normaal bakje koffie. Het is hip en een mode item voor die mensen. Je wilt er mee gezien worden anders tel je niet mee.
Nee, prijsdifferentiatie.
Apple heeft door dat de gemiddelde gebruiker genoeg heeft aan de basismodellen, en dat de pro-gebruiker bereid is om iedere prijs te betalen voor een Macbook Pro 16 inch met 128GB RAM!
Dat zou de kaart interessant maken voor professionele toepassingen, en die kaarten vragen ze liever het dubbele voor.
Op basis van spotprijzen van september 2024: 8 GB aan GDDR6 kostte US$ 18. Dit zal nu wel wat goedkoper zijn, maar verlangen dat men nu vrolijk 32 of 64 GB aan VRAM op een videokaart zet betekent alleen in RAM chips al dat je rond de US$50 of zelfs US$120 toevoegt aan de bill of materials (BOM).

Nog los van dat 32 of 64 GB mogelijk weer een compleet nieuw PCB verlangt, met alle testen en ontwikkelen dat dat met zich meebrent, plus hogere kosten voor productie van een ingewikkelder PCB.
Dit is GDDR6(X)/GDDR7 of HBM2e ofzoiets met veel meer bandbreedte. Het zit ook vlak op de chip. Dat kost meer. En persoonlijk zit ik nu met een 2:1 RAM:VRAM ratio (16GB:8GB) en dat heb ik nog nooit meegemaakt. Ik denk dat het vroeger eerder tussen de 4:1 of 8:1 lag.
Hoop dat deze kaart echt een doorbraak gaat zijn voor AMD op het gebied van raytracing. Als deze kaart het ook maar een beetje behoorlijk doet wordt dit mijn nieuwe videokaart (en dan later maar een keertje overstappen naar de enthusiast variant zodra deze uitkomt).

Nvidia mag gewoon niet beloond worden na hun 5080/5090 launch drama. Kaarten met een prijs van ruim een factor 1,5 keer de adviesprijs en verwaarloosbaar sneller dan de voorgaande generatie (per CUDA core gerekend). Kunstmatig schaarste creëren door de productie van de vorige generatie stop te zetten terwijl er (bewust) nul voorraad van de nieuwe generatie is... Dit is geen overmacht zoals in 2020 met de mining hype in combinatie met covid, maar ordinair graaien.
Ik denk dat dit ook niet echt volgens de planning van Nvidia gaat, maar dat er iets verkeerd is gegaan qua logistiek bijvoorbeeld. Want wat heeft Nvidia hierbij te winnen? Er worden nauwelijks kaarten verkocht, omdat er nauwelijks kaarten zijn om te verkopen. En dat die kaarten voor heel veel worden verkocht zijn wat extra inkomsten voor scalpers en wat webwinkels / distributeurs, maar daar gaat Nvidia zelf echt niks van zien, die worden gewoon per die betaald door AIBs.

Oftewel lage verkopen en voor hun de standaard prijzen per verkochte kaart, lijkt mij iig niet echt zinvol voor ze.
Want wat heeft Nvidia hierbij te winnen?
Tikkie naïef ... de perceptie van de waarde van hun producten wordt hiermee verhoogd. Ook als de beschikbaarheid later beter wordt zal dit een permanent effect op de prijs houden (tenzij de concurrentie ze weer dwingt eerlijk te worden). Prijzen van ruim 2200 euro (TUF/Astral/Suprim) voor de 5080 die nauwelijks sneller dan de voorloper is heeft een permanent effect in de psyche van mensen. Men zal straks denken: "1500 euro is een heel stuk beter dan 2200 euro". De referentie wordt verlegd en daarmee de winst permanent verhoogd. Dat zijn de psychologische spelletjes die hier gespeeld worden met niks dan graaien als motief.
Ja noem me naiief of een andere twijfelachtige term, maar ik geloof daar niet in. Ik geloof wel dat schaarste hebben bij launch voordelen heeft, om FOMO te introduceren. Maar dan hebben we het over wat schaarste, niet een complete afwezigheid van kaarten. Als je nu een kaart wil kopen, is AMD of een oude 40XX kaart je enige optie. Je gaat niet de €2000 voor een 5080 als normaal zien, want zelfs als je dat ervoor over hebt (wat idioot is imo, had dan een 4090 gekocht een paar maanden geleden), ze zijn ook voor dat bedrag eigenlijk niet te verkrijgen.
Ik weet inderdaad nog dat de 4090 Suprim voor 1900 euro (of minder nog zelfs) nieuw verkrijgbaar was...
Want wat heeft Nvidia hierbij te winnen?
Wat @Roy81NL zegt klopt deels. Vooral wilden ze af van het verhaal wat rond de 40-serie speeld toen er nog bakken vol 30-serie overal beschikbaar was en het daarmee overduidelijk was dat ze buiten de 4090 op geen enkel prijspunt noemenswaardig meer waarde konden level (iets wat echt absurd is als je bekijkt hoe het prijs en prestatieverloop van bijvoordbeeld Snapdragon telefoons is geweest de afgelopen paar jaar). En de 4090 was natuurlijk ook alleen noemenwaardige verbetering ten opzichte van de volstrekt buiten proporties geprijsde 3090. Ten opzichte van een 3080 was ook de 4090 een regressie.

Ze verkopen nu alsnog kaarten voor een veel hogere prijs aan de nVidia die-hards. In de tussentijd ligt dit er niet aan dat ze niet meer kaarten hadden kunnnen maken. Maar nVidia wil helemaal geen kaarten aan gamer verkopen voor de marges die ze daar vangen. Die zijn gewoon veel te laag. Ze willen zoveel mogelijk kaarten voor AI verkopen waar de marge 10-50x groter is dan op gaminghardware. Zodoende produceren zijn het absolute minimum dat noodzakelijk is om nog aanwezig te zijn in de markt en niet meer en hopen erop dat de meest nVidia fans het wachten voor lief nemen en niet overstappen naar AMD.

Zeker bij de producten met de hoogste marges (80 en 90 series) zal dat ook ongetwijfeld het geval zijn in het merendeel van de gevallen. De 9070 XT zal misschien net boven een 4070 Ti Super (en daarmee 5070 Ti) preseteren. Dat betekent dat voor iedereen die een 3080 12G/Ti of sneller in huis heeft in principe maar minimale prestatiewinst boekt als ie een 9070 XT koopt (en dat is nog met features buiten beschouwing gelaten). Pas als je rond een 4070/3070 Ti of lager zit zal de 9070 XT echt een noemenswaardige bump zijn.

Maar goed. het kan nog anders uitpakken. Misschien weet de 9070 XT wel de 4080(S) of zelfs 5080 bij te benen voor een veel lagere. In dat geval zou het nog wel eens kunnen dat nVidia zich gedwongen ziet om te reageren door meer 5080s in de markt te brengen. Maar dat lijkt niet zo heel waarschijnlijk met de bestaande leaks.

[Reactie gewijzigd door Darkstriker op 14 februari 2025 13:55]

Geld, heel veel geld. Die wafers verkopen ze in prof kaarten voor 10 tot 20x zo veel.
De consumentenmarkt is gewoonweg niet meer interessant voor NVidia, de concurrentie moet daarbij ontzettend hard werken om een redelijk alternatief op de markt te zetten, dus vanuit het perspectief van Nvidia is er gewoonweg geen motivatie om consumenten tegemoet te komen. Het is de onderkant van hun marktafzet. Ik ben zelf al meer dan 15 jaar geleden in het groene kamp gekomen. Ik vertrouw AMD gewoonweg niet genoeg meer op het gebied van software. Mijn ervaringen met AMD waren een beetje als een chinaphone tegenover andere merken. Ja, je krijgt veel prestatie voor een lagere prijs maar in het gebruik is het allemaal net niet. Slechte ondersteuning, matige releases die vaak meer kwaad dan goed doen en je komt er gaanderweg achter dat bij veel onderdelen de kantjes er van af gelopen zijn. En dat is mijn ervaring ook altijd geweest: kaarten die onder normale prestaties te heet worden, slechte drivers, torenhoog energieverbruik etc. Kaarten voor de gamer met een krappe portemonnee.

Maar goed, ik wil strals volledig op Linux overgaan dus bij mijn volgende build ga ik AMD toch weer eens goed onder de loep nemen, hoop dat ze er veel positiever uit gaan komen dan vroeger. Prestatie-prijs boeit me nu een stuk minder dan vroeger alleen hecht ik wel waarde aan goede drivers.
Slechte ondersteuning, matige releases die vaak meer kwaad dan goed doen en je komt er gaanderweg achter dat bij veel onderdelen de kantjes er van af gelopen zijn. En dat is mijn ervaring ook altijd geweest: kaarten die onder normale prestaties te heet worden, slechte drivers, torenhoog energieverbruik etc. Kaarten voor de gamer met een krappe portemonnee.
Sorry hoor, maar dit vind ik echt zwaar overdreven, natuurlijk kan je als persoon een slechte ervaring hebben met een merk en hebben ze zeker een paar slechte zaken gehad in het begin, maar om het dan weer zo neer te zetten vind ik onterecht

Zeker omdat minder geinformeerde mensen meteen zullen denken dat je gelijk hebt, wat gewoon totaal niet zo is.. je klinkt bijna als een Apple fan die over Android praat
Ik denk toch wel een kwart van hun omzet, de gaming markt. Ze zijn anders flink de consument aan het melken met hoge prijzen en schaarste van producten.
In de Q4 omzet haal je uit dat zo'n 13% van de omzet de GPU sales zijn. Dit is niet alleen consumenten verkoop. Referentie :https://static.seekingalp...7bdc451cf020c57afd506.png

De datacenter markt is de focus nu. Voor het datacenter wordt een prijs per cuda core gerekend en dezelfde prijs wordt ook gehanteerd in de consumenten markt. (dit kan je zelf voor de lol een keer doen. kijk naar de prijs per cuda core in de 5090 doe dat maal de cores van de 5080 of 500 en je komt op de msrp uit). Als de datacenter verkopen slechter worden zullen we waarschijnlijk weer betaalbare kaarten krijgen.
In 2014 kwam 13% van de omzet uit gaming. En NVIDIA verdient niets extra aan die schaarste: hun FE is nooit gestegen in prijs, in dit wordt ook niet verwacht dat dit ooit gaat gebeuren. Het zijn de AIB's en de winkels dat de prijzen verhogen, maar dit heeft geen invloed op de omzet van NVIDIA.
Momenteel neemt NVIDIA geen bestellingen meer van de FE aan omdat ze al met een backorder zitten van 8 tot 16 weken, maar ongeacht de prijzen van de AIB's, wordt verwacht dat de FE terug zal kunnen besteld worden aan de MSRP dat ze origineel had.
"maar ongeacht de prijzen van de AIB's, wordt verwacht dat de FE terug zal kunnen besteld worden aan de MSRP dat ze origineel had."

Ik zou graag met je mee dromen, maar geloof het niet
Zo was het bij de 30x0 FE en de 40x0 FE. Waarom zou het niet zo zijn bij de 50x0 FE?
Ray tracing is de PC-markt aan het verpesten.
Ja ach ik zie het zo als toen dat je op ene een kaartje kon kopen in je pc om de physics te kunnen laten berekenen. Dan konden vlaggen zo mooi wapperen. De zogeheten PPU. De meeste vonden het onnodig want het voegde niets toe. Maar toch werd het steeds meer standaard. En later kocht Nvidia dat bedrijf en kon toen dit op de videokaart laten draaien. Gebeurt drivermatig nu nog steeds bij Nvidia.

Over een paar jaar zie je dat alle kaarten het gewoon kunnen en dan ziet het gamen er ook weer een heel stuk echter uit. Dan is Ray Tracing gewoongoed geworden. En geloof me dan zullen ze weer met wat nieuws komen.
En dan heb je ook nog ordinaire scalpers... ook hier op Tweakers!
Heb al een paar advertenties gezien waarbij ze videokaarten aanzienlijk duurder aanbieden en dan claimen dat je garantie hebt als jij het overneemt.

Maar de meeste zijn via Amazon gekocht en Amazon garantie is NIET overdraagbaar!
Dus trap er niet in! Ik hoop dat alle scalpers (en ook degene hier) uiteindelijk verlies draaien op die kaarten pfff.
Je hebt in ieder geval recht op fabrieksgarantie.
Ik wens je veel plezier om dat gesprek aan te gaan met de fabrikant ;)
Veel fabrikanten verwijzen je direct weer terug naar de winkel van aanschaf...
Wellicht is dat tegenwoordig moeilijker gemaakt? Ik heb de laatste 10 jaar geen RMA meegemaakt. Vroeger kon je direct naar bijvoorbeeld MSI zelf opsturen. Ging meestal vlotter dan via Alternate oid.
(Ex) Scalper hier, laat je medemens een leuk zakcentje bijverdienen joh. Ik probeer ook een beetje vooruit te komen in het leven :D
Over een aantal maanden is alles weer normaal en is iedereen weer blij. Nu heb ik deze keer geen high end kaart kunnen bemachtigen, maar 2021 was oprecht erg leuk.

En ja, we nemen idd het risico om verlies te draaien als er ineens WEL voorraad komt.
Risk/reward :)
Door kaarten te scalpen veroorzaak je alleen maar nog hogere prijzen uiteindelijk want Nvidia denkt dan ook weer 'oh blijkbaar is niemand te beroerd om te kopen dus volgende generatie kan WEER duurder'....
Mensen zullen altijd een zakcentje bij willen verdienen. Al zou ik niet scalpen (zoals deze generatie het geval is) zou mijn potentiële winst naar een ander gaan. Opzich niks mis mee, maar zoiets is gewoon moeilijk tegen te houden. Behalve de "1 per klant" regel, maar dat is voor de meesten al zat.

Ik ben zelf ook gamer, en dat kaarten duurder worden zit mij nu en dan ook wel eens dwars. Ik zou graag aan 4K gaming willen beginnen, maar het prijs/prestatie ratio is naar mijn mening echt afgrijselijk deze generatie. Nu heb ik wel de ervaring dat je 2 generaties als 1 moet zien. Er zal vast iemand zijn die dit kan uitleggen, maar het lijkt mij alsof er elke 2 generaties pas weer leuke kaarten uitkomen...
Ik hoop dat de prijzen meevallen. Ik heb geen zin in een kaart die evenveel of meer kost dan een ps5/xbox x/s én dan met moeite 4k haalt, zonder scaling of framegen. In de tijd van de hd4850 had je betere grafics dan een xbox 360, voor maar €149,-…...die goeie ouwe tijd :)
In de tijd van de hd4850 had je betere grafics dan een xbox 360, voor maar €149,-…...die goeie ouwe tijd :)
En dat ging nog een paar generaties door. Zelf had ik ook ervaring met de HD 6850. With a price so nice, you'll buy it twice (CrossFire). En je kon veel van die kaarten flashen naar een betere versie (6850 -> 6870), met gratis extra prestatie. Deus Ex: Human Revolution zag er geweldig uit op 3x 1920x1200. ;)

[Reactie gewijzigd door The Zep Man op 14 februari 2025 08:56]

Oja, inderdaad was dat helemaal vergeten :) :) Dat waren nog eens tijden ;)
Nadeel, van CrossFire was wel dat games er vaak niet voor geoptimaliseerd waren. Zou wel een goede strategie zijn voor AMD om marktaandeel te winnen......2 midrange GPU's die goedkoper zijn dan 1 high-end van de concurrent met gelijke prestaties.....

[Reactie gewijzigd door EMR77 op 14 februari 2025 11:27]

Dat hebben ze in het verleden al geprobeerd. Zelfs met 2 gpu's op 1 kaart.
Maar, ze hebben nu hun chiplet techniek met infiniti fabric.
Nouja, het is wel zeker dat die kaart meer gaat kosten dan een console (op de ps5pro na dan misschien).
A few moments later: AMD Radeon RX 9070 XTX 32 GB… ;)

Het zou heel welkom zijn als AMD (of Intel) nu een GPU kon produceren die de performance van een nVidia RTX 5080 heeft met meer VRAM en net iets goedkoper kunnen leveren. nVidia heeft met CUDA, Ray Tracing en DLSS wat unieks neergezet, maar het is nog niet te laat.

[Reactie gewijzigd door Jumpman op 14 februari 2025 08:30]

Die 32GB vram versie komt er waarschijnlijk toch, maar die krijgt gewoon een andere naam mee om zich te onderscheiden van de 7900XTX en 9070XT.

Een concurrent die zich tussen de RTX5090 en RTX5080 plaatst met evenveel vram als de RTX5090 zou zeer welkom zijn. Daarna komt Nvidia natuurlijk met de RTX5080Ti/SUPER op de proppen om daartegen te concurreren. Alles hangt dan af van de prijzen .. ;)
Gezien de vraag op de wereld toch naar highend GPU's, is er voor AMD een grote "opportunity" nu om daar makkelijk aandeel in te krijgen. Natuurlijk moet je als AMD investeren, maar het bedje is op heel veel vlakken mooi gespreid voor ze in de huidige markt.

Wellicht heeft het nog een paar jaar nodig, de grote aantallen in midrange te verkopen en zo weer naar boven "kruipen" naar highend.
Qua AI databasecenters toch en hun CPU's, maar ook hun combo CPU/GPU's en AMD Ryzen AI in laptops wat voor ons bekend is. Dan spreken we nog niet over wat ze produceren voor het United States Armed Forces en hun toeleveranciers. Een GPU voor gaming is dan wel van het minste belang ..
Zo benieuwd naar deze kaarten, maar alles komt neer op de prijs.
Qua performance zou 9070xt ergens tussen 4070ti en 4080Super liggen met stukken betere performance in RT dan last gen.
Bron:https://www.techpowerup.com/331015/amd-radeon-rx-9070-xt-tested-in-cyberpunk-2077-and-black-myth-wukong

Dus het is alsnog geen 7900xtx killer in rasterization performance.
Uiteraard valt er nog te zien wat FSR4 doet, ik heb begrepen dat de 7900xtx deze dan weer niet krijgt... wat ik zelf erg jammer vind aangezien ik zelf die kaart heb.

Met huidige Nvidia prijzen kunnen deze kaarten echt de "go-to"kaarten voor gamers worden als AMD het goed speelt.
Veel gamers betalen nu ook gewoon een premium om maar geen AMD kaart te hoeven kopen.
AMD heeft zichzel;f veelvouding in de voet geschgoten afgelopen 5 generaties. Simpele rehashes, slechte drivers, high idle power draw, multimonitor issues, game issues, veel te trage fixes voor nieuwe games, veel tragere ray tracing, te laat met counteren van alle DLSS versies , slechte encoder support, slechte decoder support, coda vs AMD zijn zooitje en de prijs is er niet naar. Kortom zat redenen voor heel veel mensen om AMD links te laten liggen Zelfs Intel zijn gpu launch was nog beter gezien wat ze in 1 jaar bereikt hebben.
Is dit eigen ervaring of waar baseer jij dit op?
Ik heb soms het idee dat iedereen maar wat van elkaar overneemt en roept.
Zoals bijvoorbeeld:: "Game issues".. welke games hebben we het dan over?
Als je reddit even bekijkt valt er voor beide partijen evenveel te zeggen.
"slechte drivers" dit word gewoon al jaaaren over AMD gezegd en overgenomen, AMD heeft niet meer of minder slechte drivers dan Nvidia. Als we het over stabiliteit hebben dan.
Tussen game pass en steam heb ik rond 100 games gespeeld op mijn AMD kaart, de enige die wel eens crashte of raar deed was Call of duty, in mijn zoektocht naar oplossingen zag ik dat dit zowel voor RTX4080/4090 users was als voor AMD kaart users. Kortom het ligt aan de game zelf.
Betreft DLSS, net even beide release timelines naast elkaar gehouden, beide partijen releasen zo wat elk jaar nieuwe versie, nvidia is er eerder mee begonnen.
Ik snap ergens wat je bedoelt, je betaalt extra aan een partij die zeker met ontwikkelingen vooruit loopt, maar de premium die ze nu vragen voor eigenlijk softwarematige performance increase en iedereen een beetje proberen te gaslighten dat niet de echte frames maar AI nepframes nu de norm zijn is gewoon bs. Je kan nu letterlijk een 7900xtx kopen voor de helft van een rtx5080. (919€ vs 1849€) terwijl de performance echt niet de heflt is.. Waar ik heen wil, de doelgroep van gamers shopt in een price bracket van niet meer dan 700€, als je de steam GPU survey opent, zul je zien dat de eerste 10 kaarten niet verder dan een RTX4070 in performance komen. Als je in deze categorie een kaart releast die meer performance levert heb je gewoon een winnaar. Dit was bijvoorbeeld het geval met de 7900GRE.
Gewoon een geconstateerd feit. Ze hadden het er vorige week bij HUB ook over. Zelf met gelijke prestaties kiezen mensen toch voor een duurdere Nvidia kaart.

Nenja beide hebben last van game issues maar bij amd duurt een fix langer. Net als bij inteo momenteel overigens. Beide moeten daarin beter worden.

En slechte amd drivers ervaar ik zelf. Van alle 2023 drivers voor mijn 6900xt was er 1 bruikbaar (23.3.1 uit mijn hoofd). Van de 2040 drivers was de beta van mei bruikbaar en die van augustus en september tot en met januari nu hebben hogere idle power draw terug van weg geweest...

Als je een 700 serie heb zin er nog steeds issues met zwarte schermen en multi monitor setup en de idle power draw is net een casino gebaseerd op je setup.

En ja ik ben het zeker niet eens met de activiteiten van nvidia ik koop het dab ook niet maar veel mensen wel en dat is nou net yet punt. Amd moet deze kaart echt zeer aggressief in de markt gooien willen ze ze goed gaan verkopen en markt aandeel winnen. Net zoals intel dat aan het doen is. Het is geen perfect product maar als ik niet een 6900xt had en in die performance range een kaart zocht dan is het risico dat een enkele game jiet lekker werkt met de prijzen van intel zeer aantrekkelijk. Gister toevallig nog naar een a75ó zitten kijken voor mijn zus als zelf build pc. Voor de prijs echt geweldig maar uiteindelijk voor een systeem met 3050 gegaan puut omdat ik die in bundel effectief voor 89 euro kreeg en dat voor wow al 150+ fps geeft.

En ja een 7900xtx is de helft maar er zijn idd niet veel mensen die in die prijscategorie een kaart kopen. I was het zeker niet van plan. Ik was van plan een 500-600 euro kostende 3070 of 6800 te halen maarja crypto. De 6900xt was de enige optie in 7 maanden... Ik hoop echt dat de 9070xt onder de 700 all in in euros is liefst 50 a 100 minder zodat we weer naar gezonde prijzen kunnen. Maar denk dat dat een illusie is met de huidige nvidia prijzen. Het kan echter wel kijk maar naar de prijs die inteo vraagt. En die hebben ze ook niet zelf gebakken.
Erg jammer dat er geen 9070 XT 32GB komt. 16GB is nu nog wel voldoende maar er zijn al games die 13-14gb gebruiken en met 4K texture packs kan je over 16gb heen gaan.

Het zou natuurlijk ook kunnen dat er inderdaad geen XT komt maar dat die XTX gaat heten. Het is natuurlijk de vraag of het buiten enthousiasts wat oplevert voor je markt positie. nVidia heeft al niet zo veel geheugen op de kaarten zitten dus daar zitten ze niet heel verkeerd.
Maar de 9070 XT met 16GB is in dat opzicht een stap achteruit tov de 7900 XT en XTX met 20 en 24GB. De prestaties zijn als het goed is vergelijkbaar maar die andere kaarten zullen langer mee kunnen vanwege het extra geheugen en dat is wel jammer. Een 32GB versie zou net als de RX480 8GB een top kaart kunnen zijn die lang relevant kan blijven ookal moet alles op low behalve textures die kunnen dan op high/ultra blijven en dan ziet alles er nog best prima uit.
Er zullen maar weinig mensen de nieuwste games op native 4k resolutie spelen met ultra textures etc, zeker met een Radeon 9700 XT die daar sowieso waarschijnlijk niet krachtig genoeg voor is.. FSR upscaling wordt ook steeds beter dus het is gewoon niet meer nodig om native hoge resoluties te draaien.. En voor 1080p en 1440p rendering is 16GB voorlopig echt nog wel genoeg..

[Reactie gewijzigd door Inflatable op 14 februari 2025 14:48]

Dat is dus het leuke aan texture quality daar is alleen de Frame buffer grote belangrijk. Gpu's zijn tegenwoordig snle genoeg dat dat gene performance hit geeft. 4k textures helpen ook op lagere resoluties zie Bv ook de mass effect mods die Er waren voor het originele spel was ook veel mooier zonder dat je een monitor nodig had met de maximale resolutie.

Dus het zou zeker nut hebben maar j moet wel weten dat dat op ultra kan blijven als de rest wel omlaag moet. Games detecteren dat zelf helaas nog maar matig.
Ben benieuwd wat ze kunnen en vooral wat ze gaan kosten? Hoop op een scherpe prijs inch de concurrentie want die vind ik veelste duur voor mij thans
Ik ben ook benieuwd. Als AMD hier kiest voor een scherpe prijs hebben ze op korte termijn wellicht minder winst maar met de hoge prijzen voor Nvidia kunnen ze wel ineens veel mensen naar zich toe trekken. Ondanks dat alles duurder wordt (buiten de GPU's om) vind Nvidia het wel prima om ook de gpu's voor te hoge prijzen aan te bieden. Dit is voor AMD echt een kans.

Als je hem doortrekt, zij het speculeren. Veel zijn behoorlijk merk loyaal. Verras nu met een GPU en consumenten kopen hierna wellicht ook een computer met een AMD cpu? En laten we niet doen alsof AMD een kleintje is want ze zijn onder andere belangrijk gebleven voor de spelcomputers.
Als ze een 32GB vram GPU uitbrengen met de achtergrond van de 9070 XT die zich tussen de RTX5090 en RTX5080 kan plaatsen aan een betaalbare prijs zou ik die alvast aankopen .. en ik niet alleen.

Dan ben je wel even futureproof voor ULTRA 4K gaming

.. de RTX5080 16GB vram
De prijzen daarvoor liggen trouwens rond de €2000 momenteel .. 8)7

De RTX4090 met z'n 24GB vram kost momenteel ook al €2800 als je die nog ergens vindt

En de 32GB vram van de RTX5090 is natuurlijk top voor alles in ULTRA 4K met ray-pathtracing 100%,
maar die GPU wordt momenteel voor €4000 verkocht .. |:( |:( |:(
Maar de verwachting is dat de 9070XT niet kan tippen aan de 5080, laat staan er overheen gaat. Het is zelfs de vraag of ze de top van hun eigen vorige generatie gaan verslaan buiten zaken als raytracing wat verbeterd is.
Misschien ook beter dat ze niet goed verkrijgbaar zij, ze hebben weer mooie keuzes gemaakt voor connectors.

Beter even andere mensen laten proef testen en daarna hopelijk als ze goedkoper zijn een nieuwe rev nemen.
Ja, over die connectors ben ik ook terughoudend bij Nvidia .. en dan mag je de blackscreen problemen ook niet vergeten die massaal vermeld worden op andere forums. Ik koop zelden het nieuwste of het moet op vraag zijn van iemand voor een build aan te passen/bouwen. Als het voor mezelf is wacht ik eerst alle problemen af en wacht ook steeds tot de aankoop hype even overwaaid zodat vervolgens de prijzen opnieuw normaliseren wanneer er terug genoeg voorraden zijn .. :)
Maar waarom die VRAM?
De 9070 gaat op andere gebieden bottlenecken dan de VRAM.

Iedereen is so obsessief bezig met VRAM maar mijn 3090 had ook 24 gb VRAM.
Echter kon mijn 3090 niet tippen aan 4080s met 16 gb omdat de kaart qua snelheid al bottleneckt voordat uberhaubt de VRAM volledig belast wordt.

Naar mij weten heeft die grote hoeveelheid vram geen baat bij gaming (op dit moment).
In sommige gevallen voor productiviteit of AI, kan het wel van pas komen, maar eigenlijk alles boven de 24 gb is voor de komende 6 jaar nog voldoende (hele volkstammen gamen op kaarten van 8gb en de gamingconsoles liggen volgens mij op 12 gb).
Voor AI inderdaad, en vergeet niet die betere FSR waar AMD nu mee komt is ook AI based. Daar had je deels ook de nieuwste AMD GPU generatie voor nodig als ik me niet vergis. Dus niet enkel lokale AI modellen zou je veel leukere dingen mee kunnen doen, maar gaming is zeker ook een use case. Het was voor AMD een makkelijke ingang, zelfs breekijzer, richting de onderkant van de 32GB VRAM markt voor heel 2025. Nu laten ze ook dat nog aan NVidia.
Ik zou denken voor AMD toch op achterstand niets mooiers dan dat mensen die overdag met AI werken op mogelijk veel grotere NVidia/AMD clusters, 's avonds voor de hobby op een veel betaalbaarder AMD kaart ook die platform support daar verder kunnen brengen naar AMD compatible en zo meer.
Maar nu houd je dus heel 2025 dat er veel 16GB keuze is, last gen van AMD met 20GB en 24GB, maar verder iedereen op zoek naar VRAM zal blijven kijken naar 3090/4090/5090. Misschien kan AMD niet anders, maar NVidia wordt hier sowieso blij van. NVidia prijzen verdubbelen gerust nog eens boven de toch al hoge adviesprijs, alle vorige generatie chips lijken volledig uitverkocht en dat terwijl de AMD 7900XTX met 24GB nog altijd verkrijgbaar is uit voorraad en ook nog voor diens adviesprijs. Maar bij AMD moet je dus kiezen voor 16GB latest gen, of 24GB previous gen.
uitvoering: ASUS TUF Gaming Radeon RX 7900 XTX OC Edition 24GB GDDR6
:D .. hele volkstammen gamen op kaarten van 8gb en de gamingconsoles liggen volgens mij op 12 gb

Maar niet in 4K toch ?

De PS5Pro bijvoorbeeld doet ook aan AI upscaling en is vergelijkbaar met een RX7700 XT of RTX4060 Ti
Dit klinkt alsof je denkt dat (V)RAM en performance uitwisselbaar zijn. Dat klopt niet. Een model wat niet in het geheugen past gaat sowieso nooit snel zijn op een snellere GPU, en extra geheugen kan een trage GPU niet compenseren.
Ja precies, als ik een fiat kan kopen voor een spot prijs die beter presteert als een Porsche gt3rs en net iets minder als een Bugatti Veyron koop ik hem ook.
Een kaart met 32GB gaat echt niet tussen de 5079/5080 zitten, maar ver noord van de 5080 qua prijs.
Zeker als we dan even naar de gamers kijken is AMD al the CPU to go. Als je een Intel kiest dan laat je frames en performance liggen. Zeker nu de nieuwe X3D serie prima verkrijgbaar is.

Qua GPU lopen ze gewoon achter, dat is een feit. Ik hoop dat ze met de nieuwe serie een mooie stap kunnen maken in performance en verbruik en stabiliteit zodat het een serieuze concurrent kan worden, zeker in het midden segment.
Als ik verschillende berichten op verschillende website mag geloven gaat de 9070 XT 700 USD en de 9070 550 USD kosten. Maar ik betwijfel of AMD zo dom is om qua prijs netzoveel te vragen als de 5070 Ti en 5070. Denk zelf dat ze er 50 to 75 USD onder gaan zitten.
Wat AMD niet lijkt te snappen is dat je juist langer termijn marktaandeel in de datacenter GPU markt kan winnen door nu voor weinig geld GPU's met veel VRAM op de markt te brengen. Qua performance is het 7900XT niveau lang niet slecht. Veel beginners, startups, studenten en anderen zullen meer met AMD GPU's aan de gang gaan en dan zal de verbeterde support en prestaties van ROCm ook toenemen.

Een 1000 euro 48GB kaart zou echt een killer zijn. Zeker nu Nvidia schreeuwend duur is.
Veel beginners, startups, studenten en anderen zullen nooit en te nimmer ook maar enige invloed hebben op wat er in een datacenter als GPU ingezet wordt.

Die er wel over gaan, kijken niet eens naar wat AMD of nVidia op de consumentenmarkt uitspookt. En wat voor trackrecord ze op de consumentenmarkt hebben zal ze nog veel minder interesseren.
Hebben ze voor data centers niet een FirePro kaart ? Die gericht zijn op andere use cases met vaak meer Vram dit was vroeger namelijk wel het geval.
Ik denk dat AMD het allemaal prima snapt. Gaan als een speer als ik de beurskoersen volg.
De CPU divisie gaat lekker ja maar de GPU divisie is langzaamaan een bulldozer yourself aan het doen. All pun intended.
AMD wil en moet juist op de consumenten markt markt aandeel winnen Dat ga je niet doen mer 32 GB midrange kaarten de dan 150 = 200 euro duurder moeten worden.

Midrange heeft helemaal geen behoefte aan 32gb maar juist aan een zo goedkoop mogelijk product. mensen betalen nu al 30-60% MEER om een amd kaart te ontwijken dat zegt genoeg over wat AMD moet doen op de consumenten markt. Net als Intel moeten ze zeer goedkoop gaan zitten of ze blijven wederom met de lading zitten.

Op dit item kan niet meer gereageerd worden.