'Volgende generatie Radeon-gpu's krijgt weer high-end topmodel met 96 cu's'

De volgende generatie Radeon-gpu's krijgt weer een high-end topmodel, meldt de bekende leaker Kepler_L2. Kepler heeft meerdere specificaties van de nieuwe line-up van de RDNA5-gpu's, ook wel bekend als UDNA, gepubliceerd.

Het vlaggenschip, de AT0, bevat volgens Kepler 96 compute-units die verdeeld zijn over 16 shaderengines. De gpu krijgt volgens de diagrammen verder een 512bit-geheugenbus. Hoeveel vram de AT0 precies zou krijgen, is nog niet bekend. De gpu zou maximaal 128MB Infinity Cache kunnen bevatten, schrijft onder meer Wccftech. Ook de L2-cache zou volgens Kepler flink groter zijn dan bij vorige generaties.

Met de AT0 zou AMD weer een high-end model aan zijn gpu-line-up toevoegen. Van de huidige generatie is de RX 9070 XT het best presterende model. Deze videokaart presteert ongeveer even goed als de RTX 5070 Ti van Nvidia.

De AT2 zou naar verluidt 40 compute-units krijgen, verdeeld over 8 shader-engines, met een 192bit-geheugenbus. Deze chip zou naar verluidt tot 48MB Infinity Cache kunnen krijgen. AMD voorziet de AT3 en AT4 naar verluidt van respectievelijk 24 en 12 compute-units en een 128bit- en 64-bitgeheugenbus. Deze gpu's zouden respectievelijk 32 en 16MB Infinity Cache kunnen bevatten.

AMD wil zijn bestaande RDNA- en CDNA-architecturen voor respectievelijk gaming en datacenter-gpu's uiteindelijk samenvoegen in UDNA. Naar verluidt moet de nieuwe architectuur in het tweede kwartaal van 2026 in massaproductie gaan.

AMD UDNA-line-upAMD UDNA-line-upAMD UDNA-line-upAMD UDNA-line-up

De AT0, AT2, AT3 en AT4. Bron: AnandTech Forums

Door Imre Himmelbauer

Redacteur

27-08-2025 • 14:18

76

Submitter: Scribe

Reacties (76)

Sorteer op:

Weergave:

Hopelijk legt een nieuw high-end model van AMD weer wat druk oo de prijzen van high-end kaarten.

Nvidia kan momenteel vragen wat ze willen voor de 4080, 4090, 5080, 5090 want er is niets van de concurrentie dat er tegenover staat. Bij de twee xx90 modellen niets wat überhaupt in de buurt komt zelfs. Geen goede situatie
Hopelijk legt een nieuw high-end model van AMD weer wat druk oo de prijzen van high-end kaarten.
De vraag is of goede en (iets) goedkopere AMD GPU's wel een verschil gaan maken. Bij een te klein verschil gaan twijfelaars alsnog naar Nvidia, want Nvidia.
Ik denk eerder: 'want DLSS en betere ray tracing performance'.

Als AMD Nvidia daadwerkelijk kan bijbenen op het gebied van raytracing-prestaties voor een betere prijs, stap ik zonder twijfel weer over naar AMD (heb dat in het verleden ook gedaan). Misschien doe ik het zelfs als de prijs gelijk is voor de afwisseling😅

Helaas heb je op dit moment als liefhebber van atmosferische grafische effechten/belevingen gewoon geen andere keuze dan Nvidia, zeker niet als je bijvoorbeeld Cyberpunk/Alan Wake 2/Indiana Jones, etc. met path tracing wilt spelen.

[Reactie gewijzigd door DLSS op 27 augustus 2025 17:53]

Die zullen blijven vragen wat ze willen. Laat AMD zich lekker focussen op de consument en de vraag van de consument. Alles boven de 5070 heeft zo'n klein markt segment dat het van weinig waarde is voor AMD. De gemiddelde consument koopt geen kaarten van 1500+ euro. En game developers ontwikkelen niet voor kaarten van 1500+ euro. De enige spellen die dat wel vragen zijn spelen die speciaal in samenwerking met de betreffende GPU ontwikkelaar zijn ontwikkeld om die kaarten te verkopen. En die kan je als gamer maar beter links laten liggen.
Klopt, het verkoopvolume is in het mid-range en low-end segment veel hoger. Maar ook in die segmenten speelt AMD nauwelijks een rol. Volgens de meest uitgebreide dataset die we hebben (de Steam Hardware Survey) is slechts 17,83% van de gamingmarkt in handen van AMD. Daarbij worden geïntegreerde GPU’s in laptops en pc’s, én handhelds zoals de ROG Ally en Steam Deck, meegerekend.

De 2 meest gebruikte AMD-GPU zijn geintegreerde GPUs (vermoedelijk is de meest gebruikte de van Gogh chip in de Steam Deck). Die staat op plek 11, alle posities daarboven worden door discrete Nvidia kaarten bezet. Voor de meest gebruikte discrete AMD-videokaart moet je zelfs helemaal naar plek 28 scrollen (de RX 6600).

Echt succesvol lijkt de strategie om te focussen op het middensegment van de markt dus ook niet. Ik denk dat een vlaggenschip dat de concurrentie verslaat waarde heeft.

Nvidia levert inmiddels al zes generaties lang de meest krachtige GPU’s en dat lijkt zijn reflectie te hebben op het aanzien van het merk bij de doorsnee consument. In dat licht zou een AMD-vlaggenschip dat zich eindelijk eens kan meten met Nvidia toch waardevol kunnen zijn, al was het maar om de merknaam bij de doorsnee consument te versterken.

Los daarvan zou ik als liefhebber die af en toe een kaart uit het high-end segment koopt graag weer eens voor AMD willen kiezen. Niet superrelevant natuurlijk, maar toch: concurrentie is gezond.

[Reactie gewijzigd door DLSS op 27 augustus 2025 21:14]

En game developers ontwikkelen niet voor kaarten van 1500+ euro.
Developers maken games op basis van hoe ze willen dat de game er uit ziet en speelt. Het zou vreemd zijn als het streven daarin niet neerkomt op 'zo mooi en zo goed mogelijk', op iedere resolutie, met of zonder alle beschikbare grafische toeters en bellen. Iets dat door de oplopende verschillen tussen wat bij veel mensen nog in gebruikt is en wat er nu verkocht wordt voor developers steeds lastiger en duurder wordt.

De vooruitgang wordt ook niet gedreven door wat de massa daadwerkelijk kan draaien. Realistisch gezien hebben mensen wensen en koopt men een GPU (en in het algemeen, een heel systeem) die daar het best aan voldoen voor het geld dat men er aan kan of wil besteden. Hoewel er voor velen een punt is waarop het streven naar 'realisme' in games het benodigde geld simpelweg niet meer waard is, is het nog steeds niet raar dat mensen games ook graag 'zo mooi en zo goed mogelijk' zouden willen spelen.

Dat GPU-makers er nieuwe technieken doorgedrukt hebben is op dit moment niet meer te negeren en het is niet meer dan logisch dat game developers daar iets mee doen. Het is ook niet nieuw of zeldzaam dat game developers samenwerken met GPU makers. Ze willen optimaal gebruik maken van de (ook eventueel toekomstige) hardware. Het is me niet duidelijk waarom je die 'als gamer maar beter links laat liggen'. Ze maken je systeem niet kapot of zo. Er zijn genoeg 'gamers' die er voor kiezen hun games op een bepaalde resolutie en met bepaalde settings te willen spelen en daar het geld voor over hebben en er zijn genoeg games die het de moeite waard maken op een hogere resolutie en met alle grafische opties te spelen.
Omdat veel van die technieken de GPU onevenredig veel belasten. Pre-renderd raytraced lighting oogt identiek aan realtime raytraced. Maar het halveert bijna de belasting van de GPU. De enige die baat hebben bij realtime raytracing zijn de developers die daar geen tijd in hoeven te steken en de GPU bakker. Als ze realtime raytracing hadden laten liggen, hadden we nu veel beter ogende, en met veel meer frames per seconden kunnen gamen. Het zelfde geld voor al die andere bagger technieken. Zoals de nieuwe haar rendering. In de gemiddelde game kijkt ieder character je doods aan, mar een gezicht dat van klei lijkt, maar nee we steken 20% GPU belasting in het beter renderen van een kop met haar.

Het zijn allemaal verkoop technieken, om mensen er toe aan te zetten exorbitant veel geld neer te leggen om 4 of 5 titels met een bagger framerate die bagger technieken te renderen.
Ja helaas vergt het berekenen van realistisch licht enorm veel rekenkracht, Het is echter heel erg afhankelijk van de game en de engine hoe raytracing wordt toegepast en hoe effectief het is. Wederom helaas is de techniek nog niet uitontwikkeld.

Het is een beetje vreemd om de 'tijd' van developers te bagatelliseren. Je ziet steeds meer games opduiken die geweldig ogen en spelen maar gemaakt zijn door kleine, gedreven teams met nieuwe ideeën en die daarmee grote AAA-studio's in het stof laten bijten. Het aantal games op Unreal Engine is significant gestegen omdat die de tools bied om dat te doen. En dat is helemaal geen verkeerde ontwikkeling.

En tijd en mensen kosten geld. Er gaan al een tijdje geruchten rond dat de grote studio's de prijs van games in het algemeen willen verhogen. O.a. omdat er soms teams van honderden mensen vele jaren lang aan een game werken en die budgetten ervoor compleet uit de hand lopen. Het is voor zowel de makers als de gamers gunstig dat het inrichten van een (soms enorme) game-wereld minder tijd en moeite kost.

Ik ben ook absoluut niet te spreken over de prijzen van GPU's, of dat de 'werkelijke' performance van nieuwe kaarten veel minder groeit dan bij vorige generaties, dat het AI-gedoe niet in alle gevallen geweldig werkt zonder een idee te hebben of dat in de toekomst nog verbeterd of het geforceerde karakter ervan. Ik vind echter specifiek raytracing wel een enorme stap voorwaarts in de ontwikkelingen. Bovendien heb je niet per se een kaart van €1500 nodig om het te gebruiken en gaat dit onvermijdelijk door alle developers gebruikt worden.

.
Twimtbp is anti concurentie. Het is de dev moeten support vragen. Niet gpu merk zich op dringt en sdk door de strot duwed. Game klaar stormt voor hun gpu. Zodat op game release hun gpu de concurentie ruim verslaan. En daar hebben gamer niet veel aan. Na 3 patches komt concurentie bij. En kan dan soms beter presteren. Maar die grote win staat op dozijn review te pronken. Je krijgt dan fijne wine effect.

Anders om heb je het zelfde probleem want ander merk is ook met dat toxic beleid later in mee gegaan.

Als bij game release top performance wilt zul je een NV en AMD game rig moeten hebben.

Ik had in verleden een intel nv bak en AMD met ATI.

Ik had met crysis en vista release goede ervaring met ATI. Mindere met nv bak. Vista probleem lijkt mij toen eerder een nv probleem.
Een 64bit geheugenbus voor die AT4? Ik ga er dan toch vanuit dat die chip gericht zal zijn op mobile, of héél lowend GPUs?
Maar GDDR7 countert een smallere geheugenbus enigszins zeker? (maar dan nog...)
Maar GDDR7 countert een smallere geheugenbus enigszins zeker? (maar dan nog...)
Zit wel iets van compressie op dacht ik, Infinity Cache zou ook iets moeten helpen om die geheugenbus te ontzien.
Laten we hopen dat die stroomlijning zal betekenen dat AMD flinke stappen kan zetten, nu dat nVidia dat wat minder lijkt te doen. De generationele stap is nog nooit zo klein geweest van GeForce 40 naar 50 series. nVidia geniet nog steeds van een marktaandeel wat hen praktisch monopolist maakt, en dat is niet goed voor de consument.
Nvidia doet het bewust minder, omdat ze weten dat ze geen concurrentie hebben.
Waarom zouden ze enorme prestatiewinsten aanbieden als er toch geen concurrentie is? Beter de prestatiewinsten kleiner maken en telkens goed verdienen.

Van zodra AMD bijbeent, zullen we opnieuw wat grotere prestatiewinsten zien bij Nvidia.
Ben heel benieuwd of UDNA echt zulke grote verbeteringen gaat brengen. De grootste reden dat ik op dit moment geen AMD GPU wil is dat de productivity performance toch behoorlijk tegenvalt... Maar hopelijk is dit op UDNA beter, lijkt me toch een logisch resultaat van architecturen samenvoegen...?

Als deze redelijk voor een redelijke prijs de deur uit gaan hoop ik toch echt dat AMD hier een flinker stuk van de Nvidia market share mee weg kan snoepen!
Fingers crossed dat er een nieuwe mobile generatie komt, de RX 9000 is nog tamelijk efficiënt, een 12GB of 16GB GPU zou in mobiele segment nog niet mis zijn.
Naar verluidt moet de nieuwe architectuur in het tweede kwartaal van 2026 in massaproductie gaan.
Dus voordat er daadwerkelijk kaarten in de spreekwoordelijke schappen liggen zijn we een jaar verder lijkt me? En als het net zo gaat zijn als met de releases van de huidige generatie (Nvidia vooral, maar ook wel degelijk AMD), waarbij er grote tekorten zijn bij release, gaan we richting eind 2026 voor MSRP prijzen...
Als de geruchten kloppen komt er eind dit jaar eerst nog een Super versie met meer VRAM voor de huidige line-up. De nieuwe kaarten op het 4nm procédé komen dan pas eind 2025, begin 2026 volgens de 2-jaarlijkse cyclus.
Volgens mij verwar je AMD met Nvidia, er komt waarschijnlijk nog een 5080 Super of Ti met 24GB. Maar de 9070XT met meer geheugen heb ik nog niets over gehoord?
Gemiste kans om ook één van de kaarten "AT1" te noemen. :P
Zonde, ik denk dat ze met deze generatie echt de boot gemist hebben. Als je de performance van de 9070 xt ziet dan had een topmodel wellicht echt wel richting 4090 levels kunnen gaan op sommige vlakken.

Gemist kans. Zeker als je ziet hoeveel ze van de 9070 xt hebben verkocht. Had voor mij zeker een optie kunnen zijn i.p.v. de 5080

[Reactie gewijzigd door DamianW op 27 augustus 2025 14:29]

Nee vind ik niet, als je dieper gaat en de strategie aankijkt dan ga je meer zien.

Stel dat AMD dit express heeft gedaan om te laten zien dat Nvidia de prijs zo hoog maakt, dat geen normaal mens die kaarten meer kan kopen en of gaat kopen. Omdat AMD wist hoe greedy Nvidia is.

En op dat moment, waar wij nu zijn, dat de prijzen van Nvidia kaarten zo hoog zijn kan AMD, met hun nieuwe high end kaart de hele kant van Nvidia kapot maken door de performance gelijk te hebben of hoger voor een lagere prijs.

Het zou zomaar kunnen zijn dat AMD, Nvidia heeft gebait voor al die jaren! :D

Zou geweldig zijn!

[Reactie gewijzigd door WildemanM op 27 augustus 2025 14:42]

Deze snap ik niet helemaal. Dit gaat over de volgende generatie. Als Nvidia zijn prijzen lager moet zetten bij de nieuwe generatie omdat AMD dit ook doet dan doet Nvidia dit gewoon.

Ik denk eerder dat je AMD niet op een voetstuk moet zetten want zij zullen hun prijzen ook omhoog gooien zodra ze merken dat mensen het betalen. Zolang ze maar net onder Nvidia zitten (gezien hun strategie over de laatste jaren).
AMD profiteert toch ook van de hoge prijzen van videokaarten? Dat is nu al een aantal jaren zo en AMD volgt de prijzen van Nvidia redelijk. Ze zitten er altijd net genoeg onder dat ze interessant blijven, maar niet genoeg dat ze een groot marktaandeel wegsnoepen. Een 9080 XT zou ook 'gewoon' weer richting de €900-1000 gaan, anders is de 9070 XT weer te duur.

Volgens mij profiteren ze lekker van de hoge prijzen en concentreren ze zich vooral op de segmenten waar ze kunnen concureren met Nvidia. Misschien kregen ze een high-end kaart niet efficient genoeg of denken ze dat cuda of dlss in die prijsklasse een te belangrijke factor zijn.
Wat de redenen ook zijn, een bedrijf wil winst maken en met de huidige prijzen zouden ze wel gek zijn om daar niet van te profiteren,
Ik zou ook een 9070 XT hebben kunnen kopen, maar ik heb voor de 5080 gekozen, ook al is deze flink duurder. De prijs ligt zo'n 60% hoger, terwijl de prestaties misschien zo'n 20% hoger liggen. Dat is rationeel een slechtere koop, maar als ik naar Cyberpunk 2077 4K met raytracing kijk, haalt de 9070 XT gemiddeld 25FPS en de 5080 haalt gemiddeld meer dan 30FPS (en dat is wat ik wil). De 5090 is ergens ook nog wel aantrekkelijk, die haalt het dubbele in FPS voor het dubbele in prijs. Maar ik maak me dan wel zorgen om het verbruik, warmteproductie (en daarmee stilte, iets wat een eis is aan een systeem voor mij) en dan is het meer dan "nodig". Ik geef zelf nog weinig om FPS, al merk ik dat 60FPS tegenover 30FPS een flink verschil maakt. Zolang ik de behoefte aan FPS kan remmen/uitstellen, scheelt dat flink geld.
Dat probeert AMD al jaren en het enige dat het geijkte Nvida -$50 ze heeft opgeleverd tot nu toe is een historisch laag marktaandeel van minder dan 10%. NVIDIA Grabs Market Share, AMD Loses Ground, and Intel Disappears in Latest dGPU Update | TechPowerUp

Nu is het te hopen dat de late RDNA4 lauch daar deels debet aan is, maar aangezien deze cijfers gaan over de verkopen van AMD en Nvidia aan boardpartners en daarna naar de distri's (en niet retail naar consument) en de geruchten heel sterk zijn dat AMD de RDNA4 chips al vroeg in Q1 heeft verkocht, of zelfs al in Q4 2024 (immers bij CES begin januari hadden de reviewers de kaarten al, en lagen ze ook al bij de retailers, is dat ook nog maar te bezien of RDNA4 hier wezenlijk verandering in gaat brengen in Q2.


Het is te hopen van wel, want de situatie nu is wel dramatisch laag qua marktaandeel voor AMD. En hoeveel bijv. een Steam Hardware & Software Survey niet naar marktaandeel kijkt (en regelmatig wat te serieus genomen wordt), maar naar Install base ziet ook dat er niet direct heel goed uit voor AMD. De Radeon 9000 lineup schittert veelal door afwezigheid (en de 7000 series doet het ook niet goed, na enkele jaren al op de markt te zijn), terwijl Nvidia's 5000 serie kaart flinke sprongen maakt iedere maand.

[Reactie gewijzigd door Dennism op 27 augustus 2025 16:09]

[quote]Omdat AMD wist hoe greedy Nvidia is[/quote]

nVidia is niet greedy, dit gewoon vraag en aanbod. De vraag in de zakelijke markt is gigantisch hoog door 'AI'. En productiecapaciteit is beperkt, dus hoge prijs.

Dat AMD dat zo wil spinnen, dat is AMD. Dat het publiek zo ziet, dat is ook weer wat anders. Want je hoeft niet een nVidia GPU te kopen, als je het te duur vindt.
Terwijl juist de nvidia kaarten wel voor MSRP te krijgen zijn, waar de radeons r ver boven lagen?
Terwijl juist de nvidia kaarten wel voor MSRP te krijgen zijn, waar de radeons r ver boven lagen?
'te krijgen' en 'lagen'?

Dat klinkt als of je naar de prijzen van NVidia kaarten van nu kijkt en bij AMD naar de prijzen van launch.
NVidia kaarten zijn ook lang boven MSRP geweest. Hoe popuplairder een kaart hoe langer de prijs boven die MSRP blijft hangen, al zie ik dat voor alle kaarten natuurlijk liever gelijk vanaf launch anders.
Dat weet ik inderdaad daarom vond ik je post ook zo raar. Het lijkt namelijk als of je wil ontkennen dat nvidia niet boven msrp zat bij launch en de tijd er na, zoals de kaarten van amd.
over t woordje VER heen gelezen? :)


En nogmaals, als je op de hoogte was, dan was Nvidia dus wel in die periode voor rond msrp te krijgen, in de tijd dat ook de amd kaarten er waren, maar die laatste ~1.5x msrp deden.

Dat je een kaart later launched, mag geen excuus zijn om even duur te zijn als de concurrentie, wanneer je op prijs zou moeten concureren..... (dat was namelijk de bedoeling met de MSRP Prijs ;) )
Voor nvidia hebben we t niet over. maar voor AMD plots wel? beetje rare stelling...

[Reactie gewijzigd door JWL92 op 28 augustus 2025 12:47]

Het zou zomaar kunnen zijn dat AMD, Nvidia heeft gebait voor al die jaren! :D

Zou geweldig zijn!
Het zou ook zomaar kunnen zijn dat ik al jaren kan vliegen.

Zou geweldig zijn!


Net zo realistisch.
En als ze een groter marktaandeel hebben, zullen ze net zo duur of duurder zijn ten opzichte van Nvidia.
Ik denk dat nV de allocatie heeft opgekocht en dus de wafer te duur zijn en voor Epyc minder probleem maar halo gpu die ivm mindere features en software stack lager geprijst moet worden is het gewoon een no go en verdrongen door AMD andere producten. Men wil een AMD high-end gpu maar wil er zeker niet voor betalen en ivm minder drivers feature software stack flink stuk goedkoper. Waarvan deel inflatie compleet weg wuift.

Had om een of andere reden AMD Radeon toch een high-end. Dan had nvidia anders hun product lijn ingedeeld. En slaat AMD weer slecht figuur. Dan was de hele RTX50 anders opgezet.

Deze AT0 is dat AMD Radeon nv strategie volgt als krachtigere RT en AI performance en AT0 zou mogelijk niet eens voor consumenten zijn maar pro Chip.

AMD high-end komt er als chips kunnen slijten in de AI en pro branch en vandaar uit poging wagen om lage bin voor high-end te gebruiken. Exact wat nV al paar generaties doet.
Niet eens - de 9070 serie verkoopt als de malle. Zeker in het begin waren boardpartners verbaasd over de aantallen die ze wegzetten.

https://www.notebookcheck.net/AMD-CEO-calls-RX-9070-XT-a-fantastic-success-with-10x-sales-compared-to-previous-gen.986356.0.html
Wat de CEO aangeeft is natuurlijk wel redelijk een 'wij van WC eend praatje' die zullen eigenlijk nooit iets negatiefs zeggen in zo'n stuk. Heb je ook marktaandeel of install base cijfers die deze claim steunen? Want dat is natuurlijk wel een spelletje dat ze kunnen spelen marketing technisch, de voorgaande series verkochten immers niet best tot heel slecht, met een dramatisch laag marktaandeel voor AMD tot gevolg, dat het niet direct betekent dat hoge verkopen ten aanzien van de voorgaande generaties ook direct betekent dat het een doorslaand succes in in de concurrentie strijd met Nvidia. Daar lijkt het immers niet op, zie ook mijn post hier: Dennism in ''Volgende generatie Radeon-gpu's krijgt weer high-end topmodel met 96 cu's''
Waar ben je het niet mee eens? Ik bedoel ook met de grote hoeveelheid 9070 xt die ze hebben verkocht.

Ik weet zeker dat daar een groot aantal kopers bij zaten die voor de 9080 xt waren gegaan als die er was. Zeker voor een bedrag als bijvoorbeeld 850 euro.
Voor fantasie prijzen kun je inderdaad een prima omzet voorspellen. Maar een 9080 XT met 24 GB komt natuurlijk niet net boven de 9070 XT prijzen. Die gaat over de 1000 euro. NVidia heeft nog geen alternatief, en een toekomstige 5080 Super met 24 GB zal ook duurder worden dan de huidige 5080.
Ik was voor de 9070XT gegaan, geen spijt van maar een 9080XT zou echt top zijn geweest kwa performance.
Andere kant is, dat als ze 9080//90/XT's gemaakt hadden, ze minder dies van TSMC "over" zouden hebben voor de 9070XT's .. ;)
Of EPYC de concurentie voor wafer capaciteit is hoog en dat maakt wafers duur, wat boven op de inflatie komt. Een high-end AMD gpu zal ook al snel 1500+ aan tikken.

Ik zie het zo als high-end wilt van AMD zal de performance en features er ook moeten zijn. Maar dan moet er ook goed prijs voor AMD betaald worden , maar AMD weet dat wilt de markt niet moet goedkoper zijn dan nvidia en niet zo beetje. Daarom is er nog geen AMD high-end. 1st moet de features en performance van feature on par met nV. Dan moet er ook gezonde ASP voor deze chips betaald worden.

Met gen RDNA5 lijkt dat AMD kwa FSR en RT en AI on par komt. En dan heeft high-end zin. Kan iets goedkoper zijn dan nV. Maar hoef door gelijkere RT en FSR… performance niet al te extreem goedkoper.

Dat ASP van deze dure die onder druk zet of chiplet of tiles/.
Het Volume is denk ik te laag voor AMD. Ik had het ook graag gezien.
Wat heeft dat met dit nieuwsbericht over de aankomende generatie te maken?
Van 3060ti wqhd naar 9070xt 4k gegaan. De 9070xt was 200 euro goedkoper dan de 5070ti. Nvidia bekijkt het maar met hun idiote prijzen. Van de 200 euro nieuwe SSD gekocht.
Boot gemist?
Als je ziet hoeveel ze van de 9070 en 9070 XT verkopen hebben ze juist niks gemist.
Hun doel is nog steeds winst maken met de verkoop, en die betaalbare kaarten verkopen nu eenmaal beter dan de high ends.
Ik heb dus net van AM4 naar AM5 gegaan (9800X3D) omdat er toch niks nieuws was in (AMD) GPU land, komt dit mooie nieuws! Begin wel weer vast met sparen :+

Ben benieuwd wat voor stap ze kunnen maken vanaf de 7900XTX die ik nu heb, de 9070XT was geen echte stap vooruit in performance.

[Reactie gewijzigd door watercoolertje op 27 augustus 2025 14:44]

Ik heb ook een 7900XTX en ben ook benieuwd wat de volgende generatie gaat doen qua performance.
Same! 9070XT is meer een side-grade tov een 7900XTX, hopelijk komen ze met een mooi vlaggenschip in de volgende generatie
Dat was bij mij wat maanden geleden begonnen bij een update, oudere driver werkte prima.

Nu laatste driver weer geprobeerd, weer crashes. Hoorde dat rebar voor dit probleem kon zorgen, deze uitgeschakeld en nu geen crashes meer :)


Hoop voor je dat je het probleem snel kan vinden
Klinkt als een overclock die niet helemaal stabiel is?
Als AMD Nvidea echt even wilt aftroeven moeten ze gewoon betaalbare kaarten uitbrengen met 64, 128 en 256 GB aan v-ram. Dat maakt het draaien van lokale AI modellen ineens een stuk leuker. Snelle GPU is leuk, maar als je daarmee alleen maar kleinere AI modellen mee kunt draaien heb je er niets aan (voor AI toepassingen). In China produceren ze zelfs "illegale" Nvidea videokaarten met meer v-ram dan toegestaan, door nieuwe kaarten op te kopen en daar de componenten van op een nieuw mainboard te solderen.
t is Nvidia.
geen Nivea ;)

Waar stel je voor dat ze de geheugen chips vandaan halen die deze grootte mogelijk zou moeten maken?

En dat voor n consumenten kaart...?
En tegelijk ook nog betaalbaar xD
dat kan je sws vergeten als ie nuttig is voor AI :P
Dit dus. En dan nog - hoeveel consumenten gaan nou helemaal lokaal een LLM zitten draaien? Dus dan wordt het sowieso al een hele beperkte productie en dientengevolge nog vele malen duurder.

Dat gaat AMD niet doen.
Je hebt het over datacenter GPUs. AMD heeft de MI300x met 288 GB. Bepaald niet de eerste generatie dus je advies is zwaar te laat.

En gezien de omzet zijn ze prima betaalbaar voor de doelgroep. Je wilt dit soort high-end kaarten niet gebruiken in settings waar ze 22 uur per dag idle zijn. Dat is pas onbetaalbaar.

Op dit item kan niet meer gereageerd worden.