Diagram toont vermeende AMD Radeon RX 7900 XT-pcb met chipletarchitectuur

Er is een diagram van de vermeende AMD Radeon RX 7900 XT verschenen. De videokaart zou beschikken over een architectuur met een grote gpu-die en zes kleinere chiplets, wat overeenkomt met eerdere berichten. Er is nog geen releasedatum bekend.

Het diagram toont het ontwerp van een videokaart-pcb die 'dichtbij een referentiekaart ligt', schrijft Igor Wallossek van Igor's Lab. Wallossek heeft dit schema naar eigen zeggen gebaseerd op 'echte printplaten en blauwdrukken', maar zegt dat hij deze niet kon delen om zijn bronnen te beschermen. Wallossek is een bekende naam in de sector en publiceert regelmatig correcte informatie over hardware.

De indeling van de pcb bevestigt dat de AMD Radeon RX 7900 XT beschikt over een Navi 31-gpu met zeven chiplets. In het midden zit een grote chip, die naar verwachting functioneert als de gpu-die. Daaromheen zitten zes kleinere chiplets. De journalist deelt daar geen specificaties van. Volgens eerdere geruchten functioneren de zes kleinere chiplets als Infinity Cache. Iedere chiplet zou beschikken over 16MB cache, voor een totaal van 96MB voor de Radeon RX 7900 XT.

De videokaart wordt verder van stroom voorzien met drie 8-pinsaansluitingen, zo blijkt uit het diagram. Dat komt neer op een maximaal vermogen van 450W. Wallossek laat de optie dat AMD overstapt op de nieuwe PCIe Gen5-connector open, maar geeft aan daarvoor geen concrete aanwijzingen te hebben gezien.

De pcb van de Radeon RX 7900 XT biedt daarnaast ruimte voor twaalf GDDR6-geheugenmodules. Dat zou betekenen dat de videokaart met maximaal 24GB vram kan worden uitgerust. Rondom de gpu zitten 21 vrm's. Vermoedelijk worden zestien daarvan gebruikt voor de gpu, twee voor het geheugen, twee voor de 'soc' en een voor de vddci. De kaart zou daarmee beschikken over acht fasen, schrijft Wallossek. De videokaart beschikt verder over drie DisplayPort-aansluitingen en een HDMI-connector. Er is geen USB-C-poort meer.

AMD's eerste RDNA3-videokaarten worden dit jaar nog verwacht. Ceo Lisa Su benadrukte onlangs nog tegenover aandeelhouders dat de eerste videokaarten 'later dit jaar' verschijnen. Het bedrijf bevestigde eerder al dat de komende architectuur wordt opgebouwd uit chiplets. De gpu's moeten tot 50 procent betere prestaties per watt bieden ten opzichte van RDNA2. Verder deelt het bedrijf nog weinig details. Er is nog geen concrete releasedatum bekend en het is ook niet bekend wanneer AMD de gpu's aankondigt.

AMD Radeon RX 7900 XT-pcb via Igor's Lab
De vermeende AMD Radeon RX 7900 XT-pcb. Bron: Igor's Lab

Door Daan van Monsjou

Nieuwsredacteur

15-09-2022 • 11:04

31

Lees meer

Reacties (31)

31
31
21
1
0
9
Wijzig sortering
Volgens de geruchten komt AMD (initieel) met drie RDNA 3-chips: Navi 31, 32 en 33.

Het lijkt erop dat dit Navi 32 met een verdubbeling van Navi 33 (de kleinste) is, en Navi 31 zelfs een verdriedubbeling. Navi 33, 32 en 31 hebben dus respectievelijk 32, 64 en 96 execution's units.

Navi 33 wordt een enkele chip, volgens de geruchten gebakken op TSMC 6nm en rond de 200 mm2 groot. De 128-bits geheugenbus en 32 MB Infinity cache zitten daar dus bij ingebakken.

Voor Navi 32 en 31 heeft AMD deze componenten over verschillende chiplets verdeeld: Één GCD (Graphics Compute Die) met meerdere MCD's (Memory ... Die).

Navi 32 krijgt een GCD van rond de 200 mm2 gebakken op TSMC 5nm, met 4 MCDs. Elk MCD verzorgt een 64-bits GDDR6 geheugenbus en 16 MB infinity cache. Samen dus goed voor een 256-bits bus met

Navi 31 is dan bijna precies anderhalf keer Navi 32. Een GCD rond de 300mm2 met 6 MCDs voor een 384-bits bus met 96 MB infinity cache.

Een groot voordeel aan deze chiplet aanpak, is dat een die van 300 mm2 nog redelijk economisch te produceren valt. Als je alle geheugen en cache intern had gehouden, was je zeker over de 450 mm2 heen gegaan en misschien zelfs over de 500 mm2. De winst zit er voornamelijk in, dat als er een fout zit in een geheugenbus of cache, je gewoon een andere MCD gebruikt en niet je hele chip weg hoeft te gooien. Andersom, als een GCD een fout is (waar geen ander product van te maken valt met iets disabled) hoeft je alleen die weg te gooien en niet alle MCDs.

Ook kan je de MCDs, die veel cache en signaling bevatten, produceren op een goedkoper proces (in dit geval TSMC 6nm). En het high-performance gedeelte produceert je op een nieuwer proces (TSMC 5nm).

Tevens hoeft er maar één MCD ontwikkeld te worden, die voor meerdere producten inzetbaar is.

Een nadeel is dat een chiplet-ontwerp is dat er altijd wat overhead in zit, zoals extra ruimte en hitte voor de communicatie tussen chiplets. Daarom is voor een kleine chip zoals Navi 33, alles op één chip vaak nog voordeliger.

Ik ben erg benieuwd hoe deze generatie uitpakt, zeker tegenover de grote monolithische RTX 40-chips van Nvidia.
Ik maak me een beetje zorgen dan om de memory op Navi33; tenzij ze GDDR6X oid gaan inzetten wordt het dan niet echt beter dan een 6650XT qua bandwidth of cache, want die zit ook al op 128bits + 32MB. Nu weet ik niet of Navi23 een memory bottleneck heeft of niet, maar het klinkt vrij krap aangezien ik er wel van uit ga dat AMD met 33 toch een redelijke verbetering wil neerzetten.

256 en 384 bit klinken wel heel redelijk voor Navi32 en Navi31, want dat gaat dan omhoog ten opzichte van 192 en 256 bij RDNA2. Hopelijk zorgt het niet voor lastige geheugenhoeveelheden, want je zult wel multiples van 8GB moeten gebruiken voor zover ik weet. Ik neem aan dat Navi33 dus maar 8GB krijgt, wat voor een *600 kaart nog oke is, maar op een *700 met N32 lijkt dat me vrij krap. 16GB dan juist weer vrij ruim.
Navi33 krijgt schijnbaar wel 128MB L3 cache:
https://www.techpowerup.com/gpu-specs/amd-navi-33.g1001

Dus dat zou al wat schelen. En idd staat er zover bekend 8GB voor. Gebruikt minder dan 200W dus ik vind het wel een potentiele opvolger voor mijn ondertussen ruim 3 jaar, en straks 3,5 jaar oude RX5700, performance/watt is een beetje waar ik op focus, heb een 450W voeding en die gaat nog wel een of twee PC's mee, dus kan ook geen high-end kaart erin schroeven.
Ik maak me een beetje zorgen dan om de memory op Navi33; tenzij ze GDDR6X oid gaan inzetten wordt het dan niet echt beter dan een 6650XT qua bandwidth of cache, want die zit ook al op 128bits + 32MB.
Ik vind dit lastig in te schatten, het zou inderdaad kunnen dat Navi 33 krap wordt qua bandbreedte, of juist helemaal niet.

Er zijn continue ontwikkelingen in het geheugensysteem achter GPUs. Texture compression is een belangrijke, die zowel een hoop bandbreedte als geheugen kan besparen. Ook DirectStorage kan een hoop helpen, als je textures een stuk sneller vanaf de SSD kan laden, hoef je er minder "voor het geval dat" in je GPU memory te houden. Gecombineerd met PCIe 5.0 kan dat heel veel schelen.

Ook zal Navi 33 voornamelijk gericht zijn op 1080p (en misschien 1440p) gaming, waar er minder hoge resolutie textures vereist.

Elke GPU is een afweging tussen prestaties, prijs en stroomverbruik, en uitzonderingen daargelaten, weten GPU-fabrikanten die over het algemeen prima te maken.
Hopelijk zorgt het niet voor lastige geheugenhoeveelheden
Vorig jaar waren de geheugenprijzen heel hoog, en dat had ook effect op GDDR6:
And according to an online marketplace called Digi-Key, GDDR6 chips from Micron are now selling for around US$13-16 per GB (spotted by Twitter user @ultrawide219).
Exacte data kan ik even nu vinden, maar de geheugenprijs per GB kan zo 30% tot 40% gedaald zijn. Dat betekend dat 8GB low-end, 16GB mid-range en 24GB high-end best wel weer acceptabele opties worden.

Verder verwacht ik ook nog wel een Navi 32 SKU met een geheugenmodule uitgezet, waarmee je 12 GB krijgt. Dat is ook een mooie tussenweg.
DirectStorage zou vooral helpen bij een tekort aan VRAM en niet te langzame VRAM, lijkt me.

Qua compressie weet ik het niet; misschien als er nieuwe formaten in komen (hebben desktops tegenwoordig al ASTC?); hoewel ik geloof dat sommige GPU's ook aan bijvoorbeeld Z-buffer compressie doen (transparant).

Verder heb je op zich geen ongelijk, ik zou het alleen opmerkelijk vinden als Navi23 -> Navi33 geen echte upgrades in het memory systeem heeft.
Ik maak me een beetje zorgen dan om de memory op Navi33; tenzij ze GDDR6X oid gaan inzetten wordt het dan niet echt beter dan een 6650XT qua bandwidth of cache, want die zit ook al op 128bits + 32MB. Nu weet ik niet of Navi23 een memory bottleneck heeft of niet, maar het klinkt vrij krap aangezien ik er wel van uit ga dat AMD met 33 toch een redelijke verbetering wil neerzetten.

256 en 384 bit klinken wel heel redelijk voor Navi32 en Navi31, want dat gaat dan omhoog ten opzichte van 192 en 256 bij RDNA2.
Zorgen maken na de aankondiging dat deze generatie 2x zo efficiënt is als de vorige?? Waarom dan? Klinkt eerder als een Zen3 moment.

Rdna3 met GFX11 (gfx1101) en dus ook Navi33 op de 128-bit bus, hebben ook de 4e generatie Display & Video Core Next: 4.0 aan boord.

[Reactie gewijzigd door Bulkzooi op 23 juli 2024 03:46]

Geheugen gaat niet per 8 maar per 4. Je kunt dus bijvoorbeeld een 12gb en 16gb kaart hebben van eenzelfde chip
Iets bekend of er dedicated RT hardware in komt?
Oei, hopelijk wordt de RT performance dit keer wellicht eventueel misschien wel een heeel klein beetje competetief
Dat is een ontwerp keuze van AMD in hoeveel transistors ze daar aan willen spenderen ten koste van de algehele performance.
Is de hardware an sich wel competetief dan?
Toevallig een bron die de RT hardware van AMD en Nvidia proberen te vergelijken? (bijv die-surface, cores, verbruik/performance).
Ik weet niet beter dan dat qua RT(hybrid) het groene team de enige keus is.
(En rasterized heeft AMD net de edge als ik het me goed herinner)
Het was zeker niet niet competetief, het lag gewoon vrij gelijk aan de 1e generatie van Nvidia
Ik ben nogal van het overzetten naar waterkoeling blokken en dan gelijk liquid metal op de die smeren.
Ik zie in dit diagram in ieder geval een mooie uitdaging. Even iets beter de blanke nagellak uitsmeren :+
Die chiplets zullen voorheen wel onderdeel van de GPU die geweest zijn. Denk dat dit dus zeker een methode is om de GPU die te verkleinen en zo het aantal GPU dies wat je kan krijgen uit een enkele wafer te vergroten.
Hiermee kan je dus ook om het reticle limiet van de node heen, dat zal in de toekomst ook zeker belangrijk worden om "de snelste" grafische kaart te maken, wat (jammer genoeg) vrij belangrijk is voor het imago van het bedrijf.
Vergeleken met de MI300 is dit nog erg conservatief. In plaats van wat cache chiplets in een MCM is de cache daar de interposer, veel meer bandbreedte met veel lagere energie per bit.
Ik verwacht dat CDNA's architectuur niet geschikt is voor dingen als video gaming aangezien die methode waarschijnlijk meer latency heeft voor de verschillende GPU chiplets die met elkaar communiceren.

Dat is geen probleem voor taken die niet in realtime hoeven te gebeuren en / of oneindig geparalleliseerd kunnen worden, maar wel voor video games.

Dit zal ook deels een experiment zijn om te kijken hoe dit werkt voor de algemene consument.
Het werkt ook met een GPU die, de bandbreedte naar de cache zal dan nog steeds vele malen groter zijn dan je kan bereiken in een MCM.
De IO chiplets worden ook op een goedkoper proces gemaakt. En doordat precies dezelfde IO chiplets voor Navi 32 worden gebruikt, hebben ze lagere ontwerpkosten.
50% betere prestaties per watt dan rdna2, das wel interessant, zeker gezien de prijzen van nu
Dat, plus het (volgens mij vrij zekere) gerucht dat AMD hun matrixrekenkernen introduceert met deze nieuwe kaarten (zoals Nvidia's Tensor Cores en Intel Arc's nog erg nieuwe XMX). Als het voordeel op AI-gebied van de Nvidia-kaarten straks net zo goed geldt voor AMD-kaarten, dan wordt dit een hele interessante generatie.

Een nieuwe versie van AMD's upscaling-techniek FSR kan dan ook gebruik maken van AI, zoals DLSS doet. Er gaan geruchten over zo'n "FSR 3.0". En als die techniek dan ook nog eens draait op Nvidia- en Arc-kaarten dan blijft de huidige compatibility van FSR behouden. Zou erg fijn zijn; we zullen moeten zien hoe het loopt.

Ik neigde naar Nvidia vanwege de Tensor Cores voor een nieuw systeem; qua traditionele pixel performance ontlopen de twee kampen elkaar namelijk al niet heel veel. Als AMD ook op AI-vlak volledig mee kan doen, wordt het echt een interessante keuze.

Maar zoals altijd: eerst onafhankelijke benchmarks en details, uiteraard.

[Reactie gewijzigd door geert1 op 23 juli 2024 03:46]

Als fsr 3 gebruik maakt van AI dan lijkt me de kans dat het op nvidia en Intel kaarten draait klein. DLSS draait niet op Intel en XESS (hw) draait niet op nvidia.

FSR 2 was al goed, als fsr 3 goed uitpakt dan is zo goed als parity bereikt met DLSS, wat een goede zaak zou zijn.

De olifant in de kamer blijft voor mij Ray Tracing, daar zullen in de praktijk sprongen gemaakt moeten worden.
DLSS een XeSS hadden prima op elkaars hardware kunnen lopen als er een standaard was geweest om matrix solvers in GPU's aan te roepen.

Met een wrapper kan het als nog, behalve dat het softwarematig tegen gehouden wordt.
Zoals Countess ook aangeeft: technisch zouden deze matrixkernen van de drie fabrikanten prima compatible kunnen zijn met elkaar. Tensor Cores, Intel's XMX en AMD's WMMA zijn allemaal dezelfde soorten kernen die zeer soortgelijke berekeningen doen. Het zal dus vooral afhangen van de zakelijke kant en de wil om er één uitwisselbare standaard van te maken. Technisch zou dat niet heel ingewikkeld zijn.

AMD, als de underdog, heeft de laatste jaren meerdere technieken uitgebracht die ook op andere kaarten werken, terwijl Nvidia als marktleider juist het liefst geheel eigen technieken gebruikt. Dus we zullen zien of de matrixkernen van deze fabrikanten allemaal losse eilandjes blijven of dat het meer een geheel wordt. En als de fabrikanten zelf niet tot een standaard komen, zou er alsnog een tussenlaag kunnen komen van een derde partij die de verschillen overbrugt. Bijvoorbeeld als deel van game-engines of andere software.

De ontwikkelaars van games, ai en wetenschappelijke simulaties zouden in elk geval heel erg gebaat zijn bij het kunnen aanspreken van al deze varianten in één keer, in plaats van op drie verschillende manieren. We gaan het meemaken.

[Reactie gewijzigd door geert1 op 23 juli 2024 03:46]

AMD heeft ook Tensor Cores. De technische benaming is WMMA.

Edit: sorry las je reactie niet helemaal goed, zag dat je het zelf ook al wist.

[Reactie gewijzigd door TNS op 23 juli 2024 03:46]

3x8 pins + PCI-e vermogen zou zelfs op maximaal 525W duiden, de poort kan zelf 75W leveren. Nu zal het in de praktijk daar hopelijk onder blijven, maar het blijft toch een trend om steeds meer energie in zo'n kaart te stoppen. Mijn 6900XT is al erg hongerig, maar met elke volgende generatie wordt het verbruik groter. Toch niet heel goede trend.

[Reactie gewijzigd door The__Virus op 23 juli 2024 03:46]

Toch wel jammer dat het niet de nieuwe 12VHPWR/16 pin/12 + 4 pin connector is, met een bijgeleverd verloopje dan. Zou w.m.b. een stuk cleaner en mooier zijn.
Wat maken mensen zich altijd druk.. Je weet dat over 5 jaar de technologie weer 3x sneller is.
Het is NOOIT goed.. En het is nooit goed qua stroom. lol te voorspelbaar allemaal

[Reactie gewijzigd door CryptoArnold op 23 juli 2024 03:46]

Nouw, de wereld is de afgelopen tijd toch wel flink anders dan 2 jaar terug. Als het hetzelfde zou zijn was er niet zoveel push back op het stroomgebruik, maar met een prijs van bijna 1euro per kwh is elke watt te voelen.

[Reactie gewijzigd door Xander.M op 23 juli 2024 03:46]

Exact dit dus, al is het voor pre-corona begrippen nog steeds mokerveel stroom. Buiten de kosten om is een gpu van 300w+ al een enorm goede verwarming, zeker als je nog de overige componenten (voornamelijk CPU) bijtelt.

Op dit item kan niet meer gereageerd worden.