AMD Radeon PRO W7000-workstation-gpu's krijgen RDNA 3-chip en tot 48GB GDDR6

AMD brengt dit kwartaal zijn eerste Radeon PRO-workstationvideokaarten met een RDNA 3-gpu uit. De videokaarten zijn daarmee gebaseerd op dezelfde architectuur als de RX 7000-serie, maar hebben specifieke functies voor professionals en meer geheugen met ecc-ondersteuning.

AMD introduceert in eerste instantie twee W7000-videokaarten: de Radeon PRO W7900 en Radeon PRO W7800. Eerstgenoemde is gebaseerd op de bestaande Radeon RX 7900 XTX, die eind vorig jaar beschikbaar kwam voor consumenten. De videokaart beschikt over een Navi 31-gpu met 96 compute-units. Daarmee heeft hij in totaal 6144 streamprocessors. De Radeon PRO W7900 heeft 48GB GDDR6-geheugen met ondersteuning voor error-correcting code. Zijn RX 7900 XTX-tegenhanger heeft 24GB geheugen zonder ecc. De Radeon Pro-videokaart biedt volgens AMD 61Tflops aan fp32-rekenkracht en heeft een total board power van 295W.

De Radeon PRO W7800 beschikt op zijn beurt over een RDNA 3-gpu met 70 cu's, wat neerkomt op 4480 streamprocessors. De W7800 is hiermee een volledig nieuw product; AMD heeft nog geen soortgelijke consumentenvideokaart uitgebracht in zijn Radeon RX 7000-serie. De W7800 heeft 32GB GDDR6-geheugen, eveneens met ecc-ondersteuning. De videokaart biedt 45Tflops aan fp32-rekenkracht en heeft een tbp van 260W.

De videokaarten beschikken verder over de nieuwe features die AMD introduceerde met zijn RDNA 3-architectuur. Zo hebben beide videokaarten, naast een primaire compute-die, verschillende geheugenchiplets met extra Infinity Cache. Ook hebben de kaarten een nieuwe Dual Media Engine, met ondersteuning voor AV1-encoding op maximaal 8k met 60fps. De videokaarten ondersteunen ook DisplayPort 2.1 en kunnen daarmee overweg met 8k60-schermen zonder compressie. De gpu wordt geproduceerd op TSMC's 5nm-procedé; de geheugenchiplets worden gemaakt op 6nm.

AMD brengt zijn Radeon PRO W7000-videokaarten dit kwartaal uit. Het bedrijf deelt echter geen concrete releasedatum. De Radeon PRO W7900 krijgt een adviesprijs van 3999 dollar. De W7800 gaat 2499 dollar kosten. De videokaarten zijn bedoeld voor professionals en bedrijven.

AMD Radeon PRO W7900

Videokaart Radeon PRO W7900 Radeon PRO W7800 Radeon RX 7900 XTX
Architectuur RDNA 3 (5nm) RDNA 3 (5nm) RDNA 3 (5nm)
Gpu Navi 31 nnb Navi 31
Compute-units 96 70 96
Fp32-rekenkracht 61Tflops 45Tflops 61Tflops
Geheugen 48GB GDDR6, ecc 32GB GDDR6, ecc 24GB GDDR6
Geheugenbus 384bit 256bit 384bit
Tbp 295W 260W 355W
Releasedatum Q2 2023 Q2 2023 13 december 2022
Adviesprijs (bij release) 3999 dollar 2499 dollar 999 dollar

Door Daan van Monsjou

Nieuwsredacteur

13-04-2023 • 15:00

45

Lees meer

Reacties (45)

45
45
24
2
0
16
Wijzig sortering
Toch zonde dat PCs not steeds met dedicated VRAM werken ipv. unified memory. Er zullen niet veel toepassingen zijn die 48GB VRAM nodig hebben, Stel dat je 1 applicatie hebt die je af en toe gebruikt waar die 48GB voor nodig is, dan is het toch jammer dat de rest van de tijd er 40+GB RAM in je PC zit die je niet kan benutten.
als je 3000 euro uitgeeft aan een videokaart, maakt het je niet uit dat je voor voor 300 euro een 128gb DDR kit koopt.

Juist de mensen die deze gpu kopen willen die 48gb vram (en andere redenen).

ddr5 6000 geheugen kit heeft een bandbreedte van ongeveer 70GB/s.

De vram van een 7900xtx zit op 960GB/s.

PCI-E 16x 4.0 zit op 32GB/s (5.0 op ongeveer 64GB/s). dus eigenlijk te weinig voor vol geheugen snelheid.

Maar dat vram heeft een veel hogere latency wat betekend dat de cpu langer moet wachten op data.
Voor 300 euro heb jij geen 128GB DDR-kit met een behoorlijk lage True Latency, of doet dit op DDR5 wellicht wat minder pijn? Ik bedoel ik heb hier 2 kitjes van en die zijn al bij elkaar ~ € 300, of althans destijds toen ik ze kocht.

[Reactie gewijzigd door SkyStreaker op 28 juli 2024 16:52]

Waarvoor heb je zo veel ram nodig? Wat is überhaupt het doel van deze gpu's voor workstations?
Waarvoor heb je zo veel ram nodig? Wat is überhaupt het doel van deze gpu's voor workstations?
AI toepassingen zoals ChatGPT hebben al snel tientallen Gb's nodig omdat het hele taalmodel geladen moet worden. Sommige modellen passen net in 64Gb dus daarvoor zijn deze kaarten nog te krap...
Nu nog uitvinden hoe je die finetuned op AMD.
Weet dat ze ROCm hebben, maar ben nog geen tutorial tegen gekomen die daadwerkelijk hele ecosysteem aan AI frameworks gebruikt op AMD.
Dat is een gemiste kans van AMD. ROCm wordt helemaal niet ondersteund door AMD op een nieuwe versie van Linux. Je moet allerlei oude pakketten installeren. En daarna een oude versie faken met EXPORT OVERIDE.
Maar KoboldAI en Stable Diffusion werken wel.
Op Ubuntu 18.04 zou het wel out of moeten werken.
dit is de eerste workstation kaart waar effectief een AI excelerator inzit.. mogelijks is dit dan ook het doel om hiervoor meer ondersteuning in SW aan te bieden...als je enige connecties hebt binnen deze wereld kan je het zeker navragen.
https://www.servethehome....t-nvidia-rtx-pro-pricing/
Is dat echt zo? Als je kijkt naar de website van Pytorch ROCm voor linux, dan lijkt alle gewoon goed ondersteund te worden?

btw zag vandaag dit nieuws wat me weer wat hoop geeft:
https://www.tomshardware....-windows-on-consumer-gpus
De professionele kaarten wel. Maar op de RX 6700 wordt officieel niet ondersteund. Dus bij elke script moet ik dan "export HSA_OVERRIDE_GFX_VERSION=10.3.0" uitvoeren.
Wellicht dat het nu anders is maar dat denk ik niet.
dank u voor de info, het is een lastig topic om betrouwbare info over te vinden
ChatGPT is niet open source, is maar 1 bedrijf die dat kan tunen.
De hele AI research wereld heeft zich vastgeklampt aan nVidia's Cuda framework. Daar heeft AMD gewoon de boot gemist en een enorme achterstand opgelopen (en ze zijn niet echt aan het rennen/investeren om dat in te halen). Als je serieus bent over AI netwerken trainen in plaats van rotzooien met hardware ga je gewoon voor nVidia.

Wat runtime code betreft zijn er wel meer cross-platform ontwikkelingen: het 'gelekte' Facebook taalmodel (Llama/alpaca) werkt zelfs al op telefoons (met mindere precisie omdat het model vereenvoudigd is om in een paar Gb te passen, maar is nog steeds een heel overtuigende chatbot).
Deze kaarten zijn metname bedoeld voor het volk waarvan ikzelf er ook zo'n eentje ben, voor het maken en bewerken van video materiaal, en vergis je niet, daar ben je namelijk al vrij snel bijzonder veel werkgeheugen en vram voor nodig, wil je er een beetje snel mee kunnen en willen werken, en ze ook enigszins snel kunnen renderen wanneer je er zover mee bent en em wil uitdraaien, metname Adobe After Effects is één van de applicaties die ikzelf veel gebruik, en waarvoor je al vrij snel veel van beiden nodig bent ;)
Voor video rendering gebruik je vooral de SSD en de mogelijkheid van je GPU om snel lossless (of semi-lossless) te kunnen comprimeren en decomprimeren. Heb je op zich geen tientallen Gb's aan VRAM voor nodig.
"Heb je op zich geen tientallen Gb's aan VRAM voor nodig" en dat klopt natuurlijk, al licht het er maar net aan waar je aan werkt, en wat je daar wellicht zoal bij in wil hebben, kan dan ook melden dat ik ook wel eens projecten voor een bekende van me doe, welke vaak niet veel langer zijn dan zeg 4 a 5 minuten, betreffen video's van zelf componeerde audio van hem, maar welke toch al snel de 30 gigabyte aantikken, doordat zijn video's in Adobe After Effects zijn opgebouwd uit 10 lagen aan materiaal, 3 om de effecten mee aan te sturen, audio keyframes in zijn/dit geval, en de overige betreffen zijn logo, welke uit twee delen bestaat, een achtergrond, de naam van het stukje audio, het YouTube subscribe dingetje, een audio sinus, en de audio zelf uiteraard. Nu doe ik zijn video's er voor de lol een beetje bij, maar normaal werk ik aan veel langer durende projecten, zeg een anderhalf a twee uur, en dan werkt het wel zo prettig dat je al dat benodigde materiaal die je daar voor aangeleverd krijgt dan ook in elk geval in je werkgeheugen past, en voor een groot deel ook alvast in je video geheugen, al begint is deze laatste pas echt een ding te worden wanneer je hem al geheel klaar hebt, en de uiteindelijke render van een video wil gaan doen ;)

Edit: even een foto vanaf mijn Google drive aan toegevoegd, om zo mensen een beter beeld te kunnen geven hoe dat dan zoal oogt = foto van één van zijn projecten wanneer i nog in After Effects open staat.

[Reactie gewijzigd door SSDtje op 28 juli 2024 16:52]

Je bent er van overtuigd dat je zo'n bijzondere use case hebt maar wat je doet is eigenlijk vrij gemiddeld en zeker geen noodzaak om een GPU van duizenden euro's aan te schaffen.

Nagenoeg geen videosoftware leest hele films in het geheugen en zelfs als je dat doet heb je er weinig aan: een moderne SSD is snel genoeg om 10 HD streams (zat voor youtube) tegelijk uit te lezen.

De bottleneck zit vooral het het decomprimeren en comprimeren van video wat afhankelijk van je systeem door CPU, GPU of dedicated hardware geaccelereerd kan worden. Tenzij je met bioscoop kwaliteit materiaal aankomt is dat eigenlijk helemaal niet zo'n issue meer.
"maar wat je doet is eigenlijk vrij gemiddeld en zeker geen noodzaak om een GPU van duizenden euro's aan te schaffen." En dat klopt, en zeg ik dan ook niet, U stelde een vraag, en daarop voorzie ik U van een andwoord, daar zijn dit type workstation GPU's voor bedoeld, maar met een beetje high-end huis keuken tuin GPU kom je ookal een heel eind, alleen werk je aan veel grotere projecten, dan wil zo'n workstation GPU als hierboven in het artikel nog wel eens een uitkomst zijn, maar da's dan ook op kosten van de zaak, ik heb dan ook niet zo'n type in mijn eigen PC thuis hangen, aangezien dat een beetje nutteloos zou zijn inderdaad. "een moderne SSD is snel genoeg om 10 HD streams (zat voor youtube) tegelijk uit te lezen" en ook dat klopt, alleen werk ik niet aan YouTube materiaal vanuit mijn werkomgeving, YouTube materiaal doe ik er alleen vanuit huis zo nu en dan bij voor een bekende van me zo nu en dan, en dat is dan ook wat op de foto in mijn vorige bericht te zien is.
Er zijn zat professionele toepassingen die veel geheugen kunnen vragen. 3D rendering taken, en dan niet 1 plaatje maar bijv. een hele animatie.
@petermetroid Een renderprogramma als Lumion draait zowat helemaal op de gpu.
Oke ik heb het even opgezocht. Die gebouwen zijn net echt dar verklaart wel wat ja.
AMD heeft de techniek in huis met infinity fabric. Je moet er wel extra in betalen: een epyc CPU en een Instinct GPU, bijhorend moederbord... En sowieso in latency+beperkte bandbreedte. Een MI250x rechtstreeks naar z'n lokale geheugen heeft bvb 3,2TBps. Naar een andere node in hetzelfde systeem is het maar 50GBps.

Apple heeft dat bvb omzeild door alles in een enorme chip te steken en het geheugen erbij te bakken. Als AMD een CPU+GPU+geheugen op een enkel bord zou zetten zoden ze ook zoiets kunnen bereiken en eigenlijk hebben ze dat ook al gedaan. Cost-optimised versies daarvan zijn bvb de Xbox series X en PS5.
De CPU en GPU daarvan zitten samen op een geheugenbus die z'n 500-600GBps gedeelde geheugentoegang hebben.

Technisch gezien draait een Xbox toch al de NT kernel, dus probeer de geheugenchips te vervangen met grotere versies en hack windows tot het als je desktop werkt. Beetje tweaken ;)
Nadeel van unified memory (buiten dat het algemeen niet aanvul-/vervangbaar is) dat je de bandbreedte deelt, je deelt immers ook de bus. Dit wordt erger gemaakt doordat een GPU die bijvoorbeeld 100GB/s gebruikt in werkelijkheid iets meer afsnoept van de beschikbare bandbreedte waardoor je zelden het theoretische limiet haalt.

In de context van games heeft dit ook als nadeel dat technieken als texture filtering vaak een lage prioriteit krijgen, op consoles, omdat dat kostbare bandbreedte gebruikt. Iets wat bij een PC GPU minder speelt omdat die een eigen geheugen pool met ditto bus heeft.

Split vs unified memory hebben beide hun eigen voor- en nadelen.

[Reactie gewijzigd door Caayn op 28 juli 2024 16:52]

Ik vind dat zelf niet perse zonde. Ik vermoed dat je met "unified memory" verwijst naar hoe apple het geheugen toepast in hun M(x)-machines.

GPUs hebben hun eigen memory omdat
- het fysiek dichter bij de chip zit, wat in een niet te onderschatten performance winst resulteert
- GDDR (of HBM) doet het beter dan regulier DDR voor hoge bandbreedtes
- de parameters van chip en geheugen kan perfect geoptimaliseerd worden aangezien beide door een fabrikant bepaald worden

Als je deze voordelen wil behouden, maar toch systeem- en GPU-geheugen wil samenbrengen, kom je al snel tot apple's architectuur waarbij alles in een chip zit. Zo goed als niet is modulair/upgradebaar. Het heeft zeker zijn voordelen.

[Reactie gewijzigd door vix-ducis op 28 juli 2024 16:52]

Videogeheugen is wel redelijk anders dan werkgeheugen. Doorgaans heb je voor desktoptaken juist een lagere vertraging nodig terwijl videogeheugen fors hogere bandbreedte nodig heeft. Op een console kan je daarvoor nog optimaliseren (of bepaalde blokken lagere latency met lagere bandbreedte geven), op een desktop is daar geen beginnen aan. Bovendien zit je ook nog eens met fysieke afstand.
Stel dat je 1 applicatie hebt die je af en toe gebruikt waar die 48GB voor nodig is, dan is het toch jammer dat de rest van de tijd er 40+GB RAM in je PC zit die je niet kan benutten.
Dit soort kaarten koop je niet als je 'af en toe' eens een applicatie gebruikt, daarvoor schrijf geen geen honderden euro's per maand af. Kan je beter een cloud GPU gebruiken.
"PCs"? Volgens mij ligt dat aan het OS. Met Linux kun je het RAM van een GPU wel degelijk gebruiken voor algemene toepassingen.
Ben je zeker dat het dan niet over een veredelde swap-drive gaat? Het lijkt me sowieso niet bijzonder efficient aangezien de CPU geen directe link naar het GPU geheugen heeft.
Zo'n veredeld swap device is 1 van de technieken waarmee je dit geheugen creatief kan inzetten. Je moet rekening houden met hardware paden en zo. Het is wel lekker veel geheugen maar het zit niet echt makkelijk/standaard aan de cpu gekoppeld. Dan is 1 van de manieren dus de gpu als disk-controler in te zetten en de gpu-geheugenruimte als diskruimte. Dan is swappen het makkelijkst om het met de huidige techniek in te zetten.

Een andere techniek is de gpu in te zetten als extra cpu's. Dat doet deze hardware al vaker en dan kan ook het bijpassende geheugen echt als processor geheugen gebruikt worden.

Misschien komt er nog een keer een soort numa-architectuur op basis van dit soort hardware. Al is de architectuur van de gpu wel heel anders dan de cpu en moet de software er ook specifiek voor worden gecompileerd.

[Reactie gewijzigd door beerse op 28 juli 2024 16:52]

Toch zonde dat PCs not steeds met dedicated VRAM werken ipv. unified memory. Er zullen niet veel toepassingen zijn die 48GB VRAM nodig hebben,
Workstation toepassingen hebben doorgaans juist wel veel VRAM nodig. Verder zijn deze video kaarten niet geoptimaliseerd voor realtime rendering (itt videokaarten voor gamen) omdat workstation toepassingen het doorgaans toch niet realtime zijn. Verschillende doelgroepen met verschillende eisen.
Daarnaast is VRAM doorgaans flink sneller dan systeem RAM alleen al omdat het een dedicated bus naar de GPU heeft. Dus unified memory zou of veel sneller (en veel duurder) RAM inhouden, of je zou met lagere GPU performance genoegen moeten nemen.

[Reactie gewijzigd door BadRespawn op 28 juli 2024 16:52]

Verder zijn deze video kaarten niet geoptimaliseerd voor realtime rendering (itt videokaarten voor gamen) omdat workstation toepassingen het doorgaans toch niet realtime zijn.
Voor workstation gebruik hebben deze kaarten juist gecertificeerde drivers voor bepaalde software, dan zijn ze dus geoptimaliseerd voor o.a. real-time rendering :)
De eerder genoemde Lumion software bijvoorbeeld (met hun LiveSync plugin voor een berg CAD software), of Enscape. Daarnaast heeft Autodesk ook zijn eigen oplossingen voor real-time rendering in o.a. Maya, Revit en 3DS Max, of via Unity.
Genoeg use cases dus :)
[...]
Voor workstation gebruik hebben deze kaarten juist gecertificeerde drivers voor bepaalde software, dan zijn ze dus geoptimaliseerd voor o.a. real-time rendering :)
De eerder genoemde Lumion software bijvoorbeeld (met hun LiveSync plugin voor een berg CAD software), of Enscape. Daarnaast heeft Autodesk ook zijn eigen oplossingen voor real-time rendering in o.a. Maya, Revit en 3DS Max, of via Unity.
Genoeg use cases dus :)
Voor workstations zijn het usecases waarbij de nadruk ligt op veel data. CAD is daarvan een voorbeeld waarbij idd wel realtime renderen vereist is, maar itt games niet erg hoge framerates nodig zijn. Ze laten geen traan als het 30fps is ipv 144.
En anders dan bij games is bij veel andere workstation toepassingen realtime renderen helemaal niet relevant, maar komt er wel veel data aan te pas. Vandaar zo veel VRAM, en vandaar dat workstation kaarten bij games doorgaans minder presteren dan een vergelijkbare kaart die is geoptimaliseerd voor games.
Wacht even.
7900XTX = €999
Pro W7900 = €3999
Zelfde architectuur, zelfde aantal CU's, zelfde Bus. Zelfde Tflops alleen 2x zo veel GB's.
€3000,- verschil?

Kan iemand mij uitleggen waarom €3000,- prijsverschil? Of is dit puur "de zakelijke markt heeft meer geld dus die melken we uit?"

[Reactie gewijzigd door soundvision op 28 juli 2024 16:52]

Samenloop van meerdere factoren:
https://www.howtogeek.com...tation-gpus-so-expensive/

Zelfde geldt voor CPU's trouwens :)
Volgens mij komt hier ook support vanuit AMD kijken. Andere drivers, langere garantie. Customer service. Dit was vroeger wel zo volgens mij. Maar kan er ook naast zitten.

Edit: waarom kreeg ik 2x0 voor het beantwoorden en het noemen van feiten? 8)7

[Reactie gewijzigd door MartinPRO op 28 juli 2024 16:52]

Support, betere componenten, ECC geheugen, etc.
Professionele kaarten zijn geen consumenten-kaarten, die rennen redelijk kort zo hard mogelijk op 16 floating points / half precision.
Professionele kaarten rennen uren/dagen/weken op full precision.

[Reactie gewijzigd door DropjesLover op 28 juli 2024 16:52]

Er zijn meerdere redenen, maar het is voornamelijk memory.
Het is allemaal prima, tot dat je programma meer memory nodig heeft dan er op je GPU zit en je het niet kan runnen. Bedrijven zoals AMD en Nvidia weten dit en maken hier slim (mis)gebruik van.
Even voor de neus weg, zou de Radeon PRO W7800 ook een tip van de sluier over de 7800XT lichten? 70 CU's, 16 GB GDDR6 en een Tflop of 43? Of is dat te makkelijk geredeneerd?
Nee, dat zie je goed. Dit gebeurt ook wel eens met Nvidia GPU's wanneer de Quadro versie eerder uit komt dan de Geforce versie. Als we geluk hebben koopt Linus van LTT zo'n ding en test hij hem.

Bijvoorbeeld toen de Quadro P6000 uit was, maar de Titan Xp, niet te verwarren met de Titan X (Pascal) nog niet. https://www.youtube.com/watch?v=LC_sx6A5Wko

Of met AMD toen GamersNexus een RX Vega Frontier kaart kocht en daarmee dus redelijk kon voorspellen hoe RX Vega 64 en 56 zouden gaan performen.
https://www.youtube.com/watch?v=ZHb7fC5zUdU

[Reactie gewijzigd door youridv1 op 28 juli 2024 16:52]

Ik ben benieuwd of W7800 Navi 32 gebruikt. 70 CU's wel heel stevig snoeien voor navi 31 dat er 96 heeft, maar bij RDNA 2 was het verschil tussen navi 21 en 22 veel groter, resp. 80 en 40 CU's.
Wat ik me afvraag, Zou de dual media engine een afgeleide zijn van de twee asics die de nieuwe Xilinx/AMD Alveo Ma35D Media accelerator gebruikt? Want dan worden deze kaarten interessant voor video editing.
eindelijk genoeg vram voor The Last Of Us
Hoe kan de TFLOP hoger zijn terwijl het een lagere TDP heeft? En meer ram zelfs ....
AuteurAverageNL Nieuwsredacteur @Verwijderd13 april 2023 15:29
Dat was een typo in de tabel (stond in het artikel wel goed) :) Het is gefikst!

Op dit item kan niet meer gereageerd worden.