AMD kondigt op 12 juni Instinct-gpu aan met mogelijk tdp van 1000W

AMD organiseert in juni een Advancing AI-evenement waar het nieuwe gpu's gaat tonen. Dat zijn gpu's voor datacenters, zoals de Instinct-lijn. Een van de gpu's krijgt mogelijk een tdp van tot wel 1000W.

AMD zegt in een post op sociale media dat het op 12 juni een Advancing AI-evenement organiseert. Vorig jaar deed het bedrijf dat nog in oktober. Tijdens die presentatie toont AMD zijn zakelijke gpu's en kaarten voor in datacenters. AMD bevestigt dat het in ieder geval een nieuwe generatie van de Instinct-gpu's toont. Ook zegt het bedrijf dat het meer informatie gaat geven over ROCm, of het Radeon Open Compute-platform.

Naar verwachting toont AMD tijdens het evenement de Instinct MI355X. Dat is de opvolger van de MI325X, die het bedrijf in oktober al aankondigde tijdens het eerdere evenement. Details over die gpu lekten eerder al uit; de MI355X is gebaseerd op de CDNA 4-architectuur en wordt gemaakt op een 3nm-procedé. Volgens VideoCardz heeft de gpu 288GB aan HBM3E-geheugen en een geheugenbandbreedte van 8TB/s. Opvallend is vooral dat de kaart volgens VideoCardz een tdp kan halen van tot maximaal 1000W, maar die informatie is vooralsnog niet door AMD bevestigd.

AMD Advanced AI

Door Tijs Hofmans

Nieuwscoördinator

11-04-2025 • 10:00

64

Reacties (64)

Sorteer op:

Weergave:

Opvallend is vooral dat de kaart volgens VideoCardz een tdp kan halen van tot maximaal 1000W, maar die informatie is vooralsnog niet door AMD bevestigd.
De MI325X heeft nu al een tdp van 1000W. Dat de opvolger ook in die richting zit is niet echt verassend.
Nee inderdaad en dit zijn vaak ook meerdere chiplets in ieder geval 2 of misschien zelfs 4 dus dan is 500/250 watt per chiplet ineens zo gek niet. De Power density is met dit soort chips wel heel erg hoog.

Wel apart dat deze CDNA4 zou hebben en dan 355 heet had dan 4xx verwacht. Of het is toch een CDNA3 chip?

[Reactie gewijzigd door Astennu op 11 april 2025 11:14]

de arch van de chiplets zijn waarschijnlijk niet veranderd terwijl de arch van CDNA4 wel.
Grappig om dit na een artikel over hoe datacenter meer gaan verbruiken dit te lezen
https://tweakers.net/nieu...an-uitstoot-verlagen.html
Nu snap ik het wel waarom. Hoeveel heeft een Datacenter gemiddeld van dit soort GPU's
Uiteindelijk gaat het om de efficiëntie. Al zouden deze kaarten 10000W verstoken als ze efficiënter zijn is dat geen probleem.
Dat is niet waar. Er zijn allerlei voorbeelden waarin meer efficientie er juist voor zorgt dat gebruik drastisch toeneemt. Een goed recent voorbeeld daarvan is super efficiente LED verlichting, wat verassend weinig aan onze totale consumptie heeft gedaan omdat we gewoon veel meer lichten zijn gaan gebruiken. In extreme gevallen is er zelfs sprake van Jevon's Paradox, waar de totale hoeveelheid verbruik toeneemt door verbeteringen in efficientie.

Uiteindelijk is er geen weg omheen dat je om minder te verbruiken, gewoon minder moet verbruiken. Soms kan dat door efficientie te verbeteren, maar lang niet altijd.

[Reactie gewijzigd door jaxxil op 11 april 2025 10:46]

Een goed recent voorbeeld daarvan is super efficiente LED verlichting, wat verassend weinig aan onze totale consumptie heeft gedaan omdat we gewoon veel meer lichten zijn gaan gebruiken.
Heb je daar harde cijfers voor? Ik moet nog de eerste organisatie tegenkomen waar het gebruik van LED verlichting niet heeft geresulteerd in een verlaging van stroomgebruik. We hadden vast nog meer kunnen besparen met zuiniger verbruik, maar dit voorbeeld lijkt mij enorm uit de lucht gegrepen.
Let op, ik zeg niet dat LED verlichting een voorbeeld is van Jevon's Paradox, voor zover ik weet is het energieverbruik niet toegenomen. Het is alleen een voorbeeld van hoe gebruik van een technologie (niet perse het totale verbruik) toeneemt bij verbeterde efficientie. Daar is LED verlichting een goed voorbeeld van, want de efficientiesprong is enorm, namelijk 80% minder energieverbruik. Maar het aandeel verlichtingsenergieverbruik binnen huishoudens daalt licht, niet drastisch. En deze cijfers nemen geen commercieel gebruik mee, zoals bijvoorbeeld winkels die lichten aan laten staan of reclameborden die nu verlicht worden. Al met al verandert het totale verbruik verassend weinig.

Jevon's Paradox is de situatie waar het verbruik daadwerkelijk toeneemt, waar enkele voorbeelden van op de wikipedia pagina staan, wat ook kan gebeuren. Uiteindelijk spreek ik tegen wat eerder beweerd werd, namelijk dat de efficientie uiteindelijk hetgene is wat uitmaakt. Een verbeterde efficientie kan leiden tot dalend energieverbruik, gelijkblijvend energieverbruik, of stijgend energieverbruik.

[Reactie gewijzigd door jaxxil op 11 april 2025 12:06]

Stroomverbruik verlichting in huishoudens (volgens jou bron):

2000: 12,88PJ
2021: 11,70PJ

Aantal huishoudens (cbs):

2000: 6,8 miljoen
2021: 8 miljoen

Stroomgebruik voor verlichting per miljoen huishoudens:
2000: 1.89PJ
2021: 1,46PJ

Gerealiseerde stroombesparing op verlichting per huishouden: 23%

Dat terwijl in 2021, volgens jouw bron, LED lampen net een marktaandeel van 50% hadden en het aandeel van gloeilampen en halogeen lampen net onder de 30% is gezakt (van 80% in 2000). Als een vergelijkbare trend zich blijft doorzetten dan zou bij de volledige vervanging van gloei en halogeen lampen door LED verlichting een totale besparing van grofweg 35% van de stroombehoefte per huishouden voor verlichting te verwezenlijken zijn.

Wat “verassend weinig” of “daalt licht, niet drastisch“ is voor eenieder is geheel subjectief natuurlijk. En daar kunnen we van mening verschillen. Maar ik vind 35% besparing toch een mooi resultaat, zeker als dat gepaard gaat met een quality of life verbetering door meer verlichting te hebben.

[Reactie gewijzigd door svenk91 op 11 april 2025 12:45]

Ja, ik vind een reductie van 23% voor de introductie van een technologie die 80% bespaart verrassend weinig. Ook omdat dit alleen huishoudens zijn, en commercieel verbruik niet mee is genomen (er staan nu meer lichten aan in de winkelstraat dan eerst). Maar dat is het punt niet, ik zeg niet dat LED verlichting slecht is. Als jij er blij mee bent, top. Ik zeg alleen dat tegenintuitieve resultaten van efficientieverbetering mogelijk zijn, en dat we ons daar niet blind op moeten staren. Steeds efficientere GPU's betekenen niet dat het totale energieverbruik van datacenters daadwerkelijk naar beneden gaat.
die 80% bespaart
ten opzichte van gloeilampen* Het is fantastische goeie marketing, dat er op de doos van elk led peertje staat dat hij "50 watt aan licht uitzend met maar 5 watt vermogen" of welke 1:10 verhouding ze ook gebruiken, maar dat is niet ten opzichte van andere efficiënte alternatieven. Dat is ten opzichte van een ouderwetse, conventionele gloeilamp.

Niet ten opzichte van de lampen die destijds al populair waren in huis. Ten opzichte van een "spaarlamp" is led maar 33% zuiniger. Dat zit al een stuk dichter op die 23% daling.

Daar komt ook nog bij dat tegenwoordig warmgekleurd licht weer in de mode is. Warmere LED lampen zijn minder efficiënt. Een 2700K lamp heeft maar 75% van de lichtopbrengst per watt tov een 4000K lamp, bijvoorbeeld. Nu is 4000K ook wel erg wit, maar je snapt het punt.

Ook is nog lang niet iedereen over op LED. Ik heb zelf letterlijk niks anders in huis dan simpele warme led bollen van de bouwmarkt, maar dat is omdat de meerprijs niet bijzonder was en ik in de kleur en sterkte die ik zocht heel makkelijk aan LEDs kon komen. Bovendien vind mijn vriendin die LED gloeispiraal lampen mooi en daar hangen de schappen momenteel vol mee.
Maar op gloeilampen na, gaan alle lampen technieken enorm lang mee. LEDs mogen dan 15-50.000 uur mee gaan, maar spaarlampen ook al 8000

[Reactie gewijzigd door youridv1 op 11 april 2025 14:17]

Die reductie van 23% is over alle huishoudens. In 2021 hadden nog maar 50% LED verlichting.
80% besparing voor LED lijkt me wat aan de hoge kant, maar laten we dat aanhouden: dan zou je dus verwachten dat de besparing in 2021 80% van 50% was, dus 40%.
We zijn dus inderdaad meer (LED) verlichting gaan gebruiken maar ook weer niet zoveel.
LED bespaart geen 80% tov zijn voorganger. Veelal verving LED een spaarlamp of TL Buis, die waren ook al een stuk zuiniger dan de gloeilamp. Efficientie van TL buizen / spaarlampen loopt nogal uiteen, maar ~50% zuiniger dan LED is een redelijke aanname.
Ik denk dat er wel een gedeelte van waarheid in zit. Ik zal niet zeggen dat het verbruik hoger zal zijn. Maar ik denk bijvoorbeeld wel aan computers waar nu led verlichting in zit. Nu kan het zijn dat men hier vroeger nooit aan gedacht heeft maar led (klein en verbruikt minder) zal zeker wel een grote factor geweest zijn. Mijn moeder heeft bijvoorbeeld ook een vitrine met led verlichting. Ik verwacht dat ze dat niet gedaan zou hebben met gloeilampen of gewoon veel vaker aan gehad zou hebben. Kinder poppenhuis met led verlichting. En zo zullen er wel meer voorbeelden te vinden zijn waar men nu (onnodig) led gebruikt maar vroeger geen gloeilamp voor zouden gebruiken.

Edit: Ook bij toetsenborden, muizen, sier led verlichting in en onder auto's, "nep bloemen" zoals https://m.media-amazon.co...L._AC_UF350,350_QL80_.jpg

[Reactie gewijzigd door Daoka op 12 april 2025 01:02]

Omdat het verbod op gloeilampen een Europees directive is, even het Europees plaatje erbij halen:
Door de hoge efficiency van LED lampen is het energieverbruik voor verlichting in de EU wel degelijk gedaald: van 521 in 2005 naar 379 kWh/jaar/huishouden in 2015. In 2015 waren CFL en halogeenlampen nog toegestaan. De verwachting is dat rond 2023 bijna alle halogeenlampen niet meer in gebruik zijn in huishoudens. In 2030 daalt het energieverbruik verder naar verwachting tot 132 kWh/jaar/huishouden.
Dat is een duidelijke vermindering van 75% in 25 jaar.

Maar wat jij zegt over de toename van lampen in een huishouden is ook waar: die stijgt van 22 lampen in 2005 naar 32 stuks in 2030.
Echter, de efficiency van LED lampen is dusdanig hoog dat het 'weinig" uitmaakt.

[Reactie gewijzigd door Fireshade op 11 april 2025 14:18]

Wel lastig om te bepalen of we het over relative of absolute getallen hebben?

Zo zijn er bijvoorbeeld ook (heel) veel meer mensen bijgekomen (en dit is nog steeds aan het groeien!!).

Als die groei meer is dan de winst in efficiëntie (wat het geval is), verbruik je in absolute totaal meer.
Echter kan het relatieve getal (dus per persoon) kleiner zijn geworden.
Ja, het maakt mij ook niet uit. Maar nu snap ik het wel. jammer is dat de specs nog niet bekend zijn.
Onderaan de streep zien we dat het totale volume enkel toeneemt, dus ookal zijn de nieuwe chips die erbij komen efficienter, AI vergt zo veel meer compute dat het totale verbruik alleen maar stijgt
Ja en nee. Huidige toepassingen kunnen steeds efficiënter, maar voor elke flop aan rekenkracht die er bijkomt wordt ook wel weer een nieuwe toepassing bedacht waardoor het absolute verbruik toch echt nog altijd flink toe blijft nemen.

En als zo’n datacenter vroeger volhing met 600W GPUs en straks met 1000W, dan wordt er toch echt flink meer verbruikt.
niemand intresseert de co2 uitstoot. men doet het enkel omdat het moet of omdat het geld bespaard. anders is er geen enkel reden voor de meeste om zich hieraan te houden.
Gaat mij ook niet om de uitstoot maar het verbruik in stroom. Dat is immers waar dit artikel ook over gaat :)
het linkje gaat ook over uitstoot :P
Eigenlijk zijn het geen datacenters meer, maar rekencentra.
morgen die datacenters straks eigen stroom opwekken.. damn 1kw.. gezien de voedingen van servers.. wat 1 per host?
Waar de wereld in een overgang zit met energie en op veel plaatsen ernstig te kort is gaat men een gpu presenteren die 1000w verstookt..top
Ja want 2 kaarten van 500w die minder efficiënt zijn is goed voor de toekomst? 1kw per kaart klinkt veel maar als hij ook veel kan is er weinig aan de hand. En AI kost nu een maar veel stroom.

https://www.google.com/am...8/nvidia_turns_up_the_ai/
Erger nog, AI gaat zorgen voor een wereldwijde verdubbeling van het energieverbruik en dus ook (lucht)vervuiling. Want de USA gaat vol over op steenkool als het aan Demon Trump ligt en dat voorspelt weinig goeds voor klimaatverandering. Slechte zaak voor hen die na ons komen of nu onder zeg 30 zijn...

https://www.scientificame...er-energy-demand-by-2030/
Erger nog, AI gaat zorgen voor een wereldwijde verdubbeling van het energieverbruik en dus ook (lucht)vervuiling.
Je mag best wel duidelijker zijn in welk verbruik er precies verdubbeld, namelijk specifiek dat van datacenters. Datacenters verbruiken nu 'maar' 1.5% van het totaal van het wereldwijde energieverbruik en dat aandeel zou dus verdubbelen...

Tevens heeft dat artikel ook nog iets van nuance daarover omdat AI ook weer kan zorgen voor minder verbruik van andere zaken omdat het ook kan helpen optimaliseren.

[Reactie gewijzigd door watercoolertje op 11 april 2025 15:01]

Vandaar dat ik de bron heb geciteerd...
Nou en? Meer co2 is goed voor de planten. En volgens mij word er nog meer kool verbrand wereldwijd dan dat je denkt.

Maar serieus, als ze voor de klimaattop in brazilie kilometers regenwoud gaan kappen om daar speciaal een snelweg neer te leggen, voor die top, dan zijn ze nie helemaal lekker bezig toch?

Maargoed, daarom eten we hier wat minder vlees nietwaar?
Dat is niet helemaal waar. Ik vermoed op lange termijn juist minder energieverbruik. Stel zonder AI zou ik X CO2 uitstoten om een taak T uit te voeren, met AI 0.01*X CO2.
De hamvraag hier is: wat biedt deze GPU vergeleken met bv een maximaal geconfigureerde Mac Studio? De hoeveel TOPS vergeleken met het opgenomen vermogen is vooral interessant.
In praktisch alle opzichten, ook TOPS/W, zal het de Mac Studio wegblazen.

Het is zoveel sneller dat hij met een paar procent runtime de M3 Ultra al voorbijgaat. De matrix vermenigvuldiging doet veel meer werk in minder stappen. HBM is niet alleen snel maar heeft ook heel laag verbruik per bit.

[Reactie gewijzigd door Pinkys Brain op 11 april 2025 10:47]

Ik zou je graag op je blauwe ogen geloven, maar dit zou ik graag (in cijfers) in het artikel terugvinden. Want een TDP van 1000 W zegt namelijk helemaal niks. Als de rekenkracht (per Watt) ver onder dat van de Mac Studio zit, dan is deze GPU geen goede deal, maar als hij de Mac Studio het nakijken geeft, dan kan hij zeer nuttig zijn.
Wellicht dat dit voor jou een nuttige maatstaf is, maar de Mac Studio is niet de maatstaf voor performance noch voor wat wel of niet 'nuttig' is.
Daarbij komt dan ook nog eens dat je hier appels met peren wilt vergelijken, daar het een een grafische kaart/accelerator betreft gericht op datacenter gebruik en het ander een stand-alone computer bedoeld voor eindgebruikers.

Ik vrees dat je erg weinig benchmarks gaat zien waar zowel deze kaart als ook de Mac Studio in zullen staan buiten wellicht enkele fora/creators die specifiek op Apple/Mac focussen.

[Reactie gewijzigd door Ayporos op 11 april 2025 12:59]

M3 ultra Studio heeft ook piek vermogen van 480W, het een kwestie van een beetje gevoel van hoe AI versnellers in elkaar zitten.

De M3 Ultra is gewoon geen AI versneller. De kleine NPU stelt weinig voor en de GPU heeft geen matrix vermenigvuldigings unit. 10x minder geheugenbandbreedte en 100x minder FLOPS, dan is 480W tov van 1000w niet zoveel besparing.
Dit is niet echt een nuttige vergelijking. De 1 is een product voor datacentra, de andere voor consumenten.

Totaal andere usecase.
Een Mac Studio is niet gericht op de normale consument. Dat zijn juist apparaten die vanwege het unified memory perfect ingezet kunnen worden voor AI
Geen idee waarom je "0" gemodereerd bent, maar dat was voor mij inderdaad exact de reden dat ik het me afvraag!
Een Mac Studio heeft een uiterlijk wat ontworpen is voor consumenten, maar past niet in een 19 inch rack. De use case is dus letterlijk aan de case te zien.

Deze AMD GPU's zie je dus wel in 19 inch server designs terug, waar 1000W koelen geen bijzonder groot probleem is.
Wat is de use case van een Mac studio voor de gewone consument dan? Het is niet gamen, het is niet huis tuin en keuken gebruik. Het is niet editing..
Als je die gebruik zoals ze voor gemaakt zijn dan is die AMD vele malen sneller, de efficientie zal nogal beter zijn bijnde apple maar dat is van weinig belang.
Totaal ander segment. De voorganger van deze chip heeft "slechts" ~2614 TOPS (of 5229 met sparsity) en 6TB/s HBM3e geheugen, met een max van 2TB geheugen (dit soort chips kunnen prima samenwerken dankzij de custom interconnect). Dit nieuwe model zal daar nog een schepje bovenop doen.

Niet voor niets dat AI modellen op dit soort chips (of hun Nvidia tegenhanger) getraind worden.
Stel mac m4 ultra = Efficiency: ~0.23 TOPS/W for INT8 workloads
en amd MI355X = Efficiency: ~12.27 TOPS/W for FP4 workloads

Even los van of dit exact klopt. En dat INT8 en FP4 verschillen.
Wat dan?
Hoe draai je een datacenter oplossing thuis? Hoe dik is je stroomverbinding? Heb je extreem goeie koeling? Hoe hou je de noise onder controle?
Dit is geen pctje wat je even aansluit.
Mooi! die moet ik hebben als de saldering van mijn zonnepanelen vervalt.. kan ik lekker op hele zonnige dagen de hele dag alles op 8k 120FPS spelen zonder dat ik me schuldig voel.
Wel puur en alleen met AI gegenereerde frames die via een andere GPU naar je beeldscherm worden gestuurd, anders doet ie het niet.
Het is en blijft verspilling. De mensen die de wetgeving in verband met die saldering gemaakt hebben gaan hier zeer zwaar in de fout, maar ik denk dat lobbywerk van de grote energieproducenten hier niet vreemd aan is.
Zou me dan niet verbazen als er via binning wat GPU's de volledige spec niet halen en deze terecht komen in een nieuwe highend consumer GPU. Ik hoop iig op meer concurrentie in dit segment.
CDNA is niet RDNA, er zijn functies uitgehaald die niet nuttig zijn in datacenters. Zoals er zijn geen raster-units/pixel pipeline.
Ik weet niet waarom die 1000w nou zo nieuwswaardig is. Nvidia’s peer to peer product verbruikt dat ook.
De voorganger van deze chip heeft ook een max TDP van 1kW. Het zou mij eerder verbazen als de AMD MI355X niet rond de 1kW zit.
Juist. De theoretische prestaties vallen mij overigens ook niet op. Vergelijkbaar met Nvidia’s vorige generatie product met hetzelfde stroomverbruik. Lopen dus 1 generatie achter.

Niet dramatisch maar ook niet verassend.
288gb geheugen, en consumenten lopen nog mer 8,12,16,24 max 😅
Logisch voor games (waar die consumenten kaarten voor zijn) heb je echt niet meer nodig
Ieder zinnig mens en de overheid al jaren: we moeten minder energie verspillen en op een of andere manier proberen koolstofdioxide-neutaal te zijn. Je bent als consument ook schuldig aan de klimaatopwarming en -verschuiving!!!

Bepaalde industrie, AI en andere datacenters: kus mijn gat mannen, ik heb meer stroom nodig!!!
En koeling, want 100% van de energie wordt omgezet in warmte bij CPU's en GPU's.

8)7

[Reactie gewijzigd door Wim Cossement op 11 april 2025 12:19]

Stel ik moet een programmatje schrijven voor een taak X. Zonder AI kost dit me 2 uur, met AI 2 min. Netto is de uitstoot heel waarschijnlijk vele malen lager dan de 2 uur tijd die ik nodig heb om het script te maken.
Dat 1u en 58 minuten die je uitspaart, doe je toch nog andere dingen? Je moet toch nog steeds 8u/dag werken. Je krijgt meer klaar, dat wel. Maar je pc gaat nog steeds 100% van je werkuren aanstaan hoor :)
En de baas verwacht dit dan van iedereen zonder extra compensatie, zoals met de automatiseringsgolf sinds de jaren 70. Productie, winst en loon van de top van het gajes is geexplodeerd, maar de arbeider of bediende moet steeds meer, in minder in tijd en liefst zo goedkoop mogelijk.
Bedankt! |:(

Ook denk ik dat je vergelijking een beetje scheef getrokken is, als je 60 keer zo veel tijd nodig hebt zonder AI ben je geen al te goede programmeur vrees ik en moet je werken aan je zoek-fu, want AI doet niet echt veel anders dan zoekresultaten van bestaande code combineren.

[Reactie gewijzigd door Wim Cossement op 12 april 2025 13:24]

Op dit item kan niet meer gereageerd worden.