Intel deelt foto van Xe-gpu voor datacenters en hint op ontwikkeling opvolger

Intel heeft een afbeelding van zijn aankomende Xe-gpu voor datacenters gepubliceerd op Twitter. Daarnaast heeft Raja Koduri, hoofd van Intels grafische divisie, enkele details over de chip gedeeld. De topman hint ook dat er wordt gewerkt aan een opvolger van de gpu.

Intel zette deze week een afbeelding van de gpu in kwestie op Twitter. Raja Koduri bevestigt hierbij dat het om een 'Xe-HP'-gpu gaat, die specifiek is bedoeld voor gebruik in datacenters. Volgens hem heeft de chip 'tientallen miljarden transistors' en kan de gpu 'tienduizenden ops per klokcyclus' verwerken. De chip maakt gebruik van een lga-ontwerp, net als de huidige Intel-cpu's. Vermoedelijk gebruikt de Xe-chip in kwestie een ontwerp met chiplets, in plaats van een enkele monolitische die. Intels aankomende Ponte Vecchio-gpu, die ook is gebaseerd op de Xe-architectuur, bevat ook meerdere chiplets.

Tom's Hardware schat op basis van de foto dat de chip zo'n 2688 pads bevat. Dat zijn er meer dan socket LGA-2066 voor hedt-chips en LGA-1200 voor consumenten-cpu's, maar minder dan de huidige Xeon-chips, die in een socket met 3647 pins passen. Ook wordt het formaat van de complete package door Tom's Hardware geschat op ongeveer 3880 vierkante millimeter. De grootste gpu van dit moment is de Tesla V100 van Nvidia, die ook is bedoeld voor datacenters. Deze chip heeft een die-grootte van 815mm². Het formaat van de Xe-HP-die valt niet af te leiden uit de geplaatste foto.

Koduri noemt de chip op Twitter de 'vader van alle [gpu's]'. Een dag later meldde hij dat er ook wordt gewerkt aan de 'Baahubali' van alle gpu's. Dit lijkt een verwijzing te zijn naar een gelijknamige Indiase superheldenfilm. Vermoedelijk bedoelt hij hiermee dus een opvolger van de afgebeelde Xe-gpu. Deze nieuwe chip wordt volgens de Intel-topman al 'gebakken', en zou dus al in productie zijn. Verdere details worden niet gegeven.

Intel Xe-server-gpu Twitter
De Intel Xe-HP-gpu voor datacenters. Afbeelding via Twitter

Door Daan van Monsjou

Nieuwsredacteur

03-05-2020 • 14:57

48

Reacties (48)

Sorteer op:

Weergave:

Vraag me af hoeveel elektrisch vermogen dit beest nodig heeft, en hoe je zo'n monster gaat koelen. Goed, het is bedoeld voor datacenter use, waar geforceerde koeling (lees gigantische kolere berg herrie) gemeengoed is. Tegelijkertijd is de component dichtheid in datacenters vrij hoog, en links of rechtsom, de opgenomen energie zal in de vorm van thermische energie (=warmte) toch afgevoerd moeten worden.

Ter vergelijking: de tesla v100 heeft een tdp van 300watt. Deze intel gpu heeft een bijna 5x zo groot oppervlak...

edit: de nvidia v100 gv100 gpu is een 12nm chip, onduidelijk is of deze xe gpu op 7 of 10nm gebakken is.

[Reactie gewijzigd door terradrone op 23 juli 2024 06:46]

Een package is wat anders dan een die. Je vergelijkt nu een geschatte package size met een bekende die size. Op basis daarvan kan je niet stellen dat de Intel chip een "5x zo groot oppervlak" heeft.

Neem bijvoorbeeld een Intel 9900K, die heeft een die-size van 177mm2 en een package size van 1406mm2 om maar even te laten zien dat de package niet direct iets zegt over de grootte van de chip eronder.
AuteurAverageNL Nieuwsredacteur @Dennism3 mei 2020 16:47
Dit klopt inderdaad - ik zal even een stukje toevoegen om dat verschil duidelijker te maken in de tekst zelf
Potverdikkeme, zit ik toch even aan mezelf te twijfelen, maar nu blijkt inderdaad het artikel ge-edit te zijn. Wist toch zeker dat de tekst eerder anders was :) . Niets ten nadele en offtopic, maar toch even belangrijk om te vragen: hoe kan je zien of een artikel ge-edit is? Op zich niet erg, maar als je het niet kunt zien ga je aan jezelf twijfelen namelijk...
AuteurAverageNL Nieuwsredacteur @terradrone4 mei 2020 00:12
Edits komen niet automatisch in het artikel te staan, maar we laten wel in de reacties weten dat de tekst is aangepast, zoals hier :)

Ik had jou overigens wel moeten taggen in mijn reactie (of de reactie direct onder jouw bericht moeten plaatsen) om die twijfel te voorkomen. Zo'n tag zet ik er eigenlijk altijd bij, maar dat ben ik hier klaarblijkelijk vergeten :X Excuses daarvoor!
Precies package formaat zegt niets over chip formaat en tevens bestaad het package naar alle geruchten uit 4 Tiles zoals Intel de chiplets noemt en 4 HMB geheugen chips en wie weet wat er mogelijk nog meer in het package zit.

[Reactie gewijzigd door speedhaste op 23 juli 2024 06:46]

In theorie is de limiet nu 375W met 75W uit het slot en 2x een 8pin connector. Maar zelfs dat die je haast nooit, in de praktijk zie je vaak 8pin en 6pin voor totaal 300W.

Zou wel gaaf zijn haha 3x 8pin voor een max van 525W! Wel een flinke AIO nodig..

[Reactie gewijzigd door Navi op 23 juli 2024 06:46]

Het lijkt me dat deze lga chips niet in een pci-e houder worden geklemd, maar eerder in speciale sockets op een moederbord. (Zo een als de Intel CPUs ook hebben). Als je ze dan strategisch plaatst zou je een eigen airstream per chip kunnen maken in zo'n serverkast.

Zie ook de afbeeldingen onderaan dit artikel.

Edit: typo + linkje

[Reactie gewijzigd door DaveAEP op 23 juli 2024 06:46]

Ik hoop dat je zelf doorhebt dat dit een grap is? :+
Het gaat hier duidelijk om satire. Als dat het niet duidelijk maakt dan moet je eens kijken naar de upload datum.

[Reactie gewijzigd door TechSupreme op 23 juli 2024 06:46]

Mijn AMD Vega 64 van Sapphire heeft al 3x 8pin :+ en das een kaart van 2 jaar oud.
We weten helemaal niet hoe groot de "chip" is. De afmetingen die hier in het artikel zijn gegeven voor de tesla v100 is de die-size, wat door tom's hardware is afgeleid van de afmeting van de foto met de verpakking is het formaat van de heatspreader. Normaal gesproken hebben GPU's geen heatspreader.

Tevens qua koeling: er is gespeculeerd dat de chip 500w gaat verbruiken. Dat zou resulteren in een lagere vermogens dichtheid (W/mm2) dan de tesla.

[Reactie gewijzigd door somososan op 23 juli 2024 06:46]

Ter vergelijking, de nvidia gv100 heeft 21100 miljoen transistoren, de intel xe gpu zou "tens of millions transistors" hebben, zit toch redelijk in dezelfde orde van grootte. Het gebruik van "chiplets" brengt de totale grootte van het geheel natuurlijk snel omhoog in vergelijking met één stuk silicium.

Vraag me af, als dit een 500watt-er moet worden, zoals @Navi al omschreef is het maximum op te nemen vermogen 375watt. Waar en hoe zouden ze de extra 125watt vandaag halen??
Een derde 8 pin connnector?
Uhm, ja? Kan/mag dat? Dat zou voor het eerst zijn.

Ik zit hier naar te kijken:
https://www.game-debate.c...ower-hungry-graphic-cards

De R9 295X2 zou een 500watt-er zijn, maar heeft toch 2x 8pin pci-e , onduidelijk hoe ze aan het totale vermogen van 500watt komen?
Gewoon er vanuit gaan dat de 8pins veel meer kunnen leveren. Ik vind dit persoonlijk echt totaal idioot, maar destijds was bijna iedereen er van overtuigd dat het prima kon.

In praktijk lukt het bijna elke goede voeding wel om 200-250 watt over een 8 pin te krijgen, de kabels en de plug zelf zouden het aan moeten kunnen. En in theorie zul je de 295x2 niet samen zien gaan met een budget whitebox PSU. Maar of het netjes is laat ik aan een ieder over.
Dat dit elektrisch mogelijk is daar twijfel ik niet aan. Maar dit is een product bedoelt voor datacenter / enterprise use. Daar wordt niet gesproken in termen van "we gaan er maar vanuit dat het kan". Het is dan ook niet zo dat er een enkel product in een servertje ergens staat te draaien; denk meer in de orde van grootte van vele xe cards in rekenclusters in 19" racks.

Je praat dan over zakelijke orders in de orde van grootte van al snel tonnen - miljoenen dollars. Dan MOET alles gecertificeerd en 100% werkend voor 24/7 use onder zware load zijn. Dit is een usercase die ver staat van een consumenten videokaartje in een blikken end-user behuizing.

Daarom vraag ik me af volgens welke specificatie ze het voedingsgedeelte gaan oplossen. Voor een consumenten videokaartje kan er wellicht nog eens creatief met met zaken omgesprongen worden, bij producten voor enterprise use zeker niet.
Is niet voor het eerst. Mijn Vega 64 van Sapphire heeft 3x 8pin voor power.
Sodemieters, da's voor het eerst dat ik zoiets zie :) , en uniek! Hoef je geen kachel aan te zetten in de winterdag! :)
"tens of millions transistors"
billions ipv millions
En dan vraag ik mij nog af hoe dit monster goed te koelen is, zou dolgraag dit wel eens in de praktijk willen zien draaien en installeren _/-\o_
ik denk dat deze methode het goed kan koelen.
https://www.youtube.com/watch?v=YyKIZPuepl8
ben benieuwd wat de TDP is van deze GPU ;)
Tussen de 300 en 500W voor de HP (high power) versie als ik me niet vergis.
Welke handige Tweaker ontwerpt hier even een PCB'tje voor?
Geef me de documentatie en komt voor me kaar
kan je het nog wel een GPU noemen als het ding voor gewone berekeningen wordt ingezet? het is eerder een generieke coprocessor geworden.
Heb even zelf de pads zitten tellen (vraag me niet waarom, ik verveelde me) en ik tel er 3056. Dat is toch wel een stuk meer dan 2688. https://i.imgur.com/la4PhyB.png
Begint langzaam wel wat te kijken op de gerecoverde CPU van de terminator😝
Misschien kan iemand iets zeggen over de batterij die erbij ligt. Is dit een AA of 18650? Aan de hand daarvan kunnen we wat meer afleiden.

Het lijkt erop alsof er 2 dies op zitten op deze package. Ik zie 2 identieke layout's dus ik ga er even vanuit dat er twee dies zitten in een package. Aangezien Intel al een tijdje gebruik maakt van die size packages zal het verschil tussen de package en de die echt minimaal zijn.

Ik ga ervan uit dat er twee die's in zitten omdat een langwerpige die niet echt efficient is qua productie, veel afval. Maar goed, dit spul kost ook wel wat dus kan ook goed zijn dat ze het ding maken uit een die.
Lijkt me een AA want 18650 hebben over het algemeen niet die + terminal "nipple"
Ik vind dat je goede en prettig leesbare artikelen schrijft Daan!
AuteurAverageNL Nieuwsredacteur @SpiceWorm3 mei 2020 16:48
Dat vind ik fijn om te horen. Bedankt! :)
Offtopic, maar is dat nou een ikea batterij???
Had u liever een banaan voor schaalvergelijk gezien? :+
Hier alvast een review
Wat een beest van een kaart zeg
https://youtu.be/s13iFPSyKdQ
Mwa, hij (zijn ventilator?) klinkt als een grasmaaier...
Dat is een 1 april grap.
Negatieve framerate? Hoe werkt dat?
Ik had het pas door toen hij alle kabels eruit trok |:(

En toen zag ik de datum wanneer de video was geupload... :z

[Reactie gewijzigd door Verwijderd op 23 juli 2024 06:46]

Was bij mij hetzelfe zo, las dit en kon het niet laten te delen
Bedankt voor de tranen in m'n ogen :D

K'had de hints kunnen zien. "Made in denmark" op de GPU, "Bungholio marks" en ik dacht nog hee is dat een nieuwe benchmark tool? 8)7

@2:31 "UEFI 1.45 - 2019 ROG BitchinExtreme :+

Maar wow wat goed gedaan door die gast. _/-\o_

[Reactie gewijzigd door Verwijderd op 23 juli 2024 06:46]

Haha dan moet je ff naar zn acount en dan die van de gtx 2090 opzoeken, ik deed het in me broek 😀
met pungholio mark de eindscore: rechtsonderin: Share on Tinder

Op dit item kan niet meer gereageerd worden.