Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel geeft details over Ponte Vecchio-Xe-gpu voor datacenters

Intel werkt onder de naam Ponte Vecchio aan een gpu voor datacenters en supercomputers. Het is een variant van de Xe-gpu die bestaat uit 7nm-chiplets. Intel gaat nodes maken met zes gpu's en twee Xeon-cpu's en alles onderling verbinden met de CXL-interconnect.

Intel gaat de Ponte Vecchio-gpu gebruiken in Aurora, de Amerikaanse exascalesupercomputer die eerder dit jaar werd aangekondigd. Intel heeft nu bekendgemaakt dat de Ponte Vecchio-gpu's uit verschillende 7nm-chiplets bestaan. Die chiplets worden met elkaar verbonden via Intels emib en de fabrikant gaat ook zijn Foveros-techniek voor het stapelen van chips gebruiken.

Concrete details over de opbouw van de Ponte Vecchio-gpu geeft Intel niet. Zo is niet duidelijk uit hoeveel chiplets de gpu bestaat en welke onderdelen er gestapeld worden. Om verschillende gpu's onderling met elkaar te laten communiceren, maakt Intel de Xe-interconnect. Die is gebaseerd op de CXL-interconnect op basis van pci-e 5.0.

Die interconnect kan ook ingezet worden om de gpu's te verbinden met processors. Voor de komende Aurora-supercomputer gaat Intel nodes maken die uit zes Ponte Vecchio-gpu's en twee Sapphire Rapids-processors bestaan. Laatstgenoemde zijn Xeon-cpu's die in 2021 uit zullen komen en op een verbeterd 10nm-procedé worden gemaakt.

Ponte Vecchio is gebaseerd op de Intel Xe-gpu. Onder die naam werkt Intel aan gpu's voor allerlei toepassingen. Volgens AnandTech heeft Intel tijdens een presentatie nog eens aangegeven dat er één Xe-architectuur is, die aangepast wordt afhankelijk van de toepassing. Zo zal de variant voor datacenters toegespitst zijn op kunstmatige intelligentie, double precision-berekeningen en een hoge geheugenbandbreedte.

Nog voordat de Ponte Vecchio-gpu voor datacenters uitkomt, zal Intel een Xe-gpu voor gamers uitbrengen. Dat moet ergens in 2020 gebeuren. Eind oktober maakte Intel bekend dat er voor het eerst een Xe-gpu op een pcb is gemonteerd en dat deze succesvol is aangezet.

Door Julian Huijbregts

Nieuwsredacteur

18-11-2019 • 12:33

26 Linkedin

Reacties (26)

Wijzig sortering
De grote vraag is of Intel wat in de kast heeft om de CUDA-dominantie van Intel te doorbreken. Want ondanks dat AMD inmiddels een CUDA-implementatie heeft, kiest iedereen met CUDA-code zonder uitzondering voor Nvidia en voor Intel dreigt eenzelfde situatie.

De tweede vraag is of Intel van plan is de royale marges van Nvidia op Tesla-kaarten stevig aan te pakken, of dat ze maar net ietsje onder de Tesla-prijs gaan zitten.
Het lijkt erop dat ze voor een Sycl implementatie gaan, die ze DCP++ (Vast voor marketing doeleinden) noemen als je deze PDF mag geloven: https://software.intel.co...APIProgrammingGuide_5.pdf
Als je die kant uit gaat, een nieuwe API naast CUDA en OpenCL, dan begin je vanaf nul en moet de programmeurs van deze wereld hun code laten porten. Ik zeg niet dat het kansloos is, want Intel heeft het vermogen om programmeurs te beïnvloeden, maar de opgave waar ze dan voor staan is groot en de kans op falen ook. Dan is de kans groot dat CUDA dominant blijft.
Ik meende juist, maar kan het mis hebben, dat Sycl ( https://www.khronos.org/sycl/ ), juist bouwt op OpenCL, waardoor het juist een vrij breed gedragen standaard zou moeten zijn. Ik meende namelijk dat AMD Instinct bijvoorbeeld ook met Sycl overweg zou kunnen. In dat opzicht zou ik deze keuze van Intel om Sycl te supporten in hun "OneAPI" dan ook redelijk logisch vinden, je bent dan compatible met o.a. OpenCL waardoor je niet "alleen" staat tegen CUDA.
Volgens mij heb je ook nog wel technici die hun code op de verschillende beschikbare architecturen testen om te kijken hoe het performt voordat ze een systeem of supercomputer aanschaffen. Als intel hier een goede prijs, prestatie, verbruik kan halen met een goede software ondersteuning dan is er best wel wat te winnen ten opzichte van de CUDA heerschappij.
De tweede vraag is of Intel van plan is de royale marges van Nvidia op Tesla-kaarten stevig aan te pakken, of dat ze maar net ietsje onder de Tesla-prijs gaan zitten.
Misschien dat de marges van Intel op consumenten processoren, voordat AMD met concurrerende producten kwam, je een richting geeft?
Nee, daar kan je geen conclusies uit trekken. Voor zakelijke produkten kiest Intel er soms voor om prijsvechter te zijn, bijvoorbeeld met Omnipath zijn ze vaak stukken goedkoper dan Mellanox met infiniband. Dat was ook een situatie waar Intel een dominantie wilde doorbreken. Kortom, Intel kan hoge prijzen vragen, maar als het moet weten ze ook wel wat ze moeten doen om de concurrent het lastig te maken.
De grote vraag is of Intel wat in de kast heeft om de CUDA-dominantie van Intel te doorbreken.
De grote vraag is of Intel wat in de kast heeft om de CUDA-dominantie van Intel Nvidia te doorbreken. :)

[Reactie gewijzigd door aToMac op 18 november 2019 13:06]

Daar hebben ze OneAPI voor bedacht! Ik vind het vreemd dat daar niet op in wordt gegaan. Ze zeggen daar een openstandaard van te maken, nu heeft AMD dat ook wel geprobeerd, maar Intel heeft ook het budget en de clout om de belangrijke benodigde bibliotheken voor lineaire algebra en Neural networking te maken en onderhouden.

Worst case voor AMD is dat er straks drie standaaarden zijn, de marktleider CUDA en intel met zijn gigantische budgetten.
nvm al gezegd

[Reactie gewijzigd door Gizzy op 18 november 2019 15:27]

Zo zal de variant voor datacenters toegespitst zijn op kunstmatige intelligentie, double precision-berekeningen en een hoge geheugenbandbreedte.
Opmerkelijk. De AI wereld gaat van FP32 (single precision) naar INT16 en INT8. Veel behoefte aan FP64 is er niet meer. Geheugenbandbreedte is dus ook veel minder essentieel, eerder cache-bandbreedte en cache-grootte (moderne AI netwerken zijn megabytes groot, soms tientallen MB).
Dat staat hier niet heel duidelijk, maar dit worden als losstaande elementen bedoelt. Dus niet double precision vanwege AI, maar naast AI ook double precision. In het originele Anandtech artikel staat het imo duidelijker:
For high-performance computing, the presentation highlighted three key areas that the Xe architecture will be targeting. First is a flexible data-parallel vector matrix engine, which plays into the hands of AI acceleration and AI training in a big way. The second is high double precision (FP64) throughput, which has somewhat been disappearing of late due to reduced precision AI workloads, but is still a strong requirement in traditional HPC workloads like, weather, oil and gas, and astronomy.
Dus die bevestigd wat jij schreef, FP64 is er niet voor AI, maar voor andere berekeningen.
Voor zover ik begrepen is just bij supercomputers, waar het hier over gaat, FP64 juist nog altijd zeer belangrijk en worden ook de top 500 lijstjes e.d. altijd nog gebaseerd op de FP64 performance van deze supercomputers.
Klopt, voor een heleboel rekentaken was (en is) het wel van belang. Maar juist omdat Intel aangeeft dat ze meerdere modellen gaat maken zou je verwachten dat er een AI-datacenter model naast het FP64-datacenter model komt.
Er zullen inderdaad meerdere modellen komen, er zou zelfs in 2020 al een dGPU op de markt moeten komen voor instap "gaming" op basis van de Xe architectuur. En zo zullen er ook vast verschillende uitvoeringen komen voor de verschillende niches binnen het datacenter gebruik.
Op supercomputers is verreweg de meeste code dubbele precisie. Er wordt een beetje KI op supercomputers gedraaid zodat ook daar vraag is gekomen naar enkele/halve precisie, maar de bulk blijft dubbele precisie.
Vroeger had je mainframes, toen gingen we juist naar hardware lokaal wegens vele voordelen. Nu gaan we langzaam eigenlijk weer terug naar de Mainframe situatie, lokaal alleen basic nodes en het rekenwerk weer centraal(cloud). Ik vraag me af of we dan uiteindelijk ook weer lokaal zullen gaan of dat de cloud een blijvende evolutie is.

Je ziet in ieder geval vooralsnog dat bedrijven als Intel en Nvidia hier steeds meer op in lijken te zetten.
Na de cloud is nu weer de edge populaire aan het worden :p de zogenaamde decentrale cloud :p
Ik denk dat alles in de cloud blijft. Het heeft, voor zover ik kan nagaan, veel meer voordelen om gecentraliseerd dingen te doen:
- je professionals hoeven maar op een plek aanwezig te zijn
- zodra er plaats is van schaalvergroting (zoals bij ongeveer alle industrieën) werkt iets efficienter
Maar stel je wil dingen doen die buiten de omvang van je cloud systeem zijn, maar niet perse buiten omvang van PC hardware? Het is juist de limitaties van mainframes waardoor mensen steeds meer naar lokaal gingen. Er is in maar 1 killer applicatie nodig welke wel lokaal maar niet vanuit de cloud kan draaien om mensen weer de andere kant op te bewegen.

Stel even een toekomst visie. Het is het jaar 2030 en iedereen gamed alleen nog maar via Google Stadia en niemand heeft meer dikke videokaarten thuis staan. Op een dag ontwikkel ik echt de killer game, zeg maar de Grand Theft Auto van 2030. Echter is het niet mogelijk om via Stadia te draaien want Google geeft mij bepaalde toegang niet. Ik besluit om deze gewoon als lokale download te releasen. Wat denk je dan dat er gebeurd? Het zou niet de eerste keer zijn dat mensen hardware aanschaffen voor een specifieke game.

[Reactie gewijzigd door ro8in op 18 november 2019 13:26]

Ik denk dat je onderschat hoeveel waarde mensen hechten aan 'makkelijke' dingen. Kijk naar streaming platformen: heel gemakkelijk te gebruiken, alles in de cloud, vast bedrag per maand en op die manier heel veel content beschikbaar.
Misschien zie ik een kleine groep mensen inderdaad hardware aanschaffen voor zulke dingen, maar dat zijn vaak meer mensen zoals ze op Tweakers voor komen. De mensen die toch wel met hardware zelf bezig blijven.
Het is volgens mij vooral een golf beweging: Centrale computers, Persoonlijke computers, Servers, mobiel, cloud, edge.... Ik denk dat 'Vijver' een leuke volgende, in het engels: 'pond' of 'lake'. Maar 'kanaal' (channel) of rivier (river) of iets anders met een oever zou ook kunnen.

Uiteindelijk zal het daar terecht komen waar het handig is. Waarbij "handig" kan zijn voor de ontwerper, handig voor de maker, handig voor de verkoper, handig voor de koper en misschien wel handig voor de gebruiker.

'het' is hierboven in te vullen voor 'censors' en voor 'verwerking' en voor 'opslag'.

En voor de commercie is het vooral daar waar geld te verdienen is.
Jammer dat Intel nog steeds geen informatie heeft gegeven over hun variant voor gamers. Iedereen is inmiddels toch wel benieuwd naar wat ze kunnen leveren en zeker tegen welke prijs.
Dat ze daar nog geen informatie over hebben is niet echt vreemd, de eerste exemplaren zouden pas sinds kost "werken" (als in ze kunnen gestart worden). Zie o.a. nieuws: Intel heeft prototype van Xe-gpu aangezet en lijkt testchips te verst...

Voor zover mij bekend staan deze kaarten voor eind 2020 op de planning, dat je nu nog geen specs en prijzen hebt is dan mijn inziens niet direct vreemd te noemen. Volgens mij komen AMD en Nvidia ook pas vrij kort voor release met de specs en prijs informatie.
Nu houd ik normaal niet zo van het delen van links naar YouTube video hier op tweakers.net.
Maar soms wil ik daar wel een uitzondering voor maken, dus bij deze voor de liefhebbers:
= Intel's GPU is not what you think

@ https://www.youtube.com/watch?v=4PZw75K9ydY

En deze is iets of topic, maar maakt zo ook mooi gelijk de verschillen tussen AMD's & NVidia's GPU's en dus AMD's RDNA en NVidia's Pascal en Turing architecturen duidelijk:
= RDNA vs TURING - The END of NVidia’s dominance

@ https://www.youtube.com/watch?v=5FDN6Y6vCQg&t=696s

Interessante materie kan ik melden (althans dat vond ik zelf dan)
;)

[Reactie gewijzigd door SSDtje op 18 november 2019 16:20]

Intel heeft ooit nog zo'n ding gemaakt voor datacenters - en ineens er de stekker uitgetrokken. Gaan ze een 2e keer in die dure valkuil lopen? Ik denk het niet...
Intel zal staalharde garanties moeten geven.
Zelf beschouw ik intel als een extreem onbetrouwbare partner. Een partner die ons jaren en jaren en jaren uitgeperst heeft als citroenen - dat verdedigt toch niemand?

Op dit item kan niet meer gereageerd worden.


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True