Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Vermoedelijke Intel Ponte Vecchio Xe-gpu's verschijnen bij handelscommissie

Er is een drietal Ponte Vecchio-gpu's van Intel verschenen op de website van de Euraziatische Economische Commissie. Hieronder zouden twee gpu's met add-in-card-formaat vallen. De gpu's bevinden zich alle drie vooralsnog in een testfase.

De registraties bij de handelscommissie werden gespot door Twitter-gebruiker momomo_us. Eén van de producten die bij de handelscommissie verscheen, is volgens de listing een upgrade-kit. Dit kan vermoedelijk gaan om een losse Ponte Vecchio-module, die bijvoorbeeld in serverracks gebruikt kan worden, zo schrijft Hardware.info.

Bij de overige twee varianten wordt echter 'aic' vermeld. Dit staat vermoedelijk voor 'add-in-card', wat mogelijk betekent dat het om losse gpu's gaat. Intel toonde eerder al dat de datacenter-gpu's ook op een moederbord geïntegreerd kunnen worden, net als enkele gpu's van Nvidia, waaronder de Tesla V100. De upgrade-kit-variant bevindt zich volgens de vermeldingen nog in een alpha-fase, en wordt nog getest door Intel en derde partijen. De twee vermoedelijke aic-modellen zitten nog in een pre-alpha-fase.

De Ponte Vecchio Xe-gpu's maken gebruik van chiplets op basis van Intels 7nm-procedé, zo meldde Intel vorig jaar. De videokaarten zijn bedoeld voor high-performance computing-gebruiksgevallen, zoals gebruik in supercomputers en datacenters. De gpu's moeten in 2021 op de markt verschijnen, en zullen onder andere gebruikt worden in de Aurora-supercomputer.

Door Daan van Monsjou

Nieuwsposter

25-04-2020 • 17:14

18 Linkedin

Reacties (18)

Wijzig sortering
Ik vraag me af of Ponte Vecchio nog enige raakvlakken met Larrabee heeft. Of dat het echt om een wezenlijk ander product gaat? Waar Larrabee zelfs x86 compatible was, lezen we over Ponte Vecchio "Ponte Vecchio will be programmed using what Intel calls OneAPI, a unified programming API that the company is releasing both as an Intel-specific beta product and an open specification. The idea is that developers would be able to program different Intel chips—Intel Core processors, Intel FPGAs, Xeon, and more—with a single toolset, Intel said."

https://www.pcworld.com/a...t-xe-gpu-for-servers.html
Het antwoord moet ik u schuldig blijven, maar de geschiedenis van Larrabee en deze Aurora (gepland voor 2018!!!) is wel interessant:

2009: Larrabee wordt gecancelled. De techniek wordt samen met het Single-chip Cloud Computer-project voortgezet in de "Knights" serie (Xeon Phi).
2011 Eerste Intel-"manycore" commerciële product op de markt: Knights corner, 22nm FinFET (FinFET was toen nog helemala nieuw).
2013: Opvolger "Knights Landing" (14nm) aangekondigd; gaat draaien in de snelste supercomputer ter wereld.
2014: Opvolger "Knights Hill" (10nm) aangekondigd.
2015: Aurora aangekondigd, deze zou gebruik maken van de 10nm Knight Hill. Geplande opleveringsdatum: 2018.
2017: Intel geeft toe, dat 10nm episch mislukt is; het Knights Hill-platform krijgt het mes in de rug; en het is duidelijk dat "Aurora klaar in 2018" een fabeltje is.

Intussen is er een nieuwe realiteit:
  • Als Aurora toch drie jaar uitgesteld gaat worden, dan moeten de prestaties een factor hoger zijn om nog mee te kunnen doen,
  • Binnen HPC is er een verschuiving geweest van deductieve taken (algemene regels waaruit speciale gevallen worden berekend, bijv. "natuurwetten" als algemene regels en "kernexplosie" als speciaal geval) naar inductieve taken ("Machine Learning": Van heel veel bijzondere gevallen via inferentie een algemene regel proberen af te leiden).
Wat is echter een mogelijk probleem: 10nm GPU's waren afhankelijk van een technologie genaamd "Contact Over Active Gate" (COAG).

2018:
  • Intel geeft aan dat hun eerste 10nm is verscheept; het zal de enige Cannon Lake-SKU zijn (normaal zijn er tientallen, zoniet honderden) die ooit verkocht wordt. De GPU in deze chip heeft het mes in de rug gehad; deze zit er wel op maar is uitgeschakeld!!!
  • Meest waarchijnlijke reden: COAG is een epische mislukking.
  • Gevolg: Het is voor Intel praktisch onmogelijk een goed-presterende GPU te maken op het eerste 10nm-proces.
Vervolgend heeft iemand kennelijk besloten, dat het 7nm-proces gebruikt zal moeten worden voor de Aurora voor 2021; en dat de technologie moet worden aangepast van het oorspronkelijk in 2015 geplande "GPGU"-doel richting "Machine Learning".

Met andere woorden, door het episch falen van Intel 10nm en het uitstel van 3 jaar; is de taak die de Aurora-computer zal gaan vervullen, drastisch veranderd. AI (Machine Learning) is de nieuwste (en belangrijkste?) taak voor exa-scale supercomputers geworden; dus Xe zal daar wel op aangepast zijn.

Wat misschien niet iedereen gelijk doorheeft (of mischien heb ik het fout?), is dat in het Grieks alphabet de letter "Xi" (Vecchio Xe!!!) na na de letter Phi komt. In die zin, is Xe dus de opvolger van Phi; terwijl Phi de opvolger van Larrabee was.

2020: De eerste roddels verchijnen online, dat de Aurora een "flaming mess" is. Mocht dat zo zijn, dan is het de vraag of 2021 gehaald wordt; zoals door T.net hierboven beschreven. Als dat niet gehaald wordt, zou de Frontier (AMD Epyc) mogelijk de eerste Exascale-supercomputer worden.

[Reactie gewijzigd door kidde op 25 april 2020 19:39]

Pure speculatie dit maar toch:

Intel heeft flink wat geld in Larrabee gestoken de chip zo als deze ontworpen was heeft nooit de markt bereikt al zijn er wel aardig wat aanwijzingen dat dat niet zo'n slecht idee was. Omdat volgens zeer veel geruchten de chip flink minder presteerde dan gehoopt.

Intel heeft vervolgens een aantal zeer vooraanstaande GPU ontwerpers aangenomen door ze met grote zakken geld en een 'greenfield project' te lokken.

Nu lijkt het mij heel erg sterk dat deze ontwerpers tot de conclusie zijn gekomen dat het gefaalde ontwerp van hun voorgangers echt zo veel beter was dan het geen zij bij de concurrenten waar ze hier voor werkte hebben ontworpen. Daar komt ook bij dat de eisen die nu gesteld worden aan een GPU toch echt wat anders zijn dan toen men begon met het ontwerp van Larrabee. Nu zijn de GPU's bedoeld om naast een heleboel driehoekjes tekenen en die vullen met verschillende kleuren, ook zeer belangrijk als parallelle execution unit die zeer goed is met floating point berekeningen. Iets dat eigenlijk puur toevallig bleek zeer goed te werken met de huidige populaire GPU architectuur. Het ontwerp van Larrabee was dusdanig anders dat het maar de vraag is of zo'n chip ook zo goed zou zijn als het gaat om dit soort HPC berekeningen. Wat natuurlijk niet zo gek is toen men aan Larrabee begon was het hele rekenen met de GPU nog zeer nieuw en was er ook bij Intel nog niet het idee dat dit wel eens een hele nieuwe tak van sport zou kunnen worden voor de toekomstige GPU's.

Al met al lijkt het me heel erg sterk dat Intel er voor gekozen heeft de gefaalde GPU als basis voor de nieuwe GPU te gebruiken. Er zullen vast wel een aantal dingen geleerd zijn tijdens dat project en die kennis zal vast ook zijn ingezet tijdens het nieuwe project maar ik het zou zo maar kunnen zijn dat men bij Intel geleerd heeft dat het ontwerpen van een GPU toch best lastig is en een hele nieuwe weg inslaan wat betreft het ontwerp van de GPU is erg interessant maar ook zeer risicovol en is leuk als startup met andermans geld maar erg duur als gevestigd bedrijf dat de gehele R&D zelf moet betalen.

Ik vraag me heel erg af of het Intel nu eindelijk gaat lukken om een voet tussen de deur te krijgen op de GPU markt, wat betreft de GPU's waar je ook geld mee verdiend. Want ondanks dat Intel heel erg veel GPU's levert wordt er vrijwel niets aan verdiend (allemaal geintegreerde chipjes) en Intel heeft erg hard een nieuwe inkomsten bron nodig nu het AMD steeds sterker ziet worden, ARM de desktop en server markt begint te ontdekken en veel van de andere halfgeleider producten van Intel in middels verkocht zijn dan wel te specialistisch zijn om echt grote winsten mee te maken omdat de markt te klein is.
is dit niet gewoon de chiplet design idee van AMD?
Er is een paper over chiplet design door AMD en IBM. Jim Keller die voor Amd werkte en mee de Zen architectuur heeft ontworpen werkt nu terug voor Intel. Grote mono-litische chips zijn gewoon niet meer houdbaar omdat er zoveel mis kan gaan. Als je dat in kleine delen kunt kappen en dan via een bus aan elkaar hangt kun je veel meer chips uit 1 wafer halen (maar dat wist je wrs al)

Ik had gedacht dat RTG met de eerste chiplet gpu ging komen maar daar is precies nog iets mis mee.
Raja Koduri was de persoon die het chiplet idee voor grafische kaarten wilde gebruiken bij AMD, maar kreeg daar weining resources beschikbaar om het te ontwikkelen en werd terug gefloten door de leiding om een monolithic design te gebruiken. Achter de schermen de nodige zaken gebeurd waar wij als buiten staanders nooit het fijne van zullen weten, maar het e.e.a. heeft geleid tot het vertrek van Raja Koduri welke dus bij intel aan de slag gegaan is waar hij met meer resources aan de slag kon gaan om chiplet architectuur vorm te gaan geven voor de GPU afdeling, waar dit dus een vroege vorm van lijkt te zijn.
Ik heb wel meer rare codenamen zien langskomen maar Ponte Vecchio is wel een van de opvallendste. Moest meteen aan de brug denken :P
De lijst van meren in de Verenigde Staten zal wel uitgeput zijn ;)

Het is vooral opvallend, omdat de grootste concurrent was begonnen met verengelste Italiaanse steden (Naples, Rome, Milan, Genoa)."Venice" en Palermo zijn vroeger ook al gebruikt; AMD is de voorloper van Casa de Papel ;)

Intel kiest voor een brug in een Italiaanse stad die niet in dat rijtje voorkomt, dus de opvolger kan sowieso al geen "Rialto" (Venetie), "Ponte Sant’ Angelo" (Rome) of Gaiola (Napels) heten. Ik gok op "Ponte Tiberio" (Rimini).

Of het blijft niet bij bruggen in alleen Italië: als er door Intel naast sillicium in de plaats van kobalt voortaan goud zou worden gebruikt, zou 'Golden Gate' extreem toepasselijk zijn :p

[Reactie gewijzigd door kidde op 25 april 2020 20:15]

Ha! Kan me niet voorstellen dat er niet meer VS meren zouden zijn (of er zijn intern heel veel namen gebruikt voor mislukte cpu's ?)

Ik meen me van school te herinneren dat Finland te meeste? meren had.
Dus bijv. Lake Sääksjärvi , of Lake Pyykösjärvi‎ ?

wiki: De Finse Merenvlakte is een enorme beboste vlakte met een oppervlakte van ruim 100.000 km² in het binnenland van Finland. In dit gebied liggen ongeveer 60.000 meren (zo'n 25% van het hele gebied), waarvan vele door korte rivieren, beken en kanalen worden verbonden, waardoor ze commerciële waterwegen vormen.
Gelet op de trackrecord van de Italiaanse bruggen van de laatste jaren, zou ik toch voor een andere reeks namen kiezen. |:(
De vorige keer dat Intel zoiets uitbracht - hebben ze al die bedrijven en univ's die er in geïnvesteerd hebben goed bij hun 'piep' gehad. Gaat men zich opnieuw laten foppen?
Waarom krijgen die voorrang?
Ik kan zo snel niks vinden over het hebben van voorrang in het artikel. Kan je misschien iets meer details geven waar je het over hebt?
die kwamen van rechts
Zijn Intel drivers nog steeds zo brak voor gaming als 5 jaar geleden? Ik probeerde toen te gamen op een Macbook met Bootcamp, en er waren zo veel glitches en artifacts... Ze kunnen allerlei benchmarks van prestaties er tegenaan gooien, maar zonder fatsoenlijke drivers kun je er niets mee.
Als ik me niet vergis zijn deze core's in eerste fase bedoeld voor AI en big data en niet om te gamen, je zal er wel op kunnen gamen maar dat is niet echt de bedoeling, dus verwacht er geen wonderen van. Vergeet niet dit is Intel hun eerste echte big GPU.
Helpt ook niet echt mee dat je een Mac hebt natuurlijk.
Gezien deze op 7nm worden gemaakt en gpu's complexer zijn dan cpu's vraag ik mij af of het 7nm procede misschien niet al verder is dan intels 10nm procede? Door het nog steeds uitblijven van 10nm+ cpu's met veel cores en hoge kloksnelheden lukt het daar nog niet om goede chips mee te bakken. Als op deze gpu's op 7nm de kloksnelheden hoog genoeg worden dan lijkt het mij dat cpu's met veel cores en hoge kloksnelheden ook te maken moeten zijn op dit 7nm procede. Doet intel er niet beter aan om 10nm op een laag pitje te zetten en direct naar 7nm te gaan voor ook hun cpu's? Deze gpu's moeten in 2021 verschijnen, net als hun 10nm+(+?) cpu's, kan je dan niet beter de cpu's ook op 7nm gaan produceren? Voor de concurrentiestrijd met amd zal het geen overbodige luxe zijn.

Op dit item kan niet meer gereageerd worden.


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True