Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 20 reacties

Intel heeft een strategie onthuld om de prestaties van toepassingen voor kunstmatige intelligentie te verbeteren. De chipfabrikant komt met het Nervana-platform, dat modellen voor deep learning sneller moet trainen dan gpu's.

Volgens Intel-ceo Brian Krzanich draait 97 procent van de datacenterservers voor ai-toepassingen al op Intel-producten, zoals de Xeon-processors en Xeon Phi-accelerators. De concurrentie door accelerators op basis van general purpose gpu's, zoals Nvidia's Tesla-kaarten, neemt echter toe, vooral bij het trainen van neurale netwerken. Om deze concurrentie te pareren komt Intel met Nervana.

Intel kondigde in augustus aan Nervana overgenomen te hebben en in de eerste helft van 2017 moet het eerste product uitkomen, dat nu nog onder de werknaam Lake Crest ontwikkeld wordt. Omdat die ontwikkeling nog grotendeels door Nervana zelf is gedaan, wordt het eerste product nog op 28nm bij TSMC geproduceerd. Later zal waarschijnlijk de overstap op bijvoorbeeld 14nm bij Intel gemaakt worden.

Lake Crest is een accelerator die uit twaalf op een chip gerangschikte processingclusters bestaat. De interconnects voor de asic betreffen volgens EETimes bidirectionele 100Gbit/s-verbindingen en door de combinatie met 32GB hbm2-geheugen, is de geheugenbandbreedte 8Tbit/s.

Intel NervanaIntel NervanaIntel Nervana

Intel werkt ook aan Knights Crest; dit is een combinatie van een Xeon-processor en een Nervana-accelerator. Tegen 2020 moet het Nervana-platform de tijd die het duurt om deep-learningmodellen te trainen met een factor honderd hebben teruggebracht ten opzichte van gpu's, is de belofte van Intel.

Intel kondigde daarnaast aan dat Knights Mill in 2017 verschijnt. Dit is een op 14nm geproduceerde Xeon Phi-accelerator die op x86 gebaseerd is. Knights Mill kan 400GB geheugen direct aanspreken. Ten opzichte van de huidige Knights Landing Xeon Phi, die een rekenkracht van 7Tflops biedt, zou Knight Mill vier keer betere prestaties neerzetten.

Ten slotte maakte Intel bekend dat het bedrijf de eerste op Skylake gebaseerde Xeons heeft verzonden naar klanten. Deze chips, die eerder de codenaam Purley droegen, beschikken onder andere over Advanced Vector Extensions 512 voor vectorberekeningen. Een van de klanten zou Google kunnen zijn: dat bedrijf kondigde aan een nieuwe alliantie met Intel te zijn gestart voor datacenterhardware.

Intel Nervana AI DayIntel Nervana AI DayIntel Nervana AI DayIntel Nervana AI DayIntel Nervana AI DayIntel Nervana AI Day

Moderatie-faq Wijzig weergave

Reacties (20)

Nvidia heeft mbt tot AI learning een versnellingsfactor van 65 bereikt in de laatste 4 jaar. Dus 100x sneller tov de huidige GPUs is dus niets raars.
Als het minder zou zijn, zou het helemaal niet interessant zijn. nVidia heeft volgens mij al een volgend jaar al een antwoord klaar met Volta met 48GB HBM2 geheugen.

Samen met hun persbericht over automotive deze week (wat gebracht werd om Intel de meest interesante automotive chipmaker te laten lijken), lijkt of Intel nVidia als de nieuwe belangrijkste concurrent heeft bestempeld.
nVidia is waarschijnlijk te goed bezig.
Ja, nVidia doet het goed! Dan is het niet meer dan logisch dat Intel meegaat :)

Misschien een beetje offtopic, maar waarom gebruiken de "hardcore" gebruikers van dit soort platformen geen FPGA's of platformen zoals https://www.xilinx.com/applications/automotive.html of https://www.xilinx.com/applications/data-center.html ?

Kan je hier niet veel meer winst halen qua snelheid?
Die wachten nog even tot deze FPGA er is, of deze CPU + FPGA wat breder beschikbaar komt.
Je kunt ook gewoon een vette FPGA kopen en die in je PC proppen, dat levert een vergelijkbaar platform op en je hoeft niet te wachten. Je moet wel een diepe buidel hebben, de grootste FPGA van Xilinx kost iets van $25k. Maar dan heb je ook wat...

Ik zie alleen het verband tussen teraflops en AI niet zo. De natuur heeft blijkbaar een efficientere aanpak, en bereikt meer met veel minder energie.
Op dit moment is het een kip en het ei probleem.

Iedereen beseft dat de rekenkracht nodig is, dat sowieso niet door x86 geleverd kan worden, echter mis je het stukje software dat door de massa gebruikt kan worden.

Nvidia heeft een redelijk platform afgeleid van GPU met aparte software,
Intel kiest voor FPGA dat nog simpeler is waarbij je helemaal los kunt gaan met de software want daar is praktisch niets gedefinieerd.


Ondanks het feit dat Nvidia op dit moment een voorsprong heeft zie ik het wel gebeuren dat Intel het overneemt.
Nvidia neemt weer legacy mee vanuit de GPU en Intel niet.

[Reactie gewijzigd door Iblies op 18 november 2016 17:34]

Simpele reden: FPGA's zijn volstrekt ongeschikt voor dit doel. Zelfde reden dat je DDR of GPU niet van FPGA's gemaakt is. FPGA's zijn flexibel, niet snel.

De inzet van GPGPU's voor Neurale netwerken komt omdat Neurale Netwerken net zoals GPU's baat hebben bij brede, heel brede vector units. Dir vector units hoeven niet veel verschillende operaties te kunnen, als ze er maar veel in parallel kunnen doen.
Je vraagt je af waarom Intel Nvidia niet overneemt.
Omdat Nvidia zelf een goed lopend bedrijf is. En waarschijnlijk dit niet wil/kan betalen. :9
Omdat Nvidia zelf een goed lopend bedrijf is. En waarschijnlijk dit niet wil/kan betalen. :9
En als er een Autoriteit is met een beetje verstand zullen ze dat nooit goedkeuren. Intel heeft al te veel macht in de markt waar ze in opereren.
Intel en Nvidia zou er voor zorgen dat AMD helemaal niet voor zou kunnen overleven en Intel een (PC) GPU monopolist zou zijn.

Tevens denk ik dat NVidia er zich met hand en tand tegen zou weren, NVidia en Intel zijn geen vrienden.
Tja Nvidia is ook gewoon beursgenoteerd dus een vijandige overname zou ook zo maar kunnen. Als je maar genoeg biedt gaan de aandeelhouders vaak toch wel akkoord,

Maar idd de autoriteiten zullen die overname niet snel goedkeuren, hetzelfde wanneer Intel bijv AMD over zou willen nemen.

[Reactie gewijzigd door mkools24 op 18 november 2016 16:54]

Tja Nvidia is ook gewoon beursgenoteerd dus een vijandige overname zou ook zo maar kunnen. Als je maar genoeg biedt gaan de aandeelhouders vaak toch wel akkoord,

Maar idd de autoriteiten zullen die overname niet snel goedkeuren, hetzelfde wanneer Intel bijv AMD over zou willen nemen.
Dat zou een mededingingsautoriteit nooit mogen/kunnen goedkeuren.
Nvidia heeft mbt tot AI learning een versnellingsfactor van 65 bereikt in de laatste 4 jaar. Dus 100x sneller tov de huidige GPUs is dus niets raars.
Als het minder zou zijn, zou het helemaal niet interessant zijn. nVidia heeft volgens mij al een volgend jaar al een antwoord klaar met Volta met 48GB HBM2 geheugen.

Samen met hun persbericht over automotive deze week (wat gebracht werd om Intel de meest interesante automotive chipmaker te laten lijken), lijkt of Intel nVidia als de nieuwe belangrijkste concurrent heeft bestempeld.
nVidia is waarschijnlijk te goed bezig.
Als je de berichtgeving volgt is NVidia op dit moment koploper op het gebied van hardware, rekenkracht, voor Autonoom rijden.

Op zich logisch dat Intel ook een graantje van deze markt wil meepikken.

Het nadeel van Intel is dat hun hardware nog heel erg veel energie slurpt, wat je zeker niet wil in een elektrische auto.
Introducing the Intel® Xeon Phi™ Processor – Your Path to Deeper Insight

Mogelijk dat Nervana.er voor zorgt dat de hardware een stuk zuiniger wordt. Ik kan niet zo snel informatie over het verbruik van de Nervana Engine vinden.
GPUs zijn gespecialiseerd in parallel draaien van eigenlijk alles, maar hun shaders etc zijn nogal algemeen. Als je zoals Intel nu vooral AI wilt trainen, kun je een heleboel schrappen, en bouw je effectief een ASIC.

Echter vraag ik me af waarom ze dit willen fuseren met hun Phi-series (de Knights-benaming wijst daarop), want dat zijn x86-cores met heel veel ballast aan boord. De grote reden om daarop te draaien is omdat je parallelle x86-code hebt, die toegang moet hebben tot heel veel synchroon gehouden geheugen. Heb je dat niet, of ben je bereid het om te vormen naar OpenCL/CUDA code, dan valt de hele reden voor de Phi weg.

Ik ben daarom bang dat dit een product wordt dat zal moeten zoeken naar een markt om in te leven. Gezien de concurrentie (GPUs, ARM-clusters, of gewoon schaalbare CPU-bakken) is dat lastig.
GPUs zijn gespecialiseerd in parallel draaien van eigenlijk alles, maar hun shaders etc zijn nogal algemeen. Als je zoals Intel nu vooral AI wilt trainen, kun je een heleboel schrappen, en bouw je effectief een ASIC.

Echter vraag ik me af waarom ze dit willen fuseren met hun Phi-series (de Knights-benaming wijst daarop), want dat zijn x86-cores met heel veel ballast aan boord. De grote reden om daarop te draaien is omdat je parallelle x86-code hebt, die toegang moet hebben tot heel veel synchroon gehouden geheugen. Heb je dat niet, of ben je bereid het om te vormen naar OpenCL/CUDA code, dan valt de hele reden voor de Phi weg.
Volgens mij zeggen ze niet dat ze Nervana met de Xeon Phi serie gaan fuseren. Er staat:
“We expect the Intel Nervana platform to produce breakthrough performance and dramatic reductions in the time to train complex neural networks,” said Diane Bryant, executive vice president and general manager of the Data Center Group at Intel. “Before the end of the decade, Intel will deliver a 100-fold increase in performance that will turbocharge the pace of innovation in the emerging deep learning space.”

Bryant also announced that Intel expects the next generation of Intel Xeon Phi processors (code-named “Knights Mill”) will deliver up to 4x better performance1 than the previous generation for deep learning and will be available in 2017.
Eerste alinia, ze verwachten aan het ein dan dit decenia een verwachitng van het Intel Nervana platform.

tweede alinea, 2017 komt de “Knights Mill”.

Er is helemaal niet duidelijk wat Intel gaat doen. Mogelijk dumpen ze hun eigen "Knights", Xeon Phi, platform ten gunste van het "Nervana" platform.
Aangezien at platform van 2020 nog niet klaar is zullen ze toch wat moeten leveren. Daarom dat het logisch is dat ze de Xeon Phi sowieso verder ontwikkelen.
Ik ben daarom bang dat dit een product wordt dat zal moeten zoeken naar een markt om in te leven. Gezien de concurrentie (GPUs, ARM-clusters, of gewoon schaalbare CPU-bakken) is dat lastig.
Dat denk ik ook een tevens ene onnodig duur product tegenover GPU's, omdat deze alleen alleen voor specialistische zaken ingezet kunnen worden.
Xeons? Misschien komt dan binnenkort een update van de Mac Pro uit.
Xeons? Misschien komt dan binnenkort een update van de Mac Pro uit.
Ik begrijp je verwarring. Ze heten allebei Xeon, Xeon en Xeon Phi, maar hebben niet zo veel met elkaar te maken, buiten de naam en de ontwikkelaar (Intel).
Je kunt een Xeon Phi niet als enige "processor" inzetten op een plaats waar Server Xeon ingezet wordt.
Knights Landing was nog een co-processor en kon inderdaad niet als hoofdprocessor functioneren, maar dat wat alleen de eerste generatie. Vanaf Knights Corner kunnen ze zelfstandig functioneren.
Intel gaat strijd met gpu's aan voor kunstmatige intelligentie
of
Intel gaat strijd aan met gpu's voor kunstmatige intelligentie


Om te kunnen reageren moet je ingelogd zijn



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True