Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 18 reacties

Intel heeft een nieuw bedrijfsonderdeel opgericht waarin alle ontwikkelingen met betrekking tot kunstmatige intelligentie worden samengebracht. De Artificial Intelligence Products Group wordt geleid door Naveen Rao, hij was ceo van Nervana Systems, dat door Intel werd overgenomen.

Het doel van het nieuwe bedrijfsonderdeel is om alle ontwikkelingen op het gebied van kunstmatige intelligentie binnen Intel samen te voegen. Ook zegt Intel een nieuw onderzoekslab op te richten dat zich volledig richt op kunstmatige intelligentie. Daar zal de chipgigant experimenteren met nieuwe architecturen en algoritmes die ingezet kunnen worden voor kunstmatige intelligentie.

Naveen Rao staat aan het hoofd van de nieuwe Artificial Intelligence Products Group. Hij was de ceo van Nervana Systems, een start-up die zich specialiseerde in deep learning en kunstmatige intelligentie. Het bedrijf werd in augustus vorig jaar overgenomen door Intel. Een paar maanden na die overname kondigde Intel een strategie aan om de prestaties van toepassingen voor kunstmatige intelligentie te verbeteren.

Intel wil daarvoor met eigen accelerators komen, die de concurrentie met gpu's aan moeten gaan. In de eerste helft van dit jaar moet Intels eerste Nervana-product uitkomen, dat ontwikkeld wordt onder de naam Lake Crest. Dit product is nog grotendeels gebaseerd op de ontwikkelingen van Nervana Systems zelf en wordt daarom nog op 28nm bij TSMC geproduceerd. Waarschijnlijk wordt later de overstap naar een kleiner procedé bij Intel gemaakt.

Ook werkt Intel aan Knights Crest, een combinatie van een Xeon-processor en een Nervana-accelerator. Tegen 2020 moet het Nervana-platform de tijd die het duurt om deep-learningmodellen te trainen, met een factor honderd hebben teruggebracht ten opzichte van gpu's, is de belofte van Intel.

Intel Nervana AI DayIntel Nervana AI DayIntel Nervana AI DayIntel Nervana AI DayIntel Nervana AI DayIntel Nervana AI Day

Moderatie-faq Wijzig weergave

Reacties (18)

Nu hadden ze de kans om het SkyNet te noemen, doen ze het niet :9
Moet dat niet Cyberdyne zijn?
Dat is waarschijnlijk een beschermde naam :)..
Skynet is het satelliet controle systeem van de AI en dat is al heel lang geleden opgezet in afwachting van de quantum computers (de quantum chip van D-Wave Systems) en Cyberdyne heet tegenwoordig Dyncorp.

[Reactie gewijzigd door fevenhuis op 26 maart 2017 03:55]

Lijkt mij fantastisch om hiermee te mogen experimenteren. Echter verwacht ik dat de prijzen fors zullen zijn in het begin. Ik wacht nog even af. :+
Zoals met alles dat nieuw is zullen prijzen in beginsel wellicht bizar zijn. Daarna belachelijk hoog, gevolgd door absurd duur. Dan komt te duur voor de normale sterveling om dan een tijd stabiel te blijven op best wel prijzig.... Daarna wordt het steeds iets goedkoper totdat er een punt komt dat het betaalbaar wordt. En dan is het wachten tot het moment dat de concurrentie mekaar gaat dwingen het in de uitverkoop te gooien. ;)
En als laatste maakt MediaTek er een processortje van die in low-budget telefoons terecht komt ;)
Eerst half jaar al? Ze willen er snel bij zijn.
Dit wordt een interessante ontwikkeling om in de gaten te houden.
Blijkbaar ziet Intel in Deep Learning toekomst, gezien hun recente aankopen van bedrijven en hun roadmap wat betreft het specifiek ondersteunen van DL toepassingen met hun accelerators.

De belofte om met deze Nervana accelerators Deep Neural Nets 100x sneller te kunnen trainen, vergeleken met de beste GPU's, in 2020, is een mooi streven. Dit zou een hele grote winst zijn en kan NVidia van hun huidige sterke positie beroven.

Ik ben benieuwd hoe de ondersteuning hiervoor wordt, aangezien veel frameworks nu gebaseerd zijn op CUDA en samenwerkt met NVidia. De Intel producten worden geoptimaliseerd voor hun "eigen" DL platform Neon, maar dit framework wordt nog niet erg veel gebruikt.
Ik denk dat het een belangrijke stap is voor Intel om in de toekomst relevant te blijven voor de grote spelers die heel veel Intel CPUs afnemen; zoals Google en Facebook. In feite moet Intel op dit gebied concurreren met de eigen interne onderzoeksgroepen van die bedrijven die ook bezig zijn met custom hardware voor AI/ML/DL te ontwikkelen. Natuurlijk zullen er ook wel andere partijen geinteresseerd zijn, maar ik ga er van uit dat dit toch allemaal datacenter spul wordt voor in de cloud.
"Intel CPU's" - dat is vrij irrelevant hier. Deep Learning is simpelweg geen CPU werk. De grote spelers die veel Intel CPU's afnemen zien geen verband tussen die CPU's in appliicatie-servers, en de Deep Learning algoritmes die in andere servers op GPU's draaien. Sterker nog, goede kans dat die DL servers een simpel ARM SOC'je hebben wat alleen dient om de GPU's van trainingsdata te voorzien, en andere regie-taakjes. Daar heb je niet eens een quad-core ARM voor nodig.
Intel heeft Altera overgenomen om zich in te kopen in de FPGA-markt. Die worden dan weer veelvuldig ingezet om neurale netwerken te accelereren en te voorkomen dat je met zulke snelle ontwikkelingen steeds binnen de kortste keren met achterhaalde hardware zit. Microsoft zet bijvoorbeeld groot in op servers die FPGA's aan boord hebben om bijvoorbeeld bewerkingen voor zoekopdrachten te accelereren. Dit artikel bespreekt hoe Altera (nu Intel) FPGA's al in iedere Azure-server te vinden zijn en hoe zich dat verhoudt met Nvidia-GPU's.

Intel heeft dus al een prima positie op die markt en is hard bezig om die te verbeteren. De stap in dit artikel is daar een logisch vervolg op. FPGA's zijn flexibel en ideaal voor snelle ontwikkeling en wisselende taken, maar een ASIC is doorgaans zuiniger en sneller. Als je eenmaal weet wat je wilt is dat het logische pad.

[Reactie gewijzigd door Camacha op 24 maart 2017 21:17]

Slim dat Intel hier al in investeert, want de x86 franchise is gewoon eindig.

En ik denk dat custom accelerators inderdaad wel een kans maken tegenover GPU's, al is dit niet 100% zeker vanwege het feit dat GPU's natuurlijk al in volume worden geproduceerd en dus schaalvoordelen genieten.
Als je kijkt naar de concurrentie, dan heb je't over high-end NVIdia GPGPU's, zoals de P100. Dat is ook geen hoog-volume chip.
Weather changes moods

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Samsung Galaxy S8+ LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One (Scorpio) Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True

*