Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel schrapt Xeon Phi-accelerator 'Knights Hill'

Door , 20 reacties

Intel past zijn roadmap voor high performance computing aan om zich op exascale computing te richten. Onderdeel van deze strategiewijziging is dat de eerder aangekondigde Knights Hill-generatie van Xeon Phi niet meer verschijnt.

Intel vervangt de Xeon Phi met codenaam Knights Hill door 'een nieuw platform en nieuwe microarchitectuur speciaal ontworpen voor exascale'. Dat meldt Intel enigszins verdekt in een artikel over high performance computing. De precieze reden voor het schrappen van de accelerator noemt het bedrijf niet; details over de vervangende architectuur ook niet.

Intel onthulde de komst van Knights Hill in 2014. Deze zou op 10nm geproduceerd worden en een nieuwe generatie Omni-Path-interconnects ondersteunen. Overigens was er ook sprake van een Knights Mill-accelerator voor deep learning. Wat de status hiervan is, is niet bekend. Xeon Phi heeft zijn oorsprong in Larrabee, een gpu-project met lange voorgeschiedenis, dat uiteindelijk in 2012 tot de introductie van een gpgpu-kaart met vijftig cores op basis van de x86-instructieset leidde.

De laatste kaart die is verschenen, is de Xeon Phi Knights Landing met tot aan 72 cores. Onder andere de Nederlandse 'Nationale Supercomputer' Cartesius, nummer 142 in de actuele Top500 van supercomputers, maakt van Knights Landing gebruik.

Door Olaf van Miltenburg

NieuwscoŲrdinator

14-11-2017 • 18:52

20 Linkedin Google+

Reacties (20)

Wijzig sortering
Het ding valt tussen wal en schip: Het grote voordeel zou moeten zijn dat je bestaande code kunt hercompileren. Dat is inderdaad mogelijk, alleen zijn de prestaties dusdanig teleurstellend dat dit voordeel geheel nutteloos wordt. Je zult dan ook handmatig de software moeten optimaliseren voor de Xeon Phi. Maar als je toch bezig bent, kun je beter OpenCL of zoiets gebruiken, want de rekenkracht van een echte GPU ligt stukken hoger dan die van een Xeon Phi.

Ik vind het wel een beetje jammer, want er is denk ik best wat voor te zeggen voor een architectuur met veel lichte kernen, maar Knights Landing levert gewoon niet.

Dat in combinatie met ronduit krankzinnige bedragen (duizenden euro's voor een processor), zorgt dat er gewoon geen zaak te maken is om er in te investeren en je ook niet even zo maar een machientje om mee te experimenteren neerzet. De Xeon Phi faalt dus niet alleen technsich, maar ook commercieel deugt het niet.
Dat in combinatie met ronduit krankzinnige bedragen (duizenden euro's voor een processor), zorgt dat er gewoon geen zaak te maken is om er in te investeren en je ook niet even zo maar een machientje om mee te experimenteren neerzet. De Xeon Phi faalt dus niet alleen technsich, maar ook commercieel deugt het niet.
Instapmodellen van de Xeon Phi zijn juist heel goedkoop. Intel probeert op die manier developers zover te krijgen ervoor te gaan programmeren. Zelf heb ik er een keer een voor 150,- op de kop getikt. Maar zo te zien zijn ze nog steeds te krijgen voor 350,-.

De high-end modellen van de Xeon Phi zijn ongeveer in dezelfde price range als de NVidia Tesla's. Sterker nog, de duurste die ik tot nu toe heb gezien is de Tesla P100.

Verder eens met je verhaal overigens. Ik pink stiekem wel een traantje weg, maar weet niet zo goed waarom eigenlijk...
Die lage prijzen was het lozen van voorraden, dus eigenlijk min of meer het gevolg van het floppen van de kaarten. Die oude reeks werd aanvankelijk ook voor grote bedragen gelanceerd. Als je nu naar de Phi-7200-reeks kijkt, zeer hoge bedragen.
[...] Als je nu naar de Phi-7200-reeks kijkt, zeer hoge bedragen.
Intel bracht het zelf als development program (dat hebben ze in het verleden vaker gedaan), maar zou inderdaad ook kunnen dat ze gewoon de voorraad kwijt wilden.
Anyways, de Phi-7200 is te krijgen rond de 4,5K euro van wat ik kan vinden. Dat is in lijn met de Tesla's, die qua pricing nog wel een stukje hoger gaan.
Als ik nog een kleine zeer, zeer simpele aanvulling hierop zou mogen leveren:

In het plaatje zie ik dat het tegenvallende '10nm'-proces voor Knights Hill genoemd is, dat lijkt me een zeer belangrijk gegeven.

Vziw is het Intel nog niet gelukt 'grote' 10nm-processoren te maken, alleen de 'kleine' laptop-processoren komen eind dit jaar uit, de grotere (Cannon Lake geloof ik) is uitgesteld tot begin '18 of later. Het lijkt er dus op, dat Intels 10nm proces niet zo geschikt is voor grote processoren, hierbij zijn er teveel defecte en moeten er teveel weggegooid worden.
En daarmee lijkt Larrabee eindelijk dood.

Tja, het doel van deze accelerators was altijd om meer parallelle rekenkracht te genereren dan socket based CPU's zoals de Xeon lijn. Intel probeert nu al jaren in de deep learning en AI markt in te komen, zonder veel succes. Eigenlijk was mislukking na mislukking, en daar hoort deze ook bij. Het is een voornamelijk door Nvidia gedomineerde markt, en Nvidia verdient er enorm mee. Afgelopen jaar is het de datacenter segment van Nvidia verdubbeld, en er zit nog flink wat groei in. Nvidia gooit er ook miljarden tegenaan om maar voor te blijven, want concurrenten zitten zeker niet stil.

https://www.anandtech.com...of-26-billion-for-q3-2018

Nvidia haar enorme opmars gaat uiteindelijk ten koste van server CPU sales voor Intel, of deze accelerators. In dat licht moet je de overstap van Koduri naar Intel ook zien, of de aanstaande Nervana GPGPU van Intel, die deze Xeon Phi lijn direct zal gaan vervangen.

Intel begrijpt heel goed dat desktops nog steeds een constante stroom van inkomsten zijn, maar er zit weinig toekomst meer in. In laptops zit meer toekomst, maar dat is ook geen groeimarkt. De toekomst zit in volume van mobiele apparaten. Intel Atom was een totale mislukking, dus die markt ligt Intel eigenlijk uit qua eigen ontwerpen. Daarom gaat Intel ook ARM chips produceren in haar eigen fabrieken.

Het alternatief voor mobiel zijn servers, Deep Learning en AI applicaties. Daar zet Intel zich helemaal op in.

AMD begrijpt deze ontwikkelingen eindelijk ook, en dat verklaard AMD haar stappen in dit terrein. Het is niet langer het door idioten bestuurde bedrijf dat elke twee jaar radicaal van richting veranderde. Ook worden er niet meer de meest stupide deals gesloten zoals het voor een prikkie verkopen van hun mobiele graphics architectuur aan Qualcomm, die er gigantisch aan hebben verdient...

Koduri zijn eerste chip waar hij behoorlijke invloed op had, Vega 10 is een behoorlijk goede chip voor deep learning. Niet zo goed als GP100 of GV100, maar wel ontworpen voor een fractie van de kosten, en de chip doet het meeste wat een GP100 kan bijna net zo goed. De volgende generatie, Navi zou nog een heel nieuwe stap moeten gaan zetten als de geruchten en hinten kloppen dat het een schaalbare architectuur gaat zijn zoals Epyc. Dan kan AMD langzaam marktaandeel van Nvidia over gaan nemen, door flink onder de prijs te gaan zitten, en er alsnog flink op te verdienen.

Wat helpt is dat AMD ook eindelijk haar eigen softwarestack heeft ter ondersteuning van hun hardware. Dat is ROCm, en dat was keihard nodig. Software die ook beter en beter aan het worden is. Het is ook open source, en ik zou niet verbaast zijn als Koduri naar Intel is gehaald om Nervana aan te sluiten op het software ecosysteem waar hij zelf verantwoordelijk voor was bij AMD. :)

Als laatste zien we dat Intel haar focus radiaal heeft verlegd. AMD is niet langer de vijand, nee dat is Nvidia geworden. ;)

[Reactie gewijzigd door DaniŽlWW2 op 14 november 2017 20:35]

Volgens mij zet Intel de schaakstukken als volgt: Altera-fpga's voor specifieke ai-toepassingen, Nervana-neuralnetworkprocessors voor efficient en zuinig trainen van deep learning en een krachtige gpgpu voor parallelle verwerking. Xeon Phi was tot nu toe de zwakke schakel in die strategie en Koduri zal hier verbetering in moeten aanbrengen met een aanzienlijk betere gpgpu. Intel kan de verschillende onderdelen goed combineren met zijn Xeons, waar het toch al heer en meester mee is, onder andere dankzij emib.
Over FPGAs. De huidige FPGAs geven mooie resultaten voor AI benchmarks, maar het probleem is dat TPUs van o.a. NVidia (Volta), Google en Wavecomp ze al lang hebben ingehaald. Mijn ervaring met FPGA-benchmarks is dat ze erg selectief zijn en het complete plaatje er vaak erg somber uit komt - wordt pas toegegeven als ze volledig in de hoek worden geduwd, en tot die tijd is het herhalen van "dit is wat ik weet" en "zie de whitepapers". Het ontwikkelen van next-gen FPGAs duurt steeds langer en kost 10 keer zoveel als de vorige generatie, waardoor Intel misschien helemaal geen goede koop heeft. We gaan het zien, maar ik ben sceptisch als Intel het wil gebruiken voor HPC.
Koduri zijn eerste chip waar hij behoorlijke invloed op had, Vega 10 is een behoorlijk goede chip voor deep learning. Niet zo goed als GP100 of GV100, maar wel ontworpen voor een fractie van de kosten, en de chip doet het meeste wat een GP100 kan bijna net zo goed. De volgende generatie, Navi zou nog een heel nieuwe stap moeten gaan zetten als de geruchten en hinten kloppen dat het een schaalbare architectuur gaat zijn zoals Epyc. Dan kan AMD langzaam marktaandeel van Nvidia over gaan nemen, door flink onder de prijs te gaan zitten, en er alsnog flink op te verdienen.
Het probleem is alleen dat vega op zich veel rauwe performance kan leveren alleen wel tegen een veel hoger verbruik, vega is net gelanceerd en presteert bijna zo goed als de pascal maar zeker niet als volta. Als we geruchten mogen geloven zal volta aanzienlijk efficiŽnter zijn dan pascal. Er is dan geen enkel bedrijf dat AMD over nV neemt, want het gaat om meer dan alleen performance en prijs. In een systeem met 1000 a 5000 gpu's is die 100 of 50 watt extra per gpu wel relevant, die energie moet ook weer afgevoerd worden, dat vertaald zich in een duurder systeem, wat je bespaard hebt met je aankoop bij AMD betaal je dubbel weer aan energie kosten en aanpassingen koeling (nog maar te zwijgen over het 'groene' imago dat bedrijven willen uitstralen).
Verbruik moet zeker aan gesleuteld worden, maar AMD/Ati zit in zowel de nieuwe Xbox als PlayStation. Daar gaat een heel nieuw hoofdstuk open omdat er zoveel rekenkracht in zit waardoor AI dat van oudsher al in games zit op een totaal nieuwe level komt.

Weliswaar branche-specifiek maar het heeft zijn waarde.


Verbruik is hoog, maar er zijn meerdere bedrijven met AMD bezig om dat recht te trekken.
Mede dankzij de console-verkopen zijn ze in staat om net dat beetje meer te eisen,
maar nu Intel weinig keus en moet samenwerken kan dat proces in een stroomversnelling raken.
iNtel vs nV war.
War van CPU vs GPGPU.

Probleem is dat nV zich richt op developers met uitgebreide Cuda middleware en Cuda uitleen programmer. Waarmee de luie dev een wat meer vliegende start kunnen maken.
NV heeft dus flink kapitaal in de markt voor gpgpu computing in de pro markt gestopt.
Zij binden dus de Dev door hun afhankelijk te maken van hun software en daarmee binden met hun hardware.

Conventionele manier is dat die gpu shader steeds general purpouse geworden zijn en dus heel klein zijn.
Als je van groot X86-64 naar kleinere X86-64 kan je flink parrallel gaan maar tov SM5.0 shader zijn het nog steeds fat cores . 72 vs paar duizend. Houd in Larrabee begint pas interresant te worden als het 100x beter presteerd maar dat zit er dus niet in. Moet intel mini doch fat cores het hebben van SIMD extenties. Maar 100x is te veel.
Ik denk dat Larabee faalt omdat gpgpu shader cores compute cores zijn gegroeid maar uiteraard zeer compact zijn en dus duizenden mogelijk zijn.
Big fat Core reduceren lastig is dus je kleinste toch te groot is maar niet in verhouding evenredig presteerd.
72 cores is heel weinig tegen de gpu bigchips met duizenden compute cores.

Ik denk dus dat iNtel nu inzet op conventioneel gpgpu maar dan met gespecialiseerd architectuur in gpgpu.
Met uiteraard de software backing , ze hebben iig ook de kapitaal om hun software voor gpgpu ook de markt in te pushen . Uiteraard met achterstand tov nV.
Denk dat software belangrijker is dan hardware vooral als je de devs al binnen hebt. Dan maakt het ook niet meer uit of de ander beter presteerd. Je gooi je software niet snel om. Dan zit dev dus vast.
Nvidia verdient een groot deel van zijn ontwerp kosten terug met gaming, Intel moet alle kosten van de Xion Phi terug verdienen met de computing markt.

Het GPU deel van Larrabee was essentieel, zonder dat is het moeilijk concurreren.
Was te verwachten na ‘samenwerking’ met AMD/Ati,
zodat ze zich meer konden richten op ‘betere game-perormance’. Onzinnig natuurlijk.


Op dit moment wil je een GPU als co-processor hebben als je een beetje output wilt hebben. Nvidia heeft zich al bewezen met hun eigen kaarten,
Ati heeft best onverwacht de spelconsoles een update gegeven waardoor de Xbox One X tot 6 teraflops kan spuwen.


Intel heeft het nakijken en ze zullen moeten volgen. Nvidia is een te groot risico omdat hun portfolio nou te groot is. Ze zitten allang in mobiel, maar ook in automotive zijn ze de grotere partij en daarmee verwant AI. Probleem dat ook speelt is dat Nvidia een wat afwijkend platform gebruiken voor hun kaarten,
https://en.wikipedia.org/wiki/CUDA

AMD/Ati lijkt op dit moment het minste van twee kwaden.
ATI bestaat sinds 2006 niet meer gezien het toen volledig in AMD opgegaan is, en sinds 2010 word de naam al niet meer gebruikt...
Ik zou denken dat dit mogelijk is omdat Intel recent Raja Koduri heeft ingehuurd en dat ze daardoor dus nu gaan concentreren op het ontwerpen van een nieuwe architectuur.
Intel is gewoon niet goed bezig - vooral die Management Engine in de CPU is gewoon een barslecht idee.
AMD niet zeker met PSP? Of ben je blind voor alles wat AMD uitspookt en kun je alleen maar zien wat Intel doet? Wake up, zou ik zeggen.
Tjah, ik zie ook niet direct wat de IME met dit artikel te maken heeft.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*