Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel maakte al in 2015 melding van eigen aparte gpu

Door , 39 reacties

Op een slide van een Intel-presentatie uit 2015 maakte het chipbedrijf al melding van een 'Cannonlake'-gpu die als accelerator op een Skylake SP-package geÔntegreerd moest kunnen worden. Intel lijkt daarmee langer aan aparte gpu's te werken dan gedacht.

Intel presenteerde de slide in 2015 tijdens een HPC-congres in Polen, als onderdeel van een presentatie over Purley, de codenaam voor de Skylake SP-Xeons. Ashraf Eassa van The Motley Fool constateerde dat de desbetreffende slide melding maakt van 'Cannonlake graphics & media transcode' als optionele geïntegreerde accelerator voor Xeon-processors op basis van Skylake EP.

Aangezien Cannonlake op 10nm geproduceerd wordt en Skylake SP op 14nm, zou het om een afzonderlijke component gaan die on package geïntegreerd zou worden. Bij de uiteindelijke presentatie van de Skylake SP-Xeons ontbraken de opties voor integratie van fpga's en de Cannonlake Gen10-gpu's. Desondanks lijkt uit de slide op te maken dat Intel al langer het plan heeft om afzonderlijke gpu's te ontwikkelen, in aanvulling op de geïntegreerde gpu's die het bedrijf on die produceert.

Vorige week had Intel enkele opvallende aankondigingen op gpu-gebied. Het bedrijf gaat Radeon-gpu's op dezelfde package als Core-processors plaatsen en het neemt Raja Koduri in dienst om high-end gpu's te ontwikkelen. Koduri is afkomstig van AMD's Radeon-divisie en gaat bij Intel de Core and Visual Computing Group leiden. De nieuwe divisie is in het leven geroepen om gpu's voor datacenters en client computers te ontwikkelen.

Door Olaf van Miltenburg

NieuwscoŲrdinator

13-11-2017 • 11:01

39 Linkedin Google+

Reacties (39)

Wijzig sortering
Tja, Intel zou de komende maanden Nervana uit gaan brengen. Dat is een deep learning chip, die direct tegenover Nvidia haar Tesla chips gepositioneerd zal worden. Koduri zijn aanstelling bij Intel betekent niet dat Intel opeens aan GPU's zal gaan werken. Dat doen ze nu al twintig jaar. Ze begonnen met de teleurstellende Intel740, daarna kwamen er generaties van slecht tot matige presterende IGP's, en nu Nervana.
https://www.intelnervana.com/

Het gaat Intel met Nervana ook niet om grafische applicaties, maar om de parallelle prestaties van een GPGPU. Het doel is deep learning. Koduri zal nu aan de slag moeten met deze markt. Een markt waar Intel nu al jaren in probeert te komen, zonder succes. Daarnaast is er de mogelijkheid dat Intel haar IGP's gaat vervangen voor iets beters. Dat is wel afhankelijk van licentierechten op patenten en IP's die Intel van Nvidia en/of AMD moet krijgen.
Intel si aan het kopen. Nervana is een recente aankoop, maar eerder heeft Intel ook Movidius overgenomen. En die hardware is al te koop - er steekt een oversized USB stick uit de PC tegenover me.
Ik weet het. :)
Kennelijk hebben ze bij Intel, richting de $20 miljard uitgegeven aan bedrijven voor wat nu de zevende poging gaat zijn om de deel learning markt op te komen. Iemand zoals Koduri kopen met een aanbod dat hij niet kon weigeren zat er dan ook wel in. Nervana is alleen heel iets anders dan een USB capable device. Het schijnt om een GPU van rond de 500mm2 te gaan, monsterchip dus. Uiteraard met flink wat HBM2 want dat is de gouden standaard voor AI onderzoek. Komt door de goede acces times en read/write cycles van HBM2 bij zowel kleine als grote datasets. GDDR5/5X/6 is zwakker bij kleine datasets, en dat is niet acceptabel voor deze chips.

Ik vraag me alleen af waarom nu. Ja, er is gelegenheid omdat ik denk dat Koduri richting overspanning ging met al zijn taken bij AMD, maar hij komt nu binnen terwijl het eerste product al bijna uitgebracht zal worden. Op zijn vroegst zien we Koduri zijn werk pas over vier jaar. Ondertussen is het de vraag wat Nervana gaat doen. Het is een deep learning GPU, en daar is de software minstens zo belangrijk. Een pijnlijke les die AMD heeft geleerd. Het was Koduri die AMD eindelijk haar eigen software ecosysteem gaf. Ik vermoed dat dit ook zijn eerste taak zal zijn voor Intel.
Een eigen Intel ecosysteem voor Deep Learning? Mogen we Tensorflow dan overbood gaan gooien? Ik zie dat niet zo gauw gebeuren.

Overigens is het logisch dat de Movidius chip via USB werkt. Dat is inference, het toepassen van een getraind neuraal netwerk. Kost nauwelijks bandbreedte en al helemaal geen geheugen.

Over geheugen gesproken, waarom HBM? Volgens mij is dat geen latency/timing probleem (data valt perfect te prefetchen) maar puur bandbreedte. HBM gaat tot 4096 bits breed waar je bij GDDR zo tussen de 256 en 512 bits zit.
Ja een eigen ecosysteem rond de hardware. Dan gaat het niet om bepaalde standaarden exclusief maken, maar wel om de ondersteuning voor te bieden. AMD komt binnenkort bijvoorbeeld met ROCm 1.7. Onder andere komt er dan ondersteuning voor Tensorflow.
https://www.anandtech.com...7-with-tensorflow-support

Hier zijn ze nu al een heel tijd mee bezig bij AMD, en Koduri was hier een drijvende kracht achter.

HBM2 dan. HBM2 is in staat om datasets uit te lezen of op te slaan zonder een afkoelperiode van enkele cycles zoals GDDR5/5X nodig heeft. Combineer dat met de noodzaak om vaak, kleine datasets aan te spreken en dan zijn de voordelen voor HBM2 enorm. Je kan met GDDR5/5X ook enorme bandbreedten halen, maar geen enkele deep learning chip die gebruik maakt van GDDR5/5X, en daar is een reden voor.
daarna kwamen er generaties van slecht tot matige presterende IGP's
No offense, maar de Intel IGPs zijn absoluut niet slecht, ze vallen natuurlijk in het niet ivm. het higher end grafische geweld. Maar het heeft er voor gezorgd dat zowel AMD als NVidia opnieuw moesten definiŽren wat 'low-end' is op de GPU markt. De nieuwere IGPs presteerde beter dan menig low-end kaart die toen op de markt was. Dat maakte het leven beter voor de consumenten!
Exact, de Iris Pro 580 bij voorbeeld doet het uistekend als je kijkt naar de TDP.

De mijne zit in een Skull Canyon NUC en kan op 1080p medium gewoon prima games als Heroes of the Storm, Overwatch en World of Warcraft draaien.
Ja idd - als je kijkt naar de performance-per-watt van de Intel IGP's, dan is er weinig te klagen. Maar gamers willen doorgaans zo hoog mogelijke absolute performance, los van het verbruik.
Ik dacht dat nVidia of ATI voorheen chipsets met IGP maakte, maar de ontwikkeling van dit soort IGP's is dus niet meer interessant doordat Intel een IGP in de cpu heeft gestopt. Waarom nog een igp kopen als er al eentje bij je cpu zit? Volgensmij waren die dingen van nVidia/Ati wel iets sneller, dus de low-end markt was niet opnieuw gedefinieŽrd!

Kan even geen benchmarks meer vinden...
In principe was de 740 van Intel niet zo heel slecht maar destijds barstte het 3D geweld los met 3dfx en Nvidia en liep Intel in 1 keer hopeloos achter.

Ze hadden de concurrentie gewoon niet zien aankomen.
Volgens mij heeft dit alles te maken met de deal van Intel met nVidia. Intel had al een licentiedeal met nVidia maar is nu dus overgestapt op AMD GPU's, dat zal wel uit kosten zijn.
nieuws: Intel en Nvidia begraven strijdbijl met verrassende deal
Er waren sinds vorig jaar al geruchten over Intel en AMD.
nieuws: Gerucht: Intel stapt over op gpu-licentie van AMD Radeon
nieuws: Intel ontkent licentie op AMD's grafische technologie te nemen
nieuws: Intel en AMD werken samen aan nieuwe laptopchip - update

Intel wil af van deze licentiedeals en is dus al waarschijnlijk sinds 2015 zelf met iets bezig. In 2015 verkocht intel ook haar aandelen Imagination Technology wiens technologie Intel ook gebruikt heeft. https://www.pcper.com/new...-Imagination-Technologies

Nu is dus duidelijk dat Intel een tweede poging tot een eigen high-end GPU gaat doen. Intel heeft de laatste tijd ook al bedrijven overgenomen die met AI bezig waren, dus ben benieuwd wat dat gaat worden, het zal wel een soort van nVidia Volta worden, GPU plus AI hardware.
Ook met de vermoedelijke opkomst van VR/AR zal Intel wel een deel van deze taart weg willen snoepen.
Zelfs als je helemaal niet van de licentiedeals af wil, dan nog is het beter om alternatieven achter de hand te hebben. Onderhandelingen kennen het concept van "BATNA", Best Alternative To a Negotiated Agreement. Wat heb je als je wegloopt? Hoe beter je alternatief, hoe meer je in onderhandelingen kunt eisen. En bij licentieonderhandelingen vertaalt zich dat direct in prijs.

En dat voordeel van een eigen GPU als backup optie werkt niet alleen richting NVidia, maar ook richting de recente onderhandelingen met AMD. Dat zal ook daar een paar miljoen schelen. Ik denk daarom dat Intel niet opeens gaat stoppen met die eigen GPU. Het moet een geloofwaardig alternatief blijven, om te voorkomen dat Intel opeens kritisch afhankelijk van een concurrent is.
Bekijk deze AdoreTV video eens met uitleg :*) :*) AMD Inside - The Beginning of the End for Nvidia in PC?.
Kijk ook eens zijn ander video eens, erg interresant en veel informatie betreffende hoe de dingen in elkaar stekken en werken op GPU en CPU markt. _/-\o_ _/-\o_
Interessant, dan zijn ze nu(gokje) al redelijk ver met de ontwikkeling van zo'n chip. Het grootste probleem word volgens mij optimalisatie voor spellen, aangezien die doorgaans aan nVidia techniek gewend zijn
Intel is al langer bezig met Xeon gpu op basis van de x86 architectuur. Dit is uiteindelijk een co-processor geworden die je in een server kon zetten, dit was echt voor een beperkte usecase wenselijk. Ondertussen hebben ze dit verbeterd en op een moederbord gezet. De basis is echter wel een FPGA en Intel Graphics. https://www.intel.com/con.../xeon-phi-processors.html
Ze hebben ook al de Visual Compute Accelerator, een pci-e-kaart met drie Xeons met Iris Pro-graphics voor transcoderen en rendering: https://www.intel.com/con...te-accelerator-brief.html
Dat lijkt me ook het probleem voor Intel.

Een deel van je taken wil je kunnen afschuiven op je GPU omdat die dat sneller afhandeld.

Zelf helemaal ontwerpen zouden ze nieuwe standaard moeten forceren, dat gaat jaren duren terwijl veel software-bedrijven de gpu al als ondersteunende processor gebruiken.

Aansluiting zoeken bij een van hun grootste concurrent Nvidia lijkt me ook niet interessant. Die gebruikt deels hun eigen techniek CUDA.

AMD lijkt dan de betere keus en vervolgens volle bak aan de slag met eigen drivers/hardware.
Maar die GPUs worden toch op AI en machine learning gefocust? Dat is wat veel geld nu oplevert, dat is ook de reden waarom nVidia in de beurs zo goed doet, en ze verwachten veel geld van AI.
Ik vraag me af hoe dat http://openswr.org/ hier in past.
Je kunt je beter afvragen wie heeft er meer overwicht bij Microsoft om ze te overtuigen. nVidia is monopolist in deze markt. Maar onderschat niet hoe dominant Intels in de cpu markt is en de invloed die het met zich mee brengt. En dan gaan Intel en AMD ook samen werken om een all in one cpu/gpu packet op de markt willen brengen.
Ik heb er niet zoveel verstand van deep learning etc, dus zou iemand in Jip en Janneke taal kunnen uitleggen waarom een gpu daarvoor beter geschikt is dan een cpu?

[Reactie gewijzigd door WarmongerNL op 13 november 2017 11:57]

Zowel cpu als gpu doen berekeningen, maar beide zijn ze gespecialiseerd in ander soort berekeningen. De cpu is meer gericht op algemene berekeningen die voor bv voor kantoorapplicaties vaak voldoen. De gpu is - naast grafische berekeningen - o.a. ook geschikt voor cryptografie, waaronder het minen van Bitcoin.
Sorry, maar dit is heel erg fout. Kantoorapplicaties hebben niks te maken met CPU/ GPU optimalisatie. Een CPU rerkent heel snel op 1 som. Als je afhankelijkheden heb (uitkomst 2 is input voor 3 enz) dan is een CPU de oplossing voor je probleem
Een GPU kan heel veel sommen gelijktijdig uitvoeren. Wanneer je bijvoorbeeld 500 lijnen op een scherm wil tekenen en daarvoor de CoŲrdinaten moet berekenen (er is geen onderlinge afhankelijkheid) dan is de GPU de oplossing. Maar ook eiwitten vouwen, fotoshop, en alles wat parallel kan worden opgedeeld wint de GPU.
Het feit dat de meeste office applicaties zonder GPU draaien, is vooral om dat office PC's goedkoop moeten zijn, Outlook / Word / Open Office nauwelijks resources vragen, en prima op de CPU kunnen qua prestaties. Jij draait het verbant precies om!
Ik zie niet hoe ik hier een verband omdraai. Beide soorten processoren zijn gespecialiseerd en dienen hun eigen doel. @WarmongerNL vraagt om Jip en Janneke taal, en dat geef ik. Je hebt denk ik bv (bijvoorbeeld) en o.a. (onder andere) gemist ;)

Feit is dat kantoorapplicaties (Office, boekhouding, mailen, surfen) weinig resources nodig hebben en dus een cpu voldoet. Dat is meer een legacy ding, dat het pc's goedkoper houdt (want geen zware gpu nodig) is een mooie bijkomstigheid en reden dat er overal op kantoren pc's staan. Ook genoeg mensen die niks bijzonders doen qua gebruik hebben zo'n simpele pc.

Een gpu wordt vaak gebruikt voor - inderdaad - de parallelle en zware berekeningen. Zoals gaming, videobewerking, fotobewerking, wetenschappelijk onderzoek en cryptomining. Je kiest over het algemeen pas voor een (serieuze) gpu als het nodig is.
Ik vroeg inderdaad om Jip en Janneke taal, ik had beter Suske en Wiske taal kunnen vragen: Iets gedetailleerder zoals TunderNerd het beschrijft, daar was ik naar op zoek. Beide in ieder geval bedankt voor de moeite.

Gpu dus voor veel sommen gelijktijdig en Cpu voor 1 som.

Zou je dan in principe een cpu uit een pc kunnen laten en alleen een gpu laten draaien?
Euhm, ja en nee, Nu gaan we naar Barabas en Sidonia taal :9~
Een GPU is theoretisch volledig weg te laten. De parallelle rekentaken kunnen ook sequentieel, maar de vraag was andersom...
De computer heeft een Operating System (OS), dit betekend dat er een regelalgoritme actief is dat er bijvoorbeeld voor zorgt dat niet 2 taken gelijktijdig op de zelfde hardware aan het praten zijn (bijvoorbeeld, 2 probeert een USB stick uit te lezen, de ander schrijft vrolijk zijn data over de USB poort). Ook zorgt het er voor dat de juiste data op de juiste plek aankomt (de muisinput is niet voor belang voor je printer), en maakt het 't mogelijk om meerdere taken tegelijkertijd uit te voeren (multi-tasking). Ik vergelijk het wel is met een verkeersregelaar: "hij houd overzicht over wat er in het geheel gebeurd binnen de computer", en dan rekent die ook nog is heel snel. Slimme jongen
Theoretisch gezien kan dit alles wel op een GPU. Echter zijn de rekenkernen vrij "simpel" binnen een GPU. Dit betekend dat het OS mogelijk is, maar het zal vrij langzaam gaan. Daarnaast is het vrijgeven van bussen voor bepaalde hardware (weg vrij maken voor een auto) altijd sequentieel: botsingen betekend ellende! Dit stuk hardware zou je dus extra in je GPU moeten maken. Mocht je dit gaan maken, dan is het interessant om deze ook weer sneller te maken, want dit beÔnvloed het hele systeem! (hogere snelheid op de weg betekend, meer verkeer!). En dan wordt de GPU opeens wel heel erg CPU...
Binnen de markt zie je ook dat GPU's steeds "hoogwaardigere", of uitgebreidere rekenmogelijkheden krijgen, en CPU's meerdere rekenkernen. Ze kruipen naar elkaar toe.
Laat Photoshop nou net een slecht voorbeeld zijn voor je verhaal ;) Photoshop werkt voor 90% op je CPU en roept je GPU enkel voor bepaalde filters aan en het ondersteunen van andere taken.

Hierdoor kun je Photoshop prima met een minimale externe of integrated GPU draaien. CPU in samenwerking met snel en veel geheugen geeft een veel hogere performance ( zoals mijn workstation met een R7 1700 en slechts een goedkope GT 730 Passive LP voor beeld. ). Waarom ze dit doen? Geen idee... het is nou niet zo dat Adobe een goedkoop consumenten pakketje aanbiedt :/

Lightroom is wel een applicatie die vrijwel volledig op de GPU zit overigens.

[Reactie gewijzigd door quintox op 13 november 2017 15:53]

Eerlijk gezegd denk ik dat ze dit doen uit arre moede. De GPU gebruiken lijkt niet echt Adobe zijn ding. Flash bood bijvoorbeeld tot versie 10 dacht ik geen ondersteuning voor video op de GPU. Met als gevolg een hele drukke CPU voor het afspelen van een filmpje, terwijl de dedicated decoding hardware op de GPU niks stond te doen.

Ik snap het ook wel. De GPU programmeren is heel andere koek. Het is niet per sť zoveel moeilijker dan de CPU, maar gebeurt gewoon veel minder dus er zijn veel minder programmeurs die het kunnen. Ik denk dat het voor Photoshop echt wel bruikbaar zou zijn als men er tijd in zou steken.
Het is gewoon een kosten afweging.. same shit waarom de focus massaal op cloud meuk ligt en Ubuntu users 0 liefde krijgen van Adobe. Nieuwe software zoals Lightroom draait vrijwel volledig op de GPU, uiteraard Premiere en AfterEffects ook. Het lijkt ze gewoon geen reet te interesseren om Photoshop de GPU veel beter te laten benutten. Waarschijnlijk met de logica: Fotografen pakken maar Lightroom en UX/UI designers moeten maar gewoon XD kiezen. Rest de vraag voor wie Photoshop nou eigenlijk nog bedoeld is..

[Reactie gewijzigd door quintox op 14 november 2017 10:54]

Meer concurentie is wel goed, kan ik alleen maar toejuichen!

Ik vraag me wel af of ze ook op gaming gebied zullen en kunnen concureren. Nvidia en AMD hebben echt wel een flinke voorsprong. En ik denk niet dat Raja daar heel veel verandering in kan brengen.
Uiteraard is dat vaak goed. Al verwacht ik dat Intel zich meer gaat positioneren voor AI en andere professionele toepassingen. Niet zozeer de game markt waar nvidia en amd zich bevinden.
Misschien zijn ze al in een vergevorderd stadium en hebben ze hem aangetrokken voor het laatste werk.
AMD loopt gewoon erg achter op nvidia. Maar intel kan zomaar met iets revolutionairs komen.
Nou ik heb het altijd al gedacht hoor... Eind 2012 hebben ze Ziilabs/3Dlabs overgenomen en die hebben in het verleden videokaarten gemaakt dus een en een is twee...
Ehhmm, bedoel je nu Intel? Dat is nieuw voor mij. 3DLABS is de maker van de vermaarde Glint en Permedia GPU's. Net keek ik wat op het internet rond, dan krijg ik het niet helemaal eenduidig. Een paar bronnen maken het begrip "bezit" iets genuanceerder. Intel zou in 2012 van de eigenaar van Ziilabs/3Dlabs de rechten verworven op GPU technieken en patenten die afkomstig zijn van Ziilabs/3Dlabs. Een oude Archived pagina van Creative zelf zegt het ook zo:
Creative Technology Ltd today announced it has entered into an agreement with Intel Corporation for Intel to license certain technology and patents from ZiiLABS Inc. Ltd, a wholly-owned subsidiary of Creative, and acquire certain engineering resources and assets related to its UK subsidiary ZiiLABS Limited (formerly known as 3DLABS Limited).
en
ZiiLABS Inc. Ltd (still wholly-owned by Creative) will continue to retain all ownership of its StemCell media processor technologies and patents, and continue to supply and support its ZMS series of chips to its customers. It will also continue to develop devices incorporating the ZiiLABS ZMS-20 and the ZMS-40 media processors.

“Creative will continue to retain ownership of its formidable patent portfolio in the field of 3D graphics and media processing. We will be engaging in discussions to further monetize this valuable collection of 100 plus patents.” added Sim Wong Hoo.
Veel bronnen (phoronix, pcper, kitguru) stellen in ieder geval hun titels wat minder genuanceerd op en lijken te stellen dat Intel Ziilabs gewoon heeft opgekocht. Soms is in de artikels de nuance nog wel te vinden maar als het verhaal van Creative nog de huidige status is dan gaat in ieder geval de beeldvorming aan de haal.

Als we bedenken dat Creative als sinds 2002 eigenaar is van 3DLABS/ZiiLABS dan is er weinig met die GPU kennis gedaan. De vraag is ook hoe relevant die kennis nog was toen Intel in 2012 deze kennis lijkt te hebben geadopteerd. Het toenmalige 3DLABS stelde dat haar focus in 2006 wegdraaide bij GPU's. Dit zou betekenen dat toen Intel in 2012 de transactie met Creative sloot deze kennis al 6 jaar oud was, en nu inmiddels 11 jaar.
Ziilabs is nu een Patent trol van Creative. Dus intel heeft naar mijn weten alleen het team opgekocht. En ja die mensen hebben ervaren met GPU maar of dat op het niveau van AMD en Nvidia ligt betwijfel ik ook.
Volgens mij bedoelen ze integrated graphics in de CPU.

GPU vind ik een terminologie die gebruikt wordt voor een volwaardige grafische kaart die ook daadwerkelijk een slot bezet.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*