Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 96 reacties

Intel onderhandelt volgens geruchten met AMD over het in licentie nemen van grafische technologie. Intel zou AMD's technologie willen gebruiken om de grafische capaciteiten van zijn processors te verbeteren.

De onderhandelingen zijn nog gaande en het is niet zeker of er een overeenkomst uit voortvloeit, bericht Bloomberg op basis van bronnen die bekend zijn met de besprekingen. Details over de inhoud zijn er niet. Een mogelijke overeenkomst zou AMD een broodnodige nieuwe inkomstenbron geven; de chipontwerper lijdt kwartaal op kwartaal verlies en het bedrijf heeft moeite nieuwe markten voor zijn chips aan te boren. Daarnaast lukt het AMD niet om op prestatievlak aansluiting te vinden met Intel met zijn processors, iets waar de Zen-architectuur later dit jaar verandering in moet brengen.

AMD wil niet ingaan op specifieke zaken, maar laat weten dat het bedrijf 'actief op zoek is naar strategische samenwerkingen met als doel zijn intellectuele eigendom naar de markt te brengen op een manier die zijn eigen productplannen aanvult en zorgt voor een toename van het gebruik van AMD-technologie'. Intel wilde niet reageren op het gerucht.

De eventuele onderhandelingen van Intel met AMD hebben mogelijk te maken met het aflopen van Intels meerjarige licentieovereenkomst met Nvidia. Die werd in 2011 gesloten en loopt in maart 2017 af. Intel en Nvidia kwamen tot de wederzijdse patentovereenkomst na jarenlang juridisch touwtrekken over het gebruik van elkaars technologie.

Intel gebruikt de gpu-kennis waarschijnlijk voor low-level technologie. Het concern is al jaren bezig de grafische capaciteiten van zijn processors op te schroeven en daarnaast werkt Intel aan accelerators zoals de Xeon Phi.

Moderatie-faq Wijzig weergave

Reacties (96)

Je zou toch zeggen dat Intel de kennis zelf wel heeft? Ze zijn ook bezig geweest met Larrabee waar ze een hoop kennis hebben op gedaan.
Larrabee was erg leuk maar wel een flop. Ze zetten het ontwerp nu in als een reken kaart. Maar als high end GPU is het project geflopt. (Zie ook de Xeon Phi link)

Intel's IGP's doen het nu best aardig maar komen alleen in de buurt van nVidia en AMD door gebruik van duur EDRAM. Een AMD APU met zo veel EDRAM zou hele mooie prestaties kunnen geven.

Opzich geen slecht idee om samen te werken. Ik ben benieuwd wat dit gaat brengen. Maar een Intel CPU met AMD GPU zou een beetje de doodsteek zijn voor de huidige AMD APU's In het lowend segment is dat nu nog een rede om voor AMD te gaan dan heb je voor weinig geld toch goede GPU prestaties. En redelijke CPU prestaties.

Maar we zullen zien wat de toekomst brengt.
Schiet amd zich dan niet in haar eigen been?
Mogelijk wel aan de andere kant Intel verkoopt momenteel verschrikkelijk veel cpus met gpu. Dus dit zou een hele lucratieve deal kunnen zijn.

Daarnaast krijgt AMD dan een groter gpu marktaandeel en naamsbekendheid bekendheid wat de positie tov nvidia versterkt. Dus cpu Mark opofferen om een betere positie in de gpu markt te krijgen kan best een goed idee zijn.

Het is ook nog afwachten hoe zen het gaat doen. En of die in staat is met high end Intel cpus te concurreren.
Intel heeft leuke grafische chips, maar het heeft niet de ervaring (met grafische high-end producten) die nVidia en ATI (nu AMD) hebben.
Intel heeft een r&d budget dat vele malen groter is dan dat van AMD, zodat deze achterstand in no time in te halen valt.
Wellicht is het goedkoper om een licentie te nemen dan zelf te ontwikkelen waarmee ze ook botsen op patentenkwesties. Dus waarom het wiel opnieuw uitvinden?
Zo eenvoudig ligt het niet. AMD en ook Nvidia hebben decennia lang expertise in het bouwen van GPU's. Ze weten als geen ander hoe je maximale grafische kracht uit een hoeveelheid transistors haalt. Intel loopt daarin ver achter, maar kan compenseren door zijn voorsprong op fabricagetechniek: Meer chipoppvervlak aan de GPU besteden, zoals bij de Skylakes gebeurt. Nog steeds verliest een Skylake op 14m het ruimschoots van een AMD APU op 28nm.

Intel heeft enorme ontwikkelbudgetten, maar ze hebben nooit veel in grafische technologie geÔnvesteerd en die keer toen ze dat wel deden (Xeon Phi) mislukte dat en bleek het produkt enkel voor de HPC-industrie geschikt.

Onderschat ook niet de hoeveelheid vernuft die in de drivers zit, Nvidia en AMD hebben decennia lang hun drivers geoptimaliseerd voor allerhande situaties, dat zijn enorme lappen software die je niet zomaar even evenaart.

[Reactie gewijzigd door dmantione op 18 maart 2016 10:04]

Allemaal waar, maar in principe allemaal op te lossen door te investeren en de juiste mensen aan te trekken. Daar hebben ze ook het geld voor.
Waarschijnlijk is het echte probleem patenten. Investeren in research heeft geen zin als het resultaat hoogstwaarschijnlijk technieken zijn waar je concurrenten voor het grootste deel al patenten op hebben.
Dan heb je het wiel opnieuw uitgevonden, maar je kan er niks mee.

En dermate radicaal nieuw technieken ontwikkelen zodat patenten geen probleem zijn maakt waarschijnlijk dat je een hele mooie nieuwe techniek hebt die met niks en niemand compatibel is, door niemand ondersteund wordt en dus praktisch onbruikbaar is.
Of Intel ziet het niet (meer) als haar core business en/of heeft meer dwingender doelen voor haar ontwikkelbudgetten. Het core business argument acht ik trouwens onwaarschijnlijk. In de toekomst zullen we steeds meer een merge tussen GPU en CPU architecturen en softwaretoepassingen zien (WccfTech). En die softwaretoepassingen zijn allang niet meer beperkt tot grafische toepassingen alleen. De huidige architectuur van Intel en AMD onderstreept dit met GPU architectuur die de helft van de ruimte in een cpu inneemt. Het grote voordeel van GPU architectuur is de parallellisatie van taken. Als we hierbij bedenken dat AMD wel wat momentum kan gebruiken, en de kaarten van Intel voor mobiele devices nog niet heel sterk zijn, zijn redenen om de krachten te bundelen.

Intel en AMD zijn beide fabrikanten die IP eigenaar zijn van deze CPU/GPU combinatie technologie. Misschien komen beiden tot het inzicht dat ze elkaar nodig hebben in de concurrentie met fabrikanten van discrete CPU's en GPU's. Juist met de combinatie van CPU en GPU techniek hebben beide een sterke kaart.

[Reactie gewijzigd door teacup op 18 maart 2016 12:38]

En het grootste verschil tussen gpus en cpus is de geheugen toegang. Een cpu probeert latency van weinig parallelle data requests te verbergen en is gemaakt voor gestructureerde geheugen toegang.

Een GPU is gemaakt voor erg veel parallelisme en random access. Deze twee manieren van geheugen toegang zijn totaal anders.

Bron: Olivier Giroux, Directions in parallel processor architecture, and GPUs too

[Reactie gewijzigd door ANdrode op 18 maart 2016 19:45]

Dit kon nog wel eens een gouden greep zijn daar de meeste normale gebruikers niet eens losse kaarten in hun pc zetten. Als AMD en Intel krachtige gpu's in een cpu kunnen bakken hebben ze een hele sterke troef in handen tegen Nvidia. Zo kun je ze nog sneller maken omdat de weg van en naar cup-gpu kleiner wordt.
Dat kost ook tijd, en ondertussen kijken de twee ervaren spelers toe hoe Intel zijn stappen maakt.

Die inhaalslag maken gaat hoe dan ook niet makkelijk zijn, en is voor Intel een veel groter risico. Er is geen enkele garantie dat ze ook echt met een betere GPU voor de dag zouden kunnen komen, sterker nog, in het beste geval komen ze met iets dat dan uiteindelijk gelijkwaardig zou worden. En dat geeft ze nog steeds geen voorsprong want stilstand is achteruitgang.

Dan is het dus vele malen makkelijker om het in licentie te doen, waarbij je profiteert van de expertise die er al is. Dat vervolgens combineren met een voorsprong in proces en het wordt een interessant product.

[Reactie gewijzigd door Vayra op 18 maart 2016 11:48]

Allemaal waar, maar in principe allemaal op te lossen door te investeren en de juiste mensen aan te trekken. Daar hebben ze ook het geld voor.
In theorie op te lossen, in de praktijk zal de return-on-investment te laag zijn. Aandeelhouders willen opbrengsten zien, geen kosten of investeringen. De financiŽle markt is in de zero's behoorlijk verhard.
Na enkele jaren verwent te zijn met hoge opbrengsten zijn de aandelhouders die gewend geraakt en zijn die blijven eisen ondanks de crisis (2006/2008) en dat is zo gebleven. In principe is die crisis ook nog steeds niet voorbij (ja er is weer groei maar we zitten nog niet op het niveau van toen, laat staan op het niveau waar we met het langjarig gemiddelde hadden moeten zitten). Alleen de stakeholders/kapitaalverschaffers zijn op hetzelde tempo doorgegroeid met hun vermogen alsof er nooit een crisis was.
Kan je daar een link met wat meer informatie over door sturen, waarom Intel moeilijkheden heeft met ontwikkeling van grafische processoren?

In tegenstelling tot wat de meeste mensen denken bedient Intel het grootste aandeel van de PC / laptop markt middels hun geÔntegreerde HD en Iris GPU's. Nvidia en AMD zitten met hun productlijn aan de bovenkant van de markt, maar ik zou verwachten dat voor Intel dat peanuts moet zijn om dat in te halen.
Eťn linkje met alle informatie is erg lastig, omdat het een hele lange periode bestrijkt. Intel heeft meerdere malen een poging gedaan op de GPU-markt, maar heeft zich op technisch gebied nooit naast ATi/Nvidia weten neer te zetten.

Hier kun je wat lezen over het annuleren van de Larrabee GPU (die later tot Xeon Phi is omgebouwd om de investering niet geheel verloren te laten gaan):

http://www.dailytech.com/...Projects/article17040.htm

Waar het bij de Larrabee met name mis ging, is dat het lastiger bleek dan gedacht om DirectX in software te implementeren (Larrabee zou een GPU moeten worden die gewoon de x86-instructieset gebruikte) en daarnaast hadden AMD/Nvidia op dat moment al meer ruwe rekenkracht.

[Reactie gewijzigd door dmantione op 18 maart 2016 14:26]

Intel heeft een r&d budget dat vele malen groter is dan dat van AMD, zodat deze achterstand in no time in te halen valt.
Wellicht is het goedkoper om een licentie te nemen dan zelf te ontwikkelen waarmee ze ook botsen op patentenkwesties. Dus waarom het wiel opnieuw uitvinden?
Het ligt er ook aan wat je met het budget doet. Volgens mij bemoeit zich binnen Intel de x86 afdeling veel te veel met de andere onderdelen.
Vandaar dat IMO de Atom een x86 is, terwijl ze wel hadden meekomen met ARM als ze de x86 voor ultra low power overboord gezet zouden hebben.

In het verleden heeft Intel ooit Chips and Technologies die voor hun tijd concurrerende GPU's hadden, daar heeft Intel niet hun voordeel uitgehaald. IMO omdat x86 afdeling te dominant is.

[Reactie gewijzigd door worldcitizen op 18 maart 2016 11:24]

Sinds de Pentium Pro is de core van een Intel CPU al geen x86 meer. Instructies worden on-the-fly ertaald naar uops. Het blijkt zelfs dat de x86 instructie-encoding enige wins oplevert omdat de variabele-lengte instructies beter in de L2 cache passen - het is een vorm van code-compressie. Conceptueel is dat niet uniek - ARM heeft Thumb, om dezelfde reden (32 naar 16 bits compressie).

De overhead van de 86 decoder is vrij constant sinds de Pentium Pro, in termen van aantallen transistoren (hooguit een beetje geoptimaliseerd), terwijl die transistoren zelf kleiner en efficienter werden. Ds de relatieve overhead van x86 is al heel lang aan het slinken.
Sinds de Pentium Pro is de core van een Intel CPU al geen x86 meer. Instructies worden on-the-fly ertaald naar uops.
Dat is oud nieuws, wat niets aan mijn opmerking afdoet.
De overhead van de 86 decoder is vrij constant sinds de Pentium Pro, in termen van aantallen transistoren (hooguit een beetje geoptimaliseerd), terwijl die transistoren zelf kleiner en efficienter werden. Ds de relatieve overhead van x86 is al heel lang aan het slinken.
Precies, overhead. Op het moment dat je een core hebt die de instructie kent hoef je niets om te zetten.
Tevens gebruikt deze omzet logica ook energie wat je bij een ARM concurrent niet wil hebben.
"Precies, overhead."

Lees je even goed in want zo simpel is het niet. De hoeveelheid overheid is zo ongelooflijk klein dat het niets meer uitmaakt als je het weg haalt.

Daarbij is een Skylake core M op CPU gebied superieur aan de rest van de markt terwijl hij niet meer gebruikt. x86 overboord gooien is helemaal niet nuttig en meer een uitspraak die mensen graag doen die zijn blijven hangen in CISC vs RISC, een strijdt die helemaal niet meer bestaat.

Een duel core Skylake met een fatsoenlijke GPU zou met een TDP van 2,5watt de concurrentie met ARM makkelijk aankunnen. Alleen daar zit dus het probleem, de Intel GPU's zijn erg groot en onzuinig voor de performance die je er terug voor krijgt. En dat willen ze volgens de geruchtenmolen dus op deze manier oplossen.

[Reactie gewijzigd door Thekilldevilhil op 18 maart 2016 14:34]

"Precies, overhead."

Lees je even goed in want zo simpel is het niet. De hoeveelheid overheid is zo ongelooflijk klein dat het niets meer uitmaakt als je het weg haalt.
Overhead vertraagd altijd, native code zou altijd sneller zijn.
En het gebruikt extra vermogen.
Daarbij is een Skylake core M op CPU gebied superieur aan de rest van de markt terwijl hij niet meer gebruikt. x86 overboord gooien is helemaal niet nuttig en meer een uitspraak die mensen graag doen die zijn blijven hangen in CISC vs RISC, een strijdt die helemaal niet meer bestaat.
Dat heeft er helemaal niets mee te maken, het gaat, bij SmartPhones ed, om welke SOC het zuinigste is en daarbij het snelste.
Een duel core Skylake met een fatsoenlijke GPU zou met een TDP van 2,5watt de concurrentie met ARM makkelijk aankunnen. Alleen daar zit dus het probleem, de Intel GPU's zijn erg groot en onzuinig voor de performance die je er terug voor krijgt. En dat willen ze volgens de geruchtenmolen dus op deze manier oplossen.
Dan zou Intel net als Aplle en veel ARM fabrikanten en in hun eigen Atom ook de Imagination Technologies GPU in kunnen doen, dan zou het probleem opgelost zijn volgens jouw.
Overhead vertraagd altijd, native code zou altijd sneller zijn.
En het gebruikt extra vermogen.
Er valt nooit een discussie te voeren als jij weigert de door mij en andere gegeven links fatsoenlijk door te lezen. Dit is namelijk ook wat ARM doet met thumb. Jij blijft het overhead noemen maar dat is het dus niet. Daarbij heeft het niets met " native" code te maken. Code =/= intructies.
Dat heeft er helemaal niets mee te maken, het gaat, bij SmartPhones ed, om welke SOC het zuinigste is en daarbij het snelste.
Dat zeg ik letterlijk, dat zijn dus die van Intel op basis van de core architectuur. Volgens mij zie jij niet helemaal dat 2,5watt minder is dat high-end SoC's in telefoon. Sterker nog, de Kirin 925 heeft een TDP van 7,5watt...
Dan zou Intel net als Aplle en veel ARM fabrikanten en in hun eigen Atom ook de Imagination Technologies GPU in kunnen doen, dan zou het probleem opgelost zijn volgens jouw.
Jij moet echt eens wat gaan googlen voordat je dingen roept. Intel heeft een tijd IT GPU's gebruikt... Maar dat was het argument ook helemaal niet. Lees nog eens een keer.
[...]


Er valt nooit een discussie te voeren als jij weigert de door mij en andere gegeven links fatsoenlijk door te lezen. Dit is namelijk ook wat ARM doet met thumb. Jij blijft het overhead noemen maar dat is het dus niet. Daarbij heeft het niets met " native" code te maken. Code =/= intructies.
Dan geef mij de reden waarom de Atom er nog steeds aan te pas komt, omdanks dat ze volgens de geruchten de oude Xscale architectuur gebruiken.
[...]


Dat zeg ik letterlijk, dat zijn dus die van Intel op basis van de core architectuur. Volgens mij zie jij niet helemaal dat 2,5watt minder is dat high-end SoC's in telefoon. Sterker nog, de Kirin 925 heeft een TDP van 7,5watt...
Als ik het goed begreep as het 6,5 Watt. Maar je moet niet de slechtste ARM SOC al voorbeeld nemen, neem a.u.b. de beste.
Tevens is de TDP van Intel niet de maximale waarde waardoor je deze niet kan vergelijken.
[...]


Jij moet echt eens wat gaan googlen voordat je dingen roept. Intel heeft een tijd IT GPU's gebruikt... Maar dat was het argument ook helemaal niet. Lees nog eens een keer.
Die gebruiken ze nog steeds in de Atom wat ik al eerder aangaf.
Off topic: dit is iets wat ik me al jaren afvraag wat de overhead is van de front end x86 instructie set. Compilers hebben ook maar een beperkte set van registers om mee te werken en of daar ook niet een nadeel aan kleeft. Enig voordeel is wel dat de x86 met zijn variabele lengte instructies compactere code oplevert.
zodat deze achterstand in no time in te halen valt.
Als dat echt zo was hadden al lang GPU's gehad die beter waren als die van Nvidia en AMD
Maar het gaat hier om licenties. Als je iets ontwikkeld waar al een patent op rust zul je alsnog een licentie moeten afsluiten. Misschien loopt Intel daar nu tegen aan.

Ik vraag me ook al tijden af waarom Intel miet een high-end GPU heeft uitgebracht.Hun lithografische proces loopt vooruit op de markt, ze hadden al een goede kaart kunnen bouwen als ze de skylake IGP hadden opgeschaald en gekoppeld aan GDDR5. Er hadden dan zo'n 576 executions units in moeten zitten (8x zoveel als in de gister aangekondigde skull-canyon nuc).

Dit had een chip opgeleverd die een TDP heeft van Ī360W. en Ī8TFlops perfomance, vergelijkbaar met de Fury X. Met 8x die chip had het resultaat ook 1TB eDram gehad. Maar Intel verdient er gewoon veel meer aan door deze chip oppervlakte te verkopen als 8 of meer CPU's.

edit:
Weer naar 0 gemodereerd, onderbouwde on topic meningen worden hier blijkbaar niet meer gewaardeerd. En die off-topic reactie hieronder staat op 1. Ja het zijn ASML machine's, maar Intel produceert als eerste, ik zeg ook nergens dat Intel dat zelf ontwikkeld

[Reactie gewijzigd door PuzzleSolver op 18 maart 2016 16:24]

360W is een bizarre TDP. Ga dat maar eens koel houden. Tegelijkertijd, is het 1,5x zoveel als de concurrentie.

[Reactie gewijzigd door Vayra op 18 maart 2016 11:49]

Hun lithografische proces loopt vooruit op de markt, ze hadden al een goede kaart kunnen bouwen als ze de skylake IGP hadden opgeschaald en gekoppeld aan GDDR5.
Volgens mij bedoel je het lithografische proces van ASML, wat ze als een van de eersten kopen omdat ze diepste zakken hebben.
Je doet alsof Intel niet betrokken is bij de ontwikkeling van de technieken... En je kan er niet verder naast zitten. ASML produceert de machines maar de grote partijen als Intel en Samsung helpen enorm bij de ontwikkeling.
http://www.intc.com/releasedetail.cfm?ReleaseID=690165

Nee, Intel spendeert een deel van zijn budget bij ASML voor de ontwikkeling van de machines. In ruil daarvoor aandelen ASML.

Zelfde geld voor Samsung, die spendeert ook een hoop geld in de bouw van de machines.

[Reactie gewijzigd door Thekilldevilhil op 18 maart 2016 14:56]

Lees jij de bron en de reacties uberhaupt wel?

Spenderen bij is iets totaal anders dan een zak geld geven aan.
Lees jij de bron en de reacties uberhaupt wel?

Spenderen bij is iets totaal anders dan een zak geld geven aan.
Ja, die lees ik.

Zo als ik het lees wordt de ontwikkeling door ASML gedaan. Intel financiert dit.
R&D Investment in ASML
Omdat het in huis bij ASML wordt gedaan ja. De meest logische optie.

[Reactie gewijzigd door Thekilldevilhil op 18 maart 2016 15:43]

Omdat het in huis bij ASML wordt gedaan ja. De meest logische optie.
Kortom precies wat ik al direct zei. ASML ontwikkeld, het gaat het helemaal niet om wie financiert.
Die achterstand wordt ook hard ingehaald. Vergelijk de grafische performance maar eens vanaf de 3770K tot de huidige 6700K processor. De performance op dat gebied gaat heel hard vooruit. Het grafische verschil met de APU's van AMD worden steeds kleiner..

Maar misschien moet AMD gewoon technologie gaan ruilen met Intel. Intel laat AMD gebruik maken van zijn CPU patenten en technologie, terwijl Intel grafische kennis in huis haalt.

AMD leunt momenteel heel erg sterk op de grafische divisie. Het meermalen rebranden van dezelfde GPU met licht verbeterde prestaties heeft natuurlijk ook gewoon te maken met de R&D budget problemen en is dus vanuit financieel oogpunt goed te begrijpen. Op die manier houden ze budget over voor de high-end producten waarmee ze zich in de kijker spelen zoals gebruik van HBM(2) geheugen en nieuwe GPU processors. Misschien is het verstandiger dat AMD wat betreft prijzen van zijn GPU wat dichter bij NVidia gaat zitten, op die manier zouden ze aan meer inkomsten kunnen komen..

NVidia zet een kaart als een GTX1080 eerst zeer duur in de markt, vervolgens komt een paar maanden later AMD met een vergelijkbare kaart, maar een stuk goedkoper en verlaagd NVidia het prijskaartje iets. Alleen in de eerst maanden kan Nvidia natuurlijk wel even flink cashen..

Ik heb op zich best wel een zwak voor AMD als underdog, maar mijn huidige systeem heeft toch een Intel processor en een GTX970 videokaart. Dat laatste vooral omdat FSX iets betere prestaties geeft op NVidia kaarten. Prepar3d (P3D) weet beter gebruik te maken van DirectX 11 en betere offloading naar de GPU.. Samen met de buurjongen heb ik een P3D developer license afgenomen voor 10 dollar per maand waarmee twee instanties mogen worden gedraaid. Dat is per persoon dus 60 dollar per jaar, maar elke twee jaar komt er een nieuwe versie uit waarvan de professional edition 200 dollar kost voor een single license waardoor ik een stuk goedkoper uit ben. Maar mijn PMDG addons zijn allemaal voor FSX, dus die gebruik ik het meest en daarom destijds toch gekozen voor een NVidia kaart, maar da's zeer specifiek voor mijn situatie.

Prepar3d waarvan ik een dev abo had afgenomen (voor 10 dollar kun je feitelijk een maand P3D V3 testen en mag je P3D ook nog eens op twee computers draaien).
Ik denk eerder dat het voor intel gewoon goedkoper is om een licentie te nemen dan zelf allerlei technieken te gaan ontwikkelen om zo om patenten van AMD en Nvidia heen te kunnen werken.
Het is niet zo zeer dat Intel het niet kan, het is meer dat de hele gaming markt is ingesteld op AMD en nvidia, als Intel nu iets nieuws moet ontwikkelen dan kost dat geld in patentenrechten, chipontwerp, driver ontwikkeling, drivers testen, games compatible maken etc. Als ze gewoon een licentie op AMD's techniek nemen dan is het veel simpeler en sneller te implementeren.
Je zou zeggen van wel, maar volgens mij heeft Intel helemaal geen ervaring met het bakken van grafische chips op de manier hoe Nvidia en AMD deze hebben. Deze chips zijn vele malen complexer en kan Intel niet zomaar even op 14nm produceren bijvoorbeeld, dat is ook een reden geweest waarom het zo lang geduurd heeft voordat we een schaalverkleining hebben mogen zien bij Nvidia en AMD.

Mocht je ťcht geÔnteresseerd zijn, dan kan ik denk ik nog wel ergens met wat moeite een link vinden dat aangeeft per type chip waarom het zo lastig is/wat de huidige status is.
Enne... wellicht zit er ook nog een andere reden achter... als Intel AMD via het in licentie nemen van GPU technologie overeind kan houden dan blijven ze een concurrent op de chips markt houden, kan in de toekomst een hoop gedoe omtrent monopolist zijn voorkomen.
Het probleem is eerder de patenten die NVIDIA en AMD hebben.
Een Larrabee word alleen een beetje lastig om in een cpu-package combineren.
Volgens mij is dat momenteel ook Intel's probleem, de CPU cores zijn heel klein maar de GPU cores gigantisch voor de prestaties die ze bieden.
Dat hangt een beetje van de core af, een Atom-core is inderdaad klein (en een ARM7-core minuscuul), maar een i-nummertje-core is nog best groot. GPU-cores zijn klein, maar je gebruikt ze per honderd, want anders helpt het niet. Silicium-technisch niet heel lastig, idem met geheugen.
Het gaat over licenties, die heb je nu eenmaal nodig voor bepaalde technieken. En waarom het wiel opnieuw uitvinden als je hetgeen je nodig hebt voor een redelijk bedrag kan kopen?
Intel maakte al voor hun Larrebee avontuur losse videokaarten, de Intel740 en Intel752 GPU. Maar is toen niet gestopt met maken van GPU's ze is gewoon doorgegaan alleen heeft ze ervoor gekozen om de GPU onder te brengen in de chipset. Intel heeft dus kennis zat, alleen niet op high end gebied, daar heeft ze laatste jaren wel hard aan gewerkt, en heeft ook vruchten afgeworpen, het gat tussen intel IGP's en andere IGP maker zoals AMD was/is gedicht en zelf afgelopen twee generatie ingehaald. Intel maakte afgelopen twee generatie de snelste IGP die je kon kopen, even prijsverschil buitenbeschouwing gelaten.

Larrabee was meer een cpu(GPGPU om precies te zijn) dan dat het een videokaart zoals we die kennen voor gamen, heeft na mijn idee dan ook niet echt veel bijgedragen een IGP ontwikkeling van intel, die liep daar parallel aan en beide hadden een ander doel. Er gingen berichten in ronde dat intel eerste instantie de larrabee als gamers videokaart wilde uitbrengen, of dat echt het doel was weten we niet zeker, was een vreemde eend vanaf het begin.

Maar Larrabee was sowieso niet snel genoeg in de praktijk om in de buurt te komen van high end gamers kaarten van dat moment, net zoals met alle voorgaande pogingen. Tot afgelopen twee generaties heeft intel altijd achter de feiten aangelopen. Volgende stap is dat intel ook de low end en mid range cpu's gaat verbeteren wat daar loopt ze nog wel achter op AMD.
Je kunt nog zoveel kennis hebben, maar als een ander cruciale technologie heeft gepatenteerd moet je het middels licenties doen.
Je zou toch zeggen dat Intel de kennis zelf wel heeft? Ze zijn ook bezig geweest met Larrabee waar ze een hoop kennis hebben op gedaan.
Je, de Larrabee. IMO ťťn van de grootste fouten van Intel en overschatting van x86.
Dit was een GPU die gebaseerd was op een x86, een x86 is geen GPU en nooit ontworpen als GPU.
Kennis is wat anders dan de licentie om die kennis te mogen gebruiken ;)

Verder,tja AMD mist keer op keer de boot.

Intel domineert op cpu,nvidia is behoorlijk dominant op gpu. Intel maaktzeer grote stappen, vooral op mobiele igp, ik vraag me af of amd straks niet gewoon als mailboxcompany eindigd...
De AMD krijgt dezelfde performance uit een veel kleinere chip en AMD zit op een groter procede, namelijk 28nm en 32nm. Intel heeft inderdaad betere performance tegenwoordig maar het neemt veel meer ruimte dan nodig in op hun chips.
Indien ze betere performance hebben dan is dat met de Iris Pro chips en komt dat doordat ze dedicated memory hebben. Geheugenbandbreedte is bij AMD vaak de limiterende factor van de APU's .

Goede zaak dat Intel dit misschien gaat doen, dit zou ook een boost kunnen zijn voor HSA.
Lijkt me niet meer dan logisch dat ze in elk geval praten met AMD. Als ze dat niet doen is het wel erg makkelijk voor nVidia.
Hoezo heel makkelijk voor nVidia? Ik wist niet dat nVidia ook cpu's uitbracht met ingebakken gpu?

Ik dacht juist dat het hier over de ingebakken GPU ging, iets wat Intel EN AMD maken. Daar waar Intel met betere CPU prestaties komt en AMD met betere APU prestaties.

Echter weet ik niet wat nVidia hiermee van doen heeft, idem dito voor ATI aangezien hun naar mijn weten GPU's maken en niet APU's (ja ati is even tricky).

Kan goed zijn dat ik er nu naast zit hoor, maar wat bedoel je met: als ze dat niet doen is het wel erg makkelijk voor nVidia? Wat heeft nVidia (de GPU maker, niet de APU maker) hiermee van doen?
Of regelt NVIDIA momenteel de APU van de Intel processor?
Of regelt NVIDIA momenteel de APU van de Intel processor?
Naar mijn weten gebruikt Intel de technologie van Nvidia.
Lees artikel
Echter weet ik niet wat nVidia hiermee van doen heeft, idem dito voor ATI aangezien hun naar mijn weten GPU's maken en niet APU's (ja ati is even tricky).
Tricky? Gewoon niet relevant want Ati bestaat volgens mij niet meer?

Edit: toevoeging quote

[Reactie gewijzigd door Xm0ur3r op 18 maart 2016 09:29]

Gewoon niet relevant? ATI = tricky omdat ik inderdaad totaal niet meer op de hoogte ben van hun benamingen, met ATI bedoelde ik dus de GPU sector.

Maar indien Intel gebruikt maakt van de technologie van nVidia voor hun ingebakken gpu's dan begrijp ik de reacties over nVidia wel ja ( dit wist ik dus niet, ik dacht dat Intel het volledig zelf regelde).

Maar waarom het niet relevant is i dont know, omdat ik ATI zeg ipv AMD's GPU lijn is het ineens niet meer relevant?:P
Maar indien Intel gebruikt maakt van de technologie van nVidia voor hun ingebakken gpu's dan begrijp ik de reacties over nVidia wel ja ( dit wist ik dus niet, ik dacht dat Intel het volledig zelf regelde).
Vandaar de opmerking om het artikel te lezen, er is een hele alinea aan geweidt:
De eventuele onderhandelingen van Intel met AMD hebben mogelijk te maken met het aflopen van Intels meerjarige licentieovereenkomst met Nvidia. Die werd in 2011 gesloten en loopt in maart 2017 af. Intel en Nvidia kwamen tot de wederzijdse patentovereenkomst na jarenlang juridisch touwtrekken over het gebruik van elkaars technologie.
Gewoon niet relevant? ATI = tricky omdat ik inderdaad totaal niet meer op de hoogte ben van hun benamingen, met ATI bedoelde ik dus de GPU sector.

Maar waarom het niet relevant is i dont know, omdat ik ATI zeg ipv AMD's GPU lijn is het ineens niet meer relevant?:P
Naja het is eigenlijk vrij simpel; ATI = AMD geworden. Dat is inmiddels alweer een aantal jaren zo en er is in de ''benamingen'' nauwelijks/niks? verandert.

ATI deed toendertijd alleen gpu's maken inderdaad, maar AMD doet nu/jaren dus beide.
Dus ja het lijkt mij wel relevant :)
Dat is bij de Nvidia kant niet anders.. om de zoveel jaar zijn ze Door de makkelijke benamingen heen en gaan ze meestal weer een cijfer terug..
De GTX 280 heette jaren ervoor ook anders. De Nvidia TI serie.. en de FX series etc.
Bij ATI is dit helemaal anders omdat het al jarenlang deel van AMD is en ATI bestaat dus al jaren niet meer..
De auto fabrikanten komen ook elke keer met nieuwe modellen die soms gewoon een nieuwere generatie aangeven. ..
De nieuwe corsa heet ook Adam ofzo..
Gebeurd over de hele wereld. Beetje vreemd om dan hier zo over te struikelen.
Ik bedoel dat als Intel alleen met nVidia zou praten, en niet met AMD, nVidia wel een erg sterke onderhandelingspositie heeft.
Ja precies en dat ben ik nu dus ook wijzer geworden, ik wist niet dat nVidia en Intel samen werkte aan de ingebakken gpu's van hun processoren. Ik dacht dat Intel dat altijd zelfstandig deed en dat nu dus wilt verbeteren in samenwerking met deze tak van AMD.
Maar kennelijk deed Intel al zaken met nVidia voor hun ingebakken gpu's.
Ze werken ook niet samen in die zin..
Alleen omdat zowel Intel als Nvidia een berg aan patenten van elkaar gebruiken hebben ze hier een overeenkomst voor gesloten. Al is dit geen samenwerking maar meer een schadeloosstelling voor het lenen van elkaar patenten omdat ze namelijk niet in elkaars vaarwater zaten.
Nvidia heeft geen cpu en Intel geen dedicated gpu dus die mochten ze van elkaar gebruiken.
Dit was niks dan een overeenkomst om de geldhandel advocaten een paar jaar te ontwijken omdat beide bedrijven zich liever bezig hielden met onderzoek dan nutteloze geldverslindende juridische geschillen zoals Apple dat zo goed kan bijvoorbeeld.
De overeenkomst was een zeer verstandige zet van groen en blauw. Ik hoop nu echter dat AMD een kans krijlt wat graantjes mee te pakken.
Intel heeft een conculegas nodig om Nvidia soc aan te kunnen en de arm structuur .
Met AMD in samenwerking zullen beide bedrijven profiteren en groeien en ik verheug me al op de volgende echte race.. daar profiteren wij als consument van
NVidia maakt inderdad CPU's met ingebakken GPU., de Tegra serie. ARM, niet x86 gebaseerd, en dus geen directe concurrent voor de PC markt. Maar voor de volgende generatie consoles zou de Tegra een serieuze kandidaat kunnen zijn.
Hoezo heel makkelijk voor nVidia? Ik wist niet dat nVidia ook cpu's uitbracht met ingebakken gpu?
Ja dat doen ze al jaren, Tegra. En de laatste GPU's die in de Tegra zitten zijn gewoon desktop GPU's, mobile NVIDIA Kepler core werd dan ook eerste getoond in een desktop systeem tijdens introductie, K1 soc was nog niet klaar maar de Kepler GPU core voor mobile gebruik wel, dus werd die gecombineerd met x86. Werd ook PC game op gedraaid, BF4 dacht ik.

Kortom het is heel gemakkelijk voor Nvidia om haar GPU te plakken aan intel CPU.

[Reactie gewijzigd door mad_max234 op 18 maart 2016 12:14]

De scheidslijn pc/tablet/smartphone vervaagt steeds meer.

Nvidia heeft daarbij een zeer sterke troef in handen omdat het de afgelopen decennium heeft ingezet op gpgpu. Dezelfde techniek implementeren ze ook in hun eigen tegra-serie.
Daarnaast zijn ze ook nog eens van oudsher sterk in opengl.


Als je ziet dat vrijwel alle OS steeds meer gaan leunen op een goede GPU en minder op CPU wordt het belang van x86 ook steeds minder. Een recent voorbeeld is Mozilla met een nieuwe engine;
nieuws: Mozilla komt in juni met alfaversie van browser met nieuwe engine
die leunt meer op gpu dan op CPU.

Windows zelf maakt ook een verschuiving, waar die moet eindigen staat nog in het midden, maar ze willen wel dat praktisch alle software op zowel x86 als ARM (mobile) gaat draaien. Dan wordt een gemeenschappelijk component nog belangrijker.


Een andere factor dat Nvidia tot onplezierige collega maakt is het idee dat ze wel eens heel snel heel groot worden omdat ze op dit moment de enigste serieuze kandidaat zijn in de automotive industrie voor een autonome auto. En daar zal niet snel verandering in komen.


De enige grote fabrikant die gpu's kan maken die partij zijn voor Nvidia is ATI,
het toeval wil dat AMD daar weer eigenaar van is. Er moet worden gekozen tussen een potentieel serieuze concurrent, of een half-stervende zwaan. Ik zie AMD geen serieuze bedreiging meer vormen voor Intel maar Intel kan AMD voorlopig ook niet opkopen ivm monopolie.

'Samenwerken' lijkt me een serieuze optie, en ik zet het tussen haakjes omdat het toch meer weg heeft van verplicht huwelijk.
Nvidia is dan ook de reden dat opengl nog steeds gebruikt wordt omdat ze weigeren hun monopolie af te breken voor een opvolger die iedereen kan gebruiken. Cuda kan makkelijk werken op andere chips maar dit staat Nvidia niet toe.
Hiermee zullen snellere en betere versies van directx en opengl al lang mogelijk moeten zijn.
Nvidia geeft enorme bedragen uit aan hun onderzoek en daarop houden ze hun eigen producten natuurlijk in het voordeel Door technieken niet te verhuren aan de rest.
Kijk wat er met physx is gebeurd.
Als Nvidia die techniek niet gelijk geclaimd had hadden we nu allemaal voordelen gehad op de opvolgers daarvan. Maar ipv delen heeft Nvidia het puur gekocht om hun eigen chips een bevoorrechte positie te geven en de concurrent de toegang tot die techniek te blokkeren.
Harde zakelijke beslissingen maar wel een rem op de ontwikkelingen in het algemeen en een smerige manier om monopolie af te dwingen.
Ligt eraan wat je als bron gaat aanmerken.

Het was Microsoft dat DirectX gesloten hield. Fabrikanten moesten zich maar aanpassen. Dat fabrikanten op een gegeven moment de extra functies in hardware gingen uitbuiten door middel van grote drivers was daar een gevolg van.

En dat gpu-bakkers beter zijn om relatief simpele taken veel sneller uit te voeren dan CPU was al bekend, dat er steeds beter gebruik an wordt gemaakt kun je niemand kwalijk nemen.
andere sites spreken er zelfs over dat deze licentie overeenkomst de huidige van intel met nvidia gaat vervangen.

dat is 66 miljoen per jaar die nvidia verliest en AMD er bij zou krijgen (als ze het zelfde bedrag aanhouden natuurlijk).

van dat geld kan je flink wat extra developers en engineers inhuren.
In het geval van AMD: je verliezen wat indekken. Maar goed...
Is een gevalletje AMD helpen om kop boven water te houden. Anders krijgt intel een monopolie op procs en wordt het opgesplitst in kleinere bedrijven.
Ik ben helemaal niet thuis in dit wereldje, maar als een bedrijf een monopolie verkrijgt op passieve manier (afhaken van AMD, w/e), dan lijkt het me toch niet dat om die reden de toko moet worden opgedeeld in kleinere bedrijven?

Wat mij betreft wel uit principiŽle overwegingen, maar daar is geen wetgeving voor; zeker niet in de states lijkt me. Correct me if I'm wrong. :)
nee, het wordt niet opgedeeld, maar wel veel scherper in de gaten gehouden door de verschillende waakhonden van de wereld (VS, EU, japan ect)

daar zit je als bedrijf ook echt niet op te wachten.

verder is intel al meer maals veroordeeld voor monopoly misbruik in het verleden, dus die waakhonden zullen er heel streng naar kijken.

[Reactie gewijzigd door Countess op 18 maart 2016 09:25]

Ik ben helemaal niet thuis in dit wereldje, maar als een bedrijf een monopolie verkrijgt op passieve manier (afhaken van AMD, w/e), dan lijkt het me toch niet dat om die reden de toko moet worden opgedeeld in kleinere bedrijven?
Waarom zou dat er toe doen? Een monopolie is slecht voor de marktwerking, dat is waarom er soms opgesplitst zou worden, hoe dat monopolie bereikt wordt verandert daar niet veel aan.
Wat mij betreft wel uit principiŽle overwegingen, maar daar is geen wetgeving voor; zeker niet in de states lijkt me. Correct me if I'm wrong. :)
AFAIK is daar net meer wetgeving voor in de States. Daar hebben ze indertijd toch AT&T opgesplitst, iets gelijkaardig is hier in Europa nog niet gebeurd, denk ik.
AT&T was een bijzonder geval, dat had een wettelijk monopolie. Wat per wet geregeld is, kan ook per wet veranderd worden. Afgezien daarvan, je hebt het mis als je denkt dat de VS strenger is. Zie de Microsoft zaak: de EU heeft strengere regels, en daarom werd Microsoft alleen hier veroordeeld. Je hebt hier niet eens 50% van de markt nodig om al onder een bijzonder toezichtsregime te komen.

Maar opsplitsen?
Is dat wel zo nu AMD min of meer opgesplitst is?
Het is ook de een gevalletje de strop om de nek van AMD nog wat strakker aantrekken. Als de ingebakken GPUs van Intel beter worden zullen steeds minder klanten een externe GPU met AMD chip hoeven gebruiken.
AMD heeft natuurlijk een indicatie van de performance van Zen, en zal toch zelf hier ook wel over nagedacht hebben :).
Ook zullen dGPU's altijd sneller blijven, er is gewoon een veel groter TDP budget beschikbaar op een GPU.
en zal toch zelf hier ook wel over nagedacht
Ik hoop het. Maar een kat in het nauw maakt rare sprongen. Als AMD kort voor omvallen staat kunnen dit soort konijnen uit de hoge hoed getoverd worden om de periode tot introductie van ZEN, die mogelijk een omkeer in de slecht lopende CPU business brengt, te overbruggen. Maar ik heb het gevoel dat ze nu een kroonjuweel in de uitverkoop gedaan hebben.
Waarom zou dit iets te maken hebben met de deal die intel met nvidia heeft? Dat gaat over licenties op bepaalde patenten. Patenten hebben maar 1 eigenaar, je kan niet kiezen of je een licentie bij nvidia of amd haalt.
Patenten kunnen wel degelijk meer eigenaren hebben, desnoods in de vorm van een BV die de patenten bezit, maar dat de BV weer van meerdere partijen is. Hoe het dan ook exact geregeld is weet ik niet, maar het delen van patenten is niet ongebruikelijk.

Daarnaast kan je soms met verschillende patenten hetzelfde doel bereiken, en kan je dus wel degelijk wisselen van 'patentenleverancier'.
Daarnaast kan je soms met verschillende patenten hetzelfde doel bereiken, en kan je dus wel degelijk wisselen van 'patentenleverancier'.
Klopt, maar ik denk dat intel eerder geneigd zal zijn om een ontwerp te maken en dan te kijken welke patenten ze daar voor nodig hebben dan andersom.
CUDA vs OpenCL

Cuda is eigendom van Nvidia, dus daar moet over betaald worden.
OpenCL is open software, wat dus gratis is. Dat samen met AMD's knowhow en waarschijnlijk ook het HBM2 geheugen, zet AMD nu in een betere positie dan NVIDIA.
( denk aan : Apple, xbox, ps4, nintendo ).

AMD heeft het goed gespeeld, kantje overboord, maar degene die achter de strategie van AMD zit, is een genie, een ander had allang de handoek in de ring gegooid.

[Reactie gewijzigd door martin.M op 18 maart 2016 10:06]

Eerst zien dan geloven... ben benieuwd wat het oplevert na alle ontwikkelingen.
Zelf denk ik (hoeft niet zo te zijn) dat als dat gebeurt, dit alleen op korte termijn een goede inkomstenbron voor AMD is. Op een gegeven moment zal Intel later AMD's technologie doorontwikkelen tot dat amd's chips ver achterlopen. Zo wordt AMD de kop in gedrukt met haar eigen technologie op lange termijn.
: / Of heb ik wat gemist?

[Reactie gewijzigd door chewbacca-pl op 18 maart 2016 09:22]

Precies wat ik ook dacht, Intel heeft veeeeeel meer budget voor R&D. Maar de vraag is welke technologie gaat AMD precies delen?
Wellicht, maar dan moet Intel wel erg goed hun sporen wissen, anders maken ze zichzelf wel een heel makkelijk doelwit voor (al dan niet terechte) patent-rechtzaken van AMD. Ze hebben wel veel diepere zakken, maar ook Intel (laat staan hun aandeelhouders) zitten niet te wachten op jarenlang, miljoenenverslindende rechtszaken.
Gaat het hier om de APUs van AMD met de Radeon-cores?
In de benchmarks steken die vaak nog een eind boven Intel HD Graphics uit, zou het dan toch een goed besluit zijn geweest van AMD om die chips te maken?
Lijkt mij een prima ontwikkeling. De huidige Intel HD graphics zijn prima waar ze voor bedoeld zijn, echter kan nVidia , wel wat meer concurrentie gebruiken.

Wellicht dat intel ook voor high-end gaat mikken? Of wellicht betere IGPs?

[Reactie gewijzigd door ECP0WERS op 18 maart 2016 08:35]

Tja
intel wil misschien wel amd api gaan ondersteunen voor games

Moet zeggen dat intel zijn igp wel verbeteringen kunnen hebben

Intel gebruik ook de igp van power vr voor hun cpu

Dus waarom niet ook een ati igp
Ik denk dat dit meer te maken heeft vanwege de Xeon phi en opencl impletaties.
Die op zich krachtiger zijn, dan Nvidia's Cuda technologie, maar door alle kanten tegen gewerkt wordt door Nvidia.

Eerst Apple, nu Intel.
Ik snap niet wat AMD uit zo'n overeenkomst kan winnen. Als ze met Intel concurreren blijft hun CPU tak kwakkelend bestaan, als ze een GPU deal sluiten met Intel geven ze feitelijk hun CPU tak op en zetten vol in op het vermarkten van GPU IP rechten.
In het eerste geval blijft het zoals het is en vindt de genoemde licentieovereenkomt niet plaats.
In het tweede geval wordt Intel alleenheerser op het gebied van workstation en server CPU's. Let wel dat ik het specifiek over workstations heb en niet over desktops of PC's voor thuisgebruik. Op die markt hebben ze namelijk in toenemende mate last van de fabrikanten die hun CPU cores als IP inkopen van ARM. Denk hierbij aan de Raspberry PI, die op niet al te lange termijn ingezet kan worden als een volwaardige Windows 10 PC. Het enige wat hij niet kan is Win32 applicaties draaien, maar UWP applicaties zouden geen probleem moeten zijn. De rekenkracht is afdoende voor de meeste gebruikers.
Sowieso hebben steeds meer mensen thuis een tablet in plaats van een desktop, want ook de groep laptop gebruikers zal afnemen naarmate meer applicaties op een tablet draaien en de toetsenbord docks steeds beter worden. Dat betekent dat voor thuisgebruik de primaire computer een ARM bevat, geen x86_64.
Nu geeft intel ong 66 miljoen aan nvidia. Jou bedrijf 66 miljoen rijker en je concurrent 66 miljoen armer. Tevens krijgt AMD meer inzicht in waar Intel mee bezig en waar ze naar toe willen.

En ze nemen als licentie bij elkaar af. Kan er prima nog 1 bij.

/edit http://appleinsider.com/a...ute_with_6_year_1_5b_deal

Is iets meer als 66miljoen. Als AMD 1,5 miljard kan krijgen van intel. Kunnen ze het toch een tijdje volhouden.

[Reactie gewijzigd door loki504 op 18 maart 2016 10:12]

Ik zou niet weten waarom AMD dan hun CPU-tak zou moeten opdoeken? Als in de licentie-overeenkomst staat dat ze hun CPU-tak zouden moeten sluiten, gaat dat volgens mij een dure licentie worden, en is Intel goedkoper af bij Nvidia.
Het hoeft ook niet om een volledige APU te gaan. Het zou kunnen dat AMD een techniek heeft gepatenteerd (ik zeg maar iets, door een bepaalde schakeling ondersteboven in te bouwen kan men bijvoorbeeld plaats winnen), en wil Intel graag gebruik maken van deze techniek.
Door verschillend gebruik van deze techniek zou dan nog steeds een groot verschil kunnen ontstaan in het eindresultaat.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True