Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel en AMD werken samen aan nieuwe laptopchip - update

Intel en AMD werken samen aan een laptopchip, zo meldt een bron aan zakenkrant The Wall Street Journal. Die maakt gebruik van een Intel-cpu en een AMD-gpu. De samenwerking zou tot doel hebben om te concurreren met Nvidia.

De bron met kennis van de plannen van de chipfabrikanten zegt tegen de krant dat de gecombineerde chip is bedoeld voor 'lichte en dunne laptops die in staat zijn om high-end games te draaien'. Intel had plannen om het nieuwe product maandag aan te kondigen, de krant laat in het midden of dit nog gaat gebeuren. Een AMD-woordvoerder zegt in een reactie dat de nieuwe chip niet zal concurreren met Ryzen Mobile, omdat hij meer op gamers is gericht.

Er gaan al langer geruchten dat er een samenwerking van Intel en AMD op handen is. Zo zou Intel een licentie op gpu-technologie van AMD hebben genomen, iets wat Intel vervolgens ontkende. Daarnaast lekte in september een Intel-roadmap uit, waarop Hades Canyon-nucs te zien waren met een dedicated gpu. Het topmodel toonde een overklokbare i7-cpu met vier cores en acht threads, en een tdp van 100W. Volgens Benchlife zou het gaan om een Kaby Lake G-chip die bestaat uit twee dies, waarvan een van AMD die met de ander in verbinding staat via een pci-e x8 3.0-interface.

Een samenwerking zou Intel beter in staat stellen om te concurreren met Nvidia, aldus The Wall Street Journal. Momenteel concurreert het bedrijf met Nvidia op de markt voor hardware voor kunstmatige-intelligentietoepassingen. Ten opzichte van AMD is Intel de dominante speler op het gebied van processors, terwijl AMD het op de markt voor losse gpu's moet afleggen tegen Nvidia, dat daar een marktaandeel van tachtig procent heeft.

Update, 15.30: Intel heeft de komst van chips gecombineerd met AMD-gpu bevestigd. Het bedrijf schrijft dat er gebruik wordt gemaakt van hbm2-geheugen in combinatie met een Core H-processor. De dies staan in onderlinge verbinding met een zogenaamde emib. Intel maakte begin dit jaar details bekend over deze interconnect bridge, die het bedrijf in staat stelt modulaire chips te maken, waarvan de onderdelen niet op hetzelfde procedé gemaakt hoeven te zijn. De chip maakt verder gebruik van een power sharing framework waarmee onder meer temperatuur en verbruik beheerd kunnen worden. Op die manier moeten de processor en de gpu op basis van gebruik aangesproken kunnen worden, aldus Intel.

Update 2, 22.00: AnandTech analyseert dat emib waarschijnlijk alleen de gpu met het hbm2-geheugen verbindt, omdat afgaande op de afbeeldingen de afstand tussen gpu en cpu te groot is om te overbruggen met de interconnect.

Een traditionele indeling vergeleken met de nieuwe indeling, volgens Intel

Door

Nieuwsredacteur

207 Linkedin Google+

Submitter: EaS

Reacties (207)

Wijzig sortering
Zo te zien kan er dus 4 of 8 GB HBM geheugen in zitten met +-240/256GB/s aan bandbreedte.
Ik vermoed dat de GPU een Vega 11 is met iets van 2048 shaders op die manier heb je behoorlijk veel gaming power waarmee je niet veel onder doet voor de Xbox One X. Qua CPU ben je sneller. Memory bandbreedte is wel iets lager maar de shader power zal denk ik niet heel veel onder doen (ik vermoed dat die mobile Vega chip wel over de 1200-1300 MHz kan clocken afhankelijk van het TDP en de cooling. Dit zag je ook al bij de nieuwe Ryzen APU's van 25 watt).

Opzich wel een erg leuk concept ik hoop dat AMD zelf ook zo iets gaat uitbrengen met Zen2 in 2019.
Wat zou de release datum zijn van deze chips en waar komen ze dan in?
De nieuwe gaming NUC die op de roadmap staat waarschijnlijk.

Komt in Q2 2018 uit en nu met deze kennis is de reden dat op de roadmap dGFX staat een stuk duidelijker.

Bron: https://liliputing.com/20...dmap-lays-plans-2019.html
De nieuwe lijn zal waarschijnlijk Kaby-lake-G heten en de chip Core-H cpu met 4Gb HBM (High Bandwidth Memory ) geheugen. Er zijn zelfs al benchmarks gespot.

De geruchten melden volgende specs:
- 1536 stream processors
- 3.3 TFLOPs
- 4GB HBM
- Kaby Lake G family has 4 cores and 8 threads
- Core i7-8705G, en i7-8809G met resp 3.1 GHz en 4.1Ghz cpu clock.
- 7367 in Manhattan 3.1 (GFXBench)
- 31088 in the T-Rex scenario van GFXBench.
- OpenCL score of 76607 (Geekbench)

Ik heb de benchmarks proberen te interpreteren maar de resultaten lijken soms erg goed en soms eerder slecht. Mijn vermoeden is dat de prestaties gelijk zullen lopen met een GTX 1050ti maar dan zuiniger omdat het inschakelen van de gpu in combinatie met de cpu intelligenter gebeurd.

Ik denk dat Apple ook wel een grote afnemer zal worden. Apple werkt nu ook al uitsluitend met AMD voor mobile gpu's. Er zijn al enkele maanden geruchten dat Apple deze chips al reeds bij Intel heeft aangekocht.

Mac Book Pro heeft nu al de Radeon Pro 450, 455 en 460. En de nieuwe nieuwe Imac 5K's kan je nu al kopen met de RX 580. En de aangekondigde Imac pro heeft ook Vega Graphics 11teraflops en 400Gb/sec bandbreedte. Dus waarschijnlijk de vega56.(vergelijkbaar met de GTX 1070)

[Reactie gewijzigd door Coolstart op 7 november 2017 11:45]

Apple heeft trouwens misschien wel iets te maken gehad met deze samenwerking. Zoals je aangeeft lijkt het de perfecte chip voor de MacBook lijn.

In de higher end iMacs wil je toch nog een discrete graphics card hebben lijkt me, juist om meer met de thermals te kunnen spelen. 100W TDP (waar mijn bron over spreekt) voor CPU+GPU samen is niet super veel.
Het zou best kunnen dat dit dan de doorbraak geeft voor de game developers om meer voor de Radeon te ontwikkelen.

Want voorlopig krijgt Nvidia de meeste ondersteuning.

AMD heeft de consoles en de AMD APU's die de Radeon GPU hebben maar toch krijgen ze niet de developer support.
Volgens mij "koopt" nVidia ook een deel af. Dan krijgen de game dev's nVidia developers die mee werken maar krijgen zij wel exclusieve early acces. Dan kan AMD pas beginnen met optimaliseren zodra het spel uit is. Dit gebeurd helaas bij erg veel games. En wordt steeds erger doordat nVidia inmiddels 80% marktaandeel heeft dus ze hebben ook steeds meer geld om daar mensen neer te zetten en in R&D te steken om nieuw chips te maken. Daarnaast is nVidia ook erg goed in marketing dat heeft ze in de tijd van de FX en Fermi gered waardoor ze toch genoeg verkochten ondanks dat de chips niet echt goed waren.

Dat is bij AMD helaas anders. Daar laten mensen het merk snel links liggen als het even niet de snelste is.

[Reactie gewijzigd door Astennu op 6 november 2017 17:01]

Dat is bij AMD helaas anders. Daar laten mensen het merk snel links liggen als het even niet de snelste is.
Mwa niet te vergeten dat AMD het er ondertussen zelf ook een beetje naar maakt.

Uiteraard kan hier flink over gediscussieerd worden maar je kan niet ontkennen dat het alles behalve lekker loopt bij ze qua verkrijgbaarheid en wat andere dingen.
Ik ben enorm merkvast qua videokaarten maar ben uiteindelijk maar voor een nVidia gegaan (voor het eerst sinds de 6600GT). Ik ken meerdere mensen die liever AMD kopen maar het wachten zat zijn en een nVidia gekocht hebben.

Niks tegen AMD hoor maar ze maken het nVidia zo ook niet echt lastig ;)

[Reactie gewijzigd door sapphire op 6 november 2017 18:08]

Het grootste probleem is Nvidia’s marketing en de forum gebruikers wereldwijd.

Nvidia’s marketing is gewoon super goed.

Qua forum gebruikers, die overdrijven heel vaak. Bv als een AMD GPU 5FPS minder is dan de concurrent..... moet je dan eens horen, “AMD is niets” “AMD moet je lekker links laten liggen want ze lopen zwaar achter” enz, dat soort dingen krijg je dan vaak te horen wat gewoon onzin is.
Vaak zat dat iemand een AMD GPU wil hebben maar het gewoonweg word afgeraden en als dom bestempeld als je het toch koopt, koop lekker een Nvidia hoor je dan.
@SpiceWorm @gbklasser

Buiten de marketing en forum gebruikers.

Welke kaart had je afgelopen jaar aan kunnen raden ? Dat is meer mijn punt waar ik naar toe wil.

In de midrange had je de RX480 en later de 580. Zelf aardig op zoek geweest maar die waren ůf gewoon helemaal niet te krijgen door de minning-hype en als ze te krijgen waren voor de hoofdprijs. Een high-end kaart had AMD niet dus dat was snel klaar.
Vervolgens gaan wachten op Vega, word Vega gelancheerd, is het eerst niet te krijgen ( vaak met een launch), vervolgens gekloot met de prijs die toch hoger lag dan gezegd en nu wachten we al 6 weken op custom koelers want ga echt niet met zo'n blower koeler zitten. Daarnaast valt het verbruik wat tegen, ja weet dat het met undervolten een stuk beter word maar had echt beter verwacht.

En als kers op de taart gaat AMD nog extra minning-geoptimaliseerde drivers uitbrengen.

Dan mag Vega een mooie kaart zijn maar ik voel me als AMD fan ondertussen aardig in de steek gelaten. Na maanden wachten bij Gods gratie een kaart mogen kopen, het houd een keer op en toen mijn build klaar was maar de GPU ontbrak enkele weken geleden en er nog geen zicht was op custom Vega's van de AIB's was ik er klaar mee.

Met mij afgelopen tijd nog een aantal vrienden/kennissen die op de HD7000-serie zaten en wachten op wat nieuws en het wachten ook zat waren. Mja en krijg mensen als ze tevreden zijn dan maar weer eens terug.

Nogmaals begrijp me niet verkeerd ik ben jaren tevreden AMD gebruiker geweest met afgelopen 16 jaar denk 15~20 verschillende ATI/AMD kaarten maar de koek was bij mij op :(
Wat ik niet snap is dat ze zo goed verkopen dat ze vrijwel altijd uitverkocht zijn, maar toch niet kunnen groeien in marktaandeel?
Wat als AMD wel echt een killer kaart zou hebben, zou het eigenlijk verder helemaal niks uitmaken..
Rx vega 56 is netjes kwa gebruik, gelijk aan gtx 1070ti en zo'n 30 watt meer dan de rx 580. Dat kun je niet slecht noemen, daarintegen de vega 64 verbruikt wel veelste veel...

[Reactie gewijzigd door Twanekel op 7 november 2017 09:27]

Gelijk? Het verschil is niet schokkend zoals bij Vega 64, maar 40-50 watt meer onder load en doet bijna het dubbele aan verbruik idle. Dat is niet af te ronden naar gelijk verbruik ;)

[Reactie gewijzigd door sjekneck op 7 november 2017 10:13]

Oke, de laatste review die ik zag gaf dit aan: https://www.youtube.com/watch?v=VqABChFrD_w op 12:58

Idle ligt compleet aan je hardware configuratie en systeem, maar over het algemeen zit er zo'n 10% verschil in van rond de 5 watt, de ene review heeft het verschil kleiner de andere groter. In ieder geval het zal je misschien misschien 2 euro kosten in het jaar. onder load zal het ongeveer 35 watt gemiddeld van de reviews waar ik net even langsop ging. Dat komt neer op 11 euro op 4 uur gebruik per dag (beide gevallen).

Verschil tussen de reviews is dat ze het stroomverbruik anders meten, bijvoorbeeld gamers nexus pakt fire strike en hardware unboxed pakt crysis 3.
Dus ca. Net zoveel als een 1080 die sneller is en rond het zelfde prijspunt ligt (en stillere custom varianten ).
Ze zijn over het algemeen wel sneller en goedkoper richting het hoogsegment.
Dat probleem maken forumgebruikers ook met AMD Vega waardoor Vega voor veel lezers tegen valt. Aan de hand van Vega FE gingen forumgebruikers er van maken dat Vega FE geen goede gaming drivers heeft en dat de GPU zelf niet geoptimaliseerd is voor games omdat er van alles zou zijn uitgeschakeld. Dit probleem zou RX Vega niet hebben en gelijk zo niet beter presteren dan de gtx 1080 Ti en Titan. De ironie is dat AMD fanboy's dit zelf in de hand werkten.
De rx56 en rx64 zijn te koop en nog tegen competitieve prijzen. Niet dat je veel keuze hebt en prijs/kwaliteit is niet persee sterker. Maar met een 4k freesync scherm en net wat sterkere performance in directx12 zijn dr amd kaarten helemaal zo gek nog niet.

De 480 en 580 daarentegen doen keihard onder voor een 2e hands r9 290.
“De 480 en 580 daarentegen doen keihard onder voor een 2e hands r9 290”

Alleen het stroom verbruik is de helft minder, je je hebt iets meer performance voor 50% minder geld. (Zonder de mining gekte) ;)
Mmm maar is dat een fout van AMD? Of gewoon een situatie die niet te voorzien was? De verkrijgbaarheid is zo slecht vanwege het bitcoin-delven, wat niet te voorspellen was (door de koerssprong). En blijkbaar zijn AMD-kaarten daar veel geschikter voor, dus raken die uitverkocht.
Vaak is er ook gewoon geen optie om een AMD gpu in je systeem te krijgen (bijvoorbeeld mijn laptop toen ik deze kocht was er alleen maar de optie Nvidia als gpu). En toen heb ik hem maar gekocht met een Fermi chip erin (de GTX 670m 3gb) en tot mijn verbazing is deze videokaart SLECHTER(!) dan een amd mid range kaart van 2009. Bij Nvidia betaal je eerder voor de naam en niet de performance.. Ik pak zelf liever geen Nvidia meer, de drivers zijn ook gewoon slecht bijvoorbeeld op Linux.. Dat is bij AMD dan wel weer beter en je krijgt meer performance voor je geld, niet per se gaming performance maar ook voor andere zaken zoals blender of andere software.
Nvidia heeft wel goede support voor graphics development, Nsight is geÔntegreerd in Visual Studio.

En dat is toch wel een van de redenen waarom ik games maak met een Nvidia GPU.
Ik heb het over driver support op een besturingssysteem, niet iets dat met game development te maken heeft. Je wilt niet weten hoeveel pijn het was om Fedora op mijn laptop te draaien.. NVIDIA Optimus is gewoon crap qua drivers voor Linux. Inmiddels zal Bumblebee nu wel al wat beter werken dan 4 jaar geleden want mijn laptop is inmiddels alweer zwaar verouderd, maar nog steeds snel genoeg voor de zaken die ik ermee doe. Is een i7 3610qm met 16gb ram.
Qua tools voor Windows wel, Linx is n stuk minder. DX12 tooling is prima, maar voor Vulkan is Nv niet zo best. Intern shuffled de driver alsnog zelf je vram enz. Async compute support is ook schijt. Bij AMD kan je wťl gewoon alles beheren en optimaliseren. Enige wat AMD ontbreekt is sparse texture support, maar dat gebruikt ik toch niet. AMD is ook veel opener tegenover devs.

[Reactie gewijzigd door Vale vista op 6 november 2017 23:38]

Daarom zeg ik als AMD hiermee meer marktaandel pakt dan moeten developers wel optimaliseren.
Inderdaad, ik hoopte op een Ryzen mobile APU waar wat HBM op te vinden was, a la de EDRAM op de XBONE APU. Ik hoop dat niet-concureren-met-ryzen niet betekent dat zoiets niet gaat komen. Zou niet weten waarom zo'n all-AMD chip niet interessant voor gamers zou zijn...
Die komt er toch? Raven Ridge....
Was er ook al een APU met HBM bevestigd door AMD? Ik dacht van niet maar wellicht komt die nog wel.
Misschien komt die ook nog wel. Maar natuurlijk hebben ze eerst de focus op een model wat meer mensen en zakelijke klanten aanspreekt. Die 25watt APU's met Ryzen en Vega lijken erg goede prestaties neer te zetten tov de Intel CPU's en qua performance per watt ziet het er ook goed uit. Ben benieuwd naar de reviews.
Toch wel vreemd dat AMD hierin mee gaat. Net op het ogenblik dat ze voor het eerst in 10 jaar terug mee zijn qua CPU-architectuur.

Met hun eigen geÔntegreerd product zouden ze een enorm voordeel kunnen hebben qua performantie en kosten. Maar nee, laten we in ruil voor wat licentie-geld Intel de kans geven om bij te blijven. Tenzij met deze deal andere voordelen gemoeid waren, zou het wel eens een gok kunnen zijn die AMD zuur gaat opbreken.
Naar mijn weten zijn de GPU (ATI) & CPU tak van AMD 2 verschillende bedrijven die met een verschillende agenda onder 1 dak werken.
Ik vind het ook vreemd, ik heb een beetje schrik dat ze een monopolie willen creeren , een soort van prijsafspraken, maar dan op een legale manier door zogezegd samen te werken.
Stel je voor dat nvidia binnenkort hetzelfde aankondigd, dan heb je feitelijk geen concurrentie meer en kunnen ze dus vragen wat ze willen, de prijzen zullen zeker niet meer dalen.
Komt er een Dual of ook Quad-core processor in?
De eerste Zen APUs hebben 4 cores en 8 threads.
De kans dat er een dual core komt is best aanwezig.
Aan de andere kant zou ik zelf minimaal een quad willen om te zorgen dat de laptop toch een tijdje mee kan.

Quad cores in laptops bestaan ook al jaren. Zou mij niet verbazen als we in de komende 2 jaar ook 6 en 8 core laptop cpus gaan zien.
Ook interessant dat Intel hiermee de deuren open zet om een CPU zonder geÔntegreerde graphics op de markt te brengen, en dus met dezelfde diesize een krachtigere CPU kan neerzetten.

AMD heeft bewezen dat het geen probleem is om een desktop chip uit te brengen die gecombineerd moet worden met een grafische kaart, en Intel maakt dat nu mogelijk in laptops.

Let wel; de interconnect is een specificatie waar Nvidia ook mee kan werken, dus het is niet noodzakelijk dat dit product alleen in combinatie met AMD GPUs uitgebracht wordt.

[Reactie gewijzigd door Laloeka op 6 november 2017 16:42]

Gezien de duo poli van Intel en AMD als cpu makers kunnen ze het eigenlijk niet maken samen te gaan werken om een derde partij buiten spel te gaan zetten. Een partij die bovendien op dit moment niet direct aan de centen van Intel komt. Ze leveren immers een gpu naast de Intel cpu.

Ik denk dat Nvidia met een rechtszaak bij de EU een heel eind kan komen. Zeker aangezien Nvidia al jaren bij Intel buiten de deur wordt gehouden. (Vroeger mochten ze o.a moederbord chipsets maken).

Deze samenwerking is alleen goed nieuws voor de consument wanneer het er toe leidt dat Intel en AMD een x86 en x64 aan Nvidia moeten leveren. Dan kan Nvidia ook eens terug gaan pesten, als is het maar om hun positie op de datacenter markt te versterken.

[Reactie gewijzigd door sdk1985 op 6 november 2017 21:52]

Je maakt een goed punt, dit zou weleens een afspraak kunnen zijn die in strijd is met artikel 101 van het Verdrag betreffende de Werking van de Europese Unie.

Ik heb hier toevallig vorige week tentamen in gehad (3e jaars Rechtsgeleerdheid) en ik denk dat deze afspraak wel eens zou kunnen vallen onder de categorie van afspraken die ertoe strekken de mededinging binnen de interne markt te belemmeren, aangezien Intel en AMD samen een gigantisch marktaandeel hebben, en deze afspraak kennelijk de bedoeling heeft de overige competitie geen kans te geven.

En zelfs als het niet aan de criteria van 101 VWEU zou voldoen, kan het misschien nog wel gezien worden als een schending van artikel 102, welke machtsmisbruik verbiedt. Een dergelijke afspraak van deze twee gigantische bedrijven zou wel eens een zeer negatieve invloed kunnen hebben op de competitie binnen de Europese processormarkt.
En ben maar wat blij dat ze dat niet meer doen. Wat een meuk was dat. Op de 5 verschillende modellen MoBo's van Asus (in verschillende prijsklassen) waren er 4 al kapot binnen 2 jaar. Het laatste MoBo was een uit het goedkoopste segment, maar die hield het bijna 8 jaar vol.

Nu denk ik zowiezo dat Asus niet de beste borden van hun productielijnen hier in Paraguay slijten. Maar diegenen met NVidea chips waren echt gewoon rommel. In diezelfde tijd ook 15 Asus MoBo's met VIA chipset aangeschaft welke er twee nog steeds naar behoren werken na 15 jaar 24/7 dienst te draaien (als Linux servertjes). Goedkoper en echt veel betrouwbaarder dan de NVidia chipset crap.

Anecdotisch is mijn ervaring vast en zeker, maar ik denk toch een grotere sample size ter beschikking te hebben gehad dan de meesten hier.
Hoe groot je sample size ook was het is en blijft anecdotisch.
Ik zit niet te wachten op nV chipset met extra placebo chip voor SLI.
Nvidia had destijds ook single gpu chipsets zoals de Nforce 630i en de Nforce 650i Ultra. Nvidia heeft dit overigens jaren lang gedaan, tussen circa 2001 en 2009 had je de volgende series voor wel Intel als AMD cpu's:
nForce 220/415/420
nForce2
nForce3
nForce4
nForce 500
nForce 600
nForce 700
nForce 900

Anno 2017 een Nvidia moederbord schiet inderdaad niet zo op, echter en Nvidia x64 cpu zou best leuk kunnen zijn.
@Sander aka auteur:

Is dit niet toevallig iets wat gepushed wordt door een grote klant van Intel en AMD ... Apple ?

Voor iMacs en Macbook Pro.. ? Of de iMac Pro zelfs ?
Of een MacBook Air vormfactor met een high end performance?
Dus toch wel! Dit bericht dook inderdaad een paar maanden geleden op en werd direct door alle betrokken partijen ontkent.
Hoe dan ook een merkwaardige keuze, maar ik snap wel dat Intel niet voor Nvidia gaat. De vijand van mijn vijand is mijn vriend idee. Ben benieuwd hoe dit voor AMD gaat uitpakken, ik vraag mij af hoeveel baat AMD heeft bij al deze samenwerkingen.

Vooral dit heeft ze (In mijn ogen) de laatste jaren veel positieve resultaten geleverd, ik zie AMD toch meer als een erg progressief bedrijf, Nvidia wilt juist de markt op slot gooien door diverse technologieŽn te introduceren die enkel werkt op hardware van Nvidia en deze closed source te houden. Maar ook nog de hoofdprijs voor betaald (G-sync)

AMD zet zich meer in voor een open markt, en komt daarmee ook met open source standaardisatie en technologie.

Ik moet er wel even bij vermelden dat Nvidia natuurlijk hele goede producten ontwerpt, en ze met recht marktleider zijn.
Als ik zie hoe ze de markt proberen te bespelen, dan vind ik de aanpak van AMD wat meer gericht op een open markt en een duurzame markt. (Al gaat dat niet altijd op bij energiegebruik van hun GPU's :+ )

[Reactie gewijzigd door yori1989 op 6 november 2017 15:19]

Dus toch wel! Dit bericht dook inderdaad een paar maanden geleden op en werd direct door alle betrokken partijen ontkent.
Hoe dan ook een merkwaardige keuze, maar ik snap wel dat Intel niet voor Nvidia gaat. De vijand van mijn vijand is mijn vriend idee. Ben benieuwd hoe dit voor AMD gaat uitpakken, ik vraag mij af hoeveel baat AMD heeft bij al deze samenwerkingen.
Onder het vijand van mijn vijand principe zou je juist een Intel + Nvidia combi chip verwachten. Immers AMD en Intel zijn directe concurrenten op de cpu markt. Nvidia levert een extra product die waarde verhogend werkt. Een cpu met een betere igp levert Intel niet automatisch meer geld op. Sterker nog, Intel kan die IGP er beter uitlaten dan verdienen ze per cpu meer. De directe vijand is en blijft AMD.

Bovendien heeft Intel al een cross licensing agreement met Nvidia waarbij het alle gpu techniek mag gebruiken in zijn eigen producten. Die licentie (1.5 miljard) loopt dit jaar af, maar Intel heeft het recht deze technieken onbeperkt te blijven gebruiken tot aan het punt dat de patenten verlopen. Intel gaat dus nu geld aan AMD afragen terwijl ze de technieken van Nvidia gratis kunnen gebruiken (!).

Natuurlijk is het wel te verklaren. Nvidia verdient bakken met geld en is met succes nieuwe markten aan het aanboren. Ze liggen ver voorop in bepaalde compute markten, markten die in de toekomst weleens steeds belangrijker kunnen worden. Denk aan automotive maar ook de supercomputers. AMD heeft jaren geen concurrerend product geleverd en zelfs nu met Ryzen, Polaris en Vega wordt er eigenlijk geen geld verdiend (peanuts).

Het lijkt er dus sterk op dat Intel via deze deal Nvidia probeert af te zwakken om zo zijn eigen toekomst te verzekeren. Dat AMD daar ondertussen de vruchten van plukt zal een gecalculeerd risico zijn.

[Reactie gewijzigd door sdk1985 op 6 november 2017 21:50]

Ik denk eerder dat er een gpgpu vs cpu war nog steeds gaande is.
Voor Larabee nog aan de horizon hing was nV en intel aan modergooien na mekaar.
NV timmer hard aan de weg kwa pro gpgpu hardware.
Dat gaat tegen d core busness van intel server in.
Dus keiharde oorlog.

Intel heeft toen havok overgenomen.
Voor gpgpu module havok fX te killen.
De reden dat nV Ageia PhysX heeft overgenomen als wapen feit in de gpgpu vs CPU war.

Mij lijkt eerder dat iNtel als groter gevaar zag dan AMD.
AMD is minor speler in GPGPU en mogelijk meer partner in CPU vs GpGPU war.
Ik denk ook dat AMD niet echt veel keuze heeft. Nvidia heeft de market share om eigen (gesloten) technieken te pushen. Als AMD dat zou proberen blijft de adoptie waarschijnlijk veel te klein om er een succes van te maken. Dan kunnen ze beter een open standaard maken/gebruiken om tegen de grote groep nvidia gebruikers proberen op te boksen. Tenminste, dat denk ik, ben geen expert ;)

Desalniettemin kan ik me zeker meer vinden in de strategie van AMD dan Nvidia.
Nvidia loopt voorop kwa super-computing mbv hun gpu.

Intel blijft daar zwaar op achter.


Niet alleen maakt Nvidia hun architectuur zuiniger,
voor toepassingen in automotive en robotica worden ze ook simpeler gemaakt omdat het relatief veel legacy bevat.


Intel heeft de kennis niet om op dat vlak een inhaalslag te maken, dus wordt het samenwerken.


Dat ze het presenteren als een zuinige chip tbv gamers is redelijk onzinnig, dat is niche-markt,
een beetje gpu op een smartphone presteert beter dan wat Intel tot nu toe presenteert,
en die gpu werken ook mee als co-processor.
De baat voor AMD zal in het marktaandeel van hun grafische architectuur zitten.

Hoe meer marktaandeel hoe groter de kans dat er ook voor hun architectuur geoptimaliseerd wordt.

En dat kunnen ze goed gebruiken, GCN en NCU doen in ruwe performance niet echt onder voor hun nvidia tegenhanger, in tegendeel zelfs. Een Vega 64 heeft meer ruwe performance dan een 1080, voor pure compute performance zelfs meer dan een 1080Ti, maar dat is deels kunstmatig laag bij nvidia.

Meer optimalisatie betekent waarschijnlijk dus betere benchmark resultaten.

Edit: Niet zo gek gedacht van mij:
“Our collaboration with Intel expands the installed base for AMD Radeon GPUs and brings to market a differentiated solution for high-performance graphics,” said Scott Herkelman, vice president and general manager, AMD Radeon Technologies Group.

[Reactie gewijzigd door Omega Supreme op 6 november 2017 15:50]

De baat voor AMD zal in het marktaandeel van hun grafische architectuur zitten.

Ik begreep ook dat AMD door jaren ploeteren voor Ryzen erg krap bij kas zit. Intel bulkt natuurlijk van het geld. Als dankzij een flinke investering van Intel het GPU-gat met Nvidia gedicht kan worden (dat nu ook weer niet zo heel groot is), dan is dat heel mooi voor AMD.
AMD heeft zijn kennis ook vooral omdat het ATI heeft overgenomen. Nvidia en Intel copypasta bedrijven noemen slaat nergens op.
Snap nog steeds niet waarom Intel niet zelf een top GPU ontwikkeld...ipv te rommelen in de marge...met prima chips voor kantoorgebruik en simpel thuisgebruik...maar Gamen op een Intel is niet te doen! daar moeten ze iets aan veranderen! of gewoon AMD opkopen...das ook een optie voor Intel!
Intel vragen een concurrerende GPU te ontwikkelen is hetzelfde als nVidia vragen een concurrerende CPU te ontwikkelen. Gevalletje schoenmaker blijf bij je leest.

Ze proberen het wel, getuige hun onboard GPUs die op zich wel goeie stappen maken, maar zoals je zelf al aangeeft staan die nog steeds niet in de schaduw van een GPU van AMD of nVidia.

Dus dan maar samenwerken, wat ze nu ook gaan doen. Als dat niet werkt kun je altijd nog een (hostile) takeover doen.
NVIDIA's project Denver is een poging om een eigen processor te ontwikkelen. Het is weliswaar een processor gericht op de mobile market (en dus instruction set compatible met de ARM processor family), maar dat mag de pret niet drukken.

De eerste chip die gebruik maakte van de resultaten van Project Denver was de Tegra K1 welke in de Nexus 9 tablet gebruikt is.

De meest recente mobile chip van NVIDIA (Tegra X2) maakt ook gebruik van twee Denver cores (naast 4 Arm Cortex A57 cores).

Voor de opvolger (Xavier) wordt schijnbaar gebruik gemaakt van een custom 8-core CPU. Of dit een verder ontwikkeling is van Project Denver of een geheel nieuwe ontwikkeling is nog niet duidelijk.

https://en.wikipedia.org/wiki/Project_Denver
nvidia wou anders graag in de desktop cpu markt springen, maar krijgen geen x86 licentie dus zijn dan maar met arm aan de slag gegaan.
Nvidia wou dat helemaal niet al te graag anders hadden ze gewoon en licentie kunnen krijgen zij het voor een forse bak geld.

Harde feiten zijn gewoon dan Nvidia zich heeft laten omkopen door intel voor maar liefst 1,5 miljard.
Daarvoor hebben intel en Nvidia alle rechtszaken laten vallen en behield intel de x86 licentie en kreeg Nvidia die dus niet.
Als Nvidia had gewild hadden ze deze licentie wel kunnen krijgen dat staat immers in de wet.
Echter had dit ze die 1,5 miljard gekost en nog een half miljard of meer aan licentie gelden en rechtszaak kosten voor alle lopende rechtszaken.
Het was dus simpelweg niet meer financieel wenselijk voor Nvidia om miljarden af te boeken voor een licentie.
Toch... De GPU in de Intel core chips is best goed zoals je al zegt. Maar doordat deze GPU bijdraagt aan de TDP kan deze niet te krachtig worden. Bovendien moet de GPU de geheugenbus van de CPU delen, wat DDR4 geheugen aanspreekt. Daar heeft nVidia geen last van, die hoeft geen 95W aan een CPU weg te geven. Dus ik vraag me af wat er gebeurt als Intel de GPU uit hun core CPUs haalt en daarvan 10 (ofzo, ligt een beetje aan het verbruik) op een aparte chip knalt en er een kaart met dedicated 256bit-GDDR5 memory van maakt. Deze zal waarschijnlijk niet de 1080Ti onttronen, maar ik ben benieuwd hoe dichtbij die kan komen.

[Reactie gewijzigd door zonoskar op 6 november 2017 16:21]

Intel vragen een concurrerende GPU te ontwikkelen is hetzelfde als nVidia vragen een concurrerende CPU te ontwikkelen.
Zoiets als een NVidia Tegra misschien? Sommige varianten zijn Cortex-afgeleiden, maar de 64 bist varianten zijn een ISA-compatible eigen implementatie.
Intel vragen een concurrerende GPU te ontwikkelen is hetzelfde als nVidia vragen een concurrerende CPU te ontwikkelen. Gevalletje schoenmaker blijf bij je leest.
Denk je dat Intel alleen maar CPU's maakt? Ze hebben al diverse keren modellen gepresenteerd die aardig mee konden komen. Deze samenwerking is puur strategisch, ze kunnen zo veel sneller iets neerzetten, als tijd geen issue was geweest dan had Chipzilla het ook voor elkaar gekregen.
Denk dat er heel wat toezichthouders op zullen springen met een legio aan bezwaren op het moment dat Intel zijn grootste concurrent zou proberen op te kopen.
Nee hoor, zal wel meevallen. Vraag me wel af waarom Intel dan niet Imagination over neemt, dat zou ze zelf wat stevigere voet in de GPU wereld zetten, al dan niet vanwege patenten.
Omdat het allemaal niet zo simpel is. Intel heeft 0 ervaring met gpus.
Los van het feit dat ze sinds 1998 gpu's uitbrengen.
Ik zou geÔntegreerde gpus niet meetellen : zo kan ik het ook. Wat ik bedoel is dat intel dus nog nooit iets los heeft gehad dat een success werd.
Behalve dan dat ze vorig jaar een marktaandeel van 71% hadden. Het zou wel onder mijn definitie van succes vallen.
Ik zal het nog eens uitleggen. Het is intel nooit gelukt om een succesvolle (snelle) videokaart te integreren in hun cpu/chipset. Dat HD graphics een succes is staat los van het feit dat het nog steeds geen echte gpu is. Het is een chip gefocust op low power en goedkoop zijn. De amd gpu die hiermee komt zal over gaming mogelijkheden beschikken, wat een vooruitgang is.
GPU = Graphics Processing Unit. Ook al zijn die van Intel niet snel, het zijn gewoon GPU's hoor.

Of is een auto die niet harder dan 150 kan ook geen auto?
Dat is inderdaad geen auto :D
Nou maar het gaat hier om performance.
Game performance. Het gaat er niet om of het gpu is. Maar of maximale eruit haald om concurerend te zijn in game performance.
In driver gelobby en game exec herkenning weet je dat nV driver team agressief zich bij devs opdringt en dus goed scored bij game releases. En relatief groot is kwa afdeling. Met opgebouwde kennis en specialisten.
Er tussen nV en AMD er grote verschil is wat je kwa architectuur er uit kan halen.
Het zijn beide ontwikkeld voor top performance.

Mij lijkt igpu ontwikkeling game performance ondergeshikt te zijn aan TDP en diespace gebruik.
Intel igpu moeten het vooral doen in ook de notebook market en surfacepro tablet PC .

Daar mee kan men ook achitectuur op afstemmen.

Dus Smart Aygo C1 Picanto. hoofd doel A naar B te gaan superzuinig.
Niet freude am fahren BMW mentaliteit om voor fun op duitse autobahn even op zijn staart te trappen in de toeren begrenzing op 250km/u

Bij highend is GPU is door oververhitting down throttlen.
Bij auto pakt men 10W60 race olie. Een oliekoeler niet voor de automaat maar motor olie.
Race koppeling. Rijd klote. Grijpt abrupt in. Vind ik.
Bij gkaarten water koeling vapochil etc.
Dat HD graphics een succes is staat los van het feit dat het nog steeds geen echte gpu is.
Het is simpelweg een compleet irrelevante distinctie, of iets discreet is of een losse chip, want de werking is exact identiek. Intel heeft idd weinig tot geen ervaring met het produceren van top end GPU's, dat klopt helemaal. Maar zeggen dat ze geen ervaring hebben met GPU's in general is gewoon quatsch.

[Reactie gewijzigd door .oisyn op 6 november 2017 16:30]

Opzich is juist van belang de performance potentie van gpu. Maar met hoofd doel standaard instap GFX is de badruk op top gameperformance uit de hardware er niet geweest. Kan ook op hardware niveau zijn dat er bezuinigd is op performance feature. Maar er is ook maar beperkte driver team bezig geweest om het functioneel te maken. Die driver team is al mogelijk gegroeid. Maar je hebt toch te maken met achterstand.
AMD igpu in hun APU zijn op diezelfde highend architecturen gebaseerd ivm modulaire model met meer units. iNtel zijn puur ontwikkeld als iGPU. Zou dus ook design keuzes die meer TDP en transister count based zijn ten nadele van performance.
IGP's zijn niet te vergelijken met dedicated GPU's qua performance. Ze kunnen hoogstens mee met de entry level kaartjes die het dan eerder van hun extra features moeten hebben dan van hun processing power
Enige wat ik mij kan bedenken dat ze zijn ontwikkeld voor lowpower procede en architectuur.
Dus willen niet al te gretig klokken. Maar zuinig met ULV settings
zo kan ik het ook
Ohja? Waneer breng je je chipset uit? Dat is wel een primeur, een GPU van Nederlandse bodem :P

Hoe dan ook: het zijn gewoon GPUs, maar ontworpen om primair zuinig te zijn.
Zoals hierboven uitgelegd, heeft intel nul ervaring met het (succesvol) uitbrengen van een dergelijke (aparte) gpu. Nu AMD het gpu gedeelte doet voor deze chip heb ik daar wel vertrouwen in.
P. S:
Mijn nieuwe chipset komt soon (all right's reserved) met de naam PauperTech VierK9001. ;)
Leg dan eens uit wat volgens jou het verschil is tussen een losse GPU en een ingebouwde GPU behalve dat het er fysiek anders uit ziet maar dus gewoon hetzelfde doet...
Het verschil is doeleinde. Een geintegreerde GPU is bedoelt om klein, energiezuinig en voldoende te zijn voor office gebruik. Een dGPU o.i.d is bedoelt om die kleine formfactor en prijs in te ruilen voor prestaties. Wat AMD en intel nu doen is een combinatie van buiten.
Het verschil is dat iGpu niet hoeft te concureren mrt de losse GPU die gericht zijn op gamen.
Dus met igpu is niks mis mee. Maar de driverteams hoeven alleen zich bezig te houden met functionele driver. De mankracht voor zwaar optimizen voor game performance is er niet geweest.

De reden dat i740 gefaald heeft mogelijk meer driver achterstand.
Larabee gefaald heeft puur gpgpu is performance inferieur tov goede mix gpgpu en fixed hardware.
Dat nadeel of compromie van full free flexibele gpgpu cores wat eigenlijk mini X86-64 cores zijn.
Ondanks aantrekken van toen grootheden uit game busness.
Ze hebben een AGP kaart met eigen GPU uitgebracht. Genoeg ervaring met dat. Ze hebben ook intern project larrabee gehad om een nieuwe GPU te ontwikkelen, en hebben dat dan misschien geannuleerd aan het einde, maar dat maakt niet dat de ervaring of kennis verdwijnt. Qua architectuur zijn de Xeon Phi Co-processors nogal GPU-achtig.

Eigenlijk kan je dus wel stellen dat Intel ervaring heeft met:

- uitbrengen van zelfstandige GPU's als insteekkaart
- ontwerpen en bouwen can GPU's
- nieuwe GPU architectuur ontwikkelen

Wat ze dan weer niet hebben is:

- In hetzelfde schap in de computerwinkel waar je AMD en Nvidia ziet liggen nu ook een Intel doos
Nou nee ervaring niet missen van afdeling dat gericht drivers optimaliseerd voor diverse populaire games.
Probleem van iNtel igpu is dat driver team niet verder komt dan functioneel te maken.
Houd in dat iGPU met drivers gied hun werk doen. Maar amper geoptimaliseerd voor diverse games en algemene optimalisaties. Dus veel kleinere driver afdeling.
iNtel heeft eens heel zwaar in gpu ingezet Larabee project dat gefaald heeft. Puur gpgpu moet toch afleggen tegen Hybride aanpak.

Met APU van AMD en de tegen hangers van iNtel is dicrete GPU een krimpend markt. En zolang met elke dieshrink de igpu krachtiger worden dat geschikt is voor midrange gamen dan heeft het commecieel geen zin om zwaar op die markt in te zetten.
Ipv op Server cloud en notebook markt die groeiende zijn .

Den dat iNtel het wel kan maar dan moeten ze een inhaal slag doen met uitbreiden van driver team en eerste gen uiteraard weer achter lopen tot driver team op niveau AMD en nV zal zijn. Dan worden de gpu pas goed benut. Ligt dus niet aan de hardware maar driver team.
met socket LGA 'Ultimatron 4000Xģ' zeker
Waar heb jij deze informatie vandaan? *rechtszaak*
uit de roddelmachine om de hoek van AMD©, dat ding draait op volle toeren sinds ze weer geld hebben
Intel maakt elk jaar meer GPUs dan AMD en nVidia tesamen
Die markt is grotendeels te danken aan kantoor, businesses en dergelijk. Die hebben geen externe grafische kaart nodig voor gebruik word, spreadsheets en troep.
Niet nul; https://en.wikipedia.org/wiki/Larrabee_(microarchitecture)

Dat en ze hebben integrated graphics die niet meer zo ranzig zijn als vroeger, maar full-blown concurrentie krijgen ze niet van de grond.
Larabee top punt van kapitaal ertegenaan kwa innovatie en ultieme general purpouse shader unit wat gewoon x86-64 minicores zijn met meeste en enkele unieke SSE AVX extenties die later gelijk zou worden getrokken. Flexibiliteit voor gfx effect features . Maar op crusiale punten fix function hardware nog steeds in huidige moderne gen gpu waar game industrie nog hekemaal locken in op is kwa productie en render kennis. En dus ten eerste beginnen met performance voordeel.

Terwijl Larabee game dev nodig heeft die absurt maar heel opvalkende complexe renderfunctie moet opleveren die met de moderne gpu nog niet mogelijk zijn. Kip en ei probleem.

Maar bij game release wordt je afgerekend op game performance zelf als enkele procenten zijn. En meeste games dev conservatief bezig zijn.

Innovatie is geen garantie op sucses.
Het was onbruikbare troep, ongetwijfeld, maar dat was mijn punt ook niet. :)

Ging er puur om dat ze niet nul ervaring hebben.
Het larrabee project had tot doel een eigen GPU op de markt te brengen, dat is ergens in 2010 ge-annuleerd en de techniek is omgetoverd tot soort van high-performance co-processor welke nu bekend is als de Xeon-Phi.
https://en.wikipedia.org/wiki/Larrabee_(microarchitecture)
Ja, handig, als Intel de concurrent opkoopt. ;) Nu snap ik wel dat je bedoeld voor het GPU deel, maar het CPU deel zit er ook bij, dat is een bedrijf tegenwoordig. Ik denk dus niet dat een dergelijke overname Łberhaupt goedgekeurd zal worden.

Edit; was als reactie op een ander bedoeld, alwaar de reactie nu ook staat.

[Reactie gewijzigd door CH4OS op 6 november 2017 16:52]

Ik heb nooit iets gezegd over overname?
Hmmm, las het net wel ergens. Dan heb ik denk ik met een verkeerd oog gekeken, mea culpa.
Ja, klopt, maar dat was ik niet :P
@bArAbAtsbB gooit in de tweede reactie onder het artikel wel de vraag op waarom Intel niet gewoon AMD overneemt, misschien dat je het daarvan hebt?
Dit is toch geen GPU?

Intel faciliteerde chipsets die met onboard video kwamen. Dit was vooral voor kantoorgebruik extreem handig want men hoefde geen externe videokaart erin te stoppen. De GPU's waren verre van GPU's uberhaubt en aan grafische prestaties ontbrak het vaak. Met de hedendaagse GPU's had intel altijd nog het probleem dat het dure cache in hun CPU's moest stoppen om zo enige bandbreedte te bieden. Anders dan dat waren het extreem langzame chips op gebied van 3D.
Het was dan wel crap maar het was zeker een gpu.
Hozo crap? Voor toen hadden ze een redelijke GPU op de markt gezet.
Relatief crap dan, VooDoo en TNT deden het beter.
Ik heb een voodoo 2 i.c.m een Intel 740 gpu gehad, dat was meer een addon kaart dan een op zichzelf staande GPU.
Dat waren gamers dingen, daar zat en zit het grootste deel van de PC markt niet op te wachten.
Toen was het redelijk, niet meer dan dat, en daarna jarenlang bekend als Intel Extreme(ly slow) Graphics chipset.

[Reactie gewijzigd door mae-t.net op 7 november 2017 23:58]

Het kon 2D weergeven maar had absoluut geen goede prestaties op gebied van 3D:
and found its performance to be average and good for video editing and playback of VCDs/DVDs for output to a television
De eerste GPU bestond pas sinds de Geforce 1 en volgens mij Radeon 8500. T&L was de meest belangrijke featureset van deze GPU's rond deze tijd als ik me niet vergis. De 740 had dat dus echt niet.
Correctie, de 1e GPU met T&L was de S3 Savage.

Die was een paar maanden eerder op de markt maar had slechte drivers waardoor de volle potentie van de GPU niet volledig benut kon worden.

Nvidia kwam iets later en had zijn zaken beter op orde en zijn succesvol geworden sindsdien.
Je hebt gewoon gelijk, Intel zou het even laten zien destijds en de toenmalige directeur van Nvidia zei al eens dat een CPU bouwer geen GPU bouwer is en hij totaal niet bang was dat Intel een bedreiging voor Nvidia zou worden. Die man had volkomen gelijk, wat vielen de prestaties tegen en geen enkele driver update (die er in het begin nog wel eens waren) kon het veranderen.
Zeker wel een GPU, ik heb hem op een stand alone kaart gehad, doorgekoppeld naar een Voodoo 2 volgens mij. Daarna zijn ze de ontwikkelde chip gaan integreren in hun CPU.
Ik heb Asus G-kaart gehad met i740 chip
Dat hebben ze een aantal jaar geleden geprobeerd met Larrabee. Larrabee zoog alleen keihard en Intel heeft niet eens geprobeerd dit product uit te brengen.
Jawel, dat project is verder gegaan onder Knights landing GPU, zie deze foto

Het is een GPU bedoeld voor deep learning en troep, met een TDP van richting de 300W.
Dat is een coprocessor; geen gpu. Het werkt niet als een gpu. Als je die kaart zou vertellen om display uit te voeren, weigert hij pontificaal.
Ja en waar denk je dat ie vandaan kwam? :P
Van een GPU. Maar het is nooit een GPU geworden, wat jij impliceerde.
Larabee is nooit als GPU op de markt gekomen, maar is doorontwikkeld en nu als Xeon Phi te koop.
Wat niet wegneemt dat Larrabee als Graphics Processor Unit echt zoog. ;)
Het is nu een goede chip voor parallelle berekeningen met de x86 instructieset. Dat geeft alleen niks met grafische applicaties te maken.
Nee Fixfunction is kwa performance hoger dan general purpouse.
Voordeel van hoger level van general purpouse dat je complexere effcten kan doen
SM5.0 is aardig general purpouse maar mini X86 -64 met speciake extenties zijn uiteraard van nog hogere level. Maa het vereis dat game developers helemaal wild gaan met render tech zoals een complexe Raytrace rende backend. De game industrie is zeer trage migrerend bussness dus zou betekenen dat je 3 generaties kwa performance met massa aan conventionele render tech aan games altijd zwaar achter loop in de benchmarks.

De shader cores zijn van ooit puur fix naar meer general purpouse evolueerd. Maar Larabee is een veel te grote stap.

Al had iNtel met 13nm voordeel vs TMSC juist ook tegen nV een enorme dieshrink voordeel gehad om GPU te pushen.

Moet bedenken dat als iNtel i740 lijn had door gezet daar ook langdurig huidige generaties lang op 13 of 14nm had zitten. Vooral dat gpu parralel juist zeer goed schalen.
Dan zal AMD wel eerst zijn CPU's en GPU's divisies moeten opdelen. Anders verwacht ik niet dat Intel AMD mag overnemen vanwege de (nog grotere) monopoly positie.
"On October 16, 2014, AMD announced a new restructuring plan along with its Q3 results. Effective July 1, 2014, AMD reorganized into two business groups: Computing and Graphics, which primarily includes desktop and notebook processors and chipsets, discrete GPUs, and professional graphics; and Enterprise, Embedded and Semi-Custom, which primarily includes server and embedded processors, dense servers, semi-custom SoC products (including solutions for gaming consoles), engineering services, and royalties. As part of this restructuring, AMD announced that 7% of its global workforce would be laid off by the end of 2014"

Lijkt erop dat de twee al opgedeeld zijn. Bron Wikipedia

Zie ook: http://fortune.com/2015/09/09/amd-graphics-chip-split/

en : http://www.amd.com/en-us/...ies-group-2015sept09.aspx

[Reactie gewijzigd door FrankoNL op 6 november 2017 15:49]

De vraag is of ze ooit echt een geheel zijn geweest, daarvoor was de grafische tak immers ATI, en die overname was in 2006.
Geen idee. Ze zijn in 2015 pas echt "gescheiden" :)
AMD heeft financieel inderdaad ooit besloten de cijfers op 1 hoop te gaan gooien. Voor ze dat deden konden we eigenlijk zien dat AMD nauwelijks winst maakte met de graphics tak. Met de formatie van RTG (Radeon Technologies Group) heeft graphics zijn eigen vice president. Echter financieel heeft AMD het nog niet aangedurfd om het weer op te splitsen. Bij vragen over welk deel van de business van Ryzen kwam en welk deel van Vega/Polaris werd er ontwijkend gereageerd.
Nooit begrepen waarom Larabee uiteindelijk werd stopgezet.
Duur en langzaam. Zelfd de Xeon Phi is geen doorslaand succes - NVidia heeft de Deep Learning markt wel zo'n beetje in de pocket.

Fundamenteel is het probleem niet eens dat x86 zo'n probleem is. Voor Larabee is dat maar een klein detail. De numerieke performance moest komen van AVX-512, en dan loop je hard tegen het probleem aan dat AVX slecht schaalt. In AVX-256 is al heel duidelijk dat ze gewoon twee AVX-128 registers aan elkaar hebben geplakt. AVX-512 lijkt een hack op een hack te zijn - Intel is gewoon niet zo goed in SIMD parallelisme. En GPU's zijn massief SIMD.

(Multi-core CPU's zijn MIMD, niet SIMD. Intel/x86 komt goed mee met MIMD)
Intel heeft, in tegenstelling tot AMD, altijd een full-width SIMD unit gehad.
Waarom zouden ze AMD opkopen? Als ze dat hadden willen doen hadden ze jaren geleden al ATI kunnen opkopen, wat AMD dus gedaan heeft en de reden is waarom ze het beter doen dan Intel op GPU gebied.

Dan zouden ze dus alleen de graphics divisie van AMD moeten kopen (CPU kant krijgen ze nooit) en dat lijkt mij de doodsteek voor AMD.

Dan kan Intel beter NVidia opkopen, die zitten ook elders meer in hun vaarwater maar dan denk ik ook dat ze AMD kapot concurreren op alle fronten als ze het goed aanpakken.
Ook daar bij vraag ik mij af of die overname goed gekeurd zou worden.

Dit is denk ik voor iedereen de beste uitkomst (misschien NVidia niet). Consument heeft meer baat bij concurrentie en AMD en Intel staan nu sterk tegen over NVidia zonder dat er iemand van de markt hoeft te verdwijnen.
Laten we hopen dat dat niet zal gebeuren, dat intel Nvidia overneemt, dan zijn ze op grafische kaarten en cpu de grootste in de markt, dat zal niet ten goede gaan van de concurentie en amd kan het dan wel gaan schudden als Nvidia alle kennis van intel kan gaan gebruiken.
Nu ik erover nadenk kan AMD de GPU tak best wel verkopen aan Intel voor een mooi bedrag waarmee ze weer gezond kunnen worden.

En Nvidia kan AMD overnemen en zo een "echte" concurrent worden van Intel waarbij ze dus ook CPU's en GPU's kunnen ontwikkelen.

Concurrentie blijft dan gewoon intact.
En dan zijn ze binnen 5 jaar failliet. Vergeet niet dat AMD veel omzet maakt met de productie van apu's voor consoles, dan zouden ze die markt direct verliezen aan intel. Wat AMD toekomstbestendig maakt is dat ze zowel CPU's als GPU's maken. Iets wat hun concurrenten niet (goed) kunnen.
Je hebt niet alles gelezen wat ik heb geschreven.

Ik zeg dat Nvidia dan AMD kan overnemen.

Dan krijgt Intel een concurrent die hetzelfde kan als hun.

En AMD pakt ook weer niet zoveel omzet met de consoles, het zijn goedkope GPU's die ze verkopen aan Sony en Microsoft.

Ze hebben nu al voor 6 consoles GPU's gemaakt en honderden miljoenen ervan verkocht maar toch blijft hun omzet laag, ze moeten namelijk gewoon korting gevenomdat Sony en Microsoft veel chips kooen en dus is de marge laag.
Ik heb het wel gelezen, alleen niet goed :p.

En AMD verkoopt APU's, dus zowel CPU als GPU. De marge is laag, maar inkomsten zijn inkomsten. En omdat AMD verplicht chips moet afnemen van TSMC (geloof ik), heeft de werkelijk afzet veel lagere kosten omdat er al zo'n grote vaste kostenpost is.

Maar het blijft een dun verhaal om een bedrijf op te splitsen en te verdelen aan 2 duopolies zodat ze in beide markten elkaars enige concurrent vormen... Dit betekent dat de incentives om de ander zijn GPU op jouw platform slechter te laten werken enorm groot zijn. En zal leiden tot allemaal propriŽtaire onzin
Intel zou ook Nvidia kunnen overnemen en dan AMD van de markt vegen. Maar Intel en AMD zijn goede vrienden en tot elkaar veroordeelt. Zonder AMD is Intel monopolist, net als Microsoft vroeger Apple in leven hield houdt Intel nu AMD in leven. In het geval van een Intel CPU met AMD GPU kan dat zelfs een mooi product opleveren ook nog.
Nvidia is denk ik te duur zelfs voor Intel.

En ik denk ook niet dat ze toestemming zouden krijgen van de waakhond.
Waarom zouden ze AMD opkopen? Als ze dat hadden willen doen hadden ze jaren geleden al ATI kunnen opkopen, wat AMD dus gedaan heeft en de reden is waarom ze het beter doen dan Intel op GPU gebied
Intel zal AMD nu niet snel meer kopen. De processordivisie van AMD heeft veel overlap met Intels eigen processor divisie. De processorarchitecturen van Intel en AMD hebben beiden wel hun bijzonderheden, maar of op het vlak van kennis AMD (lees patenten en sleutelmedewerkers) veel aan Intel kan toevoegen betwijfel ik toch (net als andersom trouwens). Afgezien van de grootte worden de bedrijven meer en meer elkaars spiegel.

Dat Intel indertijd niet de stap heeft gezet om ATI te kopen zie ik echter als een gemiste kans. AMD had in 2006 nog vleugeltjes door het Athlon 64 succes (het bedrijf bevond zich op dat moment middenin de Athlon 64 X2 productie). AMD heeft sinds die aankoop best moeten knokken om beide divisies tot hun recht te laten komen. Nog steeds zal het dragen van de ontwikkellasten voor AMD een uitdaging zijn. Maar AMD heeft hiermee wel goud in handen. Had Intel in 2006 ATI gekocht dan had ze nu naast haar vermogen twee cruciale technologieŽn in handen gehad. Dus hoe moeilijk AMD het ook heeft gehad, met een Intel + ATI scenario was AMD waarschijnlijk nu gedecimeerd geweest, want ze had nooit de APU kurk kunnen ontwikkelen waarop AMD de afgelopen jaren heeft kunnen drijven.

Nee, Intel had echt ATI moeten kopen toen ze de kans had, dan had het nu waarschijnlijk helemaal geen concurrentie gehad op het vlak van CPU's met IGP's. AMD had dan te weinig momentum gehad om aan een eigen IGP te werken. Ook een bedrijf als Qualcomm is hierin niet een concurrent met haar mobiele SoC producten. Ook een SoC van nVidia (Tegra, vanaf 2008) is meer bedoeld voor mobiele devices en smartphones.Op het mobiele vlak is Intel trouwens ook niet een een concurrent voor deze twee. Maar de aanwezigheid van AMD en Intel als twee sterke spelers in de stationaire processormarkt heeft nVidia naar de mobiele SoC markt doen uitwijken.
intel heeft jarenlang gepoogd zelf een top gpu te ontwikkelen... en heeft uiteindelijk de handdoek in de ring gegooid.
zoek maar op: intel larrabee.

amd opkopen is geen optie want dan zou 100% van de x86 cpu markt onder 1 dak komen te zitten, en monopolies zijn foei.
Radeon technology group zou natuurlijk los verkocht kunnen worden. Ik zie het al voor me, Intel Radeon :P
Lijkt me vrij logisch; blijkbaar lukt het intel niet, anders lag ie al in de schappen.
Misschien heeft het te maken met patenten op bepaalde technologieŽn die al door AMD en Nvidia in bezit zijn en Intel daarom geen GPU's kan maken zonder deze patenten te breken.
Ja, handig, als Intel de concurrent opkoopt. ;) Nu snap ik wel dat je bedoeld voor het GPU deel, maar het CPU deel zit er ook bij, dat is een bedrijf tegenwoordig. Ik denk dus niet dat een dergelijke overname Łberhaupt goedgekeurd zal worden ivm monopolie.
amd opkopen is qua monopoly positie niet goed voor intel
Ze hebben de expertise niet, ook al zijn IGP's van Intel tegenwoordig sneller dan eerst, ze hebben voor dezelfde performance als Nvidia of AMD veel meer oppervlakte nodig (die space).

Het ontwikkelen van een goede chip kost veel geld en tijd.
Hoe groot is de gaming markt t.o.v. de desktop/laptop en data center markt?
En wie gaat AMD/Intel dan scherp houden met CPU's?
Was mij aan het bedenken of het niet een slechte beslissing is geweest van AMD om ATI te kopen.
Als ATI nog zelfstandig was dan kon het GPU's verkopen aan diverse chipset makers, nu is dat enkel AMD en die willen natuurlijk ziet zomaar hun GPU's (+ tech) aan concurrenten verkopen.
ATI had bijvoorbeeld zowel aan Intel als aan AMD blijven verkopen.

Natuurlijk wel makkelijk roepen, dacht dat ATI het ook moeilijk had en AMD ook nieuwe impuls nodig had op dat moment. Is het AMD een verlies als ze uiteindelijk hun hele GPU tak weer zelfstandig zouden maken (+ hierin belang hebben)?

[Reactie gewijzigd door archie2012 op 6 november 2017 16:05]

Ze hadden voor hetzelfde geld Nvidia kunnen overnemen maar Nvidia Ceo Jen-Hsun Huang stelde als voorwaarde dat hij dan CEO van AMD werd. Dat wilde de AMD CEO (Hector Ruiz) niet. Maar het zou een veel betere deal geweest zijn. Vooral omdat Hector Ruiz heel AMD naar de filistijnen geholpen heeft. :X

[Reactie gewijzigd door deregtx op 6 november 2017 16:35]

Kun je uitleggen waarom hij AMD naar de filistijnen heeft geholpen? Ben wel benieuwd :)
2,5 miljard teveel voor ATI betaald. Bulldozer goedgekeurd terwijl ze beter met phenom door hadden kunnen gaan. De slechtste deal ooit gesloten waarbij ze zelfs moesten betalen om hun fabrieken af te stoten naar GlobalFoundries. En zichzelf vele bonussen uitgekeerd voor het slechte werk. ;)
Ik zie eerder dat AMD niet mee kon met dieshrink. En slag kracht in dieshrink heeft ook meer te maken met corporate size en markt aandeel. Tegen ene die zich de gehele OEM markt closed hield kan je niet groeien.

Dat is concurreren tegen gesloten markt met dieshrink handicap. Het eerder dat iNtel hun klein gehouden heeft. Nu kapitaal missen om hard voor te gaan nu dieshrink meezit. Jammer.
PC fabrikanten en data center bouwers die steeds meer performance vragen, tegen minder energiekosten en minder ruimte hebben.
Zoiets als Rusland waar je Lada's en Volga's had en volop innovatie?
Ik mis geluid op de video. Anderen hier ook last van?
Herlaad de pagina, dat loste het bij mij op.
Vreemd. Paar keer gedaan maar deze keer werkte het. Zal wel caching zijn, is altijd caching.. :P
Probeer een andere browser. Als voor mij iets niet in chrome werkt, dan werkt het wel in edge.
edit. Oh, het werkte. sorry, fout gelezen.

[Reactie gewijzigd door wtdtd op 6 november 2017 15:53]

Ze weten het allemaal wel heel interessant over te brengen in het filmpje. Het is net of er een gigantische sprong in technologie heeft plaatsgevonden. Het komt mij meer over als een gesoldeerde gpu chip die in connectie staat met de cpu. Iemand die dit goed kan uitleggen?

Verder gun ik het AMD van harte om op deze manier extra omzet/winst te kunnen genereren.

Klein detail:
Wat me wel opviel is dat de 'vertical stacked vram' HBM toont :>

[Reactie gewijzigd door hoi3344 op 6 november 2017 15:44]

Het probleem met IGP's is dat je of dure cache moet plaatsen als geheugen of extern geheugen moet gebruiken (DDR4) wat traag is of een gesoldeerd chipje op het moederbord (voegt toe aan de prijs van het moederbord). Beide hebben hun voor / nadelen, maar het grootste blijft altijd bandbreedte.

HBM2 plet dat zo goed als. Hoe meer chips je op elkaar stapelt hoe meer bandbreedte je kunt gaan bieden, en wat zal zorgen voor een veel betere prestatie van de IGP zoals dat toen nog heette.

AMD heeft de inhouse techniek en als het beide partijen helpt waarom niet. Het opent deuren om opnieuw voor DEV's meer gebruik te gaan maken van o.a GCN architectuur.
Deze intel AMD APU heeft de eigen schappen van een intel CpU met AMD gpu met zijn eigen Vram

APU tot nu toe is shared system ram
Bij intel met edram buffertje erbij voor pro iris.

Ik verwach dat deze iets beter schaald op resolutie.
Misschien gaan ze hetzelfde doen als apple? Die hebben de hele Powervr GPU gekopieerd en daarna het bedrijf imagination technologies gedumpt. ;)
Dit denk ik niet dit is een joint venture achtig iets lijkt het het gaat om een hoghnend intel cpu die ipv aan een intel iris pro/hd 5xx of 6xx gpu aan een discrete amd gpu gekopelt word.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ LG W7 Samsung Galaxy S9 Dual Sim OnePlus 6 Battlefield 5 Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*