Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel neemt AMD-topman Raja Koduri in dienst om high-end gpu's te maken

Raja Koduri, die woensdag zijn vertrek aankondigde bij AMD, gaat aan de slag bij Intel. Hij begint in december als chief architect en senior vice president van de nieuwe Core and Visual Computing Group. Intel zegt high-end gpu's te willen maken.

Intel schrijft in een persbericht over de aanstelling van Koduri en de oprichting van het nieuwe bedrijfsonderdeel. Intel wil zijn positie op de gpu-markt verstevigen door met high-end discrete graphics solutions te komen. Met discrete graphics wordt gedoeld op een gpu die los staat van de processor. Ook wil Intel zijn geïntegreerde gpu's verbeteren.

Intel kondigde eerder deze week aan dat het samen met AMD aan een laptopchip werkt die bestaat uit een Intel-cpu en een AMD-gpu met hbm2. Deze chip moet begin 2018 uitkomen en is bedoeld voor dunne laptops. Mogelijk gaat Koduri bij Intel aan meer van dat soort chips werken.

Met zijn nieuwe Core and Visual Computing Group wil Intel inspringen op de markt voor gpu's in datacenters en voor toepassingen zoals kunstmatige intelligentie. Intel noemt ook client computers. Daarmee wordt gedoeld op het consumentensegment en dit zou dus kunnen duiden op videokaarten voor gamers. Concrete plannen heeft Intel nog niet bekendgemaakt en de doelstellingen van het nieuwe bedrijfsonderdeel zijn breed geformuleerd, waardoor alle opties open lijken te staan.

Woensdag bevestigde AMD het vertrek van Raja Koduri. In september werd al bekendgemaakt dat hij drie maanden met sabbatical ging. Intel schrijft dat Koduri begin december aan de slag gaat met zijn nieuwe functie.

Raja Koduri werkte de afgelopen vier jaar bij AMD, waarvan de laatste twee jaar als Senior Vice President en Chief Architect van de Radeon Technology Group. Tussen 2009 en 2013 werkte Koduri bij Apple aan grafische chips, maar tussen 2001 en 2009 was hij ook al chief technical officer bij de grafische tak van AMD.

Door

Nieuwsredacteur

168 Linkedin Google+

Reacties (168)

Wijzig sortering
Raja Koduri gaf een paar dagen geleden nog aan dat hij zijn passie wil verbreden en aan andere oplossingen wil werken:

"As I think about how computing will evolve, I feel more and more that I want to pursue my passion beyond hardware and explore driving broader solutions"
Apart dat hij dan aan discrete graphics solutions/GPU hardware gaat werken bij Intel.

Hij zou ook een sabbatical hebben gehouden van 40 dagen. Ik krijg echter het vermoeden dat er andere dingen spelen. Wellicht was hij in onderhandeling met Intel of was AMD niet tevreden over de prestaties van VEGA?
Ik vind het sowieso raar dat hij blijkbaar geen concurrentiebeding in zijn contact heeft staan. Het is vreemd dat hij van de een op de andere dag mag overstappen, terwijl hij waarschijnlijk cruciale informatie van AMD heeft.
Als ik gespecialiseerd ben in het maken van GPU's, kan het absoluut niet zo zijn dat ik niet bij een GPU fabrikant kan werken. Concurrentiebeding zal in dit geval door elke rechter verworpen worden, je kan simpelweg niet verwachten dat iemand gespecialiseerd in het maken van GPU's ineens in een andere industrie aan de slag gaat (tegen een veel lager salaris omdat zijn ervaring in die industrie niet relevant is).
Ik gok toch niet dat de beste man er ooit in zijn salaris op achteruit is gegaan.
Dat is precies waar ik aan denk.

Het is het enige punt waar Intel al jaren niet beter in kan worden dan Intel; de iGPU / APU.

Intel heeft zo vreselijk veel geld dat hij waarschijnlijk een blanco cheque heeft gekregen.
"Het is het enige punt waar Intel al jaren niet beter in kan worden dan Intel; de iGPU / APU. ". Kun je deze uitleggen?
Dat het GPU deel in de APU van AMD altijd sterker is geweest dat het GPU deel van een i3 of i5 of i7.
Oh, zoiets als "Het is het enige punt waar Intel al jaren niet beter in kan worden dan AMD; de iGPU / APU."
Ja xD precies dat. Excuses
Juist omdat hij binnen dezelfde industrie blijft, waar zijn ervaring waardevol is.
Je hebt het over nederlands recht, in de usa kan dat toch ander liggen.

Maar goed je kan als je goed bent ergens aan de slag gaan en eisen dat er geen beding in je contract zit. Het is maar net hoe waardevol men je acht.

Daarnaast op veel kennis zitten patenten. Je zal dus om die patenten heen moeten gaan werken of licentie daarop nemen.
Hij brengt de ideeën en architectuur van AMD mee, je gaat mij niet vertellen dat hij ineens in Gpu van scratch gaat bouwen.

Hij neemt gewoon de geheime ingrediënten mee.
Concurrentiebeding zal in dit geval door elke rechter verworpen worden,
In Nederland, maar dit is de VS, daar gelden hele andere regels en contract is meestal contract tenzij dit bij wet verboden is.
Het is altijd vreemd dat mensen denken dat een concurrentiebeding een of andere geschreven wet is waar men zich aan moet houden.. In Nederland is het meestal alleen gebaseerd op FUD...
Pas op: een concurrentiebeding kan in Nederland wel degelijk worden toegepast. Dat ze vaak té breed/vaag zijn en werkgevers ze te breed proberen toe te passen is iets anders maar denk alsjeblieft niet dat je er zomaar veilig voor kunt tekenen, want dat is zeker niet het geval.

In dit geval echter: AMD in CA gevestigd, en daar is een concurrentiebeding wél inherent nietig.
Wat ik begreep, dat een belangrijke voorwaarde aan een concurrentiebeding is dat er financiële compensatie in verwerkt moet zijn. Daarnaast ook dat het je niet onmogelijk wordt gemaakt anderwerk te vinden in dezelfde sector / functie.

In Raja Koduri's geval wordt je naar mijn mening zeker goed gecompenseert.
De functie is lastiger, maar is deze niet universeel genoeg omdat zijn functie meer manager gericht is en minder gpu knowhow. Dus hij zou veel makkelijker zijn functie in andere techsectoren kunnen vervullen.

Als dat niet het geval is vraag ik me af waarom concurrentiebeding eigenlijk bestaat en niet gewoon illegaal is.
Er is een rechtszaak geweest over concurrentie beding.

De grote IT bedrijven hadden heren afspraak dat ze niet bij elkaars personeel zouden inpikken. Een groep IT'ers hebben toen een zaak aangespannen dat het niet in hun belang was en dat hadden ze gewonnen.


http://www.recruitingroun...-concurrerende-bedrijven/


nieuws: Rechter verwerpt schikking Apple, Adobe, Google en Intel met 64.000 w...

Bovendien is het slecht voor economie/innovatie:

https://www.nrc.nl/nieuws...novatie-11467669-a1199209

[Reactie gewijzigd door totaalgeenhard op 9 november 2017 08:03]

Ik vind intel niet goed voor de Innovatie dan had ik liever gezien iets met concurentie beding.

https://www.youtube.com/watch?v=osSMJRyxG0k
Verdiep je in geschiedenis van Intel.

Als die heren niet waren vertrokken om concurrerend bedrijf (Intel) te beginnen, hadden we nu computers gehad met Zilog en MOS Technology cpu's :)
kijk eens naar de video waar hij naar gelinkt heeft. Intel heeft een zeer dubieuze geschiedenis.
Dus ja, verdiep je vooral in de geschiedenis van Intel. Maar je gaat wel schrikken.
Overtuigend.....

Als we zonder context kunnen oordelen....

Dan is er een hele rits bedrijven van Facebook t/m Apple die een onethisch element(en) in geschiedenis hebben.

De enige conclusie die ik trek het kan niemand intresseren. Vrijwel niemand gaat iets mijden omwille van hun ethische normen en waarden.

Ik mijd Apple wel overigens.
Intel heeft zijn HQ in Californië en RK woont daar. Laat een concurentie beding daar toch niet rechtsgeldig zijn . . . Wist ik tot een half uur geleden ook niet.
Er zal ongetwijfeld een concurrentiebeding instaan. Vandaar ook dat hij pas in december aan de slag zal gaan.
Concurrentie-bedingen zijn verboden in Silicon Valley (en Californië). Dus nee, dat staat er niet in, en als het er al in zou staan is het juridich nietig. En de advocaten van alle partijen weten dat ook.
ik denk dat er goed in de gaten gehouden zal worden wat die man allemaal voortbrengt bij intel en dat er zeker met een spreekwoordelijk vergrootglas gekeken zal worden naar intellectueel eigendom dat misschien gebruikt wordt.

intel kan het zich echt niet permitteren om patenten te gaan schenden die AMD in handen heeft, is veel makkelijker voor ze om gewoon een licentie te nemen.
Blijkbaar? Vreemd? Weet je wat er allemaal besproken is tussen Intel en AMD. Er zijn niet veel AMDs en Intels in deze wereld, dus dan is het niet vreemd dat werknemers heen en weer verhuizen. Dit zal vaker voorkomen, alleen nu betreft het iemand met enig naam. Zou goed kunnen dat Intel en AMD onderling afspraken hebben gemaakt bij deze transfer. Of er is een afkoopsom betaald. Maar omdat deze overgang weleens gunstig kan uitpakken voor beide partijen, denk ik niet dat AMD er veel moeite mee heeft. Maar zonder inside info is dat allemaal gissen.
Wie zegt dat die op de ene van de andere dag zo is?

Niemand hier werkt bij AMD en heeft de interne communicatie hierover meegemaakt dan wel ingezien.

Wat wij meekrijgen zijn officiële persberichten.

Het kan net zo goed een overeenkomst zijn tussen alle partijen waarin er gewoon afspraken zijn gemaakt.

[Reactie gewijzigd door Mit-46 op 9 november 2017 11:55]

hier hebben we toch patenten voor ?
Intel en AMD hebben toch een cross licentie dinges? Of zou dat hier niet voor gelden?
Misschien is hij zo gewild dat hij het kan maken geen concurrentiebeding in zijn contract te krijgen :9
Ik weet niet hoe het zit in andere landen, maar vaak is concurrentiebeding alleen van toepassing indien je zelf vertrekt, voor mij is het niet erg duidelijk hoe dat nu precies is gegaan.
Maar stel dat hij werd ontslagen, dan verbreekt hij geen contracten, maar AMD wel.
Ik denk dat hij dan zo vrij is als een vogel, mits hij de getekende (nog lopende) NDA's respecteert.

In het geval hij zelf is vertrokken is het natuurlijk minder handig, tenzij hij(lees Intel) de boetes wil betalen die hieraan verbonden zijn?

Hoe dan ook, het kan alleen maar positief zijn dat er een grote speler voor GPU's bij komt. :)
Apart dat hij dan aan discrete graphics solutions/GPU hardware gaat werken bij Intel.
De computing in een GPU wordt echter niet meer exclusief voor het renderen van graphics gebruikt. GPU's worden immers ook massaal gebruikt voor het minen van cryptovaluta, het en-, trans- en decoderen van video's, het berekenen van physics en natuurlijk VR en AR om wat voorbeelden te noemen.

Visual computing behelst echter nog meer dan dat. Denk ook aan computer vision, wat als het ware ogen voor een computer zijn en de interactie daarop, wat wel wat verder gaat dan een digitale camera of webcam aansluiten. Dan kun je bij wijze van gaan zwaaien naar de computer, waarop de computer reageert, om een simpel voorbeeld te noemen.

[Reactie gewijzigd door CH4OS op 9 november 2017 11:41]

Die de note rond zijn "sabbatical" stond: "As we enter 2018, I will be shifting my focus more toward architecting and realizing this vision and rebalancing my operational responsibilities."

Lees: hij was niet langer hoofd van RTG. En misschien heeft hij dan maar besloten andere oorden op te zoeken.

Volgens een SemiAccurate-artikel van enige tijd geleden wou R.K.vooral RTG afscheiden om het te laten inlijven door een derde partij (Intel?). Dat lijkt niet gelukt.

Mogelijk is/was R.K. een brilliante ingenieur, daar kan ik niet over oordelen. En hij zal niet de gehele verantwoordelijkheid hebben inzake de architectuur van Polaris en Vega. Maar als hoofd van RTG heeft hij teveel steken laten vallen rond de marketing, introductie en afstelling van beide chips, vind ik.
Misschien was hij teveel bezig met carrière-maken/belangrijk willen zijn?

Hij krijgt in ieder geval nu weer een hoge positie. Bij het Intel wat mogelijk al langer zijn voorkeur wegdroeg.

(Ik vraag me ook af in hoeverre R.K. er de hand in had om Intel van een Radeon GPU te voorzien, en dus weer steviger in het zadel te zetten. Net op het ogenblik dat AMD met een Zen/Vega APU zelf zo'n marktsegment zou kunnen gaan bedienen.)
Ik denk dat je als architecteur bij AMD belemmerd bent kwa R&D.
Bij iNtel is omvang van funding van architectuur heel groot. En hoop fab om te kiezen.
Dat is ook een kop zorg minder kan focus op architectuur ipv balanceren van budged.
Mijn reactie op het nieuws van gisteren:
Wedden dat we hem terugzien bij intel
Zie daar, hij heeft geprobeerd radeon aan intel te verkopen wat amd niet wilde en nu gaat hij voor intel werken.. wat een verrassing zeg.
Stephen Elop was werkzaam bij MS, wordt CEO bij Nokia, verkloot de toekomst van nokia, waarde zakt naar niks, MS koopt Nokia... vast geen vooropgezet plan :)
Aluhoedje op: Dit verhaal doortrekken naar Raja, Bizare marketing, vertraagde launch, slechte software, vega heeft opzicht wel toekomst maar is momenteel kansloos tegen nV, zullen veel AMD fans boos zijn op Raja nu hij bij de 'vijand'zit }>
out of the frying pan into the fire
Het is niet ondenkbaar dat AMD hier zelf ook bij betrokken is, én dat er binnenkort iets met RTG gaat gebeuren. Te denken dat AMD hierin achterblijft met hangende pootjes vind ik iig niet realistisch.

Als je de ontwikkelingen op de markt doortrekt naar de lange termijn dan zie je het volgende:

- PC stagneert, met name high-end/desktop, er blijft een behoorlijke niche over van workstations en gaming, de rest kan allemaal mobiel. Op de langere termijn moet ook high-end zo mobiel mogelijk zijn.
- Mobiel vraagt om compacte oplossingen, lees: APUs.
- De grootste groei in performance ligt in parallelisatie (GPU)
- Intel heeft nog niets laten zien dat op een radicaal nieuwe architectuur lijkt vóór gisteren
- AMD heeft wél een nieuwe CPU arch die bij de tijd is, maar wordt op GPU uit de markt gedrukt door Nvidia.

Lange-termijn zou ik persoonlijk zeggen dat de grootste groei te vinden zal zijn op GPU, niet CPU, voor allerhande nieuwe ontwikkelingen, en daarin is Nvidia momenteel de grootste kanshebber, daarin ziet Intel een nieuwe grote concurrent vorm krijgen, nog veel meer dan AMD dat ooit zal gaan zijn. AMD's GPU divisie kan geen groene cijfers noteren en Intel heeft de centen. Kers op de taart: drie sterke spelers en alle drie uniek, en alle drie deelgenoot aan het ontwijken van de monopolie-situatie: AMD met CPU, Nvidia met GPU, Intel met beide. Als ik deze optelsom maak is er maar één conclusie mogelijk ;)

En om heel eerlijk te zijn lijkt me dit geen slechte situatie, want het haalt Nvidia uit de droom, dat wordt hoog tijd namelijk.

[Reactie gewijzigd door Vayra op 9 november 2017 20:30]

Nvidia zit niet in een droom, deze heeft gewoon betere bedrijfsvoering, betere hardware specifiek voor de markt waar het inzit (in dit geval dx11) en betere geoptimaliseerd, kunnen meer doen met minder hardware.
AMD heeft zelf nu een uitstekende cpu architectuur in handen, de toekomst is inderdaad gpu's (compute), gameconsoles, mobile, mobile gaat AMD mogelijk ook goed af aangezien ryzen best energie zuinig is en zeker op een kleiner procede. Maar game consoles zit AMD uitstekend en compute zal vega ook uitstekend presteren. AMD zit eindelijk weer in het zwart door sterke verkopen ryzen en komen met sterke APU lineup, samenwerking met intel is geen slecht idee (voor een igp oplossing) maar radeon group verkopen is het domste wat ze zouden kunnen doen (intel is niet geïnteresseerd in AMD omdat ze die nooit kunnen overnemen vanwege het ontstaan van een monopolie positie en alle nadelen van dien).

PC/laptop verkopen zijn al jaren gestagneerd, je ziet nu al dat de mobiel verkopen afnemen en mensen blijven toch wel weer een pc kopen (vr op je telefoon is gewoon geen VR op pc, dito met games etc)
Zie hoe dit verhaal ook verteld werd bij de opkomst van de ipad's etc deze is inmiddels ook weer afgezakt. Deels van het probleem is ook te vinden in het feit dat er te weinig concurrentie op de markt is, waarom een pc kopen als je core i7 van 5 jaar min of meer vergelijkbaar presteert met dit jaars core i7, het zelfde met de gpu's waarom een nieuwe gpu kopen terwijl een huidige gpu wel heel duur is maar marginaal verbetering toont.
Ryzen heeft de verkoop van pc's geboost want ook intel komt nu weer met interessante cpu's (6 core i5's b.v. die gelijk presteren aan vorig jaars i7). De opkomst van VR en AR(veel gpu en cpu kracht nodig) en dedicated headsets (vive etc), kijken we naar steam dan zien we een 18 maanden opeenvolgende groei mensen weten nog steeds de pc te vinden.
Radeon groep laten samenwerken met intel is iets anders dan het verkopen van radeon en dit zal AMD ook inzien en nooit doen, want als GPU's inderdaad beter verdienen (en dat doen ze ook) hebben ze betere kaarten in handen dan intel.
Ik weet persoonlijk niet helemaal wat ik hier van moet vinden... Dat Vega samen met een intel chip in laptops verschijnt vind ik opzich erg vet! Maar dat AMD en Intel nu zo onder een hoedje lijken te spelen heeft wel wat engs... Voelt in ieder geval weinig transparant aan
Onder een hoed spelen? Hoe bedoel je?

Intel koopt iets van AMD om op korts termijn iets kunnen overbruggen waar ze al tijden tekort schieten.

Intel trekt een specialist aan om op lange termijn zelfstandig met eigen concurrerende producten te komen.

Twee losse zaken die onderdeel zijn van een strategie.

Ik verwachtte (en hoopte) dat Intel dit veel eerder zou doen. Een i7 met een GPU onboard waar je 4k ultra settings mee kunt gamen in 15 inch notebook die niet warmer zal worden dan kamer temperatuur is iets wat we allemaal willen hebben toch, voor een prijs van onder de 1000.

Voor ons is het goed dat NVIDIA een concurrent erbij krijgt op termijn, die moeten prijzen gaan verlagen om maar te zwijgen over innovatie.

Het ia geen markt waar nieuwkomer (startup) zomaar markt aandeel in kan verwerven.
Intel koopt iets van AMD om op korts termijn iets kunnen overbruggen waar ze al tijden tekort schieten.
[...]
Ik verwachtte (en hoopte) dat Intel dit veel eerder zou doen. Een i7 met een GPU onboard waar je 4k ultra settings mee kunt gamen in 15 inch notebook die niet warmer zal worden dan kamer temperatuur is iets wat we allemaal willen hebben toch, voor een prijs van onder de 1000.
En toen werden we weer wakker. Je vraagt GTX 1080 prestaties van een package ter grootte van een CPU. Kijk eens hoe groot een GTX 1080 laptop versie nog is en wat een vermogen die nog vraagt. Er blijft dan geen ruimte meer over voor CPU cores. Verder zit je er ook nog mee dat het systeemgeheugen waar een IGP gebruik van maakt altijd trager is dan dedicated GDDR5 zoals GPU's gebruiken.

Ik heb altijd mijn twijfels aan al die geïntegreerde graphics plannen. Die dingen zijn prima voor basistaken, maar voor gaming wil ik toch liever een echte videokaart. Zelfs de meest competente IGP blijft achter bij een echte GPU. Voor kantoortaken volstaat iets als een Intel HD perfect. Meer heb je niet nodig.
Voor ons is het goed dat NVIDIA een concurrent erbij krijgt op termijn, die moeten prijzen gaan verlagen om maar te zwijgen over innovatie.
Intel heeft geen interesse in gaming kaarten te maken, dit staat ook al in het artikel. Het is Intel vooral te doen om de markten voor grafische kaarten voor servers en machine learning. Vooral in die laatste categorie is Nvidia momenteel de facto de standaard geworden.
Intel kan een IC bakken op 10nm van 5 bij 5 cm waarop alles zit. Deze soc kunnen OEM gebruiken voor wat ze verder aan features en interfaces aan notebook willen geven.

Machine learning markt is gaat groter worden. Maar wie zegt dat Facebook/Google/Microsoft/Amazone/Apple een kant en klare oplossing willen kopen.

Een aantal daarvan hebben al eigen hardware en processoren ontworpen en laten bakken.
Formaat van een gpu komt mede door het benodigde koelblok, als je kijkt naar een vega 64 wat in principe een vrij kleine footprint heeft (mede vanwege hmb geheugen naast de g.core, formaat nano r9/vega gpu kaart). Veel van de gebruikte onderdelen die ruimte nodig hebben zijn VRM's en zullen andere onderdelen dubbel aanwezig zijn bij zowel gpu als mobo (kijk je naar een xbox scorpio mobo b.v.) kan je best alles op een mobo intergreren van uITX formaat of laptop. Je kan altijd nog een lose gpu kopen maar daarom ben ik ook blij met het amd alternatief zonder IGP, coolere chip, goedkoper en kleiner (of vroeger de intel xeon chips op desktop platform :( ).
Ik verwacht niet dat er snel een 'vega64' geïntegreerd gaat worden op een intel chip met huidige process want die 300+w of ~200+w (op 10nm) en daarbij nog is de chip zelf geeft je gewoon een groot koelblok of lage prestaties.

Bij het scorpio mobo neemt voornamelijk de GDDR het meeste ruimte in, iets wat met HMB aanzienlijk kleiner kan (ook grappig om te zien hoe slecht de koelpasta is op een xbox :+ ).

[Reactie gewijzigd door D0gtag op 9 november 2017 15:47]

Die dingen zijn prima voor basistaken, maar voor gaming wil ik toch liever een echte videokaart
Volgens mij als ze willen kunnen ze prima een IGP maken die net zo snel is als een losse videokaart, het is niet zo dat deze 2 kaarten compleet anders zijn, probleem zou zijn de warmte en grootte van de chip
Maar als ze daar een oplossing voor hebben, kunnen ze makkelijk een rete snelle IGP maken
Intel heeft geen interesse in gaming kaarten te maken, dit staat ook al in het artikel.
Uit het artikel
Intel noemt ook client computers. Daarmee wordt gedoeld op het consumentensegment en dit zou dus kunnen duiden op videokaarten voor gamers

[Reactie gewijzigd door Sinester op 9 november 2017 16:31]

Een eng iets maakt de consument ervan. Daar komen de sprookjes en datjes vandaan of ze dikken het aan.

Van een belangrijk iemand ga je niet de exacte dingen van weten wat er nu bij amd gebeurd is.

Dat amd en intel samen werkt is toch prima als de prijzen maar goed is wat der verder speelt maakt toch niet veel uit. Als er maar concurrentie is en dat gaat de komende jaren helemaal goedkomen. Wij gaan hier van profiteren

[Reactie gewijzigd door Jeroentjeeuh op 9 november 2017 01:21]

Het is terdege twijfelachtig.

Het lijkt wederom dat x86 op zijn laatste benen loopt. Zowel Intel als AMD zijn bedrijven die hun bedrijfsvoering daar op hebben toegespitst.


Was en is ARM de grote concurrentie geworden,
daar is GPU nu bijgekomen, niet alleen Nvidia, maar kleinere producenten krijgen het prima voor mekaar die als gpgpu mee te laten werken met ARM,

daarnaast is er nog supercomputing voor oa AI en wederom met basis GPU,
maar langzaam verschuift dat naar FPGA en ASIC. Die zijn meer te vergelijken met GPU maar dan nog simpeler, en makkelijker te schalen.


Nu lijkt het er op dat Intel de kennis en techniek van Ati/AMD wil gaan incorperen om een inhaalslag te maken.

En met de kennis die ze hebben ingekocht is het een kwestie van tijd voordat er iets effectiefs uit komt rollen.


En op dat moment is het maar afwachten welke bedrijven daar weerwoord op zullen hebben. Zelfs als het niet gaat lopen is Intel/AMD(ati) een wandelende patentenbom.
Sinds de een origineel een dochterbedrijf is van de ander en ze ooit in dezelfde sockets pasten vind ik het niet zo raar
Dochterbedrijf? Hoe kom je daar bij? In de jaren 90 streefden ze allemaal pin compatibiliteit na.AMD was niet de enige daarin
iNtel was ooit ook klein geweest die fab spawnen niet zoals in game.
Dus moesten ze partners hebben om aan de grote vraag te voldoen .
Cyrix en AMD produceren toen in licentie CPU. Toen met de tijd had iNtel voldoende capaciteit. Maar Cyrix en AMD gingen toen door. En AMD heeft die periode overleeft Cyrix niet.
Doe eens wat aan de leesbaarheid van je bericht, vooral de eerste zin leest als complete wartaal - ik snap niet dat er mensen beginnen te zeiken over de spelling van intel als ze de rest van de zin niet eens hebben gelezen. Ik snap verder niet helemaal of je het onjuiste bericht van youridv1 nou probeert te weerleggen of te onderbouwen.

Hoe dan ook klopt de rest van jouw bericht wel iets beter dan dat van youri. AMD was vanaf het begin een volledig zelfstandig bedrijf, in 1969 opgericht door ex-werknemers van Fairchild (dat was een heel gebruikelijk verschijnsel in de groeitijd van de halfgeleiderindustrie). In 1975 kwamen ze met een zelf ontwikkelde intel compatibele processor en met een eigen familie slice-processoren. In 1976 tekenden ze een overeenkomst met intel voor cross-licensing van diverse producten (second sourcing was in die jaren vaak een vereiste van afnemers, ook heel veel bekende analoge chips hadden 2 of meer fabrikanten) en vanaf 1981/1982 liep er een uitgebreidere overeenkomst. Dit werd geëist om continuiteit van levering te waarborgen, aantallen waren in mijn ogen een minder groot probleem maar dat kan eventueel ook nog meegespeeld hebben bij sommige types. Hoe dan ook denk ik dat youridv1 iets over die cross licensing gelezen heeft en toen gedacht dat dat betekent dat het bedrijf van intel was ofzo. Dat was niet het geval.

[Reactie gewijzigd door mae-t.net op 9 november 2017 11:43]

Het was een eis van DELL IBM aan Intel om een tweede leverancier te hebben, hier kwam AMD......

Edit: het was IBM i.p.v. DELL.

[Reactie gewijzigd door gbklasser op 9 november 2017 10:16]

Het was een eis van DELL aan Intel om een tweede leverancier te hebben, hier kwam AMD......
Nee, het was een eis van IBM om een tweede leverancier te hebben van CPU's. Dell is pas gevormd toen de IBM clones succesvol werden.

IBM kocht bij Intel de CPU's in voor hun IBM PC. Om zeker te weten dat ze voldoende voorraden hadden wilde IBM een tweede leverancier erbij hebben om de deal door te laten gaan. AMD kreeg op die manier een licentie voor x86 van Intel en om compatible CPU's te maken.

IBM heeft echter nooit een CPU afgenomen van AMD en altijd Intel gebruikt, maar AMD kon dankzij deze overeenkomst wel de x86 markt betreden.
Het was inderdaad IBM zie ik, dank je.
De cross licensing kwam in 1976 tot stand, kort nadat AMD zelf de eerste processoren op de markt bracht, dus zo duidelijk lijkt me de betrokkenheid van IBM niet. Overigens was het ook bij analoge chips in die jaren, uitermate gebruikelijk dat fabrikanten licenties hadden op elkaars chips.

Waar IBM waarschijnlijk wel een rol bij speelde, was het verlengen en uitbreiden voor 10 jaar van de overeenkomst in 1982. Dat is qua jaartal in elk geval wat logischer.

[Reactie gewijzigd door mae-t.net op 9 november 2017 11:42]

Om zeker te weten dat ze voldoende voorraden hadden
Het ging niet om voorraden of productiecapaciteit, het ging erom dat IBM niet van één partij afhankelijk wilde zijn. Ik weet niet of het punt was dat Intel failliet zou kunnen gaan, dat ze als enige leverancier elke prijs konden vragen die ze willen of een combinatie van beide (en mogelijk ook nog andere overwegingen?), maar IBM wou geen machines ontwerpen (en verkopen) die opeens niets meer waard waren als één onderdeel niet meer leverbaar was. Dat was de reden achter de "second source" of "second vendor" eis.
Waarschijnlijk mensen die in de war zijn met nVIDIA, wat overigens de styling was toen het bedrijf net gelanceerd was. Ondertussen is het volgens mij gewoon NVIDIA.
Iets met verkeerde been en bed? Spelling is juist alleen staat de hoofdletter verkeerd. Het zal dus waarschijnlijk gewoon een typo(otje) zijn. Zeker als je ziet dat hij zijn "strepen"heeft verdient in de Intel categorie. Pak snel een extra bakje koffie ;)
Maak er dan nVidea van, dat smeert beter :*)

[Reactie gewijzigd door Vayra op 10 november 2017 14:41]

Ik weet niet hoe lang jij al in de computers zit maar als je AMD's eerste processors erbij pakt dan staat daar het volgende op: "Advanced Micro Devices by Intel"

AMD is begonnen als dochterbedrijf van intel omdat IBM eiste dat Intel een tweede supplier vond voor de chips die ze leverde. ;)

[Reactie gewijzigd door youridv1 op 9 november 2017 10:51]

Heb je daar een linkje van? Je conclusie klopt overduidelijk niet maar ik ben alsnog benieuwd naar die tekst en op welke processoren die dan gestaan heeft. Het kunnen gezien jouw leeftijd (student, dus ik neem voor het gemak even aan dat je niet ouder dan 25 bent) nooit de eerste AMD processors (1975) zijn tenzij je in de historische computers zit. Ga niet de ancienniteitskaart trekken als je zelf nog jong bent vergeleken met de producten waar het over gaat ;)

In mijn antwoord op SG iets hierboven, zet ik kort de relevante stukjes van de eerste jaren van AMD uiteen. Je kunt ook op https://en.wikipedia.org/...evices#First_twelve_years kijken voor hoe het werkelijk zat.

[Reactie gewijzigd door mae-t.net op 9 november 2017 11:44]

Dat stond op de door amd geproduceerde variant van de Intel 8088
Een foto zou je claim vele malen overtuigender maken; op dit moment heb ik het gevoel dat je je simpelweg vergist (wat zoveel jaar later volkomen begrijpelijk zou zijn natuurlijk). Zelf kan ik zo gauw in elk geval niets vinden met "Advanced Micro Devices by Intel" erop. Wel een chip met "AMD (C) Intel 1978" en zelfs een chip met niet eens de tekst "AMD" (alleen het AMD logo) en dezelfde "(C) Intel 1978".
Ik vermoed dan inderdaad dat het om een copyrighttekst zal gaan. Dat klopt opzich wel en stond bijvoorbeeld ook op allerhande processoren van Siemens en Philips en ik denk ook een paar Japanse fabrikanten. Maar Siemens en Philips zijn niet opgericht door intel ;) Siemens heeft trouwens wel samengewerkt met AMD, meen ik. Philips in elk geval niet, maar ze voerden wel een uitgebreid programma processoren en controllers met intel-compatible cores.

[Reactie gewijzigd door mae-t.net op 10 november 2017 23:43]

Er staat (c) intel op die chips omdat het door intel ontworpen en door AMD in licentie geproduceerde chips waren, niet omdat AMD een dochterbedrijf zou zijn.
Ik weet niet hoe lang jij al in de computers zit maar als je AMD's eerste processors erbij pakt dan staat daar het volgende op: "Advanced Micro Devices by Intel"

AMD is begonnen als dochterbedrijf van intel omdat IBM eiste dat Intel een tweede supplier vond voor de chips die ze leverde. ;)
Leuk zo uit de hoogte doen en gewoon fout zitten, wij weten wel hoe lang jij in de computers zit, AMD heeft licenties genomen op intels x86 zogenaamde 2nd source, designed bij apple made in china betekent niet dat Apple van China is.
De AM386 was een clone van intels x86 en een 'eigen' ontwerp van AMD (zover een cloon een eigen ontwerp kan zijn)
AMD's k5 was hun eerste echt eigen ontwerp.
Ik heb op alle generatie clones van AMD wel is gezeten (de eerste waren dan van mijn vader, de latere van mijn broer :P), Mijn eerste eigen betaalde processor was een pentium p75, daarna een AMD athlon 500.
Zelf lezen en leren doe je o.a. hier.

Er stond trouwens: “© Intel” on the processor, made by AMD.

[Reactie gewijzigd door D0gtag op 9 november 2017 16:06]

Die samenwerking was er tot aan de 80286. Die processor wordt ook wel 286 genoemd en dat was begin jaren 90 samen met de opkomst van de consumenten pc's (in Nederland). Naar mijn weten was het vooral een samenwerking en geen moeder-dochter relatie.

Linkjes:
http://www.cpu-world.com/CPUs/80286/MANUF-AMD.html
https://en.m.wikipedia.org/wiki/Advanced_Micro_Devices
Die samenwerking was er tot aan de 80286.
Het was niet zozeer samenwerking. Intel had toen al een redelijk sterke positie op de CPU markt. Kleinere CPU producenten richtten zich op hun socket om mee te kunnen snoepen van de markt. Bedrijfjes als Cyrix boden een alternatief voor mensen die niet konden upgraden naar de duurdere nieuwere Intel CPU's. Dit soort bedrijven maakten dan bijvoorbeeld een 486-achtige CPU die je op een 386 moederbord kon plaatsen. De prestaties bleven vaak achter bij 'the real deal', maar het bood een upgrade mogelijkheid voor een zacht prijsje.

Veel van deze kleine bedrijfjes zijn zo rond het Pentium 1 tijdperk ter zielen gegaan. De ontwikkelkosten werden steeds hoger, maar ook software ontwikkeling die zich vooral richtte op features van de eerste Pentiums maakte dat deze alternatieve CPU's onaantrekkelijk werden.
De 80286 begin jaren 90? Je bent 10 jaar te laat.
Ik zie dat je gelijk hebt, wel vreemd dat wij hem zelf begin jaren 90 gebruikte (oudste broer werkte bij een pc winkel). Kun jij je voorstellen dat je dat nu zou doen, dat je een cpu van 10 jaar oud koopt en dat je alle laatste games en programma's kunt gebruiken :D
Nou, dat hadden wij toen dus, onze eerste pc was samengesteld met een 286 en we konden er (voor zover ik weet) alles mee. In die tijd begon het waarschijnlijk ook pas betaalbaar en nuttig te worden voor de normale consument. In de jaren 80 was het wellicht alleen voorbestemd voor bedrijven of rijke particulieren.
Die had dan ook en 286 op 20 MHz, 2 MB ram turboknop en een 20 MB hdd jonguh! Die hadden we van moeders gekregen à Fl. 2.000,00 met een paper white scherm, later vervangen door vga. Alleen 32-bit spellen konden niet. Met Dr. DOS 6.0 waren we memory baas over alle MS-DOS noobs omdat we meer dan 6450 KB ram konden aanspreken en een gedeelte in virtual hdd plaatsten ;)

De tijd dat Paradigit nog stoer was. Memories...
Dat Vega samen met een intel chip in laptops verschijnt vind ik opzich erg vet!
Het wordt geen Vega. Volgens insiders zou het om een aangepaste Polaris chip gaan die AMD aan Intel gaat leveren.
Enemy of my enemy is my friend? Intel kan niet op tegen nVidia, dus heeft hulp nodig. AMD heeft veel geld nodig. Puur zakelijk, niets engs aan denk ik. ;)
Onder een hoedje? Ze worden juist nog meer concurrenten van elkaar, als Intel nu ook met discrete gpu's komt. Nu ja, ik ben er niet zo rouwig om, voor ons consumenten is het goed nieuws. Intel ziet ook dat AMD er op GPU-gebied er letterlijk en figuurlijk niets van bakt en gaat zelf maar eens actie ondernemen. Wel raar dat ze ad ene kant samenwerken met AMD met de Vega igpu en ad andere kant gaan concurreren.

Ik vraag mij af of dit zomaar mag dat Koduri nu bij Intel aan grafische chips gaat werken. Hij kan zomaar AMD's kennis op gpu-gebied meenemen naar Intel en daar gebruiken. Dat zijn toch bedrijfsgeheimen?
Transparant? Waarom zou dat moeten? Zijn geen overheden.
Nu snel een goede chip maken, zodat de Nvidia Volta goedkoper wordt... hier wacht ik op namelijk!
Volta komt volgend jaar. Gpus ontwerpen en op de markt brengen duurt meestal 4 jaar.

Gaat dus niet gebeuren.
Volgend jaar komt pascal 2.0 dus Volta zou op zijn vroegst pas 2019 komen.
Jij bent een van die mensen die enkel Nvidia koopt en enkel concurrentie wil om zelf iets goedkopers te krijgen. Je zou gewoon het beste product moeten kopen.
En dat is niet Nvidia?
In het verleden was AMD?ATI duidelijk veel beter kwa performance en gebruik. Echter bleef iedereen dood leuk de minder performante en minder zuinige nvidia modellen kopen.

Maar zou wel leuk zijn als AMD voor consumenten stopt en dan betaal je lekker 600 euro voor een GTX 1060.
Wow dit had ik totaal niet verwacht. Intel een grote speler op de GPU markt zou voor de consument een mooie toevoeging zijn.
Wellicht hebben ze net zo lang gewacht tot de gpu's een sweetspot hebben bereikt dat het merendeel van de gebruikers kan voorzien zonder met extreme dingen aan de slag te gaan. Om Nvidia en Amd op de lower end graphics veel beter te kunnen beconcurreren en betere oplossingen te kunnen maken voor dunne apparaten als ultrabooks.

Als je nu een redelijk multimedia laptopje wil kopen zit je er vaak net tussenin, igpu net te zwak, maar om nou dieper in de buidel te tasten voor die dedicated gpu is ook niet gewenst.
Dat gaat ze niet lukken, moeten ze eerst wat engineers gaan aantrekken van amd en Nvidia want Intel heeft de ballen verstand van graphics zoals gebleken uit het verleden.
Als het ze lukt (ben benieuwd) vraag ik me af of dit überhaupt gedoeld is op de consumenten markt, denk eerder voor de professionals. Intel kan het namelijk niet opnemen tegen AMD en Nvidia, dit zullen beide niet toelaten.
Hoop trouwens voor AMD dat ze een goede geheimhoudings clausule hadden met Koduri.
Intel heeft alle engineers van Ziilabs/3Dlabs en die maakten ook GPU's voor de professionele markt.
Nou Larabee is extreme en kostbare innovatie . Meer out of the box denken. Maar innovatie is geen garantie sucses. Ga te extreem heb je te maken met Kip & ei fenomeen.

Wat iNtel deed is CPU met veel mini x86-64 cores als GPU gebruiken. Dus met neven logic voor aansturen van een monitor.

De ultiem implementatie van full general purpouse met wat GPU specifieke extenties.

General purpouse heeft als voordeel dat je enorm flexible bent in complexe code voor effecten en render features. Waar fixfunction en dus minder general purpouse wat beperkter bent maar wel betere performance.

Houd dus in dat je bij larabee dus afhankelijk bent van dev die nieuwe features gaan toepassen.
Want tegen conventionele gpu met vele conventionele games leg je het af op performance.

iNtel heeft hier van geleerd dat je niet afhankelijk moet zijn van branche adaptie maar met conventionele aanpak eerder op niveau kan concureren.
Als je het heel precies neemt is Intel is al jaren zo'n beetje de grootste speler op de consumenten GPU markt, omdat ze met iedere CPU ook een GPU verkopen.. Qua performance natuurlijk ver verwijderd van AMD/NVidia - maar voor veel mensen is dat meer dan genoeg (office, surfen, ... ) ;)

Als ze nu richting losse kaarten gaan is dat uiteraard mooi.

[Reactie gewijzigd door rboerdijk op 9 november 2017 10:38]

Zal er geen clausule zitten in dat contract dat hij had bij AMD dat hem verbied binnen zoveel tijd te gaan werken bij een concurrent?
Daar staat dan een X bedrag tegenover. Wil je nieuwe werkgever je graag hebben, dan betalen ze dat gewoon.
Daarnaast kun je in dergelijke functies wanneer men je echt graag wil hebben ook gewoon afdwingen dat dergelijke clausules uit het contract gaan.
Niet in Californië :)
Kan Intel nu opeens GPU's maken omdat ze iemand in dienst hebben genomen die weet hoe hij een team van engineers moet managen?... Iets zegt me dat de juiste mensen nog aangenomen moeten gaan worden.
Ze hebben al een enorm team engineers die weten hoe je iGPUs moet maken, en deze man is denk ik ook aangenomen om dit hele project op de rails te krijgen. Maar aangezien Intel en AMD al samenwerken aan een integrated GPU gaat dit nog een staartje krijgen voor Nvidia denk ik.

Ik denk ook dat Intel zijn markt wil uitbreiden aangezien straks (hopelijk) ook Apple op de markt gaat verschijnen met processoren en eventueel er mss ook snapdragon desktop processoren komen.
De hele AMD gpu team ?
Ze kunnen specialisten weg trekken met betere salaris te bieden.
Zo simpel is dat niet, aangezien een hoop specialisten contracten hebben dat ze niet zomaar binnen een bepaalde tijd rechstreeks bij een concurrent kunnen gaan werken aan vergelijkbare technieken..
Ben bang dat amd zometeen niks meer is. Wat ik zelf jammer vindt
Ben bang dat amd zometeen niks meer is. Wat ik zelf jammer vindt
Omdat één medewerker naar de concurrent is overgestapt? Als AMD puur en alleen van deze man afhankelijk was dan zou het sowieso niet lang meer bestaan.
Als intel betere GPU gaat maken dan AMD dan ik geen reden meer om een GPU van AMD te gaan kopen.
vage redenatie... betekend dat dan ook dat nVidia straks niet meer bestaat? want er is er altijd maar 1 die de beste kan zijn
Dit verrast mij wel. Hebben ze in de US of A geen concurrentiebeding, of zou Intel (of Raja Koduri zelf) wat geld richting AMD geschoven hebben hiervoor?
Als er in het concurrentiebeding gewoon een gemaximaliseerde boete staan, kan je er ook voor kiezen om samen met je nieuwe werkgever gewoon die boete af te tikken he :)
Vaak is het niet een simpele boete hoor, maar dat je echt daar niet mag gaan werken binnen een bepaalde tijd, wat dan door de rechter afgedwongen wordt.
Mijn beding was altijd op; je mag 3 jaar niet werken in sextor y, met zoveel k per dag, gemaximaliseerd op X.

Dan kan je gewoon in die 3 jaar aan de slag, als je de boete voor lief neemt.
(maar bij m'n uitdiensttreden gelukkig overeen gekomen dat het is komen te vervallen ) en dat kan ook nog.


Ik zat toen in een r&d functie dus dan krijg je ook lompe bedragen :(

[Reactie gewijzigd door Adlermann op 9 november 2017 12:18]

Boete? Een paar dagen geleden hebben intel en amd een samewerking aangekondigd. Dit zal daar een onderdeel van uitmaken.
Vind dat er inderdaad te veel door een vergrootglas gekeken word naar deze overstap wie weet hoelang intel hem al probeerde over te halen daar te komen.

Mischien mag hij nij intel ook de software kant er bij doen en nieuwe feature sets ontwikelen voor gpus en liet amd dat niet toe. Time will tell wat de diepere reden was . Maar het zo zwart wit bekijken als niet kopen die combi chip laptops gaat wat ver.
Raja doet het wat minder, Raja neemt ontslag(/wordt "aangeraden" ontslag te nemen) en Intel neemt Raja aan voor gpu's.

Snap niet wat hij toe te voegen heeft, vooral aangezien hij vooral van de software lijkt te zijn.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*