Raja Koduri vertrekt bij Intel waar hij chief architect van gpu-divisie was

Raja Koduri vertrekt bij Intel. Hij trad in 2017 in dienst bij Intel als chief architect en senior vice president van de Core and Visual Computing Group en was verantwoordelijk voor de gpu's en accelerators. Er komt ook een nieuw hoofd van Intel Foundry Services.

Het vertrek van Raja Koduri is kenbaar gemaakt op Twitter door Intel-ceo Pat Gelsinger. Hij bedankt Koduri voor zijn 'vele bijdragen' aan Intel, met name op het vlak van high-performance graphics. Koduri was onder meer de leidende figuur achter het team dat verantwoordelijk is voor Intel Arc-gpu's. Hij zal eind deze maand vertrekken en zich bezighouden met een softwarebedrijfje rondom generatieve AI voor gaming, media en entertainment.

Koduri kwam in 2017 in dienst bij Intel en was tot eind vorig jaar het hoofd van Intels Accelerated Computing Systems and Graphics Group (AXG). Dit onderdeel werd toen opgesplitst in een consumententak en een datacenter- en AI-tak, waarna Koduri Intels chief architect voor gpu's en accelerators werd.

Raja Koduri werkte voor zijn aantreden bij Intel gedurende vier jaar bij AMD, waarvan de laatste twee jaar als senior vice president en chief architect van de Radeon Technology Group. Tussen 2009 en 2013 werkte Koduri bij Apple aan grafische chips, maar tussen 2001 en 2009 was hij ook al chief technical officer bij de grafische tak van AMD.

Intel maakte dinsdag ook bekend dat Stuart Pann de leiding krijgt over Intel Foundry Services. Hij volgt Randhir Thakur op, wiens vertrek vorig jaar al bekend werd. Pann was hiervoor senior vice president, chief business transformation officer en general manager bij Intels Corporate Planning Group.

Intel Foundry Services werd begin vorig jaar aangekondigd als onderdeel van Intels nieuwe IDM 2.0-strategie. Daarmee wil het bedrijf niet langer alleen chips voor zichzelf produceren, maar ook gaan dienen als externe foundry voor andere bedrijven. De Amerikaanse chipfabrikant wil daarmee de strijd aangaan met Aziatische marktleiders TSMC en Samsung.

Door Joris Jansen

Redacteur

21-03-2023 • 20:38

104 Linkedin

Reacties (104)

104
100
49
4
0
34
Wijzig sortering
Koduri kwam in 2017 in dienst bij Intel en was tot eind vorig jaar het hoofd van Intels Accelerated Computing Systems and Graphics Group (AXG).

Raja Koduri werkte voor zijn aantreden bij Intel gedurende vier jaar bij AMD, waarvan de laatste twee jaar als senior vice president en chief architect van de Radeon Technology Group.
Ligt het aan mij of is dit niet helemaal kosher? Ik zou op zijn minst verwachten dat dit niet zou mogen door een non-compete clause of dergelijke.

[Reactie gewijzigd door orvintax op 21 maart 2023 21:14]

Non-competes zijn niet geldig in Californie. Intel, AMD en Nvidia zitten daar in een straal daar van 1 km bij elkaar vandaan. Iedereen waar iedereen mee bezig is. Het is haast een open deur van switchen tussen de bedrijven (en gerelateerde startups).
Als je gaat werken in de GPU industrie, dan ga je niet akkoord met een non-compete clausule in je contract, want je kan een beetje moeilijk ergens anders aan de slag met een non-compete. Voorheen was het AMD of Nvidia...
Of je laat je nieuwe baas de boete van de non-compete clausule betalen.
dat maakt weinig uit. vanaf iets op de markt is weet de concurrent hoe het werkt. Dat is dan ook de reden dat veel van die grote figuren pas vertrekken na de launch van een nieuw product. over de volgende generatie staat niet alles vast en de belangerijkste dingen zijn gepatenteerd. gpu architecturen zijn ook doorontwikkeling op vorige generaties dus zelf al jensen himself volgende week bij AMD aan de slag zouden de eerst komende generaties nog steeds niet werken met dedicated RT/ tensor hardware zoals bij Nvidia.

De architectuur is er ten eerste niet op voorzien en hun drivers ook niet, personeel trainen duurt jaren om te leren werken met een andere architectuur,.... Tegen dat heel die boel ook gereverse engineered is is het achterhaald. gpu technologie is maar 2 jaar relevant.
Zeer benieuwd of Intel nog wel door blijft gaan met hun gaming-GPU's. Er is wel veel geld ingestoken. Kaarten worden nu met verlies verkocht en in de drivers wordt veel tijd en geld gestopt.
Zeer benieuwd of Intel nog wel door blijft gaan met hun gaming-GPU's. Er is wel veel geld ingestoken. Kaarten worden nu met verlies verkocht en in de drivers wordt veel tijd en geld gestopt.
Het zou dom zijn als Intel nu zou stoppen, juist omdat er zoveel tijd, geld en kennis in gestopt is.
Geen enkel begin is makkelijk, zeker niet met 2 gigantische concurrenten.
Maar als Intel doorzet kunnen ze echt een prima marktaandeel behalen.
Aan de andere kant, men is nog amper bereid AMD te kopen ondanks dat ze in meerdere segmenten veruit de beste kaarten hebben. De gemiddelde consument koopt zonder na te denken een kaart van Nvidia, dus of Intels kansen werkelijk zo groot zijn?
Dat valt wel mee volgens mij. Nvidia heeft wellicht de troef gehad een aantal generaties achter elkaar, maar momenteel heeft AMD een prima high-end kaart met een goede price/performance ratio.

Het probleem is echter de hoge prijzen voor videokaarten in het algemeen, waardoor veel consumenten nog afwachten. Als je nu voor 400-500 euro een 7900 XT(X) te pakken had gingen ze als warme broodjes over de toonbank, ten opzichte van de 4080 voor 600-700 euro.
We zullen de 2023Q1 getallen even af moeten wachten:
https://www.techspot.com/...-discrete-gpu-market.html

Echter als je ziet dat AMD, ondanks hun goede kaarten en relatief goede prijstechnische positionering (t.o.v. Nvidia, met bijvoorbeeld de 6600 en 6700 series, waar het gros van de verkopen zit), nog niet een marktaandeel van 10% weet te bewerkstelligen, blijkt dus ook dat een goede prijsstelling niet genoeg is om de mindshare te veranderen.

Wellicht dat Intel beter werkt qua mindshare, aangezien zij het Nvidia van de CPU's zijn.
Naja ik denk dat ik het niet helemaal eens ben met wat er over de "goede prijsstelling" van AMD wordt gevonden. Een 7900XTX is net zo duur als een 4080 en perfomance technisch is het stuivertje wisselen tussen die twee. Dat soort hoge bedragen zou helemaal niet het nieuwe normaal moeten zijn; dit zijn prijzen waar je voorheen een hele nieuwe PC voor kocht inclusief een grafische kaart die dan courant was.

Ik denk dat er momenteel maar vrij weinig shift in de marktaandelen zit om dat BEIDE zich een beetje uit de markt aan het prijzen zijn. Dat er wel verkopen zijn in het lagere segment zegt wel het een en het ander maar dat wil niet zeggen dat daardoor de marktverhoudingen verschuiven.

Juist omdat Intel wel strak in de pricing zit (mogelijk geholpen door het feit dat ze dit eventueel zelf kunnen produceren) en het feit dat ze nog hard in ontwikkeling zijn om de performance op diverse plekken op te poetsen zou uiteindelijk in het lagere segment waar de aantallen het grootst zijn kunnen leiden tot een verschuiving van marktaandeel ten faveure van Intel. Dit zal niet over 1 nacht ijs gaan en zal mogelijk nog wat extra tijd vergen maar ik zie het Intel nog wel doen om de pricing voor AMD/Nvidia in de lagere segmenten goed overhoop te gooien.
Natuurlijk niet helemaal eerlijk. De meest gebruikte kaart op steam is een 1650 ti (meende ik). De oudere generaties zorgen voor het grootste gedeelte marktaandeel. Niet deze huidige race.

Daarnaast draaien alle consoles op RDNA3.
Marktaandeel kan je op twee manieren opvatten. Wat er op het moment toe doet (en voor Intel) is hoe de verkopen dus op het moment zijn, niet hoe het in het verleden was. Neem je de link er bij zie je dat AMD nog geen 10% van de kaarten verkoopt, terwijl in het segment waar het volume zit, zij de beste kaarten weten te bieden.
Nvidia is bezig zijn eigen glazen aan het ingooien met de matige specs en hoge prijzen.
Volgens mij heb jij onder een steen geleefd? AMD heeft flink marktaandeel gewonnen en er zijn wat schandaaltjes geweest bij Nvid.
Voordat je mensen beticht van onder een steen te leven, heb je getallen dan die deze cijfers weerleggen?
https://www.techspot.com/...-discrete-gpu-market.html
Ik vraag me serieus af wat de betrouwbaarheid van die cijfers zijn, volgens het artikel zijn het 'schattingen op basis van revenue' van een willekeurige 'markt analist', en dat is dan de volledige onderbouwing. Als je naar de omzet van AMD kijkt dan is die in 2 jaar tijd letterlijk bijna keer 5 gegaan. Je gaat mij niet wijsmaken dat dat alleen maar door de CPU's komt, en overeen komt met een daling van marktaandeel van AMD van 18% een jaar geleden naar 9% nu. In de Steam hardware surveys ligt het percentage AMD doorgaans om en nabij de 20%.

Het zal mij verder een worst zijn wie er meer marktaandeel heeft (lijkt me ook een vrij waardeloze overweging om voor het een of het ander te kiezen trouwens), maar hoe dan ook lijken die cijfers in dat artikel mij extreem onwaarschijnlijk.
Het steam marktaandeel is cumulatief. Je kan in steam kijken naar de aandelen van de kaarten die momenteel verkocht worden van zowel AMD, Intel als Nvidia. Vervolgens dit bij elkaar optellen en dan de relatieve percentage berekenen. Dan kom je zo te zien ook niet op bijster hoge marktaandelen voor AMD en Intel.
Ik snap ook niet echt hoe je die cijfers dan interpreteert. Ik zeg niet dat AMD de markt domineert. Nvidia doet dat nog steeds. Maar zoals johnbetonschaar zegt... De data ziet er raar uit. Daar komt bij dat de data die jij linkt gaat over de TOTALE dGPU markt. Dat is inclusief server gerelateerde zaken, mining, graphics design, ALLES. Inclusief takken die gewoon afspraken hebben met leveranciers die over meerdere jaren reiken ook.

Zoals ik al zei, ik zeg niet dat AMD de markt domineert. Maar je ziet duidelijk, in alle relevante surveys voor de doelgroep die jij benoemt, dat AMD aan marktaandeel WINT de laatste jaren. En aanzienlijk! Als in meer dan verdubbeld.
[...]


Het zou dom zijn als Intel nu zou stoppen, juist omdat er zoveel tijd, geld en kennis in gestopt is.
Geen enkel begin is makkelijk, zeker niet met 2 gigantische concurrenten.
Maar als Intel doorzet kunnen ze echt een prima marktaandeel behalen.
Ben het met je eens dat het dom zou zijn als Intel nu stopt. Intel moet nog veel leren en vooral ervaring opdoen met high performance GPUs. Ze zullen dit ongetwijfeld zelf ook wel weten. Anders hadden ze die massieve investeringen niet gedaan.

Offtopic: Je eerste zin doet me denken aan de "Sunk cost fallacy" :P
https://yourbias.is/the-sunk-cost-fallacy

Je bent me echt net voor, was de link al aan het opzoeken!
Maar het grootste marktaandeel is te behalen juist in de klasse waar ze nu een GPU hebben.

Waarom heel veel investeren in high end GPU als dat eigenlijk een niche product is?
Met high performance GPUs bedoel ik alle externe videokaarten. De reden daarvoor is omdat Intel natuurlijk wel al ervaring heeft met APUs, maar die kennis lijkt me niet 1 op 1 overdraagbaar/relevant.
Duidelijk! Sorry, ik dacht dat je bedoelde dat Intel zich moet richten op het hogere segment videokaarten.
Niks dom de aandeelhouder willen profit zien en intel algeheel gaat financieel minder goed. Dus naast onslagen en wild groei aan projecten meerde architecturen moet er van daaruit geforceerd gehakt worden in de vele projecten en blijven de meest belovende over. Pat wilt het zeker niet maar zal als ellende doorblijft gaan gewoon moeten hakken. Ze hebben de grote pech dat hun uitrol in recesie terecht gekomen is. En software driver kant zwaar onderschat hebben of juist ervaren hebben dat deze achterstand gewoon ontiegelijk groot is tov gevestigde orde.
Het is meer strijd van pat vs aandeelhouders. Misschien dat ze nu de zaken op orde hebben maar de vruchten daarvan pas over 2 jaar plukken.
Intel deed het lange tijd slecht in server markt naast dat alle markten redelijk last van recesie hebben zijn meerdere sucsessen nodig waarmee breder R&D in de lucht kunnen blijven.
Eén gigantische concurrent. AMD stelt niet zoveel meer voor op de GPU markt en is volgens mij al ingehaald door Intel.
Waar baseer je dat op?

In de laatste vergelijkingen komt AMD op meerdere prijsniveaus zelfs boven Nvidia uit (prijs per FPS).

Intel kan daar nog niet aan tippen.
Marktaandeel.

[Reactie gewijzigd door Wolfos op 22 maart 2023 10:07]

Heb je de correctie in dat artikel ook gelezen?

"Our original story based on JPR's report, indicated Intel was capturing as much as 9% of the discrete GPU market with their Arc offerings, but this number was mistakenly inflated and it's likely closer to ~6%, which is still a solid effort from Intel.

According to Jon Peddie, out of 13 million discrete GPUs sold in the last quarter -- for both desktops and laptops -- Nvidia provided the bulk of it at 85% market share, AMD shipped 9% and Intel 6%".

M.a.w.: AMD heeft een marktaandeel dat 50% groter is dan Intel.

Dus nee, je stelling dat AMD "is volgens mij al ingehaald door Intel. " Is dus pertinent onjuist.
En alweer iemand die hetzelfde crappy artikel linkt.
Dit artikel representeert de TOTALE dGPU markt. Dus bijvoorbeeld niet alleen maar gamers. En laat nou net dat de markt zijn waar AMD enorm veel focus in gestoken heeft de afgelopen jaren en laat ook representatieve surveys nou net aantonen dat AMD in die markt de laatste jaren het marktaandeel meer dan verdubbeld heeft.
Hij heeft het vast over dat vage artikel die claimde dat Intel al meer Marktaandeel had veroverd op GPU gebied als AMD.. waar ze later op terug kwamen omdat ze ook de zakelijke markt bij Intel hadden mee gerekend en niet bij AMD

[Reactie gewijzigd door Sinester op 22 maart 2023 09:32]

Lol wat? AMD is vaak voor je geld veel beter dan Nvidia. Nu ook
Het feit dat je over drivers begint vertelt al heel het verhaal. AMD is al jaren goed met drivers en in mijn mening zelfs beter dan Nvidia, en ik heb zelf een groene kaart. Ray tracing is leuk maar boeit heel veel mensen saus, en relatief weinig games ondersteunen het. Voor compute zijn ze gewoon goed?? en anders zijn daar andere kaarten voor die ervoor gemaakt zijn. AMD heeft gewoon goede DLSS varianten.

Nauwelijks goedkoper? Je kan een 6950xt voor 700 halen die sneller is dan de veel duurdere 3080. Je bent zelf een blinde fanboy
Het feit dat je over drivers begint vertelt al heel het verhaal. AMD is al jaren goed met drivers en in mijn mening zelfs beter dan Nvidia, en ik heb zelf een groene kaart.
Dit is een beetje flauw. De 6000 reeks waar je verderop zelf naar refereert had bijvoorbeeld last van een black screen bug. Ook multimonitor verbruik was weer dramatisch (48W ipv 7W bij een enkel scherm). Het helpt niemand om te doen alsof dat soort problemen niet bestaan. Het helpt de discussie verder ook niet om andere mensen af te schrijven omdat ze naar dit soort problemen refereren.
Ray tracing is leuk maar boeit heel veel mensen saus, en relatief weinig games ondersteunen het. Voor compute zijn ze gewoon goed?? en anders zijn daar andere kaarten voor die ervoor gemaakt zijn. AMD heeft gewoon goede DLSS varianten.

Nauwelijks goedkoper? Je kan een 6950xt voor 700 halen die sneller is dan de veel duurdere 3080. Je bent zelf een blinde fanboy
Ray tracing lijkt tot heden nog niet echt hét verschil te maken. Prijs prestatie van zo'n 6950XT is inderdaad enorm veel beter. De prijsverlaging is redelijk recent, in januari waren ze nog 1000 euro ipv 7000 euro dus wellicht trekt de verkoop nog iets aan.

[Reactie gewijzigd door sdk1985 op 23 maart 2023 16:33]

`Het helpt ook niet om te doen alsof er geen issues bij Nvidia zijn en alleen maar op de issues te focussen bij AMD.
`Het helpt ook niet om te doen alsof er geen issues bij Nvidia zijn en alleen maar op de issues te focussen bij AMD.
In algemene zin raad ik bij Nvidia aan 2-4 weken te wachten met het installeren van driver updates. Dan vermijd je in mijn ervaring de slordigheden.
Je bedoelt als je dus een doorsnee gamer bent? Gaming wordt wel een interessante markt als je probeert te verkopen dat iedere gamer professioneel met z'n kaart bezig is en AI-modellen uitwerkt.

Heb je daar statistieken voor?
Ik gebruik geen DLSS, ik heb FSR, RSR er zijn ook DLSS>FSR patches voor de grote games, dus zoveel mis ik niet.. Ray tracing kunnen de 6000 en 7000 series kaarten ook, toegegeven momenteel op 2/3e van wat een nvidia in dezelfde klasse kan.. als de prijs dan ook 2/3e is?

En die driverproblemen, lol, ik neem aan dat gezien je hier al een tijdje rondloopt je de perikelen nog wel herkend rondom de 9000 series, of de FX series? Er was een reden waarom ooit gebruikers van beide kampen de "Omega Drivers" gebruikten, en guess what, de Nimez driver suite(third party) kun je als alternatief nu nog inzetten voor de officiele kaarten, mocht dat nodig zijn. Ondanks geruchten en fake claims(ontploffende vapor chambers) bleek dit te liggen aan een groep ex-miners die hun kaarten deepcleanden, re-sealden zelfs en als nieuw oldstock probeerden te slijten in Duitsland. Het was geen toeval dat al die kaarten op dezelfde plek ineens opdoken, via dezelfde aanbieder, en kapot aangeboden werden bij een onafhankelijke reparateur en niet gewoon ge-RMA'd werden naar AMD. Hilarisch genoeg leken mensen een driversuite de schuld te geven die je moest forceren voor installatie omdat die de kaart officieel niet ondersteunde.

Dat je begint over "fanboys" en "budgetmerk" spreekt niet voor je, je loopt hier al lang genoeg rond en hebt genoeg ervaring dat die clownsmilie eigenlijk helemaal onderaan hoort. Je weet volgens mij heel goed dat het prijs/prestatieverschil tegenwoordig niet veel scheelt, en het eerder een voorkeur is. Ik ben sinds 1998 van Nvidia afgestapt(Vanaf voorgeschiedens Tseng ET6000(na voorheen de 4000) met 3DFX naar de eerste werkende Nvidia; de Riva128, daarna Riva TNT hadden destijds een perfecte TV-out, TNT2 viel tegen, en werd toen door een collega geadviseerd de 32MB Rage128 FuryGL eens te proberen die al sinds 1997 op de markt was(en in OEM versie bij de winkel waar ik parttime werkte op de plank lag stof te happen sinds die tijd), met de (third party) Rage underground drivers trok die de TNT2 er uit, en kwam in de buurt van TNT2Ultra, en had wel een perfecte TV-out(was toen in mijn studententijd een pre voor me). Een keer een uitstapje gemaakt naar de "Evil Kyro 2", vrij kort geleefde chipfamilie(2000-2001), en weer terug naar ATI. Als het echt zulke meuk was zweerde ik er niet al ruim 20 jaar bij, en het is niet alsof ik geen Nvidia zou kunnen betalen(hoewel ze mijn ballen mogen likken voor de prijzen van die 4090's)


Wat heb jij liever, een 6950XT of een 3070ti? 8)7 Liggen ongeveer gelijk in prijs. 8)7

[Reactie gewijzigd door mjansen2016 op 23 maart 2023 01:46]

Als AMD niet veel voorstelt, dan is Nvidia een (iets mindere, maar toch) heel magere speler op de GPU-markt.

Wie is wel een grote speler dan?

https://www.statista.com/...s-market-share-by-vendor/

Intel heeft wel meer dan 4x market share dan Nvidia, da's waar.
Dus helemaal niet ingehaald en nog steeds minstens 50% meer consumentenverkopen volgens vage cijfers die heel ruw afgeleid zijn van financiële cijfers.
Dit staat ook nog eens los van HPC GPUs en geïntegreerde oplossingen. PS5? AMD. PS4? 100% AMD. Xbox One? 100% AMD. Xbox series S/X? 100% AMD. Steam Deck? 100% AMD. Tesla UI/entertainment? You guessed it..

De Switch is Nvidia ja. Maar AMD is echt niet zo'n kleine speler en steekt Nvidia vaak de loef af

En in performance komt Intel nauwelijks in de buurt en zit AMD wel op de hielen van nvidia. In prijs/prestatie zelfs beter.

Al die FUD hierboven van je over instabiele drivers is gebaseerd op 10-15 jaar oud sentiment. Zeiken over drivers maar dan wel Intel naar voor schuiven als grote concurrent is ook echt hilarisch.
Ray tracing werkt gewoon en FSR is een volwaardig, open alternatief. Je zoekt je nu waarschijnlijk ook nog te pletter naar een échte Gsync monitor is nadat dat geheel verdwenen is na de introductie van Freesync?

Dat fanboys niet willen geloven dat ze teveel betalen helpt niemand.

[Reactie gewijzigd door Arrigi op 22 maart 2023 11:10]

Ik zag recent een leuk stukje over Philips en hoe zij miljarden hebben stuk gegooid op allerlei projecten die simpel weg geen toekomst hadden. Hoe ze van een van de leiders in the high-tech industrie verworden zijn tot een bedrijfje dat leuk aan de weg timmert in de niche markt van de medische apparatuur.
En als je je daar in verdiept zie je al snel wat parallellen met hoe Intel, bijvoorbeeld XScale heeft gedumpt nooit echt iets met GPU's deed tot zeer recent en hoe ze zo veel andere projecten hebben gestart en voor het ooit echt iets werd weer gestopt denk aan Optane bijvoorbeeld. Het zou me niets verbazen als ze ook met de GPU gewoon weer stoppen en de markt aan andere laten. Het zou zonde zijn want ondanks dat de huidige GPU's nog niet echt geweldenaars zijn is het zeer indrukwekkend hoe men van uit het niets binnen 5 jaar een GPU heeft weten te maken die toch ook zeker niet slecht is. Ja de drivers kunnen wat meer werk gebruiken en de GPU zelf kan vast verder geoptimaliseerd worden maar ondanks dat is het een zeer indrukwekkende prestatie die Intel heeft neer gezet en een stuk beter dan vele hadden verwacht.

Ik hoop dat men door gaat met de GPU divisie en dat men zich in de toekomst echt kan meten met de AMD;s en NVidia's van deze wereld maar ik heb er een hard hoofd in. Al tijden gaan er geruchten dat men met de GPU tak wil stoppen en met het vertrek van de persoon die de leiding had over die club lijkt het einde nabij. Zeker ook omdat er geen aankondiging van een vervanger is gedaan, dat wijst er op dat die er niet is en waarschijnlijk ook niet zal komen. Waarna het relatief eenvoudig zal zijn om de rest van de club op te doeken. Ik zou het een heel slecht idee vinden van Intel maar ik heb niet naar de financien gekeken en kan dus alleen maar af gaan op de indrukwekkende prestatie die de huidige GPU is en de toekomst die zou kunnen zijn. Misschien dat de kosten voor het mee spelen in de GPU league gewoon te hoog zijn voor Intel om nu te dragen en het simpel weg een kwestie is van geld beter besteden aan andere projecten dat zou ook best wel eens kunnen zijn natuurlijk.
Ik denk dat juist Philips heel goed geweest is in het realistisch zijn rond bepaalde secties en de bereidheid ze af te stoten. Veel mensen hebben een soort romantisch idee dat bijv. ASML nog altijd onderdeel had kunnen zijn van Philips (had in werkelijkheid nooit dezelfde organisatie kunnen zijn die het nu geworden is) en dat ze ook op het gebied van allerlei consumentenelektronica nog succesvol actief hadden kunnen zijn (ondanks dat ze zowel op het gebied van audio als televisies al aan het verliezen waren op het moment dat het afgestoten werd). Wanneer je gewoon naar de geschiedenis kijkt van dat deel van de organisatie hebben de succesfactoren met zaken te maken die onder Philips nooit gebeurd zouden zijn.

En als je zo groot bent als Philips, dan maak je soms inderdaad ook wel eens de verkeerde keuzes met investeringen die net te ver gaan in niet-winnende onderdelen. Het accepteren van verzonken kosten is dan ook een van de meest lastige dingen voor een organisatie. Het staat immers gelijk aan óf verlies van een concurrent en/óf erkennen van verkeerde inzichten.

[Reactie gewijzigd door RaJitsu op 22 maart 2023 10:24]

Samsung en LG hebben al hun concurrenten uitgeschakeld. Het was Philips TVs net zo gegaan als die van Toshiba.
Ik zou het eerder zien als dat ze de markt gewoon gewonnen hebben. Vooral Samsung. LG heeft even momentum gekregen doordat ze de enige OLED-panelenfabrikant waren voor jaren en het een aardig alternatief was voor Samsung, waar Sony voor sommigen óf te duur is, of te oudbollig over komt, zelfde met Panasonic.

Verschil tussen Philips en een Toshiba en andere Japanse merken als Sharp (dat plannen heeft om terug te komen nu ze de aandelen grotendeels weer in eigen handen hebben) en JVC is dat Philips een van de spelers is die echt de markt verloor door gewoon niet hele goede televisies te kunnen maken (sommige 8 en 9000-series scoorden wel goed) terwijl ze ook een bovengemiddelde prijs meekregen. Dit terwijl ze op basis van merkwaarde, zeker in Europa, anders dan hun concurrenten de wind wel lange tijd mee hadden, waardoor ze ermee weg kwamen. Iets dat steeds minder werd, mede doordat Samsung (voor de flatscreen-tijd een merk met een B-reputatie hier) de LCD-markt zo hard aanviel en omdat je het overal zag, mensen ervan uit gingen dat het de norm was.

[Reactie gewijzigd door RaJitsu op 23 maart 2023 08:47]

Philips was ooit heel erg groot, meer dan 300.000 medewerkers als ik mij niet vergis, maar dat kwam ook primair doordat ze productie zelf deden. Er was zeker een toekomst voor Philips CE. Vandaag de dag zie je nog steeds Philips tandenborstel, stofzuigers en televisies. In de basis was Philips vroeger een bedrijf dat jarenlang innoveerde en vervolgens achteraf geld probeerde te verdienen door een toepassing te vinden. Wat soms natuurlijk mislukte. Maar succes was zeker niet onmogelijk en bedrijven als Samsung, LG laten zien dat zo'n conglomeraat van bedrijfstakken best kan werken;
Products Clothing, automotive, chemicals, consumer electronics, electronic components, medical equipment, semiconductors, solid state drives, DRAM, flash memory, ships, telecommunications equipment, home appliances[2]
Services Advertising, construction, entertainment, financial services, hospitality, information and communications technology, medical and health care services, retail, shipbuilding, semiconductor foundry

Cheil Worldwide
Samsung Asset Management
Samsung Biologics
Samsung C&T Corporation
Samsung Electro-Mechanics
Samsung Electronics
Samsung Engineering
Samsung Fire & Marine Insurance
Samsung Heavy Industries
Samsung Life Insurance
Samsung SDI
Samsung SDS
Samsung Securities
Philips heeft destijds gegokt op medical met de logica dat overheden altijd geld investeren en ze daardoor eigenlijk alleen nog maar konden groeien en geen/minder last hadden van cyclische vraag. In de realiteit is dit een enorme flop geworden. Waar ze niet op hadden gerekend is dat in tijde van economische 'slowdown' overheden massaal zouden gaan bezuinigen. Zowel de omzet als winst zijn al jaren dramatisch en als je de cijfers vanaf 2009 bekijkt dan zie je dat het een aflopend verhaal is met tussendoor een enkele opleving.
De huishoudelijke apparaten als de stofzuigers vallen onder Hillhouse Capital en de televisies vallen al zeer lang onder TPV. Er wordt slechts betaald voor het merk.

Samsung en LG zijn zgn Chaebols. Dat zijn netwerken van losse organisaties. Bij Philips kon je als het ware een intern nummer bellen en ze verbonden al hun activiteiten ook vaak aan elkaar. Dus dan kreeg je als PSV-supporter allerlei producten goedkoper bijv. en hadden ze van die relax-licht-installaties voor spelers en liepen ze met Philips-koptelefoons. Samsung moet echter hun SSD's inkopen en in goedkopere notebooks kreeg je dan ook vaak bijv. Sandisk-opties.

Dat het met medical misschien niet zo voorspoedig verloopt, maakt niet dat het geen goede keus was op het moment dat het gemaakt werd.
Ik weet niet waar jij je verhaal op baseert maar Philips ging juist bijna failliet omdat de verschillende takken niet goed samenwerkten. Dat is volgens Philips de aanleiding geweest om te gaan herstructureren (lees afstoten en uitkleden).

Betreft de TV's en stofzuigers, klopt maar dat is het gevolg van de 'fout' die ik beschrijf. Ze hadden dat ook zelf kunnen blijven ontwikkelen en verkopen. De markt voor de Philips producten bestaat na al die jaren nog steeds.
Ik heb op het HTC in Eindhoven zeer veel projecten gedaan en die regio was destijds (volgens mij nog steeds wel) doordrengd van Philipscultuur en veel (oud-) Philips mensen. Zeer veel docenten uit de techniek en eigenlijk ook een groot deel van de commerciele mensen hebben daar ook een verleden. En ik heb de kans gehad in beperkt groepsverband tijd door te brengen met mensen als Rob Westerhof, Harry van Raaij, Frans van Houten en Jan Timmer. Van Raaij (met wie dat gesprek overigens meer nav PSV was georganiseerd) was de enige die het idee had dat Philips nog het conglomeraat kon en had moeten zijn dat het ooit was. Jan Timmer ergens ook wel maar gaf daar ook toe dat de wens de vader van de gedachte was en dat puur rationele bekeken het gewoon nooit realistisch was geweest om dot na te streven.

Wat je zegt over de slechte samenwerking is inderdaad waar. Maar dat is een logisch gevolg van de structuur zoals deze ontstaan was. Dit was de reden dat afstoten noodzakelijk werd. Het was niet realistisch om vanuit Nederland of wel Europees land dan ook een soort Samsung te runnen.

Dat is, als het überhaupt mogelijk was de organisaties zo opnieuw in te delen dat ze als losse bedrijven onder een houdstermaatschappij konden bestaan. In de meeste gevallen is er geen echte infrastructuur overgenomen maar alleen het merk en wellicht patenten. De televisies is het enige voor zover ik weet waar ook de itga isatie deels is overgenomen. Signify ook, maar dat hebben ze afgestoten waar vervolgens investeerders voor gezocht werden.

Maar iets als ASML, dat werd afgestoten omdat ze het niet voldoende konden exploiteren in de jaren 90. Vervolgens zijn er allerlei investeerders gekomen uit andere industrieën die er meer mee konden en daarmee is de ontwinkeling en groei richting iets gegaan was ASML gemaakt heeft tot wat het nu is. Onder Philips waren die extra investeerders die beleidswijzigingen verwachtten nooit gekomen.
Philips is óók het verhaal van gemiste kansen: onderdelen vroegtijdig afstoten omdat ze té niche waren en geen geld opbrachten - maar 5 of 10 jaar later absoluut doorbreken (fotolithografie divisie?). Het werd ook lange tijd nog als 'familiebedrijf' gedraaid: zolang er genoeg geld binnen kwam om de rekeningen te betalen was het wel goed. De switch naar een modern, winstmarge-gericht concern is ze nooit goed afgegaan.

Dat speelt hier ook wel. Als de executives bij Intel dachten dat ze na 1 serieuze generatie GPUs ineens een grote speler in de markt zouden zijn, hadden ze er net zo goed niet aan kunnen beginnen. Er moet ook binnen Intel bedacht zijn dat er een aantal 'leer'generaties nodig zouden zijn.

[Reactie gewijzigd door Ilmar op 22 maart 2023 10:21]

Hangt af van de gerelateerde prognoses. Het is een veelgemaakte fout om eerdere investeringen als argument te zien om ergens mee door te gaan. Op een bepaald moment moet je bepaalde kosten als verzonken accepteren.
Dit bericht zou maar zo het einde in kunnen luiden ja....
Dat zou doodzonde zijn als Intel met hun gaming GPUs zou stoppen.

Een extra concurrent voor AMD en Nvidia zou wel mooi zijn.
Als consument ben ik het helemaal met je eens maar wat ik me af vraag is of Intel op relatief korte termijn de kosten er uit kan halen of dat het nog 10 jaar miljarden vereist om de absolute top te bereiken. Ondanks dat vele denken dat Intel eindeloos veel geld heeft valt dat best tegen en zijn de kosten voor het ontwikkelen van een GPU erg hoog. Intel zal het vast nog een paar jaar vol kunnen houden maar als je je belangrijkste architect kwijt bent en je ook nog eens financieel niet echt lekker draait (zo als Intel op het moment) onder vuur ligt in verschillende markten waar je jaren lang ruimschoots de markt leider was dan kon het best wel eens zijn dat nu niet de juiste tijd is om die extreme investeringen te blijven doen.

Het zou me niets verbazen als Intel de focus alleen op de data center GPU's zal leggen en de consumenten markt aan Nvidia en AMD laat. Simpel weg omdat de consumenten markt steeds verder terugloopt de kosten om die markt bij te houden erg hoog zijn zeker ook omdat je uitgevers en developers achter je product wil krijgen en natuurlijk de drivers zult moeten onderhouden en dus een sterke software groep moet hebben die dat werk uitvoert. En als je Intel een beetje gevolgd hebt over de jaren dan weet je dat Intel software niet echt geweldig is en het er niet op lijkt dat men een goede software ontwikkel cultuur heeft binnen het bedrijf.
Met al die problemen in de consumenten markt betekend het ook dat de kosten erg hoog zijn om mee te blijven spelen in die markt.

Aan de andere kant is er de data center en de discrete accelerator markt, hier is backwards compatibility niet zo heel erg belangrijk en hoef je ook niet zo hard te werken aan het onderhouden van relaties met en het aan je bedrijf binden van developers en publishers. De klanten hebben diepe zakken zo lang jouw product op welke manier dan ook beter is dan de concurrentie is er ruimte voor flinke marges iets dat in de consumenten markt een stuk moeilijker te verkopen is.
Ook mogen het in middels toch wel heel duidelijk zijn dat de data center markt voorlopig nog flinke groei zal laten zien waar de consumenten markt nog steeds krimpt en het de console markt is die de PC een doodsteek lijkt te geven. Ja er zullen voorlopig nog wel consumenten systemen worden verkocht maar de markt krimpt al jaren, en er is geen zicht op een ommekeer. Dus wil je echt miljarden investeren in het veroveren van een markt die jaar op jaar krimpt? Dat lijkt me nog al onzinnig zeker als je zelf financieel niet echt lekker draait.

Mijn gok is dan ook dat helaas Intel zal stoppen met de consumenten GPU's en alleen met de data center en discrete accelerator oplossingen zal door gaan. Simpel weg omdat men ergens een flinke berg aan geld moet vinden en de PC (gaming) markt nu eenmaal geen rooskleurige toekomst heeft.
Ja weet je, we zullen het nooit zeker weten als gwone consumenten, maar logica zou zeggen dat als Intel er echt geen heil meer in zou zien, ze er ondertussen wel mee gestopt zouden zijn.

Intel is een van die bedrijven die het zich voor langere tijd kan permiteren om een nieuwe markt binnen te stappen en producten tegen kostprijs of daaronder te verkopen, om maar marktaandeel te verkrijgen / de consument op hun hand te krijgen.

Ik hooop echt dat ze hier niet mee stoppen, want eerlijk gezegd, vind ik hun prestatie tot nu toe toch best knap......ok, ze concureren niet op high end, maar komen aardig mee in midrange EN de producten zijn er naar geprijsd. Tuurlijk kan het altijd beter, maar mijn indruk is toch wel dat Intel echt serieus is over hun mogelijkheden op de dedicated gpu market.
Ik heb het gevoel dat je bij Intel altijd terug gaat naar de oorsprong, de CPU. De vraag is dan: "kunnen we hier CPUs mee verkopen" en als het antwoord "nee" is dan heeft het product niet de volle aandacht.
Diversificatie kan op zichzelf ook gewoon een idee zijn. De CPU-verkoop wordt steeds lastiger voor hen doordat CPU's langer courant blijven (ondanks dat ze tegenwoordig door MS worden uitgesloten) en ook ARM-alternatieven opkomen, terwijl AMD en in de toekomst misschien wel iemand anders er ook nog zijn. Chipsets maken ze al (die ook met AMD gecombineerd kunnen worden) en GPU's is een volgende act van diversificatie. Ik denk juist dat de focus op CPU's een slechte zou zijn en dat snappen ze bij Intel natuurlijk ook.

Ik zie ze ipv focus op CPU's zich eerder breder instellen op bijv. SoC's voor de mobiele markt (lastige business waar ze eerder faalden, maar zonder Samsung en de problemen van de Chinezen, met name HiSilicon/Huawei is er meer ruimte), of corporate oplossingen voor machines, elektronica, automotive, etc.
Ik denk ook aan de thuisrouter-SoCs (de Intel Puma, die ze van TI hebben overgenomen en 1 van de ARM-cores krampachtig door een Atom hebben vervangen). De storage tak (3D Xpoint, Optane) wat ze weer aan de CPU-verkoop probeerden te koppelen.
Die CPUs zijn een goed geweer waarmee Intel zichzelf graag in de voet schiet.
Dat ligt niet voor de hand,Intel heeft er miljarden ingepompt.
Ze zijn bij Intel vast bekend met de sunk cost fallacy.
Hoe lang ging Intel wel niet door met Itanium, een architectuur als een doodlopende straat sinds kort na introductie de eerste x64 CPU uitkwam?
Itanium processoren productie bleef zo lang gaan als dat het deed, vanwege meerjarige contracten met HP's server divisie. Afkopen en/of niet aanleveren van die processoren aan HP was nog duurder dan door blijven gaan met het produceren ervan. Dat was dus een 'poison pill' voor Intel.
Het oorspronkelijke contract liep tot 2014 en is nog verlengd. Ik denk dat HP gewoon goed betaalde.
Zou kunnen , maar hoeft niet. Kan ook vertrouwen kwestie zijn als mis information of bedrijf cultuur dat samenwerking tussen afdelingen en ook de report te rooskleurig zijn.
Het hangt er ook vanaf wat battlemage gaat doen samen met volwassen worden software kant.
Onder AMD zat hij in AMD dark ages waar radeon de cpu tak onderhoude en gereduceerd werd. Bij intel from scratch de software tak opzetten was naar niveau van gevestigde orde was brug te ver. Naast dat wereld weid abrupt extreem grote vraag omslaat naar recesie .
Om competatief te zijn in alle markten ook server heb je gpgpu sku nodig tegen nv
Dus gpu zullen niet zo snel verdwijnen maar als er financiele problemen groter worden dan moeten kiezen wat ze moeten axen.
Hij heeft nogal pech.
Maar ja er zal iemand anders zijn rol overnemen.
Zou Intel wel een GPGPU willen die compilerafhankelijk is? Intels brood kwam altijd van instructiesetafhankelijkheid.
Exact wat ik dacht, hoewel aan de andere kant het na zijn vertrek alleen meer beter is geworden met AMD GPU's. En Battlemage is al aangekondigd...

Een 16GB kaart zoals de 770, met bijna maandelijks stijgende performance wegens driveroptimalisatie tegen een prijs waarvoor je amper een buget 8GB kaart kan kopen is een goede dealbreaker voor intel om zich in de markt te zetten.
maandelijks stijgende performance?

review: Hoeveel kan Intel uit Arc-gpu's persen? - Vier maanden aan drivers ve...

Heb je al eens gekeken hoeveel ze achter lopen op een technologie die nu al 3j op de markt is? Het enige dat ze geleverd hebben zijn fixes voor nog ergere performance issues. Daarbovenop is het verbruik gewoon mee evneredig gestegen in games.

Als het enige is die 16GB kan je evengoed een 6700XT kopen, daar is de performance wel op orde met 16GB....
review: Welke gpu leunt minder op je Intel-cpu? Oudere Core i5 met je nieuwe ...

voor die prijs koop je trouwens ook een 6600-6650XT welliswaar niet met 16GB, dat is dan volgens u "amper een budget kaart"

[Reactie gewijzigd door d3x op 22 maart 2023 07:43]

Heb je al eens gekeken hoeveel ze achter lopen op een technologie die nu al 3j op de markt is? Het enige dat ze geleverd hebben zijn fixes voor nog ergere performance issues. Daarbovenop is het verbruik gewoon mee evneredig gestegen in games.
Het is een 1st gen product. Vergeleken met hoe bagger alles liep toen die uitkwam, en als ik de reviews lees van de mensen die hem daadwerkelijk gekocht hebben(ook hier op tweakers) viel die over de hele lijn niet tegen. Stroomverbruik van zo'n kaart is te verwaarlozen vs het totale stroomverbruik van mijn huishouden.
Als het enige is die 16GB kan je evengoed een 6700XT kopen, daar is de performance wel op orde met 16GB....
De 6700XT is een 12GB kaart, de goedkoopste 16GB kaart die niet van intel is in de pricewatch op dit moment is een 6800, en die is gelijk 190 euro(dus bijna de helft) duurder, nogal een verschil.
voor die prijs koop je trouwens ook een 6600-6650XT welliswaar niet met 16GB, dat is dan volgens u "amper een budget kaart"
Ik heb momenteel een 6800XT, hiervoor had ik een Fury, daarvoor een 290x, daarvoor een HD6900, etc. vergeleken met hoe die in de ladder stonden binnen hun hun eigen generatie, is de 6600/6650 een budgetkaart.

[Reactie gewijzigd door mjansen2016 op 23 maart 2023 00:51]

Nou Radeon is zwaar gereduceerd en alle rest ontwikkeling is in Zen gestopt samen met TSMC leading foundry heeft tij kunnen keren. Waar hij onder deze reductie beleid eigen lam geslagen is om radeon devisie nog iets te kunnen beteken. Een top figuur kan in zo een omgeving ook niks.
Wie daarna kwam genoot van groeiende R&D Radeon budget
Bij intel heeft recesie en de zeer grote driver achterstand hem genekt.

Dus geen idee of hij de mindere of slechte engineer is. Het zat hem zeker zwaar niet mee.
Ik weet niet hoe goed of slecht hij zelf is, wat me wel opviel is dat er sinds zijn vertrek bij AMD er minder op de prestatiekroon word gemikt(Geen Fury Maxx, Vega64 of Radeon VII's meer), en gewoon meer GPU's in de markt staan(als het mining drama er niet was geweest had het aandeel mogelijk nog groter geweest, en bouwde menig OEM "gaming computers" met AMD kaarten.
Ja, die A770/16GB is zeker zeer interessant, jammer dat ze de problemen met VR nog niet opgelost hebben, anders zou het wel voorlopig mijn nieuwe kaart worden in een nieuw systeem.
Waar haal jij vandaan dat hun kaarten met verlies worden verkocht?
Met verlies verkocht? Ik dacht dat de kaarten alleen embedded en oem waren :/ wist niet dat er een consument versie bestond
Kijk maar in de pricewatch.. Ook third party kaarten..
Zeer benieuwd of Intel nog wel door blijft gaan met hun gaming-GPU's. Er is wel veel geld ingestoken. Kaarten worden nu met verlies verkocht en in de drivers wordt veel tijd en geld gestopt.
Nvidia heeft laten zien dat GPU's voor veel meer gebruikt kunnen worden dan alleen voor gamen, zoals recentelijk ook AI. De game-markt is vermoedelijk slechts een opstapje voor Intel naar andere markten, die steeds belangrijker worden en ze niet kunnen laten liggen.

Overigens is dit vergelijkbaar met VR. Momenteel zijn de klanten daar grotendeels gamers, maar bedrijven zoals meta zien dit als opstapje naar AR-oplossingen die voor veel meer dingen worden toegepast en waar straks het echt grote geld zit.
Er zullen nog wel genoeg knappe koppen blijven lijkt me. Is één 'baas' die vertrekt zo'n groot verlies?
Dat is het probleem niet. Het is meer de vraag waarom hij vertrekt. Wil hij iets anders gaan doen of wil Intel wat anders gaan doen?
Hij begint een startup die via AI assets gaat genereren voor gaming, media, en entertainment: https://twitter.com/RajaXg/status/1638236242537250816?s=20.
Maar vertrekt ie omdat ie zo graag zijn eigen bedrijf wou starten? Of begint ie maar een eigen bedrijf omdat bij Intel het roer om gaat?
Hij blijft telkens 4-8 jaar, dus waarschijnlijk was het gewoon weer tijd voor hem.
Good point. Was me niet opgevallen maar klinkt ook plausibel.
Matig presteren en wegwezen zodra de slechte resultaten te boven komen. En dan op een of andere manier met "ervaring" een nieuwe baan krijgen waar je weer 4 jaar kan chillen. de Koduri special.
Jim keller doet dat toch ook.
Maar ja jim keller kreeg bij AMD met zen voorrang en alle R&D.
Radeon werd gecanabaliseerd een jim keller daar kan daar ook niet veel mee.
Jim keller zou bij intel ook niet beter doen met maximum driver achterstand wat gpu hebben. Gelukkig doet hij daar cpu.
Vast, maar bij AMD konden we nog niks definitiefs zeggen over Raja, dat was zijn eerste stintje als GPU leider en hij was weg voordat zijn architectuur echt benen had. Vega was best wel geflopt en nu met RDNA (zonder Koduri) maakt AMD een comeback.

Nu bij intel had hij waarschijnlijk carte blanche en hij heeft er niks indrukwekkends voor laten zien.

[Reactie gewijzigd door Osiummaster op 22 maart 2023 08:59]

Het verschil is dat bij Jim Keller alles wat hij aanraakt veranderd in goud. Dat is zeker niet zo bij Koduri.
Lijkt me onwaarschijnlijk na zoveel jaar in de industrie. Zijn peers zullen hem wel kennen en zijn blijkbaar meer onder de indruk dan jij.
Als die inderdaad de technicus/architect is wel ja.
Er zijn niet veel mensen op de wereld die zo'n project kunnen aansturen en het inzicht hebben om "het juiste" te doen. Het is namelijk wat meer dan rondshoppen voor een fabricageproces en het opschrijven van specificaties.
Stel dat je nu begint met een nieuwe architectuur, wat wil de markt over 2 of 3 jaar hebben? Waar is AI op dat moment? Welke functies/flexibiliteit is er nodig?
Tot aan sturing op details, hoe snel versus breed maak je een component.
Iemand anders zal het overnemen. Lastige tijd heeft ie meegemaakt met de chip tekorten, mining-debacle en Oekraïne denk ik, en dan tijdens die tijden het ook nog eens tegen de twee andere giganten opnemen..
Ben benieuwd hoever ze kunnen komen.

[Reactie gewijzigd door whersmy op 21 maart 2023 21:12]

Hij had ons S3 Graphics afgenomen maar uiteindelijk Intel als derde GPU fabrikant weer toegevoegd aan de Markt.
By the time Koduri left, he wasn’t just in charge of graphics but also Intel’s “accelerated computing” initiatives, including things like a crypto chip.

Now, according to Intel CEO Pat Gelsinger’s tweet, he’ll be helming a startup creating software “around generative AI for gaming, media & entertainment.”
Denk dat hij gewoon meer potentie ziet in hele nieuwe AI tak en verder willen hameren op at GPU spul.
Wellicht dat hij zo slim was daarover iets af te spreken. Een non compete vereist twee partijen. Degene die de ander het liefste wil zal het meeste water bij de wijn doen.
Ik zou me geen zorgen maken over de toekomst van de gpu divisie. Deze mijnheer kijkt het vooral geweldig te vinden om iets moois op te bouwen en het daarna aan anderen over te laten om het verder uit te bouwen. Dit heeft hij eerder bij AMD en Apple gedaan en die gpu divisies zijn nog prima bezig.
Ik zie hier helemaal geen nadeel in. Zijn werk bij AMD was niet indrukwekkend en gezien de launch van ARC is ook dat geen award winner en had tal van problemen. Ik denk dat Intel beter af is zonder hem net als dat AMD zonder grote stappen gemaakt heeft.
Mwa, ik vermoed dat de huidige generatie amd kaarten qua architectuur grotendeels uit zijn koker komen?
Raja is verantwoordelijk voor de Vega architechtuur, wat nou niet bepaald een commercieel succes was (en hij heeft naar zeggen het niet netjes achtergelaten, team die zijn visie niet kon realiseren power consumptie die niet onder controle te krijgen was bij vega).
https://en.wikipedia.org/wiki/Radeon_RX_Vega_series

Huidige RDNA architectuur is David Wang
https://www.fudzilla.com/...-1-to-replace-raja-koduri
https://www.reddit.com/r/...wang_appreciation_thread/
https://www.techarp.com/computer/amd-graphics-roadmap-2020/

[Reactie gewijzigd door Turismo op 22 maart 2023 00:16]

Interessant. Wist ik niet. Dacht dat hij ook de rdna man was.
Ja dat komt omdat Raja nogal een showboat is als dat nog niet was opgevallen, heb je die Vega introductie video van hem wel s gezien echt total cringe, wie kan hier zo uit zijn hoofd vertellen wie de Chief engineer van nVidia of van de Apple M1, David is veel meer bescheidener en houd niet zo van de spotlight wat ook totaal niet nodig is.

[Reactie gewijzigd door Turismo op 22 maart 2023 10:19]

Daar heb je een punt. Hoop wel dat Intel doorzet op gpu gebied. Meer concurrentie is altijd goed.
Helaas is het patroon bij Intel de laatste jaren dat ze veel beloven, terwijl het maar niet lukt om te leveren. Ze zijn steeds veel te laat en lijken ook hele hoge kosten te maken.
Hij/zij krijgt een -1, maar de geruchten waren dat hij bij AMD in een soort power struggle zat met Lisa Su en met Intel in gesprek was over een overname. Uiteindelijk nam hij een “sabbatical”; corporate speak voor ontslagen.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee