Jim Keller: AMD schrapte K12-project voor eigen Arm-cores na mijn vertrek

AMD trok volgens chipontwerper Jim Keller de stekker uit de ontwikkeling van eigen Arm-cores nadat hij het bedrijf verliet. Hij noemt dat een domme beslissing. Rond 2014 had AMD plannen voor serverprocessors op basis van Arm-cores en het plan om eigen Arm-cores te maken.

Keller werkte bij AMD aan de Zen-cores van de eerste, tweede en derde generatie. Hij vertelde onlangs op een conferentie dat hij destijds opmerkte dat het cache-ontwerp voor Arm- en x86-cpu's grotendeels hetzelfde is, net als veel andere onderdelen. Het verschil in de processorarchitecturen zit met name in de decoder unit.

Vanwege de overeenkomsten begon het team van Keller te werken aan een eigen Arm-core onder de codenaam K12. AMD had daarvoor een licentie bij Arm gekocht. "Ze hebben dat project dom genoeg geannuleerd", zegt Keller in zijn Future of Compute-presentatie. Volgens Keller hebben 'bepaalde managers' bij AMD het project geschrapt na zijn vertrek, omdat die 'bang zouden zijn voor verandering'.

AMD was van plan om Arm-cores te gebruiken voor serverprocessors, ook in combinatie met x86-processors. In 2014 presenteerde de processormaker plannen voor serverprocessors op basis van bestaande Arm-cores. Ook werden toen de eigen Arm-cores op de roadmap gezet voor 2016. Dat werd later uitgesteld naar 2017, maar zover is het nooit gekomen. Een jaar na de presentatie schrapte AMD de Arm-plannen.

In plaats van Arm-cores gebruikt AMD nu x86-cores op basis van de Zen-architectuur in zijn EPYC-serverprocessors. Daarmee heeft de fabrikant momenteel groot succes. EPYC-processors zijn momenteel te vinden in de snelste supercomputer ter wereld. Vijf op de tien snelste systemen in de top 500-lijst van supercomputers zijn voorzien van EPYC-processors.

K12-project van AMD
K12-project van AMD

Keller werkte bij AMD, Intel, Apple, Tesla en meer

Jim Keller heeft een lange staat van dienst en geldt als een van de voornaamste ontwerpers van microarchitecturen voor processors. Hij werkte in de jaren tachtig bij DEC aan Alpha-processors en ging in 1998 naar AMD om te werken aan de Athlon-processors. Een jaar later vertrok hij naar SiByte om aan MIPS-processors te werken. Dat bedrijf werd ingelijfd door Broadcom. Vanaf 2004 bekleedde Keller een toppositie bij P.A. Semi, het bedrijf dat Apple in 2008 inlijfde om zijn eigen socs voor iPhones te maken.

Keller werkte tot 2012 bij Apple en keerde daarna terug naar AMD, waar hij aan de Zen-architectuur en het K12-project voor Arm-processors werkte. In 2016 trad hij in dienst bij Tesla om aan AI-chips voor de Autopilot-hardware te werken. In 2018 maakte hij de overstap naar Intel, waar hij in 2020 weer vertrok. Momenteel is Keller de cto van Tenstorrent, een start-up die aan AI-chips werkt.

Door Julian Huijbregts

Nieuwsredacteur

20-06-2022 • 11:50

51

Reacties (51)

51
51
29
3
0
18
Wijzig sortering
Jammer, inderdaad, maar dom?

In 2014 was AMD op sterven na dood. Ik vrees dat als er niet enkel en volop op Ryzen en Epyc ingezet was, AMD het wellicht niet gered had.

Uiteindelijk waren zowel ryzen als epyc een doorslaand succes (nog steeds trouwens, met name de server processoren) en was het wellicht niet zo'n domme keuze, arm was toendertijd toch nog wel een beetje een niche.

Misschien dat Amd wellicht op termijn alsnog eigen arm processoren gaat ontwikkelen gezien de populariteit van arm cores ook buiten telefoons en tablets?
Lisa Su en andere hebben wel dat soort uitspraken gedaan ja. Ze hebben de IP in huis om het te doen. Ze houden de markt in de gaten maar denken het voorlopig nog hier mee te kunnen doen.

Of het dom is weet ik niet. AMD had inderdaad wel focus nodig en nu hebben ze het in ieder geval overleeft en staan er veel sterker voor.

Het is wel de vraag hoe ver de ontwikkeling van K12 was toen het afgekapt werd / toen Jim weg ging.
Jim heeft wel heel veel verstand van dit soort zaken. Hij stond aan de wieg van vele super succesvolle architecturen bij verschillende bedrijven.

Maar we hebben nu niet genoeg informatie om te kunnen zeggen of het echt Dom was. Gezien hoe AMD er nu als bedrijf voor staat zullen ze echt niet klagen over de gemaakte keuzes. En de integraties met die ze nu willen gaan doen met de bedrijven zie ze overgenomen hebben zijn wel erg interessant. Xilinx voor de AI blokken. En who knows ooit ook weer ARM in de toekomst.
Arm geilheid is hoog bij publiek. Het is zuinig en krachtig.
De meest zuinigste Arm is 1 2 stage architecturen voor lichte embeded en Iot spul.
Dan is er de krachtig 6 stage maar ook minder zuinig dan lichtere ARM spul.

Dan heb je Apple silicon ARM gezien de klok kiest apple de klok waar power tdp meest ideaal is. 3,2 ghz tsmc 5nm waar Piledriver 20stage 32nm boostklok 5ghz haald en Alderlake op intel7 ook die tdp evenaard in MT loads

Zou het kunnen dat in Apple ecosystem er interne monopool is die geen concurent heeft en hele lijn devices juist de concurentie doet dus ook OS en de software.
En men ook totaal vergeet dat Apple Silicon een procede voordeel geniet waar x86 intel en AMD juist achter loopt.

Ook Apple is niet gericht op halo SKU voor triple A games een branch die nu voorbij de 4 powercores goed kan benutten waar twee x86 fabrikanten direct hard concureren.
En dus de klok ver voorbij meest ideale klok sweetspot kiezen en voor die kroon ook gaan voor architectuur die ook gretig kan klokken.
In de near future met Zen4 is er een x86 op dezelfde procede als M1 ARM. En directer te vergelijken. Maar de goals zijn anders.
Een 128watt M1 Ultra ARM is iets nieuws voor Desktop. 128core server ARM is ook iets wat er ook nog niet zo lang is. Maar intel gaat met e-cores ook die kant op van paar dozijn cores in CPU en AMD met Zen dense ook. Die klokken niet zo gretig meer en kunnen in 100 stuks in cpu. En dat lijkt sterker op tegen hanger van concureren tegen ARM server.
Nu is daar ook belangrijk dat met gelijke procede concurreerd.
Denk dat p-core power probleem is dat AMD intel met Zen1 EPYC verrast heeft. En 64core en 16 core in hedt later ook 64 cores en 16core als high-end in desktop.
Terwijl intel achitectuur mogelijk maar geplaned was tot 8cores.
Maar bij nieuwe atchitectuur ontwikkeling in de x86 met ARM ook als target concurrent zal daar ook veel meer rekening gehouden worden.
Je moet niet voor een technologie kiezen omdat het populair is. Je moet je keuze maken aan de hand van wat technisch een goede oplossing is. Het zal bijvoorbeeld nog jaren duren voordat we Windows servers op ARM gaan zien draaien. Zelfs hun desktop OS maakt maar zeer traag vorderingen. Dat is dan direct een heel groot deel van de markt dat je niet gaat bedienen.

En ARM is efficient in bepaalde taken, maar als je goed kijkt naar bijv. de Apple M1 benchmarks, dan zie je dat er ook taken zijn waarop ARM cores minder goed presteren en gewoon achtergelaten worden door x86. Low power is leuk, maar soms heb je ook gewoon ruwe kracht nodig.

x86-64 is verre van dood en zie ik nog minstens 10 jaar domineren op desktop/laptop gebied en nog langer op server gebied, al zeg ik er direct ook bij dat ik geen glazen bol heb.
Instructieset van x86-64 (en uitbreidingen) is zo groot en vol met mooie truukjes die code zo veel sneller laten draaien, ik denk niet dat er een datum aan de leeftijd ervan gehangen kan worden. De kans dat IPv6 over 10 jaar markt dominantie heeft acht ik groter dan dat AMD of Intel begint te stoppen met x86-64.
Ik ook, al zou de noodzaak aan IPV6 waarschijnlijk grotendeels veroorzaakt worden door meer ARM apparaten dan meer x86. Qua groeipotentieel lijkt het me dus niet gek om beide ijzers in het vuur te leggen.
Je moet niet voor een technologie kiezen omdat het populair is.
Als bedrijf wel
Je hebt als bedrijf geld nodig om te overleven, en een slechte, maar populaire techniek brengt nou eenmaal veel meer geld in het laatje dan een goede techniek die niemand wil hebben
Zowel ARM als x86 kunnen prima met porno overweg, dus die vergelijking gaat niet op :)
Ook multithreaded?
dan zie je dat er ook taken zijn waarop ARM cores minder goed presteren en gewoon achtergelaten worden door x86.
Interessant!
Heb je concrete voorbeelden?
Anoniem: 63072 @Carbon20 juni 2022 14:21
Wat bijvoorbeeld fout gaat bij veel vergelijkingen is een vergelijking van single core performance.

Intel en AMD CPUs hebben multithreading support, alle tests die je ziet testen single core performance met een enkele thread! Als je het echte single core performance verschil wil meten moet je met 2 threads testen die je op een enkele core draait. Dat is een 20%-30% extra performance voor intel en AMD!

Aangezien vrijwel niets wat we doen vandaag de dag nog single threaded is, is dit een eerlijkere core vs core vergelijking dan single threaded performance.

Met ca 20% extra performance is het voordeel van de M1 verdwenen (laat staan applicaties waarin het verschil tot wel 30% oploop)

Blijf je zitten met een CPU met een zwaar gebrek aan PCI-E lanes waardoor je ook nog een gedwongen de (voor wat het is indrukwekkende) IGP te gebruiken.

Prima voor een energie zuinige notebook, maar op geen enkele wijze revolutionaire of zelfs maar een grote stap voorwaarts. En totaal nutteloos voor hpc, workstation en gaming markt.
ntel en AMD CPUs hebben multithreading support,
Volgens mij bedoel je hyperthreading :)
Hyperthreading is een methode om niet gebruikte execution units aan het werkt te houden.
Een andere (veelasldoor RISC gebruikte ) methode is parallel decoding/dispatching van instcuties, voorbeeld de M1 die 8 instructies parallel verwerkt
Blijf je zitten met een CPU met een zwaar gebrek aan PCI-E lanes
CPU staat los van het aantal beschikbare PCI lanes.
Voorbeeld Ampere Altra heeft 128 ARM cores en 128 PCI lanes!
En totaal nutteloos voor hpc,
Fugaku (ARM) was tot voor kort de snelste hpc ter wereld
workstation en gaming markt.
Dat komt niet door de CPU maar gebrek aan vraag en ondersteunubg door de markt.
Anoniem: 63072 @Carbon20 juni 2022 17:03
Volgens mij bedoel je hyperthreading :)

Ik had Intel en AMD cores moeten zeggen. HT/SMT zijn de Intel/AMD handelssnamen voor ondersteuning van multithreading op een single core.

Je mist het punt duidelijk gezien je opmerking over de 8 parallelle instructies bij de M1. Die techniek betekent dat de M1 core volledig benut worden door de single threaded benchmark. Een AMD core of Intel P-core is dan echter niet volledig benut. Als je dus core performance wil vergelijken moet je wel de x86 cores met twee threads belasten anders laat je performance liggen en lijkt de ARM core onterecht sneller.

Wil je core performance vergelijken dan zou ik op zijn minst de volgende vergelijking doen:
  • Twee threads concurrent op x86
  • Twee threads concurrrent op ARM
  • Twee threads consecutive op ARM
Twee tests op ARM om uit te sluiten dat switchen tussen threads performance kost op die CPU. Als dat wel zo is, dan is dat een issue omdat vrijwel alle loads tegenwoordig multithreaded zijn.

Het staat natuurlijk los van de cores, maar het ging expliciet om de M1 (en daardoor ook de M2, dat is een 'simpele' doorontwikkeling) en daar is de beperkte IO wel degelijk een issue voor. Leuk dat een Ampera Altra 128 cores en 128 PCI-E lanes heeft, maar die stop je niet in een laptop of office desktop; de chip heeft een 250W TDP!

Die Altra concureert met EPYC en wint in performance/Watt en in selecte integer tests in absolute performance, maar verliest in andere integer tests en in FP tests van de EPYC. Ook daar kan je niet zeggen dat een bepaalde instructieset een voordeel of een nadeel heeft, het gaat er puur om waarop de ontwerper de core heeft geoptimaliseerd.

De M1 is niet geschik als een high end gaming solution en dat heeft niets met vraag of ondersteuning te maken, maar met de limiet van de iGPU, die legt het simpelweg af tegen een RTX 3090 of RX5950 en kan niet geupghrade worden als AMD en nVidia hun next gen uitbrengen. Zelfde gebrek voor veel, maar zeker niet alle, workstation taken.

M1 is een heel goede laptop SoC, maar niet de revolutie die sommigen het toeschrijven te zijn of de hype die Apple pusht.

tl;dr
Je kan cores die voor vergelijkbare toepassingen zijn ontworpen vergelijken, een voor of nadeel aan een instructieset toekennen is klinklare onzin.

In het geval van de M1 kan je die vergelijken met bijvoorbeeld een Ryzen 7 6900H, dan is de Apple chip zuiniger en de iGPU veel sneller, maar de per core performance in multithreaded is voor de AMD nog steeds beter en als de performance van de iGPU niet genoeg voor je is, dan kan je de AMD chip combineren met discrete GPUs.

[Reactie gewijzigd door Anoniem: 63072 op 22 juli 2024 18:46]

dat parallel decoding doen ze ook al lang in de Intel en AMD x86 cpus...
Intern werkt ook die met vele paralelle paden op verschillene niveaus..
En dat is ook net de reden dat Intel hyperthreading heeft geintroduceert om alle ALU's en Decoding/Encoding stappen bezig te houden binnen 1 core..
echte trucs zijn SIMD extensions zoals SSE en aes512, om de ISA gelijk te trekken Intel terug op aes256.
Anoniem: 63072 @g4wx320 juni 2022 19:19
Je doelt neem ik aan op de avx-512 instructie set en de avx2 instructie set, de naamgeving avx-256 wordt niet gebruikt.

Arm heeft daarvoor de NEON (128b) en SVE(256b) instructiesets; de M1 ondersteunt alleen NEON.

Desondanks is de FP performance van de M1 zeker goed te noemen doordat Apple een eigen AMX2 512b vector extensie geïmplementeerd heeft.
Jammer, inderdaad, maar dom?

In 2014 was AMD op sterven na dood. Ik vrees dat als er niet enkel en volop op Ryzen en Epyc ingezet was, AMD het wellicht niet gered had.
Dat valt allemaal wel mee. Tussen 2010 en 2016 was zaten de lange termijn schulden steeds rond de 2 miljard. Daarvoor waren die schulden veel hoger. Zie https://www.macrotrends.n...AMD/amd/debt-equity-ratio.

Wel was het duidelijk dat AMD al jaren in een neerwaarts spiraal van snijden in de R&D kosten zat. Dat begon al in 2009, kort na de overname op Ati (Radeon), en hield aan tot eind 2016. Dus het is wel te begrijpen dat er ergens gesneden werd... Ze hadden de mensen niet.

Voordeel van ARM is overigens wel dat AMD daarmee minder afhankelijk wordt van TSMC (ARM kun je ook elders produceren). Nu zien we dat de groei van AMD begrensd wordt door deze externe partij. De consoles waren natuurlijk niet aan te slepen en daardoor heeft het wel erg lang geduurd voor we 5e generatie desktop cpu's goedkoper dan de 5600X kregen.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 18:46]

TSMC is staat voorop met het produceren van cpu, zelfs voor Intel. Omschakelen naar arm zou daar niets aan veranderen. Trouwens er zijn al genoeg arm concurrenten, x86 is echt uniek, want naast Intel is er niemand die het mag produceren. (Althans niet de nieuwste 64bit variant)
Helemaal blij met mijn threadripper, zou niet anders meer willen(misschien wel een epyc en al mijn systemen virtualiseren).
Je begrijpt hopelijk dat de basis voor succes bij semiconductors jaren voor het succes zelf wordt gelegd.
Zo is het financiële succes van AMD nu, nog steeds grotendeels op conto van Keller en TSMC (wat direct ook de limiteren de factor is)
Ik ben benieuwd of AMD sinds 2016 al de basis heeft gelegd voor de successen van 2025 tot 2030 anders worden dat weer hele droge jaren voor AMD.
Tot 2025 kunnen ze nog op Zen's succes voortborduren.

[Reactie gewijzigd door eL_Jay op 22 juli 2024 18:46]

Hoezo is TSMC de limitetende factor? Met global foundries zaten ze nog steeds op 14nm
Misschien bedoel je de capaciteit, maar dat is net het voordeel, heel flexibel opschalen, of juist capaciteit verminderen naargelang de vraag. Nu is de vraag enorm, de vraag is of dat het niet gaat inzakken vanwege de wereldwijde moeilijke economische toestand
AMD heeft al een tijd een beperking aan de aanbod kant. Direct gevolg van de afhankelijkheid van TSMC, dat is waar @eL_Jay op doelt. Dit is bijvoorbeeld ook de reden dat we geen volledige ryzen 5000 desktop line-up hebben gezien. Pas nu, door het succes van Alder Lake, de vraag naar de 5000 serie begint in te zakken is de line-up verder uitgebreid. Had TSMC meer capaciteit kunnen bieden dan had AMD natuurlijk al veel eerder een volledige line-up gelanceerd.
AMD hoeft natuurlijk op de markt voor x86 processoren alleen te concurreren met Intel en wellicht met Zhaoxin. Dat legt het bedrijf inderdaad geen windeieren en AMD lijkt vooral de komende jaren grote financiële slagen te gaan maken.

ARM was in 2014 natuurlijk ook al geen niche, maar werd voornamelijk ingezet op andere gebieden dan de desktop en de server. Dat heeft ook te maken met het feit dat de ARMv8 instructieset pas in 2011 uitgebracht werd. Daarna zijn Apple in 2013 en ARM zelf pas in 2014 met de eerste 64-bit ARM cores gekomen. Het was duidelijk dat buiten een niche niemand geïnteresseerd was in serverprocessoren met 32-bit ARM cores.

Nu zijn we op het punt aanbeland dat de cores van ARM zelf een hogere IPC hebben dan die van AMD en Intel. Dan vraag ik me af waarom ik in een ARM-wereld nog zou moeten kiezen voor chips van AMD, terwijl andere chipbedrijven een goedkoper en wellicht sneller product kunnen leveren.

Ik zie het wel, als AMD ooit nog met ARM of RISC-V processoren komt, maar waarschijnlijk is de noodzaak voor het bedrijf er niet zo. Dat is jammer, maar dan koop ik wel ARM hardware met chips van andere bedrijven, waar er inmiddels meer dan genoeg van zijn.

Jim Keller doelt waarschijnlijk op de gemiste kansen voor de toekomst door nu al niet ARM processoren beschikbaar te maken. AMD zal er bang voor zijn geweest dat het aanbieden van ARM processoren als een zwaktebod zou worden gezien door de markt, omdat het erop zou kunnen wijzen dat AMD geen vertrouwen zou hebben in de x86 processoren.

Dat is natuurlijk ook niet het geval met de huidige x86 line-up en er zullen miljoenen tevreden gebruikers van zijn. In het hier en nu hebben AMD en toch ook wel Intel prima x86 producten voor mainstream gebruikers.

Zelf kijk ik uit naar Rockchips RK3588 en vooral chips met ARM Cortex-A78C en Cortex-X1C cores, die prima moeten presteren in vergelijking met Zen 1. Daarnaast verwacht ik wel het een en ander van Intel en andere bedrijven met betrekking tot SiFive en Imagination cores.
Wel jammer, het zou interessant zijn om te zien wat AMD hiermee had kunnen doen, die Keller heeft wel wat bereikt in zijn leven.

Van de andere kant zullen ze er niet rouwig om zijn, hun schatkisten zijn vol en ze hebben waarschijnlijk genoeg te doen rondom hun bestaande productlijnen.

[Reactie gewijzigd door oef! op 22 juli 2024 18:46]

Niet alleen AMD.
Gezien windows nu ook emulatie krijgt voor mobiele applicaties, had dit een enorme performance boost kunnen geven aan deze laag.
Ik zie niet alleen voor servers, maar ook voor consumenten processoren een enorme mogelijkheid voor een hybride processor.
Geen Big.Little design voor processors, maar een x86-64.arm design waarbij de verschillende architecturen door je systeem beiden benut zouden kunnen worden. (Eventueel zelfs met de risc co-cores erbij)

Ik zie heer aanzienlijk meer potentie in dan de combinatie van zuinige en krachtige cores op eenzelfde architectuur.
Dat zal een OS een stuk logger maken en de software ook aanzienlijk. Bij X86 regelt het OS en de CPU zelf de compatibiliteit met 32bit. Het OS kan dit, doordat praktisch alles dubbel is uitgevoerd met 32 en 64bit laagjes.

Nu zou aan de software kant de UWP API het in theorie op kunnen vangen, gezien dat architectuur onafhankelijk is, maar voor Win32 software zal de software zichzelf dubbel moeten uitvoeren voor beide architecturen.

Maar er is weinig reden voor. ARM en X86 verschillen niet zo denderend veel op performance-per-watt. Apple doet zijn best, maar die heeft het voordeel dat ze software en hardware naadloos op elkaar kunnen laten aansluiten (hier zit een groot deel van de performance winst die ze hebben weten te behalen). Dat gaat een generiek OS zoals Windows of Linux gewoon niet halen.

AMD heeft hier al onderzoek naar gedaan en Acorn RISC heeft dat in de 486 tijd al een keer geprobeerd.

Zowel AMD en Intel komen al donders veel in de buurt van de smartphone SoCs in verbruik en geven daar net zo veel of zelfs meer performance voor terug dan een ARM CPU. Zodra die bij ~5 watt een deftige performance neer weten te zetten, wordt een X86 smartphone een realistische optie.
Je legt de vinger op de zere plek. An-sich verschillen X86, ARM, en zelfs andere RISC CPU's niet zo veel van elkaar. X86 als instructieset bestaat ook niet écht meer, maar is steeds vaker een "CISC on RISC" interpretatie in de CPU met meer 'handige' dingetjes als branch prediction, slimme caches, en dubbel uitvoeren van bepaalde goedkope zaken (zoals asynchrone fetches) die de gevoelsmatige performance verliezen (voornamelijk door cache miss) goedmaken.

Performance/watt is een heel grappige opmerking in deze context omdat het geen lineaire lijn is: dit is ook waarom undervolten zo'n populair onderdeel is bij veel mensen. Je zou een high end single-CCX Ryzen kunnen nemen, en hem zó tunen dat hij naar 5W max gaat (even exclusief zaken als IO/memory/etc...), en even veel of meer performance kunnen krijgen als de meest high end ARM chip in generieke compute zaken. Een CPU is echter zó veel meer dan CPU tegenwoordig. Het is een SOC.

En daar is Apple erg slim in. Op zéér beperkte uitzonderingen na is een Ryzen altijd voorzien van energieslurpende IO in de zin van PCIe en memory. Zeker memory is erg lastig goed genoeg te timen als het buiten de SOC zelf gaat: zei het moederbord-soldeer DIMMs, of zelfs DIMM-slots: low voltage DDR óp de SOC heeft minder afstand, en daardoor per definitie: meer efficientie.

Hetzelfde geld voor de GPU, hoewel zowel AMD als Intel daar mega stappen in aan het zetten zijn (AMD meer dan Intel...): gedeeld geheugen met de CPU, gedeelde cache. Belangrijker is echter: wat voor taken offload je naar de GPU, welke laat je de CPU nog doen. Desktop compositing is al lange tijd een van die zaken die een GPU beter kan dan een CPU, maar er is natuurlijk veel meer.

En dat brengt mij naar de stap waar we denk ik het meeste kunnen winnen aan energie: taken die zó specifiek zijn én zo vaak uitgevoerd worden dat dingen als generic compute, of zelfs een programmable microcontroller niet de ideale oplossing zijn (een van de dingen waar GPU compute sterk in is, is niet zozeer general purpose compute, maar juist kleine, simpele taken die door duizenden procesjes tegelijk kunnen worden uitgevoerd met kleine compute footprint, denk aan tile rendering, of video decode, kleine setjes die 'stromen' ipv zaken als een database die grote sets die niet verdeelbaar zijn). Er is echter nog een stap boven de GPU qua optimalisatie voor beperkte taken, en dat is de ASIC. Je ziet dat bepaalde neural net achtige zaken daar al in gebeuren, maar tegelijk ook dat dingen die (gek genoeg vroege ook over een ASIC gingen) nu over de CPU gaan naar een ASIC gaan. Zoals networking, audio, of zelfs zaken als een webcam. Veel ASIC's kunnen zelfs video encode/decode beter dan een GPU doen. Daar is Apple nu ook sterk in (Microsoft overigens ook... hololens was briljant in de hoeveelheid ASIC's voor positioning). Daar zit ook een hoop energiewinst én performance winst in.

Ik denk dat verdere integratie van chips door tiling/chiplets (meer cache, memory, graphics), én het toevoegen van specific-purpose computing een behoorlijke stap gaat zijn. Denk niet dat we weer terug gaan naar het tijdperk van dit soort boardjes: pricewatch: BFG Ageia PhysX -- maar dat soortgelijke dingen wel naar andere dedicated modules zullen gaan om juist de GPU en CPU verder te ontlasten en zo de performance/watt verder te verhogen
Zelf vermoed ik ook dat we veel meer gaan leunen naar instructiespecifieke CPU's, cores, ASICS, GPU's, addons. Zoals de AI-cores of het spul in de Hololens.

Allicht FPGA's zoals Microsoft en Google in hun datacenters al enkele jaren inzetten.

Alleen krijg je vooralsnog te maken met OS overhead als het daar allemaal rekening mee moet houden, tenzij het een standaard wordt. Zie al hoe moeilijk men doet over de vereisten voor Win11 :)

Voor desktop (zakelijk/thuis) zal het een langzaam proces zijn en zullen we lang aan de general purpose CPU vast blijven zitten. Al zie je daar wel steeds meer dedicated stukjes hardware, AES bv. Net als dat een GPU ook al een verzameling dedicated stukjes hardware heeft (Nvidia meer dan AMD).

AMD is goed op weg om deftige performance neer weten te zetten bij laag vermogen. Als ik de capaciteiten en financiële mogelijkheid had, zou ik serieus overwegen om te kijken of er een Windows X86 phone te produceren zou zijn. Ik denk dat het nu mogelijk is (ik ben Android helemaal zat)
Ik vraag mij al heel lang af waarom ze niet gewoon een 3rd gen i3 op 10nm produceren voor telefoons.

Veel mensen lijken de denken dat ARM de heilige graal is voor mobiele devices. Ik ben daar niet zo van overtuigd.
Je zou een high end single-CCX Ryzen kunnen nemen, en hem zó tunen dat hij naar 5W max gaat (even exclusief zaken als IO/memory/etc...), en even veel of meer performance kunnen krijgen als de meest high end ARM chip in generieke compute zaken.
Ik zie graag een runnend systeem maar ik kan nu al zeggen dat ik dit niet geloof.

Andersom kun je nl een goede inschatting maken door de frequentie omlaag te gooien en te kijken naar het verbruik. Dat wordt geen 5W.

Mocht het wel interessant zijn en ~60-80% van de performance behouden was er een Dell met laptop zonder fan en langere batterijduur, deze grap met fan halen ze meer dan eens uit.

x86_64 is een complexere ISA dan ARM met meer transistoren, Intel op mobiel/embedded kan zich niet waarmaken (Z/Puma) en het low-power segment heeft de laatste jaren een verdubbeling van wattage gekregen.
Leuk bedacht, maar je moet natuurlijk dan ook ondersteuning van de OS vendors krijgen, anders is je product DOA. Bij Linux kun je nog redelijk eenvoudig ondersteuning voor dit soort hybride architecturen inbouwen (alhoewel je natuurlijk dan wel de Kernel community achter je moet zien te krijgen). Bij Microsoft zul je toch met een goed onderbouwde business case langs moeten komen.

Of je moet de ARM kant als een soort coprocessor gaan gebruiken, waarbij je volledig zelf de interfacing zult moeten regelen.Dat vereist weer een stevige investering in software development.

Ik kan me voorstellen dat een groot bedrijf toch wat huiverig is om dit soort grote investeringen te doen zonder daar direct een goede business case voor te kunnen opzetten.
Je zou ook de keuze door de PC-fabrikant kunnen laten maken, die in de BIOS de gewenste architectuur laad bij het starten van de PC. Met 1 CPU kun je dan ARM en X64 klanten bedienen en tegen meerkosten die klant zelf de keuze geven. Als je bij het starten de keus voor een architectuur maakt, dan hoeft het OS hier geen aanpassing voor te doen.

Maar de echte winst zou zijn in een hybride omgeving, waar je wel beide architecturen (onafhankelijk van elkaar) kunt draaien. Cloud providers kunnen dan die CPU inzetten voor VM's/containers die op ARM of X64 draaien. En dus een hybride omgeving kunnen aanbieden, terwijl ze zelf maar 1 systeem draaien. Dan heb je alleen een management systeem ervoor nodig (zoals VMware). De machines die er zelf (virtueel) op draaien hebben ook dan geen aanpassing nodig.

Maar ik denk niet dat ze daar mee bezig gaan zijn. Eerst die integratie met Xilinx afronden en kijken welke synergiën ze daarmee kunnen behalen. En dan zullen ze wel kijken wat ze met ARM architectuur zullen gaan doen.
Ik zie niet alleen voor servers, maar ook voor consumenten processoren een enorme mogelijkheid voor een hybride processor.
Geen Big.Little design voor processors, maar een x86-64.arm design waarbij de verschillende architecturen door je systeem beiden benut zouden kunnen worden.
Dat klinkt toch als een gigantische inefficiënte oplossing: je hebt dan dubbele code caches nodig, software die gebruikt maakt van JIT compilers hebben er ineens 2 nodig (dus ook dubbele kans op bugs), je moet al je applicaties 2x testen om zeker te weten dat er geen architectuur specifieke bugs in zitten...
Niet jammer, gewoon een zakelijk uitstekende keuze.

Stel AMD had vol ingezet op ARM, dan waren ze volledig afhankelijk geweest van softwareontwikkelaars en Microsoft om hun processor te kunnen benutten.

Een dergelijk marktaandeel had/heeft AMD gewoonweg niet. Het had ook faliekant mis kunnen gaan, en dan had AMD gezeten met processors die niet volledig werden ondersteund in alle software, waardoor de consument alleen denkt "AMD werkt niet goed met mijn software".

Apple kan zoiets doen, omdat ze zowel software als hardware beheersen in eigen zaak.
idd dat is het hele verhaal erachter. De eerste Epyc presenties van AMD waren idd altijd een combinatie met de K12 ARM optie echter was er zeer weinig animo vanuit grote OEM afname (HPE-DELL-etc..). AMD ha dop dat moment verre van de footprint om zo iets waar te maken, nu zelfs nog niet.
Wat Keller berijkt heeft is meer pop idool status in zijn branch en ik ken eigenlijk niemand anders.
Er zijn mogelijk 100+ Waarvan deel Jim Keller kaliber engineers. Waarvan deel ook niet zo job hopt. En publiekelijk niet bekend zijn. Mogelijk ook zelfs paar betere techneuten daaronder.
Vijf van de tien systemen in de Top500-lijst van supercomputers zijn voorzien van EPYC-processors.
Dat is een erg korte top 500-lijst ;)
Vermoedelijk deze lijst, hier zijn 5 van de super computers in de top tien van de lijst inderdaad een EPYC, https://www.top500.org/lists/top500/2022/06/

[Reactie gewijzigd door sjaak56 op 22 juli 2024 18:46]

Ik denk dat ze
Vijf op de tien systemen in de Top500-lijst van supercomputers zijn voorzien van EPYC-processors.
bedoelen. Heb het even gemeld in het spelfoutjes topic.
Eh, ik wil vermoeden dat dit ook wel het nodige te maken had met het feit dat AMD destijds bijna bankroet was, en dus harde keuzes moest maken over wat ze wel en niet op konden pakken.. ;)
De ARM chip was naar verluidt zeer vergelijkbaar met Zen1, net als hier in het artikel staat was het grootste verschil de decoder.

Toen AMD door kreeg dat Zen1 erg goed was, was plan B gewoon niet meer nodig. Afgezien van de vaste instructie lengte en het iets minder gebruik van geheugen operaties is ARM natuurlijk ook niet zoveel verschillend van elke andere instructie set. Na de decoder hebben de meeste chips redelijk dezelfde bouwstenen.

Dus zakelijk een logische beslissing om ARM niet in productie te nemen, maar wel op de plank te houden voor als ARM concurrentie toeneemt of Intel moeilijk doet over de x86 licentie.
Stel dat AMD destijds ARM processoren had ontwikkeld en gemaakt, heel mooi, maar voor wie? Denk niet dat ze daar veel afname van hadden gehad.
ARM gebaseerde SoC hebben vooral een vlucht gemaakt in apparaten waar laag stroomgebruik cruciaal is en werden daar steeds krachtiger maar hielden hun lage stroomverbruik. Serverprocessoren op ARM basis zijn een goed idee, maar Jim was er een paar jaar te vroeg mee
Ze hadden er vroeg bij kunnen zijn, helaas dat het nooit van de grond was gekomen.
redelijk normaal AMD had geen geld op dat moment om zo een avontuur te financieren.
Er moet gewoon geld verdiend worden. En ze hadden een betere optie. ARM komt wellicht weer terug. Maar schoenmaker blijft bij u leest is soms een heel verstandige beslissing voor een bedrijf met geld te kort
Ik zeg ook zeker niet dat het geen verstandige beslissing geweest was voor het bedrijf toentertijd. Wellicht met Project Volterra is de interesse van AMD weer gepiekt om het voorgaande werk door te zetten.
Anoniem: 58485 @Ricofizz20 juni 2022 15:57
Ze hebben xilinx overgenomen. Die IP wordt in Epyc CPU's toegepast.

ARM is leuk maar het geld zit daar momenteel niet in. Het geld zit voor AMD in vooral contracten met super computers. Gigantische farms met alleen Epycs en MI200's of Mi250's.
Anoniem: 532949 20 juni 2022 14:00
AMD zou een soort BigLittle ontwerp kunnen maken, maar dan met risk-v cores
Dat hoeven ze niet. De ZEN cores zijn al knap efficient t.o.v Intel. Kijk maar naar stroomverbruik vs performance alleen al.

Big little is niet nieuws ofzo. Het wordt al jaren toegepast in mobiele telefoons. Kleine taken laat je doen door kleine cores wat zuiniger is dan grotere cores.
Het "probleem" met x86 is dat ze onnodig veel instructies ondersteunen / onnodig complex zijn. Je kan wat kostbare ruimte besparen door wat simpele cores te gebruiken voor minder belangrijk werk.

Op dit item kan niet meer gereageerd worden.