Google introduceert Axion, zijn eerste custom Arm-processor voor datacenters

Google introduceert Axion, de eerste custom Arm-datacenterprocessor van het bedrijf. Axion is gebaseerd op Arm Neoverse V2-architectuur en zou 'dertig procent sneller zijn dan huidige Arm-chips van concurrenten'. De chip komt later dit jaar beschikbaar voor Google Cloud-klanten.

Google schrijft in een blogpost dat Axion gebaseerd is op de Arm Neoverse V2-architectuur. Dat is een Arm-platform uit 2022 dat gebruikt wordt voor datacenter- en serverchips en is ontworpen voor cloud-toepassingen, high performance computing en machinelearning. De chip beschikt ook over een systeem dat door Google Titanium wordt genoemd. Dat bevat microcontrollers voor specifieke taken, zoals netwerken en beveiliging. De cpu zelf moet zo meer rekencapaciteit hebben voor algemene rekentaken.

Het bedrijf deelt verder weinig concrete specificaties over de chips. Het is bijvoorbeeld niet bekend over hoeveel Neoverse V2-cores de processor beschikt. Google deelt wel enkele prestatieclaims op basis van zijn eigen tests. Het techbedrijf claimt dat Axion tot 30 procent sneller is dan 'de snelste general-purpose Arm-instances die momenteel beschikbaar zijn'. Het bedrijf zegt ook dat Axion tot 50 procent beter presteert en 60 procent efficiënter is dan 'vergelijkbare instances op basis van x86'. Het bedrijf deelt echter niet op welke gegevens die cijfers gebaseerd zijn. Google zegt ook niet welke concurrerende chips precies zijn gebruikt voor die vergelijkingen.

Google wil Axion binnenkort in zijn eigen clouddiensten gebruiken. Klanten moeten de chip binnenkort ook kunnen aanwenden via Google Cloud-toepassingen zoals Compute Engine, Google Kubernetes Engine, Dataproc, Dataflow en Cloudbarch.

Met Axion volgt Google het voorbeeld van andere cloudgiganten, die al langer werken aan zelfontworpen Arm-processors. Amazon presenteerde in november 2023 bijvoorbeeld de Graviton4-soc met 96 Arm Neoverse V2-cores. Ook Microsoft onthulde vorig jaar zijn eerste custom Arm-chip, genaamd Cobalt 100. Die chip moet op termijn beschikbaar komen voor Azure-klanten. Axion is Googles eerste zelfontworpen Arm-chip voor datacenters, hoewel de fabrikant wel al jarenlang TPU-accelerators ontwikkelt. Die worden gebruikt voor specifieke AI-rekentaken.

Google Axion-chipset
De Google Axion-processor. Bron: Google Cloud

Door Jay Stout

Redacteur

10-04-2024 • 15:02

24

Reacties (24)

24
24
20
0
0
2
Wijzig sortering
Betekent dit dat de dagen voor Intel en AMD geteld zijn?
ARM arvhitectuur begint langzamerhand ook de serverparken binnen te dringen ipv x86.
Ik denk dat dit alleen maar een positieve ontwikkeling is aangezien ARM bewezen heeft met meer efficiëntie te kunnen werken. Raspberry Pi is zover ik weet de meest verkochte en zuinigste singleboard computers welke ik zelf graag voor vele toepassingen inzet. Veel producenten van NAS-apparatuur hebben ARM 32 en 64 bit toegevoegd aan assortiment en als ik me niet vergis is het huidige Apple CPU/GPU assortiment gebaseerd op ARM welke zorgt dat een Macbook 15-22 uur (in ideale omstandigheden) kan werken op accu.

Denk dat dit een stevige wakeup-call is voor Intel en AMD dat ze nu na jaren van kritiek nu echt eens aan de slag moeten met ontwikkeling van energiezuinige chips en ook nog eens met minder warmteproductie. Daarnaast mogen de prijzen ook flink omlaag.
Het zal nooit helemaal lukken om een x86-64 processor te maken die zo zuinig is als ARM. Dat heeft er mee te maken dat de instructies variabele lengte zijn van 1 tot en met 6 bytes breed. Dit maakt het decoderen en uitvoeren van instructies in een pipe-line veel moeilijker en moeten er veel meer paden worden doorlopen die uiteindelijk niet gebruikt worden. Ook betekent het dat er meer silicium nodig is.

Een processor met x86-64 ISA kan alleen goed concurreren op single-thread performance. Logisch dat Intel en AMD zich daar dan ook op richten. Op performance per watt of silicium oppervlakte zal het verliezen tegenover ARM.

Op de lange termijn denk ik dat x86 gaat verdwijnen, maar dat kan 30 jaar duren.
Je eerste en tweede alinea lijken elkaar tegen te spreken. De zwakte die je aanhaalt van moeilijker te decoderen instructies, is toch ook van toepassing in single-thread performance? Dus hoe komt dat x86-64 dan toch kan concurreren in single-thread?
Het decoderen gaat allemaal parallel in hardware. Dus het is niet direct een probleem voor single-thread performance. Maar het neemt wel silicium en energie.

Verder is het zo dat een CISC ontwerp zijn voordelen heeft tegenover RISC als het gaat om single-thread performance. Om die reden kan x86-64 op dat punt concurreren. Daarbij opgemerkt dat ARM-64-bit een stuk meer CISC is, dan ARM-32-bit of RISC-V. Dus ARM-64-bit doet het qua single-thread performance ook goed.
Transistorbudget. Dus grote caches, een hoop execution units, instruction reorderers, 3-cycle multipliers, wide vector alus etc. Naast natuurlijk het productieproces waarmee die transistors zo hoog geklokt kunnen worden.
x86 is na de eerste instructie-decoder fixed-width in uops. Het effect van de variabele lengte is daardoor dat je meer instructies in de caches kwijt kan. Het is een balans: meet transistoren voor de decoder, minder voor de cache.

Maar omdat de x86-uop decoder niet heel veel gegroeid is sinds de eerste iteraties, en de transistorbudgetten geëxplodeerd zijn, is dit netto een voordeel van x86 boven ARM.

En het deel "single-thread performance" is uiteraard complete kul. Kijk wat AMD doet met EPYC.
"Daarnaast mogen de prijzen ook flink omlaag." Wat is te duur? High performance chips kosten veel geld en daar krijg je ook wat voor. Je kunt ook op zoek gaan naar alternatieven. Intel of AMD blijven gebruiken en gelijktijdig klagen dat ze te duur zijn is niet echt geloofwaardig.
Betekent dit dat de dagen voor Intel en AMD geteld zijn?
Ze kunnen natuurlijk ook zelf een licentie op de ARM-architectuur nemen en daar een snellere ARM-chip mee maken. Maar je bedoelt natuurlijk: Betekent dit dat de dagen voor de x86 architectuur geteld zijn?
Nog niet. Maar langzamerhand mogen ze zich wel zorgen gaan maken. In de wereld van x86 zijn Intel en AMD de enige bedrijven die ertoe doen. Maar iedereen kan de ARM-architectuur licenseren. Dan ontstaat er een hele andere markt.
ARM licenties zijn behoorlijk prijzig, ik zie meer toekomst voor Risc-V.
Laatste wel een leuke theorie gehoord: AMD (en nu ook Intel) hebben de chiplets. De CPU kan worden uitgewisseld terwijl de hele interface met het moederbord gelijk blijft.
Bij AMD draait de AGESA ook op een andere processor dan de x86.
Dus je kan een ARM chip er naast plakken en in hetzelfde moederbord met dezelfde validatie heb je ARM.
Intel en AMD zouden zelf ook prima ARM CPU's kunnen maken dus denk niet dat ze zo snel irrelevant zullen worden.

Daarnaast zal er nog jaren vraag blijven naar x64 processoren om bestaande software op te draaien. Ook zijn de snelste CPUs van Intel en AMD nog steeds de absolute top qua performance. Maar in de meeste gevallen is energie efficiency belangrijker, met name voor taken die je over verschillende CPUs kan parallelliseren. Dat zal zeker een verschuiving gaan veroorzaken in datacenters.
Het is niet de eerste keer dat ARM leek door te dringen. Denk aan Cavium ThunderX en Qualcomm Centriq. Denk dat AMD EPYC en de nieuwere Xeon Scallables wel even een pin in gestoken hebben. ARM heeft wel zijn plaats in de datacenter, maar x86 zal het komend decennium zeker niet verdwijnen.
Oracle heeft met Ampere Compute al lang ARM IaaS in de aanbieding. Tegen een zeer competitieve prijs overigens. Ik gebruik het zelf, best tevreden van.

[Reactie gewijzigd door ddt15 op 24 juli 2024 02:54]

HP. (of moet ik tegenwoordig HPE zeggen?) had ook blade's met ARM voor hun moonshot systemen, ik vond het best gaaf, maar volgens mij is dat een zachte dood gestorven.
Ja, ik zie het ook in wikipedia... er zijn geen nieuwe blades na 2017.
https://en.wikipedia.org/wiki/HPE_BladeSystem

Weet iemand een reden?

[Reactie gewijzigd door Dark Angel 58 op 24 juli 2024 02:54]

De opvolger van HPE BladeSystem is HPE Synergy.

Deze is enkel nog maar te krijgen met Intel Xeon CPUs.
Moonshot was een heel apparte lijn specifiek uitgebracht voor VDI toepassingen.

Dat Synergy enkel te krijgen is met Intel heeft enkel te maken met 100% financiering van de CPU vendor zelf zijnde Intel..... Wie vandaag nog gelooft dat oplossingen als Synergy en blades het beste is voor zijn datacenter loopt al enkele jaren gigantisch achter voor generieke en virtualizatie workload want Intel loopt als sinds skylake achter op AMD en het verschil is er enkel groter op geworden.... dus loop je al 3-4 generaties = 3-4 jaren dus achter op de feiten kwa CPU kracht maar vooral een pak hoger verbruik/cpu cycle.

maarja er is zo nog een heel pak IT dat bij de pakken blijft zitten en gewoon verder doet als "business as usual" en Intel is natuurlijk goed in marketing praatjes en hebben vooral nog steeds lange armen bij OEM presales :D

[Reactie gewijzigd door d3x op 24 juli 2024 02:54]

HPE inderdaad. HP Enterprise. HP is dat vervelende printerbedrijf.
Enige statistieken?
Je kan op YouTube eens zoeken bij 'Gary explains'. Hij heeft de Graviton ARM chip van AWS vergeleken met intel chips.
Kijk nou, hij heeft net een nieuwe video over de Axion: https://youtu.be/P4c7P-QnHgw

[Reactie gewijzigd door xorpd op 24 juli 2024 02:54]

Het is wel grappig, het verleden komt weer terug. Vroeger had zo'n beetje elke tech gigant van toen (HP, Sun, IBM, Fujitsu, DEC) hun eigen chips. Op den duur zwaaide de slinger door naar gespecialiseerde chip designers (Intel, AMD, Qualcomm), maar inmiddels zijn we weer terug: tech giganten Apple, Google, Amazon, allemaal weer hun eigen in-house custom chips waarmee ze een concurrentievoordeel proberen te krijgen.
Dacht dat ze de crypto coin axion bedoelde lol

Op dit item kan niet meer gereageerd worden.