Arm brengt zijn eerste eigen processor uit: AGI CPU krijgt tot 136 cores

Arm heeft zijn eerste eigen cpu aangekondigd: de AGI CPU. Het bedrijf ontwerpt al jaren cpu-cores, maar die werden alleen onder licentie verkocht aan andere chipmakers. Nooit eerder bracht het bedrijf een kant-en-klare processor op de markt.

De Arm AGI CPU is bedoeld voor datacenters en wordt door TSMC gebakken op 3nm. De processor krijgt maximaal 136 Neoverse V3-cores, ieder met 2MB aan L2-cache en een kloksnelheid van tot 3,7GHz.

Iedere cpu ondersteunt twaalf DDR5-8800-DIMM's voor maximaal 6TB aan werkgeheugen. De processor kan daarnaast overweg met CXL 3.0 voor verdere geheugenuitbreidingen. Daarbij krijgt de AGI CPU ondersteuning voor PCIe 6.0: de processor krijgt 96 PCIe-lanes, bijvoorbeeld voor het aansluiten van ssd's of gpu's.

Arm toonde verschillende systemen met de AGI CPU aan boord. Het bedrijf toonde bijvoorbeeld een luchtgekoelde 36kW-serverrack met dertig servers en zestig cpu's aan boord, voor een totaal van 8160 Arm-cores. Het bedrijf werkte ook samen met Supermicro aan een 200kW-ontwerp dat is voorzien van waterkoeling. Die heeft 336 cpu's aan boord voor meer dan 45.000 rekenkernen.

Arm AGI CPU

Concurreren met eigen klanten

De release van een eigen chip is een grote wijziging in het bedrijfsmodel van Arm. Momenteel verkoopt het oorspronkelijk Britse chipbedrijf alleen een soort 'blauwdrukken' aan andere bedrijven, die daarmee hun eigen chips ontwerpen. Nu, voor het eerst in zijn ruim 35-jarige bestaan, brengt Arm een kant-en-klare chip op de markt.

Er gaan al langer geruchten rond over de komst van een door Arm ontworpen chip, maar toch is het een opvallende zet. Met de AGI CPU gaat Arm in feite direct concurreren met zijn eigen klanten, zoals Nvidia, Qualcomm, Amazon, Google en Microsoft. Al die bedrijven maken hun eigen datacenter-cpu's op basis van de Neoverse-cores en zijn daarvoor afhankelijk van Arm.

Meta wordt de eerste grote klant van de Arm AGI CPU, schrijft het chipbedrijf. Die techgigant werkte ook samen met Arm bij de ontwikkeling ervan. Meta maakte eerder al bekend dat het Arm-processors gaat inzetten in zijn datacenters, bijvoorbeeld om de algoritmes van zijn socialemediadiensten te draaien.

Ook andere bedrijven gaan de AGI CPU inzetten, zoals Cloudflare, OpenAI en SK Telecom. Fabrikanten zoals ASRock Rack, Lenovo en Supermicro gaan bovendien losse serversystemen op basis van de AGI CPU verkopen.

Arm AGI CPU

Door Daan van Monsjou

Nieuwsredacteur

24-03-2026 • 20:53

52

Submitter: Noxious

Reacties (52)

Sorteer op:

Weergave:

de afkorting ARM betekend Acorn Risc Machine, en spoiler alert, deze nieuwe AGI CPU is ab-so-luut niet de eerste CPU die ARM zelf uit brengt. Kijk naar "The Arm story Part 1" geschreven door de grondlegger van ARM zelf op substack

Ik heb zelf vaak achter die machine mogen zitten midden jaren 80 en we noemden 'm de amige-killer. het ding was ruim tien jaar voor op alles wat later uit zou komen. fractals vlogen over het scherm, virus (spel) op de machine instroduceerde 60Hz+ gaming. ervaringen die decades later pas gemeengoed werden met de introductie van de P133 met MMX
De afkorting staat sinds ARM in 1990 is opgericht voor Advanced RISC Machines Ltd.
De historie klopt, maar er is een onderscheid tussen Acorn en ARM. ARM is pas in 1990 opgericht, als een joint venture, met onder andere Acorn en Apple. En het bedrijf ARM heeft alleen licenties op de IP verkocht, nooit zelf CPUs.

Acorn heeft inderdaad wel CPUs verkocht, met onder andere de Acorn Risc Machine als voorbeeld. Maar het bedrijf ARM niet. Ook al waren het dezelfde mensen die de ontwerpen maakten.
In de basis kan je dit niet de eerste CPU van arm noemen wanneer je bedenkt waar het bedrijf vandaan komt. Acorn ontwierp in de jaren 80 zijn eigen CPUs nadat ze geen goede CPU vonden voor hun volgende computer, dit werd uiteindelijk de ARM1, opgevolgd door de ARM2 en ARM3 waarbij de afkorting toen nog stond voor Acorn RISC Machines

In 1990 werd de ontwerpafdeling van die CPU dan afgesplitst in een eigen bedrijf zodat zij verder met Apple en VLSI konden werken aan een nieuwe architectuur voor Apple. Dat bedrijf werd Advanced RISC Machines, of het arm dat we vandaag kennen. En ook toen werd doorgezet met eigen CPUs. De ARM6 series werd ontwikkeld en de ARM610 CPU van het bedrijf werd gebruikt in o.a. de Apple Newton waarna onder andere DEC maar ook Intel een licentie namen op de ARMv4 architectuur van de ARM6 en de rest is geschiedenis.

Deze nieuwe CPU is dus hun eerste commerciele CPU in meer dan 30 jaar, maar zeker niet hun eerste eigen processor.
En VSLI is opgegaan in NXP.
Hiermee biedt ARM wat de grote jongens al zelf deden (AWS Graviton / Google Axion / Microsoft Cobalt) een kant en klare ARM cpu bieden gebaseerd op dezelfde Neoverse architectuur. Langzamer dan de beste AMD/Intel CPUs maar wel meer waar voor je watt.
Vermogensberbruik is niet zozeer lager bij ARM. Het verhaal leeft vooral doordat voorheen ARM veel voor mobiele toepassingen gebruikt werd.

Voor desktop en server processoren zijn de verschillen miniem of zijn ze zelfs slechter (wij hebben zelf veel studies gedaan). De ene processor spreekt Engels en de andere Frans. Heel snel binnen de processor worden de instructies naar micro instructies vertaalt. Zit amper verschil in.

Het gaan uiteindelijk om ontwerp keuzes in caches, branche predicties, grootte van de chip, kloksnelheid die je wil halen enzovoort. Dit maakt het ook lastig processoren te vergelijken. Echt een wezenlijk verschil is er niet. De 192 core Epyc chips zijn echt goed en efficiënt en met Zen6 spoedig alleen maar beter.
Het gaan uiteindelijk om ontwerp keuzes in caches, branche predicties, grootte van de chip, kloksnelheid die je wil halen enzovoort.
En compatibiliteit. Sommige software is enkel voor x86(-64) beschikbaar.
We spreken in dit geval over klanten die hun eigen chip-design doen, dan doen ze ook hun eigen software-design en is x86-compatibiliteit helemaal geen vereiste meer, want die instructieset is veel te groot waarvoor de chips gaan dienen.
We spreken in dit geval over klanten die hun eigen chip-design doen, dan doen ze ook hun eigen software-design en is x86-compatibiliteit helemaal geen vereiste meer,
Er zijn extensies voor ARM die het makkelijker maken om x86(-64) software te draaien. Ook dat is een keuze om mee te nemen in het ontwerpproces.
En die software zie je in de praktijk niet in datacenters. Ja, hooguit in cloud game streaming.
Wat je nu zegt, is niet waar.

Een RISC-machine heeft op algemene taken juist een hogere cost efficiency, vanwege het simpele, gereduceerde ontwerp. Dat komt omdat het de bulk van andere architecturen niet meedraagt, waardoor de kern minder vermogen nodig heeft om zichzelf te voeden. Alles wat je noemt, heeft vermogen nodig. Het zorgt voor een hogere throughput, maar ten koste van de efficiency. Die kosten kun je betalen als je machine aan het net hangt of een dikke accu meedraagt.

Zodra je in specifieke taken komt, wordt het een ander verhaal. Maar wat je daar ziet, is dat iedereen zijn kern aanpast met toevoegingen gericht op die taken, waardoor het geheel hypergeoptimaliseerd werkt. Kijk naar Apple die van alles toevoegt specifiek voor zijn eigen behoeftes.

Processoren zijn zeker goed te vergelijken. Als je een goede ontwerper bent, weet je (of zoek je uit) wat je software nodig heeft en stem je je hardware en software op elkaar af. Dat trucje doen er zoveel: Apple, Samsung, Google, etc. Het zijn discrete machines waarvan van top tot teen bekend is wat ze doen en hoe ze werken. Dan is het niet zo moeilijk om een vergelijking te maken.
Zoals al zo vaak gezegd: elke CPU core in deze eeuw is RISC. X86 heeft alleen een decoder ervoor zitten. En het bij-effect daarvan is dat er ook nog meer instructies in de L1c cache passen. Dat compenseert ongeveer de decoder kosten.
Lees even goed wat ik zeg.
Wordt er niet beter op. Nergens laat je merken dat je weet hoe een moderne x86 de uop vertaling doet.
Maakt het uit of ik dat zeg? Zeg ik uberhaupt iets over x86 of AMD64? Ik weet niet waar jij het over hebt, maar ik had het over cost efficiency. Dan vind ik het leuk dat je in een boekje tijdens colleges iets hebt gelezen, maar daar ging het even niet over.

Ter referentie, ook die vertaalslag van jou heeft een cost efficiency hit.

Even een andere vraag, gewoon uit nieuwsgierigheid. Waarom zou je die uOP vertalen? Zou het gewoon niet beter zijn als je die uOP gewoon zo maakt dat hij direct je metaal aanstuurt zoals het hoort? Dus gewoon andere uCode erin? Just asking?

[Reactie gewijzigd door TechSupreme op 26 maart 2026 00:10]

de vaste lengte van instructies op ARM-architectuur maken dat een Op-Cache niet nodig is.
x86-architecturur heeft wel een op-cache nodig, hoe die kan gebruikt worden maakt een verschil.
maar dat ga je allemaal wel weten
https://chipsandcheese.com/p/disabling-zen-5s-op-cache-and-exploring
Tja, vertel dat tegen ARM. Genoeg recente cortex cores hebben een Mops L0 cache. ARM heeft tegenwoordig twee niveaus van decoding, Mops en Uops. De laatsten worden niet gecached, nee, maar dat is omdat de Mop/Uop vertaling simpel is.
Langzamer is een relatief begrip in de CPU wereld. Ligt aan je task en je cost efficiency.
8800 DDR5 is niet mis, zelfs de nieuwse Intel supprten max 7200.
AMD Zen 6 gaat ook DD5 8800 ondersteunen las ik. Al vermoed ik dat Zen 6 pas in 2027 uitkomt ivm alle tekorten op moment.
De 285K runde men al jaren geleden al op CU-DIMM 8600mhz. Arrow Lake houdt van dit soort hoge snelheid geheugen.
Ik vind het een beetje rare opzet van het artikel, eerst zeggen dat deze chip volledig door arm zelf intwikkeld is, om dan onderaan ff kort te vermelden dat het dat samen met Meta heeft gedaan. Dat van Meta had gewoon meteen bovenin erbij moeten staan want deze chip is dus in partnerschap met Meta ontwikkeld.
Ik scroll na de intro meestal direct door naar de comments lol.
Het is de eerste CPU die ARM zelf verkoopt, als volledig product. Eerder verkochten ze licenties op ontwerpen aan andere fabrikanten, die daarmee CPUs maken en verkopen. Er staat in dit artikel nergens dat ARM dit helemaal zelf ontwikkeld heeft toch?

Overigens is het onduidelijk hoeveel Meta heeft bijgedragen aan ontwikkeling in die samenwerking. Meta heeft in ieder geval boards en racks ontwikkeld voor deze CPUs, en ze zijn de eerste klant.
Ja maar dan gaan alle tin foil sensoren af bij sommige lezers en haakt men af. Want ja, wat voor belang heeft Meta ineens in deze AGI superchip?

/s
Verdomd leuke soc voor de volgende Raspberry release :) . Ik zie de headlines al voor me: "De raspberry foundation introduceert de Raspberry Pi 6, nu met 136 cores".

Zonder gekheid: het zou natuurlijk wel heel aardig zijn als broadcom een nieuwe soc vd volgende raspberry maakt met een aantal neoverse v3 cores. Geen idee wat de tdp van een enkele core bedraagt?
Het zou leuk zijn als die niet meer van Broadcom (of iets anders uit de VS) zouden komen, maar direct van Arm. Het VK hoort misschien niet meer bij de EU maar minder VS is altijd een goed punt in deze tijd. Misschien worden Arm-gebaseerde desktops en laptops ooit nog populair.
De processor kan daarnaast overweg met CXL 3.0 voor verdere geheugenuitbreidingen. Daarbij krijgt de AGI CPU ondersteuning voor PCIe 6.0: de processor krijgt 96 PCIe-lanes, bijvoorbeeld voor het aansluiten van ssd's of gpu's.
Ik denk dat de PCIe ondersteuning juist is voor ram uitbreidingen, gezien de CXL 3.0 ondersteuning. Daar merk je het verschil met PCIe 5.0 wel. Al zijn er ondertussen ook al wel datacenter SSD’s die PCIe 6.0 gebruiken.
Valt opvallend samen met de AGI uitspraak van de NVIDIA top baas. nieuws: Nvidia-topman Jensen Huang: 'Ik denk dat we AGI hebben bereikt'

[Reactie gewijzigd door djwice op 24 maart 2026 21:02]

De verloedering van termen gaat verder. We hebben nog geen AGI bereikt, maar door dit soort marketing gaat het publiek denken dat het 'gewoon' een nog betere AI is dan we al hadden. Juist door dit soort toestanden denkt men dat 'echte' AI slechts een tool voor gebruikers is, en is er geen politieke motivatie om de ontwikkeling van general artificial intelligence (echte AGI, niet deze marketingtroep) tegen te houden. Er komt een moment dat dergelijke AGI zodanig sterk is dat het zichzelf kan herprogrammeren en reproduceren... en dan is het te laat.
Het gebruik van OpenClaw achtige tools kom ik bijna elke dag tegen van weer een nieuwe niet-IT-er.

Van eigen reis websites tot zelf geregelde dingen. Via een eigen OpenClaw apparaat laten maken. (dus niet gewoon de chatgpt of canvas van Google).

Voor veel mensen is dit AGI: in algemene zin doen die apparaten dingen die ze zelf niet kunnen en kunnen ze bovendien vragen beantwoorden waar ze zelf dagen lang zich in zouden moeten verdiepen.

Dat klinkt behoorlijk AGI voor veel mensen. Iedereen heeft in het dagelijks leven vrienden die iets niet kunnen dat jij wel kan en andersom. Voor veel mensen is AI nu die ene vriend die alles kan, waar je op leunt, die maar heel af en toe iets niet kan, maar dat vergeef je hem dan.

[Reactie gewijzigd door djwice op 25 maart 2026 01:27]

De meeste mensen weten niet eens wat AI werkelijk betekent. Dit klinkt helemaal niet "AGI" voor ze, van die term hebben ze nog nooit gehoord.
Klopt, die term kennen ze vaak niet. Daarom heb ik hem voor je geplakt aan de termen die ze er wel aan geven.
Voor veel mensen is AI nu die ene vriend die alles kan, waar je op leunt, die maar heel af en toe iets niet kan, maar dat vergeef je hem dan
Dat is behoorlijk dichtbij de peoples definitie van 'AI kan nu wat de mens kan': AGI.
Klopt, die term kennen ze vaak niet. Daarom heb ik hem voor je geplakt aan de termen die ze er wel aan geven.


[...]


Dat is behoorlijk dichtbij de peoples definitie van 'AI kan nu wat de mens kan': AGI.
Toen ik (lang geleden) pas van school kwam en ging werken kreeg ik daar vaak te horen dat "er gebrek is aan domme mensen". Blijkbaar zijn die er nu in overvloed beschikbaar voor AGI.
Context is belangrijk. Hoe meer verhalend iemand de context aan AI vertelt, hoe slimmer die kan reageren.
Niet ieder slim mens heeft door welke context ie aanneemt en niet deelt.
heeft niks met ARM te maken.
Nvidia gebruikt ARM CPU's in hun nieuwste machines. En deze Chip heet AGI en op dezelfde dag heeft de NVIDIA man het er over dat we AGI bereikt hebben.

De wereld is soms kleiner dan je denkt. Uitspraken van Jensen hebben veel invloed op C-level keuzes.

NVIDIA Vera is gebaseerd op het zelfde ARM platform. Dus een bewuste uitspraak van Jenson, die is ook niet gek.

https://www.arm.com/products/cloud-datacenter/arm-agi-cpu

Hij heeft naast de normale cores extra rekenkracht voor bfloat16 and INT8 "AI instructions".

[Reactie gewijzigd door djwice op 24 maart 2026 21:44]

NVIDIA Vera is gebaseerd op het zelfde ARM platform. Dus een bewuste uitspraak van Jenson, die is ook niet gek.
Ja en nee. Nvidia heeft bijvoorbeeld zijn eigen aangepaste 'Olympus' core terwijl de AGI CPU een Neoverse-V3 core heeft (die ook o.a. in Graviton 5 bij AWS te vinden is, dat zou een meer correcte/directere vergelijking zijn). Er zijn nog wel meer verschillen en overeenkomsten, maar daar mag ik waarschijnlijk niet publiekelijk op in gaan :)
Arm Neoverse already underpins many of today’s leading hyperscale and AI platforms, including AWS Graviton, Google Axion, Microsoft Azure Cobalt and NVIDIA Vera. As AI infrastructure scales globally, partners across the ecosystem are asking Arm to do more. The Arm AGI CPU was created to address this shift.
Uit de eerste link van het Tweakers artikel https://newsroom.arm.com/blog/introducing-arm-agi-cpu, vandaar mijn aanname.
Een verse marketing kreet verkoopt beter.
Ik ben het niet gauw eens met meta, maar dit zijn verrekte lekkere chips

[Reactie gewijzigd door fenrirs op 24 maart 2026 21:10]

Maar draait het ook crysis? 🤪
ja, dat kan je waarschijnlijk nog met 200+ FPS spelen in software rendering mode, dus dat alles op de cpu draait en niks op de GPU :)

Om te kunnen reageren moet je ingelogd zijn