Nvidia gaat losse Arm-cpu's verkopen aan Meta als deel van grote deal

Meta en Nvidia hebben een 'grootschalige, langetermijn' deal gesloten voor AI-chips. Als onderdeel van die deal gaat Nvidia 'op grote schaal' ook losse, op Arm-gebaseerde cpu's leveren. De overeenkomst betekent dat Meta ook in de toekomst Nvidia-chips blijft gebruiken, naast AI-chips van concurrenten.

Nvidia en Meta werkten al samen voor AI-chips en zeggen die met de aankondiging door te zetten en uit te breiden. Zo blijft Meta Nvidia Blackwell-AI-chips gebruiken en gaat Meta ook de toekomstige Rubin-AI-chips inzetten. Nvidia presenteerde die chip eerder dit jaar. In de tweede helft van het jaar moet die daadwerkelijk verkocht worden.

Die Blackwell- en Rubin-chips bestaan uit een gelijknamige gpu van Nvidia en een losse cpu. Die cpu is op basis van Arm en heet bij Blackwell Grace en bij Rubin Vera. Nvidia zegt ook de losse Grace- en Vera-cpu's aan Meta te gaan leveren.

Het gaat volgens Nvidia om de 'eerste grootschalige inzet van losse Grace-cpu's'. De cpu's worden ingezet voor Meta's 'datacenter production applications' en zouden 'significante kracht-per-watt-verbeteringen bieden'. De twee bedrijven geven verder niet veel details over de inzet van de Grace-cpu's. Nvidia zegt wel dat de Vera-cpu's volgend jaar door Meta gebruikt moeten worden. Meta gaat verder Nvidia Spectrum-X-ethernetswitches gebruiken.

De deal betekent dat Nvidia en Meta blijven samenwerken. Dat was niet direct een vanzelfsprekendheid. Zo waren er eind vorig jaar geruchten over een overeenkomst tussen Google en Meta, waarbij Google tensor processing units gaat leveren aan Meta. Die AI-chips zouden vanaf 2027 aan Meta geleverd worden.

Deze overeenkomst is nog niet bevestigd, maar de nieuwe deal met Nvidia laat zien dat Meta niet van plan is volledig over te stappen op Googles AI-chips. Meta kondigde eind vorig jaar aan tot 2028 600 miljard dollar te willen investeren in de Amerikaanse AI-infrastructuur. Vermoedelijk zal een groot deel hiervan bij Nvidia besteed worden.

Meta Nvidia

Door Hayte Hugo

Redacteur

18-02-2026 • 08:12

16

Reacties (16)

Sorteer op:

Weergave:

Waar we komen vanuit een (relatief) open ecosysteem van X86 met open standaarden zoals ACPI, UEFI, etc. gaan we met ARM naar een ecosysteem van ongestandariseerde en gesloten bootloaders, firmware, etc.

Samen met andere ontwikkelingen zoals hyperscalers (zoals Google) of Apple die hun eigen ARM chips ontwikkelen vraag ik me af wat dergelijke ontwikkelingen op de lange termijn gaan betekenen voor het open ecosysteem wat nu bestaat.
Waar we komen vanuit een (relatief) open ecosysteem van X86 met open standaarden zoals ACPI, UEFI, etc. gaan we met ARM naar een ecosysteem van ongestandariseerde en gesloten bootloaders, firmware, etc.
Moeten ARM-notebooks waarop Windows draait niet gewoon UEFI draaien? UEFI kan wel op ARM, maar het klopt dat er veel variatie is daarbuiten.

Een groter probleem zijn de gesloten hardware en binary blobs die vaak aan een enkele versie van een OS/kernel zijn verbonden. Bij x86 speelt dat een stuk minder. Er zijn wel binary blobs (met name firmwares), maar voor bijvoorbeeld Linux zijn AMD en Intel-drivers opensource en niet hard gebonden aan een kernelversie.

[Reactie gewijzigd door The Zep Man op 18 februari 2026 09:42]

Veel ARM-hardware, zoals de Raspberry Pi gebruikt de Device Tree van Open Firmware. Het zou kunnen dat Windows UEFI op ARM heeft geïntroduceerd, maar het is niet wat de meeste hardware aanbiedt.
x86 had 1 baas, intel. ARM technologie is iets dat iedereen al bijna vanaf het begin in licentie kan nemen. De instructieset is wel degelijk standaard, maar welke extra modules er op een chip zitten is dat niet.

Ik weet dus niet of je vergelijking wel zo terecht is. X86 met een on die GPU verschilt niet van ARM met een on die GPU, beide hebben de GPU over het algemeen als gesloten iets. Alleen door veel reverse engineering hebben we nu bv open source nvidia drivers.

Ook zitten in embedded (arm) systemen vaak open bootloaders als uboot en zo. Maar zijn ze gewoon geconfigureerd met locks. Dat is iets waar je eerder bij wet dan iets anders verandering in moet brengen. Stem voor right to repair en creeer bewustzijn bij de consument. Anders veranderd dat niet.

En voor de pi 4 heeft iemand een uefi versie gemaakt, maar het is niet wat er standaard op zit. Maar het kan wel als je wil. En ARM instructie set is bekend genoeg dat iedereen een implementatie op een fpga kan maken en die open kan distribueren. Dus als je een open source CPU wil, leef je uit. Of pak RISCV een landschap dat nog versplinterder is dan ARM.

[Reactie gewijzigd door bzuidgeest op 18 februari 2026 10:53]

Hopelijk komen er binnenkort ook consumenten versies. We hebben nu DGX Spark als optie maar iets met wat meer flexibiliteit zou welkom zijn.
Nvidia als bedrijf dat met name geld verdient aan verkoop van datacenterproducten:

"Wat is een consument?"

Ik zou hier niet veel van verwachten. Nvidia lijkt zich qua producten anders dan GPU's volledig terug te trekken uit de consumentenmarkt. Dezelfde SoC die de Nintendo Switch gebruikte werd ook gebruikt voor de Shield TV. Met de SoC voor de Switch 2 lijkt Nvidia geen soortgelijke plannen te hebben.

[Reactie gewijzigd door The Zep Man op 18 februari 2026 09:40]

Waarom hebben we Ai nodig terwijl we zelf zo intelligent "kunnen" zijn?
Nodig vind ik het niet, maar we gebruiken het. ChatGPT alleen heeft meer dan 2 miljard queries per dag [1] . Dit heeft een ongekend grote hoeveelheid compute nodig en dat is waarom er zoveel miljarden heen en weer worden gegooid.
edit:
Typo

[Reactie gewijzigd door Paddy99 op 18 februari 2026 09:20]

mijn vrouw weet toch alles al (beter) :+
Ik denk eerlijk gezegd dat de AI bubble eerder barst dan dat dit realiteit is.
Zolang het nog zo massaal gebruikt wordt, betwijfel ik of het snel barst. Bedrijven experimenteren er meer mee, iedereen gebruikt het en de meesten halen er voor hun idee waardevolle informatie uit.
Er worden honderden miljarden in geïnvesteerd zonder dat er een duidelijk verdien model is. En ja, er zijn toepassingen waar het zich voor loont. Bij het bedrijf waar ik werkte stelde men na een test fase vast dat de licenties vooral werden gebruikt voor niet bedrijfsmatige toepassingen. Dit werd dus gecancelled.
De beloftes zijn er, maar de realiteit is weerbarstig.
Het is in de praktijk ook lastig. Er zijn heel veel type AI-functies, en LLMs zijn een populaire/zichtbare. LLMs zijn heel krachtig en kunnen heel zinvol zijn, maar je moet er wel een doel voor hebben, en ze op de juiste manier gebruiken. Vaak hebben mensen het over LLMs als ze AI noemen.

Als je als bedrijf zegt 'ga kijken wat je met AI kunt', dan ben je wat mij betreft verkeerd bezig. Dat is zoiets als 'Koop een zaag, en kijk maar wat je ermee kunt'. AI moet geen doel op zich zijn, maar een stuk gereedschap dat je kunt gebruiken. En ja. Soms is het experimenteren. Wij zijn ook bezig met allerlei zaken, maar we hebben wel eerst gekeken naar dingen die we nu handmatig doen, of veel tijd kosten, en toen zijn we gaan kijken of we dit zinvol met AI zouden kunnen verbeteren. (de resultaten zijn wisselend, maar we hebben ook zeker zinvolle dingen. Nu al.)
Er wordt meer in geinvesteerd dan het waard is, ondanks de omvang van queries.
De vraag is wat het oplevert. Alleen al de kosten van inference kunnen niet uit. Scaling loopt tegen limieten aan. En hoewel veel bedrijven beweren dat hun reorganisatie met AI te maken heeft, blijkt uit onderzoek dat dit gewoon niet zo is. Zeepbellen barsten vaak als er teveel 'leverage' is, dus schuld aan private partijen. Dat viel mee omdat omdat big tech bedrijven veel cash hadden. Maar dat is zo ongeveer op en nu steekt men zich alsnog in de schulden.
Bij dit soort berichten vraag ik me altijd af of het niet weer gewoon een PR momentje is om de AI-circle-jerk-economie voort te zetten..

Om te kunnen reageren moet je ingelogd zijn