Nvidia gaat losse Arm-cpu's verkopen aan Meta als deel van grote deal

Meta en Nvidia hebben een 'grootschalige' deal 'voor de lange termijn' gesloten voor AI-chips. Als onderdeel van die deal gaat Nvidia 'op grote schaal' ook losse, op Arm gebaseerde cpu's leveren. De overeenkomst betekent dat Meta ook in de toekomst Nvidia-chips blijft gebruiken, naast AI-chips van concurrenten.

Nvidia en Meta werkten al samen voor AI-chips en zeggen met de aankondiging die voort te zetten en uit te breiden. Zo blijft Meta Nvidia Blackwell-AI-chips gebruiken en gaat Meta ook de toekomstige Rubin-AI-chips inzetten. Nvidia presenteerde die chip eerder dit jaar. In de tweede helft van het jaar moet die daadwerkelijk verkocht worden.

Die Blackwell- en Rubin-chips bestaan uit een gelijknamige gpu van Nvidia en een losse cpu. Die cpu is op basis van Arm en heet bij Blackwell Grace en bij Rubin Vera. Nvidia zegt ook de losse Grace- en Vera-cpu's aan Meta te gaan leveren.

Het gaat volgens Nvidia om de 'eerste grootschalige inzet van losse Grace-cpu's'. De cpu's worden ingezet voor Meta's 'datacenter production applications' en zouden 'significante kracht-per-wattverbeteringen bieden'. De twee bedrijven geven verder niet veel details over de inzet van de Grace-cpu's. Nvidia zegt wel dat de Vera-cpu's volgend jaar door Meta gebruikt moeten worden. Meta gaat verder Nvidia Spectrum-X-ethernetswitches gebruiken.

De overeenkomst betekent dat Nvidia en Meta blijven samenwerken. Dat was niet direct een vanzelfsprekendheid. Zo waren er eind vorig jaar geruchten over een overeenkomst tussen Google en Meta, waarbij Google tensor processing units gaat leveren aan Meta. Die AI-chips zouden vanaf 2027 aan Meta geleverd worden.

Deze overeenkomst is nog niet bevestigd, maar de nieuwe deal met Nvidia laat zien dat Meta niet van plan is volledig over te stappen op Googles AI-chips. Meta kondigde eind vorig jaar aan tot 2028 600 miljard dollar te willen investeren in de Amerikaanse AI-infrastructuur. Vermoedelijk zal een groot deel hiervan bij Nvidia besteed worden.

Meta Nvidia

Door Hayte Hugo

Redacteur

18-02-2026 • 08:12

30

Reacties (30)

Sorteer op:

Weergave:

Waar we komen vanuit een (relatief) open ecosysteem van X86 met open standaarden zoals ACPI, UEFI, etc. gaan we met ARM naar een ecosysteem van ongestandariseerde en gesloten bootloaders, firmware, etc.

Samen met andere ontwikkelingen zoals hyperscalers (zoals Google) of Apple die hun eigen ARM chips ontwikkelen vraag ik me af wat dergelijke ontwikkelingen op de lange termijn gaan betekenen voor het open ecosysteem wat nu bestaat.
Waar we komen vanuit een (relatief) open ecosysteem van X86 met open standaarden zoals ACPI, UEFI, etc. gaan we met ARM naar een ecosysteem van ongestandariseerde en gesloten bootloaders, firmware, etc.
Moeten ARM-notebooks waarop Windows draait niet gewoon UEFI draaien? UEFI kan wel op ARM, maar het klopt dat er veel variatie is daarbuiten.

Een groter probleem zijn de gesloten hardware en binary blobs die vaak aan een enkele versie van een OS/kernel zijn verbonden. Bij x86 speelt dat een stuk minder. Er zijn wel binary blobs (met name firmwares), maar voor bijvoorbeeld Linux zijn AMD en Intel-drivers opensource en niet hard gebonden aan een kernelversie.

[Reactie gewijzigd door The Zep Man op 18 februari 2026 09:42]

Veel ARM-hardware, zoals de Raspberry Pi gebruikt de Device Tree van Open Firmware. Het zou kunnen dat Windows UEFI op ARM heeft geïntroduceerd, maar het is niet wat de meeste hardware aanbiedt.
x86 had 1 baas, intel. ARM technologie is iets dat iedereen al bijna vanaf het begin in licentie kan nemen. De instructieset is wel degelijk standaard, maar welke extra modules er op een chip zitten is dat niet.

Ik weet dus niet of je vergelijking wel zo terecht is. X86 met een on die GPU verschilt niet van ARM met een on die GPU, beide hebben de GPU over het algemeen als gesloten iets. Alleen door veel reverse engineering hebben we nu bv open source nvidia drivers.

Ook zitten in embedded (arm) systemen vaak open bootloaders als uboot en zo. Maar zijn ze gewoon geconfigureerd met locks. Dat is iets waar je eerder bij wet dan iets anders verandering in moet brengen. Stem voor right to repair en creeer bewustzijn bij de consument. Anders veranderd dat niet.

En voor de pi 4 heeft iemand een uefi versie gemaakt, maar het is niet wat er standaard op zit. Maar het kan wel als je wil. En ARM instructie set is bekend genoeg dat iedereen een implementatie op een fpga kan maken en die open kan distribueren. Dus als je een open source CPU wil, leef je uit. Of pak RISCV een landschap dat nog versplinterder is dan ARM.

[Reactie gewijzigd door bzuidgeest op 18 februari 2026 10:53]

x86 PC's hadden 1 baas, IBM en daarna even Intel
Het was IBM die het PC-hardwareplatform (met name qua booten) standaardiseerde met het ontwikkelen van de (veel gekloonde) BIOS. Intel leverde slechts de processor, maar verder niets.

Later kwam Intel met EFI dat werd gedoneerd om Unified EFI (UEFI) tot stand te brengen. Intel is daar nog wel een partij in, maar zeker geen baas.
Ik weet dus niet of je vergelijking wel zo terecht is. X86 met een on die GPU verschilt niet van ARM met een on die GPU, beide hebben de GPU over het algemeen als gesloten iets. Alleen door veel reverse engineering hebben we nu bv open source nvidia drivers.
AMD en Intel hebben voor Linux open (i)GPU-drivers. Er zijn maar weinig embedded ARM GPU's met zulke drivers.

[Reactie gewijzigd door The Zep Man op 18 februari 2026 13:21]

AMD en Intel hebben voor Linux open (i)GPU-drivers. Er zijn maar weinig embedded ARM GPU's met zulke drivers.
Allebei met binary blobs en de onboard firmware is zeker niet open. En het is de community die het werk doet, niet die bedrijven. En voor arm? Er zijn ook drivers voor powerVR, wat daar vaak inzit. Maar voor andere chips is er gewoon niet genoeg vraag om de moeite van opensource driver ontwikkeling aantrekkelijk te maken. Het is niet alsof het makkelijk is met al die geslotenheid.

En als je quote, quote dan letterlijk, nu doe je alsof ik dingen heb gesteld die ik niet gesteld heb. Niet netjes.
Allebei met binary blobs en de onboard firmware is zeker niet open.
De drivers van AMD en Intel zijn volledig opensource en zelfs toegevoegd aan upstream. Het enige dat ze gebruiken zijn firmware images. Dat draait niet in het CPU-deel van de SoC, maar in het GPU-deel zelf. Prima.
En het is de community die het werk doet, niet die bedrijven.
AMD en Intel brengen niet alleen opensource drivers uit, maar zijn ook actief bezig met upstreamen. Als het enkel aan de community zou liggen, dan zouden AMD en Intel nauwelijks voorbij het niveau van Nouveau komen.
Maar voor andere chips is er gewoon niet genoeg vraag om de moeite van opensource driver ontwikkeling aantrekkelijk te maken. Het is niet alsof het makkelijk is met al die geslotenheid.
"Oh, oh. Het is ons zo'n last om zaken gesloten te houden en hard te binden aan bepaalde kernelversies. Al die geplande veroudering waar wij goed aan verdienen. Ja, dat zouden wij graag anders zien, echt waar..."

[Reactie gewijzigd door The Zep Man op 18 februari 2026 14:58]

"Oh, oh. Het is ons zo'n last om zaken gesloten te houden en hard te binden aan bepaalde kernelversies. Al die geplande veroudering waar wij goed aan verdienen. Ja, dat zouden wij graag anders zien, echt waar..."
Ik had het over de tijd van de open source community, niet van de bedrijven.
Componenten werken echter niet zomaar samen. Als partijen niet met elkaar om tafel gaan zitten om een standaard te ontwikkelen, dan gaat iedereen z'n eigen ding doen.

Het ARM ecosysteem heeft geen standaard zoals ACPI, waarmee het besturingssysteem hardwarecomponenten beheert, maar is gefragmenteerd met specifieke Device Trees.
Zie het kopje Linux, waarom dit problemen oplevert:
Wikipedia: Devicetree

Maar het komt er feitelijk op neer dat je niet hetzelfde OS kunt draaien op verschillende ARM SoCs. Deze moeten allemaal los ondersteunt worden.
Maar zolang de fabrikant de devicetree levert zou Linux er mee om moeten kunnen gaan. Dat is in ieder geval wat ik afleid van ook dat verhaal in je link.
Ja het zou leuk zijn als arm ook acpi of iets dergelijks had. Maar hoeveel patches zitten er wel niet in Linux voor kapotte of verkeerde acpi implementaties? Ik geloof dat er daar ook genoeg voor zijn.
Zou fijn zijn als iemand alles certificereerde op compliance, maar dat is helaas niet zo. Genoeg fabrikanten maken zich er van af met met genoeg om Windows niet te laten crashen.
Volgens mij komen we van x86-64 ook wel bekend als Wikipedia: AMD64

Intel was dus niet de eigenaar daarvan. Inmiddels heb ik thuis meer ARM laptops dan intel / amd machines, ook voor Windows.

En draaien alle tablets en telefoons ook op ARM.
Is alle Apple hardware ook niet al jaren ARM?
Alles wat ik in cloud draai, draait ook al jaren op ARM CPU's, why not?

[Reactie gewijzigd door djwice op 18 februari 2026 13:45]

Het word tijd dat de arm mainstream word met de komst van de notebooks die op arm draaien en daar een versie van windows op draaien.Men kan met veel kunst en vlieg werk een arm server laten draaien en is kwa toegankelijkheid ver weg nog van x86.Snapdragon is er al veelvuldig met bezig misschien opent dat deuren tot nog meer arm hard en software dan tot nu toe gemeengoed is.

En misschien dat er in de toekomst meer arm servers worden gebouwd en dat we in de toekomst wel misschien een pc in elkaar kunnen gaan knutselen die ook op arm draait, je moet er maar de goede software voor te vinden, niet alles draait op windows x64 arm is zeker en vooral met de snapdragon breder dan 64 bit men zou eigenmkijk een 128 bit windows moeten maken zodat de gehele bandbreedte in gebruikt zou kunnen komen.Zowel met het geheugen als met de harde schijven alhoewel m2 harde schijven en dimm geheugen er best goed mee zou moeten kunnen communiceren.

[Reactie gewijzigd door rjmno1 op 18 februari 2026 21:58]

Misschien zit ik er niet genoeg in, maar is dat bij ARM niet juist open? Meta doet zo ongeveer alles hardware open via Open Computer Project.

Wikipedia: Open Firmware
Wikipedia: OpenBMC
Hopelijk komen er binnenkort ook consumenten versies. We hebben nu DGX Spark als optie maar iets met wat meer flexibiliteit zou welkom zijn.
Nvidia als bedrijf dat met name geld verdient aan verkoop van datacenterproducten:

"Wat is een consument?"

Ik zou hier niet veel van verwachten. Nvidia lijkt zich qua producten anders dan GPU's volledig terug te trekken uit de consumentenmarkt. Dezelfde SoC-serie die de Nintendo Switch gebruikte werd ook gebruikt voor de Shield TV. Met de SoC voor de Switch 2 lijkt Nvidia geen soortgelijke plannen te hebben.

[Reactie gewijzigd door The Zep Man op 18 februari 2026 12:49]

Ik denk eerlijk gezegd dat de AI bubble eerder barst dan dat dit realiteit is.
Zolang het nog zo massaal gebruikt wordt, betwijfel ik of het snel barst. Bedrijven experimenteren er meer mee, iedereen gebruikt het en de meesten halen er voor hun idee waardevolle informatie uit.
Er worden honderden miljarden in geïnvesteerd zonder dat er een duidelijk verdien model is. En ja, er zijn toepassingen waar het zich voor loont. Bij het bedrijf waar ik werkte stelde men na een test fase vast dat de licenties vooral werden gebruikt voor niet bedrijfsmatige toepassingen. Dit werd dus gecancelled.
De beloftes zijn er, maar de realiteit is weerbarstig.
Het is in de praktijk ook lastig. Er zijn heel veel type AI-functies, en LLMs zijn een populaire/zichtbare. LLMs zijn heel krachtig en kunnen heel zinvol zijn, maar je moet er wel een doel voor hebben, en ze op de juiste manier gebruiken. Vaak hebben mensen het over LLMs als ze AI noemen.

Als je als bedrijf zegt 'ga kijken wat je met AI kunt', dan ben je wat mij betreft verkeerd bezig. Dat is zoiets als 'Koop een zaag, en kijk maar wat je ermee kunt'. AI moet geen doel op zich zijn, maar een stuk gereedschap dat je kunt gebruiken. En ja. Soms is het experimenteren. Wij zijn ook bezig met allerlei zaken, maar we hebben wel eerst gekeken naar dingen die we nu handmatig doen, of veel tijd kosten, en toen zijn we gaan kijken of we dit zinvol met AI zouden kunnen verbeteren. (de resultaten zijn wisselend, maar we hebben ook zeker zinvolle dingen. Nu al.)
Er wordt meer in geinvesteerd dan het waard is, ondanks de omvang van queries.
De vraag is wat het oplevert. Alleen al de kosten van inference kunnen niet uit. Scaling loopt tegen limieten aan. En hoewel veel bedrijven beweren dat hun reorganisatie met AI te maken heeft, blijkt uit onderzoek dat dit gewoon niet zo is. Zeepbellen barsten vaak als er teveel 'leverage' is, dus schuld aan private partijen. Dat viel mee omdat omdat big tech bedrijven veel cash hadden. Maar dat is zo ongeveer op en nu steekt men zich alsnog in de schulden.
Aldus degene die waarschijnlijk ook eind jaren 90 het internet bekritiseerde of opkomst van gsm.
Die mensen kregen in principe ook gelijk in 2000.. Uit het as groeide alleen iets nieuws wat wél succes had tot op zekere hoogte. Zoiets is nu ook mogelijk.
Omdat die massale investeren zijn geweest.

Adsl lijnen in no time zijn getrokken.

Kennis is vergaard tijdens de bubbel.

Geleerd is van fouten.
Things are falling through the cracks https://www.reddit.com/r/...ly_said_something_honest/

Of het bewijs is dat de bubbel gaat barsten, ik denk het niet. Blijkt dat mensen lui worden en dus ook AI gebruiken op een luie manier, drijft dus alleen maar de kosten omhoog en het lijkt niet beter te worden.
Waarom hebben we Ai nodig terwijl we zelf zo intelligent "kunnen" zijn?
Nodig vind ik het niet, maar we gebruiken het. ChatGPT alleen heeft meer dan 2 miljard queries per dag [1] . Dit heeft een ongekend grote hoeveelheid compute nodig en dat is waarom er zoveel miljarden heen en weer worden gegooid.
edit:
Typo

[Reactie gewijzigd door Paddy99 op 18 februari 2026 09:20]

Het merendeel van deze miljarden word door america gedaan sommige europeesche bedrijven en misschien ook europa smijt ook met het geld, het word tijd dat alles hardware matig geïmplementeerd is zodat er voldoende ai is dan pas zou het weer minder gaan met de ai bubbel en kan men in de financiele en tech sector zich weer op een normaal niveau meten.en dan pas zal alles goedekoper kunnen worden en beter betaalbare pc systemen en ook thuis weer in elkaar kunnen gaan knutselen.Zodat de prijzen weer op een normaal nivo zijn zodat men geen woekerprijzen betaald voor geheugen en videokaarten.

[Reactie gewijzigd door rjmno1 op 18 februari 2026 22:35]

mijn vrouw weet toch alles al (beter) :+
Bij dit soort berichten vraag ik me altijd af of het niet weer gewoon een PR momentje is om de AI-circle-jerk-economie voort te zetten..

Om te kunnen reageren moet je ingelogd zijn