Nvidia maakt koppelen van vier DGX Spark-pc's mogelijk voor 512GB gedeeld ram

Nvidia gaat het mogelijk maken om vier DGX Spark-pc's aan elkaar te koppelen. Tot nu toe lag het maximum op twee. Door het koppelen van de Sparks wordt het geheugen van de apparaten samengevoegd, waardoor vier Sparks beschikken over een gedeeld werkgeheugen van 512GB.

De chipontwerper kondigt de komst van de nieuwe functie aan tijdens GTC, zijn eigen technische conferentie. Voor het koppelen van meer dan twee DGX Sparks kan wel extra hardware nodig zijn. Drie Sparks kunnen met elkaar communiceren in een ringstructuur, voor vier Sparks is een RoCE 200GbE-switch vereist. De bestaande opzet met twee Sparks gebruikte een point-to-point-verbinding. Tweakers publiceerde recent een review van de DGX Spark.

Verder kondigt Nvidia de beschikbaarheid van NemoClaw aan, een opensourcesoftwarepakket voor de DGX Spark en Station om eenvoudig en veilig claws te draaien. Met de OpenShell-runtime wordt bepaald tot welke data en tools de claw toegang krijgt. Claws zijn recent populair geworden AI-agents die op een volwaardige pc draaien, en zo toegang hebben tot al je apps en bestanden, zodat ze autonoom taken voor je kunnen uitvoeren.

De Nvidia DGX Spark Founders Edition
De Nvidia DGX Spark Founders Edition

Door Tomas Hochstenbach

Redacteur

16-03-2026 • 21:30

9

Reacties (9)

Sorteer op:

Weergave:

Logisch. Waarom de specs van één Spark verhogen. Als je klanten ook kunt uitwringen door er meerdere te verkopen aan iedere koper.
Een switch er tussen kan juist ook weer interessant zijn om te testen hoe dit schaalt en hier experimenten mee te doen.

En je kan als je twee of meer units hebt ze eventueel ook verdelen onder meer ontwikkelaars als dat tijdelijk even nodig is.

De vraag alleen is even hoe duur zo'n switch wel niet is :P

[Reactie gewijzigd door Mr_gadget op 16 maart 2026 21:50]

De poorten die je op de DGX gebruikt om ze aan elkaar te verbinden fungeren het zelfde als in je data centrum voor nvidia hardware, dat gaat ook zonder extra switch, maar met speciale connectoren.

Wel grappig toen ik vorige week de handleiding doornam dacht ik al hé je kunt het gewoon uitbreiden. En hij maakt machine to machine 2 up en twee down connecties over 1 kabel.
Dus vandaar 2 poorten elk => 3 kastjes full peer-to-peer RDMA connectivity.

Maar stel je doet een ring netwerk, maar dat zal wel extra latency zijn wellicht? Geen idee. Ik ben geen netwerk extert.
Er zitten op de kastjes al bewust 2 porten op voor dit doel. Elk 200Gbps. Naast de normale 10Gbit UTP, WiFi7 en de 4 x 40Gbps USB-c poorten.

Al toem het bordje voor het eerst getoond werd werd er bijgezegd dat hij in het begin 2 machines aan elkaar kon verbinden maar dat de hardware is voorbereid op meer.

Op internet zijn er al voorbeelden van mensen die er 8 aan elkaar gebonden hebben YouTube: NVIDIA didn't want me to do this maar daar een switch van €1.300 voor kochten.

Een 1TB GPU voor ~ €40.000 met 49.536 Vida Blackwell cores ~ die 8.000.000.000.000.000 berekeningen per second uitvoert en 1.120W aan stroom gebruikt.


Trouwen als je naar het bordje kijkt is de enige upgrade nog 3GB ipv 3GB geheugen chips. Het is het meest dicht bevolkte PCB die vele ooit gezien hebben.
Zie hier een foto van Tweakers zelf: https://tweakers.net/i/YX..._exif()/i/2007484064.jpeg

Waarom wil je meer dan 1 kastje?
Die GPU aan elkaar verbinden en samen laten werken om grotere modellen te kunnen draaien wil je ook in je data centrum doen.
Nu kun je dit oefenen zonder een extra full rack te kopen van enkele miljoenen. En zonder productie te verstoren. Model trainingen kunnen al worden geoptimaliseerd etc. voordat ze op het dure cluster komen, en meerdere mensen kunnen dat nu oefen zonder elkaar in de weg te zitten met elkaars fouten op het borgen cluster van een paar miljoen. Dus dit scheelt heel veel tijd, geld en rack ruimte in je DC.
Dat stapeltje Mac Studio's op de achtergrond in die video ziet er ook wel interessant uit... _/-\o_
Spark, ring structuur?

Ik krijg plotseling weer begin jaren 90 vibes :)
Met meerdere gestapelde sparc stations IPC's een tafelpoot van je bureau vervangen en je studentenflat van verwerkingskracht voorzien..
NemoClaw met NemoTron of Qwen3-coder-next of Qwen3.5 of GPT-OSS 120B. Je infrastructuur wordt straks door AI gemanaged.

Met 2 kastjes draait de Qwen3.5 397B-A17B unsloth 3-bit gewoon. De kracht van OpenAI codex 5.2 of Claude Sonnent 4.5 voor 240W lokaal op je bureau voor nog geen €10.000,-.

[Reactie gewijzigd door djwice op 16 maart 2026 22:28]

Verwarrende naam. Ik dacht even oude tijden herleven :) .

Om te kunnen reageren moet je ingelogd zijn