Nvidia start binnenkort verkoop van DGX Station met GB300 Superchip en 748GB ram

Nvidia start binnenkort met de verkoop van zijn DGX Station, een 'supercomputer voor bij je bureau'. Dat kondigt de fabrikant aan tijdens zijn GPU Technology Conference. De DGX Station zou twintig keer zo snel zijn als de eerder uitgebrachte DGX Spark.

De DGX Station werd samen met de DGX Spark aangekondigd op de vorige editie van GTC, in maart 2025. Waar de DGX Spark eind vorig jaar daadwerkelijk uitkwam, bleef het rond de snellere Station lange tijd stil. Tijdens zijn keynote kondigde ceo Jensen Huang aan dat bestellingen vanaf nu mogelijk zijn en dat ASUS, Dell, Gigabyte, MSI en Supermicro in de komende maanden hun leveringen zullen starten.

72 cpu-cores, meer dan 20.000 gpu-cores en 748GB ram

Net als de recent gereviewde DGX Spark werkt de DGX Station met dezelfde softwarestack als Nvidia's AI-supercomputers voor datacenters. In de pc zit dan ook dezelfde GB300 Superchip waarvan er 72 in het GB300 NVL72-serverrack zitten. Deze 'superchip' bestaat uit 72 Grace-cpu-cores op basis van de Arm-architectuur en een Blackwell Ultra-gpu met 20.480 CUDA-cores, bijna net zoveel als een RTX 5090.

Nvidia DGX Station

Het systeem heeft volgens Nvidia 20Pflops aan AI-rekenkracht, gebaseerd op fp4-instructies met sparsity. Dat is twintig keer zoveel als de DGX Spark, die wordt gespecificeerd op 1Pflops. Het moet bovendien mogelijk zijn om enorme modellen te draaien, met tot wel een biljoen parameters. Daartoe heeft de DGX Station in totaal 748GB ram, verdeeld over 252GB HBM3e-geheugen op de gpu en 496GB Lpddr5x-geheugen op de processor. Zowel de cpu als de gpu hebben toegang tot de volledige hoeveelheid ram.

Slots en poorten

In tegenstelling tot bij de DGX Spark komt Nvidia niet met een eigen Founders Edition van de DGX Station. De chipontwerper levert alleen het moederbord met daarop de cpu en gpu, waar grote pc-fabrikanten hun eigen systeem omheen kunnen bouwen. Voor uitbreidingen biedt het moederbord vier M.2-slots, drie PCIe 5.0-slots en diverse snelle netwerkpoorten.

Nvidia noemt nog geen prijs voor de DGX Station, maar vermoedelijk zullen de oem-partners die het systeem gaan verkopen die wel spoedig bekendmaken.

Nvidia DGX Spark Nvidia DGX Station
Chip GB10 Superchip GB300 Superchip
Cpu 20 cores 72 cores
Gpu 6144 cores 20.480 cores
AI-prestaties (fp4 met sparsity) 1Pflops 20Pflops
Geheugen 128GB Lpddr5x 252GB HBM3e
496GB Lpddr5x
Interconnect NVLink-C2C 600GB/s NVLink-C2C
Ssd-slots 1x PCIe 5.0 x4 2x PCIe 6.0 x4
2x PCIe 5.0 x2
Uitbreidingsslots N.v.t. 1x PCIe 5.0 x16
2x PCIe 5.0 x8
Netwerk ConnectX7 (200Gbit/s)
10GbE
Wi-Fi 7
2x ConnectX8 (400Gbit/s)
10GbE
Software DGX OS DGX OS
Voeding 240W 1600W

Door Tomas Hochstenbach

Redacteur

16-03-2026 • 21:30

51

Reacties (51)

Sorteer op:

Weergave:

Ik doe regelmatig mega processing taken, waaronder lidar, of enorme hoeveelheden (drone) beelden, van diverse aard. Ik moet dit helaas vaak doen op een 4080 mobile, hoewel ik kan inprikken op een RTX3090, en wat ik feitelijk vaak rapporteer is de verwerking in gigapixel/uur. De praktijk is... dat ik héél geïnteresseerd ben in dit soort hardware, want zeker in de ontwikkeltrajecten heb je soms gewoon enorm veel data nodig (kleinste nuttige sample is ongeveer 1600 foto's op 40mpx, kleine échte dataset is zo'n 8000 stuks, en ik wil het nog niet eens hebben over het ruimtelijk mappen van quaternion-rotatie-mapped 360-graden beelden...). Veel van de software die het "snelst" werkt is echter Windows/X86 (hoewel de open software vrijwel gelijkwaardige resultaten krijgt, het is alleen 2x trager, ondanks dat dezelfde hardware gebruikt wordt).

Wat dit voor mij spannend maakt is:
  • Enorm context window: spatial + afbeeldingen = zo veel krachtiger als je een hele scope aan afbeeldingen in-memory kan houden
  • Enorme potentiele performance
Alleen moet ik in dit soort dingen á "tenminste 100k voor één" eigenlijk altijd rekening houden met of dit de gpix/uur verbeterd, of de resultaten verbeterd (en misschien hele nieuwe techniek mogelijk maakt als ik zelf er naast ga coden), en of het niet aantrekkelijker is om als de context niet belangrijk is maar een simpele spatial gaussian splat ofzo nodig is dat we misschien niet beter een stuk of... 10 simpele kaarten kunnen kopen en beter kunnen schalen...

Dit soort gereedschap is super cool, en ik kan een hoop dingen bedenken die ik hiermee "eindelijk" kan doen (wetende dat ik in mijn domein door geen x86/windows optie soms moet behelpen), die bovendien economisch/maatschappelijk beter zijn dan AI slop/DLSS5/italian brainrot, maar de business case blijft lastig te maken in een vrij "calvinistisch" Nederlands ecosysteem waar nuchterheid voor de potentie van iets nieuws komt.
Is er al meer bekend over de prijs? Ik zie geruchten op Reddit circuleren van ~100k
Als de gamende tweakers al steil achterover slagen van de AI-bedrijven die datacenters volstouwen vraag ik me af hoe ze tegen hun medetweakers aankijken die dan ook nog eens thuis zelf even zo iets zetten om wat mee te spelen :P
1800 W is best veel. Dat ga ik liever niet draaien. Bovendien als de Spark al 3k+ is, dan zal dit wel 12k+ zijn.

Leuke hebbedingetje, dat zeker weten wel.

De reviews ga ik zeker wel lezen en bekijken.
Voor 12k zou ik em zo kopen.

Nee dit beest gaat echt veel duurder worden dan dat.
12k is minder dan de 512gb m3, deze zal sneller en duurder zijn idd
Reken maar op een half miljoen. Serieus? Ja, serieus.
Reken capaciteit 5x een RTX 6000 Pro die initieel 8000 euro kostte, dus zeker niet een half miljoen.
Initieel toen geheugen prijzen niet zo extreem waren was 35.000 euro de doelprijs.
Nu zal het hoger liggen.

[Reactie gewijzigd door djwice op 17 maart 2026 07:09]

Dat zal wel niet want de Supermicro HGX GB300 kosten voor ons 445k dus deze station zal tussen de 30-50zitten gok ik zo.
Wel handig voor in de zomer als de salderings regeling straks niet meer actief is :P

Mooie trigger voor in bijvoorbeeld homeassistant als er een flink overschot is al je AI klussen even gratis laten fixen. Al zal dat apparataat niet goedkoop zijn vrees ik.
Ik gok dat de electriciteitskosten in het niet vallen bij de afschrijving :-p
12k ? :+

Reken op zeker 50k
Ik denk dat je dat nog wel eens keer 3 mag doe, of keer 2.5 als je geluk hebt.
Bovendien als de Spark al 3k+ is, dan zal dit wel 12k+ zijn.
Ik denk dat de inschatting van @Revaes van zeker 50k het al ontzettend onderschat. Ik verwacht eerder zeker 100k dan zeker 50k. Ik heb gezocht naar prijzen voor de vorige variant en kom omgerekend op meer dan 90.000 euro.
Denk dat je ook nog wel iets moet doen aan geluidsreductie.
Voordeel daarbij is wel dat je de cv/warmtepomp kunt uitschakelen
#omdenken....
Eens, en je hebt een goede reden om je NC-hoofdtelefoon up te graden voor je nachtrust :Y)

#omdenken
Ik denk dat zelfs een extreem goed verdienende tweakert dit niet in huis gaat halen lol
De losse gelijk aan true 5090 igpu is de RTX PRO 6000 dat $10000 kaart

72 core arm is meer dikke server workstation cpu. 5000 a 10000 $

Die 768GB UMA HBM kost ook vermogen.

En dat in dure packaging. En de nodige IO voor exotische netwerk en node verbindingen en PCI-3 5.0 sloten.

Grof denk ik aan 25000 tot 50000 $ voor kompleet AI workstation server
Kan die cijfers haast niet geloven.
Verschil tussen beide processoren is het core aantal ruim 3x zo hoog, het verbruik x7 en de kracht x20. Volgens mij is de verwerkingskracht per core dan ongeveer 6x zo hoog geworden tegen een verdubbeld verbruik.
Dat is nog eens een keer wat andere koek dan de tientallen procenten ipc verbetering die je normaal ziet.
En toch is het zo. Dit apparaat is niet direct voor consumenten bedoeld, maar voor serieuze taken die anders te lang zouden duren of wellicht een enorme boost in AI mining. Ik denk ook dat de prijs indiceert dat dit niet zomaar een upgrade is zoals je ziet bij videokaarten om te gamen.

@MennoGamed Zoveel aansluitingen doen mij vermoeden dat ze geen enkel risico willen lopen op doorbranden want daar is deze machine wellicht te duur voor. Better stay safe.

@MastaG Dat weet ik, maar ik maakte een grapje dat het Crysis kon draaien. Er zitten natuurlijk enorme voordelen aan OSS en zo'n apparaat verlangt naar mooie OSS implementatie en uitbouw naar een supercluster die vele taken kan vervullen. Ik denk dat Windows té dichtgetimmerd is om de volle potentie ervan te benutten. Wat dat betreft hulde aan Linux (y)
Wat betreft aantal GPU cores is het een rtx5090 en het aantal ARM cores is nou ook niet echt schokkend hoog. Het is vooral de ongelooflijke bak aan supersnel geheugen die het verschil maakt waarschijnlijk.
Maar het ging mij niet daarom, maar om de gigantische efficiëntieverbetering die in die cijfers verstopt zit. Dat is wellicht de grootste prestatie.
Geheugenbandbreedte zorgt voor de rest van het verschil. Het HBM3e geheugen zou 8TB/s leveren. 30x sneller dan de spark. Geheugenbandbreedte is een bottleneck voor AI. Het bedrijf Cerebras maakt zelfs speciale chips met alle geheugen in de chip zelf: 21 PB/s en die chips kunnen nog eens twee grooteordes sneller tokens genereren.
Heeft weinig met cores te maken, maar veel meer met de bandbreedte van het geheugen. Die is bij de sparc namelijk nog heel erg mager. En ik mag hopen dat dat bij deze veel beter is. Zeker voor inference, is de sparc voornamelijk geknepen door geheugen bandbreedte.
Wat een prijzen. +/- 100k usd (87k eur) voor 'slechts' 20x performance tov de spark dgx. En een Asus Ascent kost net iets meer dan 3k (eur). Dus 20x performance voor 28-29x de prijs.

Het is omdat er genoeg bedrijven zijn die het betalen, maar dis is absurd.

Ik heb wat rondgeneusd op ebay/alibaba voor wat 2e hands systemen. Wat nog 'betaalbaar' is zijn A100 kaarten, maar als je zelfs de datacenter versie van de 40gb kaarten pakt, dan ben je voor een 8xA100 systeem nog iets van 30.000 euro kwijt, met gemak. En dan heb je het over een kaart van 6 jaar oud.......En dan negeer ik de stroomkosten.

Het is uitermate zonde dat er wel heel veel nieuwe spullen uitkomen elk jaar, maar dat er nog bijzonder weinig doorseipelt naar de 2e hands markt. Als zelfs trickledown economics gebroken is.........
Het is 20x de performance maar met 20 aan elkaar gekoppelde kleinere haal je die factor 20 niet.
Als je al in staat bent om 20 DGX Spark's met elkaar te koppelen is de kans klein dat je 20 keer de perfornance krijgt, zoals @YGDRASSIL al aangeeft, en dat is als het überhaupt ondersteunt wordt. Je zit daarnaast dan ook nog met een veel hoger stroomverbruik, 4800W ipv 1600W, en dat kan al snel een probleem worden.

Het neemt bovendien meer ruimte in en je kunt er vanuit gaan dat je meer kwijt bent aan onderhoud. Ik denk daarom dat wie die veel hogere performance echt nodig heeft in een workstation zonder meer die 30.000 euro extra ervoor over heeft.
Leuk kastje. Twee GH200's samen zitten zo om en nabij de ton. Dan zal dit ook wel die kant op gaan.
$97K voor de MSI variant
Ik zag m staan, ja. Met onze belasting en importheffing er overheen zal het dan wel zo rond de 120k euro uit komen. :/
Dit is een indrukwekkende score. Hopelijk volledig schaalbaar om zo een supercluster te vormen (AI oa)


Maar bovenal: can it run crysis?
DGX OS is op Ubuntu Linux gebaseerd
Ik neem aan dat NVIDIA een fatsoenlijke Vulkan driver voor de GPU heeft.
Dan is het simpelweg FEX installeren: https://github.com/FEX-Emu/FEX om vervolgens de x64-64 versie van de Steam client te draaien.
Wauw, 6x de 12pin connector!?
Hoezo dat nou weer 3x 12pin zou al 1800W kunnen leveren, dus hoezo zijn het er 2x zoveel?
Wat extra redundancy als er een paar van deze connectors uitbranden }>
Als een 2,5mm2 16 Amp mag hebben ga je ook niet load op 16A belasten omdat duurlast je dicht op of rond de beveiliging triggering zit. Je hebt dus marge nodig. Naast dat tegen de grens zit de kabel daadwerkelijk warm worden. En dat stroom ook niet netjes verdeeld is over de kabel. Wat yt ook al lieten zien. Naast dat verschillende transient belastingen hebt van verschillende duur.

Voor pro workstation en AI server wil je niet dat er uit kan klappen. Dus is de marge in alles veel groter ruimer.
De performance is indrukwekkend, maar met een prijskaartje van een ton is-ie zeg maar 'ietsje duurder dan gratis'.

De NPU doet 4-bit Floating Point, dus die gebruik je niet, tenzij iemand erin slaagt het ding normaal double precision FP te laten doen.

https://www.reddit.com/r/LocalLLaMA/comments/1rea5vs/price_of_msi_gb300_workstation_dgx_station/

Wie wil er nu nog bij Apple kopen?
Mooi stuk hardware. Ik zie mogelijkheden voor lokale multi agent workflows. Voor organisaties met gevoelige data lijkt mij dit een mooi alternatief voor cloud oplossingen
Het is niet kost effectief om lokaal modellen te rennen, dit is meer voor trainen bedoelt

Op dit item kan niet meer gereageerd worden.