Europese supercomputer met Nvidia-hardware debuteert op plek 4 van TOP500-lijst

Het Jupiter Booster-systeem in het Duitse Jülich Supercomputing Centre debuteert op plek 4 in de TOP500-lijst. Jupiter Booster is het vierde Exascale-systeem in de lijst en het eerste buiten de Verenigde Staten. Het systeem beschikt over 1 exaflop aan fp64-rekenkracht.

De rekenkracht van de Jupiter Booster komt daarmee in de buurt van de derde krachtigste supercomputer, Aurora. Dit systeem, dat in het Argonne National Laboratory staat, heeft 12 petaflops meer rekenkracht dan de Jupiter Booster-supercomputer. De top drie is verder ongewijzigd ten opzichte van vorig jaar: El Capitan staat nog steeds bovenaan met ruim 1,8 exaflops en Frontier staat met 1,35 exaflops op de tweede plaats.

De Jupiter Booster-supercomputer haalde in deze uitgave van de TOP500-lijst aanhoudende prestaties van 1 exaflop in de High Performance Linpack-benchmark. Het systeem haalde een pieksnelheid van 1,226 exaflops. De Jupiter Booster is ook zuiniger dan de andere systemen, met prestaties van 63,3Gflops per Watt, meer dan Aurora (26,15 Gflops/W), Frontier (54,97 Gflops/W) en El Capitan (60,94 Gflops/W).

De Jupiter-supercomputer werd in september gepresenteerd. De Jupiter Booster bestaat in totaal uit zo'n 6000 computenodes met elk vier Nvidia GH200-'superchips'. Elk van deze chips bestaat uit een Grace-cpu met 72 Arm Neoverse V2-cores, een Hopper-gpu met 16.896 CUDA-cores en 96GB HBM3. In totaal beschikt het systeem over 4.801.344 cpu- en gpu-cores.

De supercomputer krijgt naast de Booster-module een 'universele' cpu-cluster. Deze cluster maakt gebruik van SiPearl Rhea1-cpu's, die volledig zijn ontworpen in Europa. De cpu's beschikken elk over 80 Arm Neoverse V1-cores. In totaal zou de cluster beschikken over ruim 2600 van deze cpu's, elk met 64GB aan HBM. De Cluster-module haalt 5 petaflops aan fp64-rekenkracht.

Door Imre Himmelbauer

Redacteur

18-11-2025 • 18:55

52

Reacties (52)

Sorteer op:

Weergave:

Ik ben benieuwd waar ze die 15,7MW vandaan gaan toveren. Of is het Duitse stroomnet niet zo overbelast als het Nederlandse?
Enige nuance:
In Nederland is vrijwel alleen het laagspanningsnet overbelast. De kabels onder de grond naar woonwijken en kleine industriegebieden.

Erg energie intensieve locaties hebben soms een aansluiting op het hoogspanningsnet, waar relatief gezien voldoende transport capaciteit is.

Nu weet ik niet hoeveel datacentra er direct aangesloten zijn op het hoogspanningsnet. Maar kan me voorstellen dat het best rendabel kan zijn om die aan het hoogspanningsnet te hangen. Zeker als er meerdere energie intensieve datacentra dicht bij elkaar zitten.
Wat betreft het hoogspanningsnet zie ik op basis van het kaartje op https://www.enexis.nl/zak...gleveren#capaciteitskaart waar je kunt kiezen voor het regionale net en TenneT(hoogspanningsnet aldus de beschrijving erboven) dat bijna alles rood is, behalve een paar gele regio's zoals de randstad en Friesland.
Helaas, ook de 110kV, 150kV, 220kV en 380kV netten zijn overbelast.

In 2015 zaten die al 70+% vol en er is alleen maar meer vraag en hetzelfde aanbod.

[Reactie gewijzigd door T.C op 18 november 2025 21:47]

Ik vind ~16MW nogal meevallen. Dat zijn maar een tiental electrische auto's die staan te snelladen. Een gemiddeld Tesla laadplein heeft meer nodig.
Doet een snellader 1.6 MHw? Dat lijkt mij sterk. Tesla Superchargers hebben een vermogen van maximaal 250 kW.

16MW/250kW = 64 Superchargers.
Ah, dat is inderdaad een rekenfout van mij. Je hebt helemaal gelijk.

Aan de andere kant. nieuws: BYD wil volgend jaar 1000kW-snelladers in Nederland plaatsen

Heb je nog maar 16 laadpalen nodig...
Ik vrees dat je vergeet dat de buffers in die snelladers het geen 24/7 vol gaan houden. Dus om daar nou een datacenter me te vergelijken lol.
Klopt, maar met netcongestie is doorgaans piekbelasting eerder een probleem. Ik neem aan dat Standeman het daar over had.
Maar Tesla is al stations met 168 laatpunten heeft die allemaal 1.2kW kunnen leveren (Lost Hill). Dan begint het toch al aardig op het gebruik van een datacentrum te lijken.
Het complete verhaal is dat ze een 1.5MW aansluiting hebben (factor 10 lager dan waar we het nu over hebben), de rest komt uit batterijen en zonnepanelen.

Waar ik op reageer is "Een gemiddeld Tesla laadplein heeft meer nodig.". Lost Hills Supercharger hub is geen gemiddelde laadplein :)

Wat bedoel je met "die allemaal 1.2kW kunnen leveren", want 1.2kW is echt niks. Een supercharger kan namelijk tot 250 kW leveren. Of bedoel je als alle 168 laadpalen tegelijk in gebruik zijn?

Tevens zijn er nog geen 168 laadpalen. Dat zijn de plannen, ze willen groeien naar 168 palen. Momenteel zijn het er 84.
Ik dacht dat er voor AI gigawatt supercomputers aangekondigd waren? Tellen die dan niet mee in deze lijst?
Tja, dat is weer een heel ander verhaal.
Nee. In deze lijst tellen alleen computers mee die daadwerkelijk gebouwd zijn. Een aankondiging kan altijd weer ingetrokken worden....
Ik vind het bizar hoe het snelladen van auto's de perceptie van wat 'normaal' elektriciteitsverbruik is, heeft verstoord.

16MW is een enorme hoeveelheid, dat is het piekvermogen van 2000 huishoudens (uitgaande van een 1x35A aansluiting), als je kijkt naar het gemiddelde vermogen/verbruik heb je het zelfs over zo'n 40.000 huishoudens.

Als je kijkt naar het elektriciteitsgebruik van heel Nederland (dus inclusief industrie), dat is gemiddeld zo'n 13GW, dan is het dus ruim 0,1% daarvan. Niet bepaald insignificant.
Bekijk het maar eens op de kaart. Deze site staat midden in de kolenmijnen. En die kolenmijnen hebben een lopende banden die bijna meteen de oven van meerdere energiecentrales inlopen. Er staat daar ook veel windvermogen. Zolang er genoeg opwek is zit je nettechnisch dus heel dicht bij de producenten en is er minder kans dat je een bottleneck passeert.
Jülich, ligt daar niet dat enorme bruinkool gat met die centrale er naast? Oh ha, er staan nog wat zonnepaneeltjes en een paar honder windmolens
Julich ligt bij een bruinkolen dagbouw en een centrale vlakbij
Wat een monster: Wikipedia: Jupiter Booster

“The total budget for the acquisition, delivery, installation, and maintenance of Jupiter is €500 million, with €273 million allocated for hardware, software, and services, and the remaining €227 million for power, cooling, and operations.”
De Jupiter Booster is ook veel zuiniger dan de andere systemen: het systeem heeft een vermogen van 15,7MW, een stuk minder dan Aurora (38,6MW), Frontier (24,6MW) en El Capitan (29,7MW).
Het stroomverbruik per PFlop/s is dan toch zo goed als hetzelfde? Hoe is dat veel zuiniger?

Edit: Ik keek alleen naar El Capitan. Hij is inderdaad zuiniger dan Aurora en Frontier per PFlop.

Edit2: Bewoording in het artikel is nu aangepast.

[Reactie gewijzigd door Gepstra op 18 november 2025 23:05]

Kun je er Doom op spelen? Waar wordt zoiets voor gebruikt?
Volgens de Wiki: Scientific research and development, AI model training, climate modeling

Wikipedia: Jupiter Booster
Doom kan je op een printer spelen. Of een pdf-bestand.

Dit soort supercomputers worden gebruikt voor:
* Kernfysica onderzoek
* Eiwitten vouwen
* Klimaat onderzoek.
* Etc.

Eigen alles waar je een paar miljard variabelen hebt die bij een kleine wijziging de output enorm kunnen veranderen. :)

[Reactie gewijzigd door Standeman op 18 november 2025 19:12]

Alleen de 8-bit versie, met moeite....
Als de resolutie in stelt op 320x240 moet 15 fps haalbaar zijn.

nee maar terecht een goeie vraag, waarvoor worden deze supercomputers voor gebruikt. Ik weet wel dat er klimaat simulaties worden gedraaid op super computers, maar deze lijkt mij een beetje overkill daarvoor
Hoezo overkill? Al stilgestaan bij hoe complex weer en klimaat is? Een computer bouwen die dat correct en nauwkeurig kan simuleren is nog HEEL ver weg.
Klimaatsimulaties worden gedaan door de situatie (temperatuur, windrichting/ snelheid, luchtvochtigheid, etc.) in een cel te berekenen vbanuit de situatie van de omringende cellen, in de vorige tijdstap.
Hoe groter het deel van het aardoppervlak waarover wordt gerekend en kleiner de cellen en de tijdstappen, des te nauwkeuriger is de uitkomst van het model, maar ook hoe groter de benodigde rekenkracht en rekentijd. Wanneer je het model nauwkeriger wilt maken, of over een grotere tijdspanne wilt rekenen, moet óf de rekenkracht of de rekentijd omhoog.

Op dit moment is de rekenkracht nog volstrekt onvoldoende om op de gewenste kleine tijdschalen en celvolumes binnen een redelijke rekentijd nauwkeurige modellen door te rekenen.
Het gebrek aan rekenkracht maakt niet dat de mdellen nu onbetrouwnbaar zijn, maar dat ze minder nauwkeurig zijn dan gewenst en slechts een richting aangeven.

Hetzelfde geldt voor klimaat op de korte termijn, de weersverwachting. Hoe meer rekenkracht wordt ingezet des te nauwkeuriger kan de weersverwachting worden en hoe langer van te voren de weeersverwachting berekend kan worden.
But... does it run Crysis? :P
If doom can't runt it's crysis
Ik vraag me vooral af hoe software ontwikkeling en deployment precies werkt op zulke systemen. Werkt het met (een soort) container orchestrator laag zoals Kubernetes? Of draaien die systemen bepaalde software "bare metal" maar is de software zelf onwijs geparaleliseerd? Hoe dan? Zijn daar speciale libraries voor? Lijkt me allemaal zo enorm niche en mega interessant!
Als je zoveel geld uitgeeft voor super performance dan zou het zonde zijn om het als een k8s cluster te gebruiken. Je zou dan gespecialiseerde software willen hebben die alles er uit perst.
Dat vermoed ik ook. Maar wat dan? En wat zou er dan mis zijn met Kubernetes als dat ook wereldwijd gebruikt wordt voor cloud deployments van "gewone" productie software? Wat is er dan anders aan de deployment op zo'n supercomputer? Behalve het doel van de software, natuurlijk, dat begrijp ik. Ik ben zelf software ontwikkelaar maar ik besef me dat ik eigenlijk niets weet over hoe software in de praktijk werkt op zo'n HPC cluster. Lijkt me interessant om daar meer over te leren!
Als ik me het goed kan herinneren gebruikte de Cartesius supercomputer Slurm Workload Manager om zo verschillende computations te schedulen en te verdelen over de nodes
Slurm? Thx. Ik ga even een Rabbit Hole in. Moment
Dit soort machines is vooral geschikt voor massif parallel multicore high memory/bandwith/storage jobs. Een simple scriptje of zelfs een redelijk simpele mpi taak draai je sneller op een laptop, workstation of minicluster

Met name de overhead om je data daar te krijgen en weer terug, queue tijden en soms runtijd beperkingen maakt zo’n supercomputer niet altijd even handig, zeker niet bij veel ad hoc scripts
Dat begrijp ik goed, en ik weet al jaren op hoog over, abstract niveau dat dit zo is, maar HOE werkt dit nou precies in de praktijk?! Dat is dus wat ik me afvraag en eigenlijk maar weinig info over kan vinden. :)
Gewoon slurm denk ik, net als snellius of lumi
Gewoon slurm ;) Haha! Dankje ik ga het eens even opzoeken.
Hier zie je wat knowledge base hoe de HPC van ECMWF wordt gebruikt.

https://confluence.ecmwf.int/plugins/servlet/mobile?contentId=240851044#content/view/240851044

ECMWF heeft een HPC die de weersverwachting voor de komende 15 dagen voor Europa of wereldwijd uitrekent
Dank maar daarin zie ik de bash-scripts om jobs aan te bieden, te starten, te controleren. Maar er zullen programma's of iets anders in een bepaalde taal/system derbij moeten komen toch? Niet alleen “Hello World! I am task $SLURM_ARRAY_TASK_ID of the job array” of heb ik iets daar gemist? De weersverwachtingen worden toch niet door de shell berekende.
Dat weet ik helaas niet
Ligt er aan wat je oud vindt. De top 500 organisatie heeft gister het nieuws de lucht in geslingerd.
Dat was nog een voorlopige score (en een lagere score dan nu). Maar dat kan je ook al prima als het debut op plek 4 zien ja.
Waar wordt fl64 voor gebruikt?
Heeeul grote of nauwkeurige getalletjes :+
Rekenkracht wordt hier uitgedrukt in fp64, maar voor AI is fp4 interessanter dacht ik?
Dat is volgens mij meer omdat voor veel AI training en inference de exacte precisie niet zo heel erg uitmaakt. Het is toch al niet erg deterministisch allemaal. Daar offeren ze dus wat precies op voor meer througput. Ik neem toch aan dat voor echte wetenschappelijke berekeningen en simulaties precisie juist wél van wezenlijk belang is en 64-bit floating point precisie geweldig is.

Om te kunnen reageren moet je ingelogd zijn