Vrije Universiteit Brussel neemt Sofia-supercomputer in gebruik

De Vrije Universiteit Brussel heeft een nieuwe supercomputer in gebruik genomen. De computer heet Sofia en is de krachtigste computer in Vlaanderen. Het gaat om een zogeheten Tier-1-computer. Sofia is ontworpen om zo energiezuinig mogelijk te kunnen draaien.

De computer wordt beheerd door de Vrije Universiteit Brussel en staat in een datacenter in Zellik. Sofia moet beschikbaar komen voor Vlaamse wetenschappers en bedrijven. De VUB noemt het trainen van AI-modellen als voorbeeld, maar ook het draaien van simulaties in de lucht- of scheepvaart of het toepassen van wetenschappelijke modellen in de fysica of chemie.

De VUB geeft geen details over de technische capaciteiten van de supercomputer, zoals de rekenkracht, maar zegt wel dat het gaat om een zogeheten Tier-1-computer. In de tierindeling van supercomputers duidt dat op krachtige computers die op regionaal of landelijk niveau beschikbaar zijn. Vóór Sofia was er Hortense, een andere Tier-1-supercomputer, die door de Universiteit Gent werd beheerd. Die kon maximaal 3,3 petaflops aan rekenkracht leveren.

De universiteit zegt dat de supercomputer ontworpen is om extra zuinig te draaien. De computer heeft een power usage effectiveness van ongeveer 1,2, zegt de VUB. De Vlaamse regering draagt 8,6 miljoen euro bij aan het project.

Door Tijs Hofmans

Nieuwscoördinator

28-11-2025 • 11:06

22

Submitter: Admiral Freebee

Reacties (22)

Sorteer op:

Weergave:

AuteurTijsZonderH Nieuwscoördinator 28 november 2025 10:50
Ik kon dus nergens technische informatie vinden over deze computer, of ik moet er echt overheen hebben gekeken. Mocht iemand die wel voor me hebben, stuur het vooral door, dan pas ik het artikel er graag op aan!
>De specificaties van Sofia

–          21 Nodes uitgerust met 8 GPUs (NVIDIA H200 SXM5). Deze nodes hebben 192 cores en 4 GB geheugen per core. In totaal geeft dit 11.239,20 TFLOPS in FP64 aan rekenkracht. De nodes zijn onderling verbonden via een NVIDIA Quantum-2 400 Gbps InfiniBand netwerk.

–          56 ‘High core’ nodes met elk 384 cores en 2 GB geheugen per core voor een totaal van 1548,29 TFLOPS (FP64). Deze nodes zijn verbonden met een NVIDIA Quantum-2 InfiniBand netwerk aan 200 Gbps.

–          16 ‘High memory’ nodes met elk 192 cores en 8 GB geheugen per core voor een totaal van 255,59 TFLOPS (FP64). Deze nodes zijn verbonden met een NVIDIA Quantum-2 InfiniBand netwerk aan 400 Gbps.

–          4 Visualisatie nodes en een webportaal om snel en eenvoudig met het systeem te kunnen werken.
Bron: https://datanews.knack.be/analyse/achtergrond/nieuwe-vlaamse-tier-1-supercomputer-sofia-focust-op-ai-en-energie-efficientie/

Daar word ook nog wel gelinked naar een leuk opbouw filmpje hiervan: YouTube: TimeLapse opbouw Supercomputer Tier 1

[Reactie gewijzigd door Zenety op 28 november 2025 11:12]

Ik werk zelf veel in datacenters maar na het bekijken van de video heb ik geen idee hoe de cooling van deze servers precies tewerk gaat. Normaal is er een hot en cold aisle maar in dit geval zijn de deuren zelf volledig gesloten langs voor en achter. Iemand een idee?
In het filmpje zie je een hoop leidingen onder de vloer. Ik neem aan dat er dan een vorm van waterkoeling gebruikt wordt?
Hot aisle/cold aisle is oud DC-ontwerp. Een dergelijke PUE haal je alleen met waterkoeling (los van het feit dat met de komende generatie GPU’s luchtkoeling helemaal niet meer gaat kunnen).

In het filmpje zie je op 0:03 de back of rack koeling; zo te zien inderdaad volledige waterkoeling met een beperkte luchtkoelcapaciteit aan de zijkant van het rack. Dat laatste is nog nodig omdat een deel van de servercomponenten nog steeds luchtkoeling nodig blijft hebben (en waarschijnlijk de netwerkapparatuur ook). Het overgrote merendeel is echter vloeistof gekoeld, dat is efficienter en scheelt ook de noodzaak voor computairs (in plaats daarvan heb je Cooling Distribution Units die de koelvloeistof over de racks verdelen, en dat kan over het algemeen 100% efficiënt).
CPU en GPU hebben waterkoelblokken. Het geheugen wordt ook deels watergekoeld en al de rest van de warmte wordt met inrow-coolers die tussen de racks geplaatst zijn opgevangen.
Het geheel zit in een mini-containement. Je kan het beschouwen als een mini-koude-gang vooraan de racks en een mini-warme-gang achteraan de racks. Die mini-gangen krijg je door de racks vooraan en achteraan iets te verlengen en daarop dan gesloten deuren te plaatsen.
https://www.vub.be/nl/nieuws/vub-huldigt-nieuwe-vlaamse-supercomputer-in
Deze GPU’s gebruiken echter enorm veel elektriciteit, waardoor ze ook veel meer koeling nodig hebben. In die mate zelfs dat gewoon koele lucht aanvoeren en warme lucht afvoeren – zoals gebruikelijk is in datacenters – niet meer volstaat. Je hebt water en andere vloeistoffen nodig om die klus te klaren.
De CPU, GPUs en DIMMs worden direct met vloeistof gekoeld via een secundair circuit dat via een warmtewisselaar (CDU) is aangesloten op het koelcircuit van het datacenter. Dit zijn de buizen die je onder de vloer ziet. Voor de rest warmte (disks, ...) zijn er inrow koelers direct aangesloten op het primaire koelcircuit. De racks zijn volledig dicht en de lucht circuleert intern.

Langs de buitenkant is er inderdaad weinig te zien.

Als je graag de binnenkant wil zien: https://imgur.com/a/e2Yi6nL
Vreemd om de H200 prestaties in FP64 te benoemen, deze GPU heeft dat helemaal niet als voornaamste doel. Daarnaast gebruiken ze de ‘FP64 tensor core’ prestaties dus als ze het deden om met andere Top500 clusters te vergelijken is dat getal ook niet zinnig (dat mag dan gedeeld door twee).

Voor ML/AI is de FP32 score (en lager) meer van belang, en die is vele malen hoger (theoretisch dan).

https://nvidia.com/en-us/data-center/h200
<oeps>

[Reactie gewijzigd door Geekomatic op 28 november 2025 13:09]

Als ik het filmpje zo bekijk lijkt het wel of de deuren continue in de weg zitten. Is het niet handiger om die er op het laatst in te hangen?
Leuk. En wat gaan die Belgen ermee doen?
Yeah baby ! (in beste Austin Powers stem) :)
Staat in het artikel: AI trainen en simulaties.
Meestal worden ze ook gebruikt voor de ruimtevaart.
Begrotingstekort dichtrijden
Staat gelukkig in Zellik en niet Etterbeek, anders was Comac er reeds mee weg om het slap te doen superlullen over Marxisme en Intersectionaliteit.
De VUB noemt het trainen van AI-modellen als voorbeeld, maar ook het draaien van simulaties in de lucht- of scheepvaart of het toepassen van wetenschappelijke modellen in de fysica of chemie.
Ligt het aan mij of is een pue van 1.2 helemaal niet zo heel bijzonder?

Als ik op Wikipedia kijk zie ik waardes van 1.06 voorbij komen, wat toch een flink stuk beter is... Wikipedia: Power usage effectiveness

Dan vind ik het wel apart dat ze zuinigheid als een van de speerpunten noemen
Traditioneel zit het zo rond de 1.35-1.4 met koude/warme gangen, op te krikken met moderne systemen tot zo rond de 1.2. Daarna wordt het vloeistofkoeling en andere hippe toestanden om verder omlaag te komen. Google zit inderdaad veel lager, maar is mogelijk omdat zij custom hardware hebben, getuned voor de best mogelijke PUE. Een standaard Supermicro, Dell of HP server in een rack hangen die luchtkoeling heeft, gaat onder de 1.2 nooit lukken. En geen idee wat dat ding in België aan hitte produceert, maar 1.2 is zeker niet slecht, een modern datacenter toegankelijk voor de zakelijke markt haalt dat ook echter ook wel tegenwoordig.

Op dit item kan niet meer gereageerd worden.