Eerste Europese exascalecomputer wordt vanaf 2023 geïnstalleerd in Duitsland

Het EuroHPC-initiatief van de Europese Unie heeft vijf nieuwe locaties voor supercomputers in Europa geselecteerd. De regio krijgt in de komende jaren een exascalesupercomputer, die Jupiter heet en in een Duits onderzoekscentrum komt te staan.

Jupiter wordt het eerste exascalesysteem dat in Europa wordt gebouwd. Het systeem komt te staan op de campus van het supercomputingcentrum in Jülich, een stad in deelstaat Noordrijn-Westfalen in het westen van Duitsland. Het Duitse onderzoekscentrum zegt dat Jupiter vanaf 2023 wordt geïnstalleerd op zijn campus. Wanneer het systeem actief wordt, is nog niet bekend, maar Europa verwacht dat het systeem tot de top drie supercomputers in de wereld gaat behoren wanneer dat gebeurt. Het systeem gaat onder meer gebruikt worden voor onderzoek naar het klimaat, duurzame energie, materiaaltechnieken en biologische simulaties.

De Jupiter-exascalecomputer gaat volgens EuroHPC 500 miljoen euro kosten. De helft van die kosten worden gedekt door het EuroHPC-initiatief. De andere helft wordt bekostigd door het Duitse federale ministerie van Onderwijs en Onderzoek en het ministerie van Cultuur en Wetenschap van de deelstaat Noordrijn-Westfalen.

Er zijn momenteel nog weinig technische details over Jupiter bekend. Het supercomputingcentrum in Jülich spreekt wel over een systeem met een 'universele cluster' van processors en een 'booster'-cluster met gpu's, die bedoeld zijn voor parallelle berekeningen, bijvoorbeeld voor het maken van klimaatmodellen of het trainen van machinelearningalgoritmes. Op termijn kan het systeem bijvoorbeeld worden uitgebreid met andere modules, zoals quantummodules of neuromorfische modules.

De exacte specificaties zijn nog niet bekend. Lumi, een andere Europese supercomputer, maakt gebruik van AMD-hardware. Momenteel werkt een ander Europees initiatief aan eigen exascaleprocessors op basis van Arm en RISC-V. Dit European Processor Initiative verwacht tussen 2023 en 2024 zijn tweede generatie Cronos-cpu's te leveren, waarvan eerder werd gezegd dat die zijn bedoeld voor gebruik in 'de eerste Europese exascalesupercomputers'. Tegelijkertijd wordt een module met 'EU-technologie' genoemd als een toekomstige module, die niet in de basisconfiguratie zit. Het is dan ook niet officieel bevestigd of Jupiter EPI-chips krijgt. Tweakers heeft hierover vragen uitstaan bij EuroHPC en het onderzoekscentrum in Jülich.

Verder komen er nog vier supercomputers naar andere Europese lidstaten, die de exascalebarrière niet doorbreken. Zo krijgt de Griekse National Infrastructures for Research and Technology een supercomputer genaamd Daedelus. Levente gaat naar een Hongaars overheidsagentschap voor IT-ontwikkelingen, Caspir gaat naar Ierland en Ehpcpl komt in Polen te staan.

EuroHPC Jupiter exascale

Door Daan van Monsjou

Nieuwsredacteur

16-06-2022 • 10:16

31

Submitter: Sjuul.

Reacties (31)

31
31
21
4
0
8
Wijzig sortering

Sorteer op:

Weergave:

Ik werk bij het Jülich Supercomputing Centre en ik heb mijn kantoor naast de nieuwe hal (eigenlijk uitbreiding bestaande hal :) Ik ben niet betrokken bij de bouw van de nieuwe machine, maar ik kan wel vertellen dat de software waar ik product owner voor ben, de Arbor morfologische neurale netwerk simulator onderdeel van de benchmark suite is die gebruikt wordt om diverse compute hardware (GPU, CPU) en netwerk hardware te analyseren. Onze simulator is bedoeld om (delen van) fysieke hersenen te simuleren, maar het is vanaf de grond af gebouwd om optimaal van HPC gebruikt te kunnen maken, dus ik ben wel een beetje trots dat onze code gebruikt wordt om zo'n aanschaf te helpen maken :) We targetten allerlei hardware, bijv. ook ARM HPC, en via HIP/ROCm ondersteunen we ook AMD GPUs, wat in scientific computing redelijk uniek is (bijna iedereen gebruikt CUDA).

Mocht je overigens zelf een wetenschapper zijn en onze systemen willen gebruiken, afhankelijk van je affiliatie kun je hier toegang aanvragen: clique.

Ik ben dus niet betrokken bij Jupiter, maar ik kan mijn best doen vragen te beantwoorden.

[Reactie gewijzigd door Brent op 28 juli 2024 07:46]

Wordt de hardware keuze vooral gestuurd door de uitkomst van de benchmarks? Of zijn er andere factoren die zwaarder doorwegen?

Bijkomende vraag. Deze supercomputer zal best lang mee gaan. Veranderd het soort computations die gedaan worden aanzienlijk over de jaren, of zal deze supercomputer zich specialiseren in een bepaald soort berekeningen? In andere woorden: hoe representatief is de huidige benchmark-suite voor de toekomstige reële werklast?

Dank voor je AMA! Altijd leuk om te zien dat er tweakers werken aan interessante projecten.
Ik zit niet aan de juiste tafels om daar uitsluitsel over te geven, maar ongetwijfeld spelen er andere eisen mee: support van ontwerper, leverancier, dat soort zaken. We hebben know-how om ze zelf te bouwen, maar geen capaciteit dit ook daadwerkelijk te doen. Het JSC heeft inmiddels ruimte ervaring met diverse toko's, dus bestaande relaties (de bestaande supercomputers blijven voorlopig ook gewoon staan) zullen best een rol spelen.

Maar, kwa hardware binnen zo'n tender speelt de input van de expert groep die o.a. benchmarks doet een grote rol: als die zeggen: "wij willen AMD GPUs, EPYCs, en wel in zus en zo topologie", dan komt dat er.

In hoeverre loads veranderen, dat durf ik niet zomaar te zeggen want ik heb eigenlijk nooit gekeken naar wat voor users we nu eigenlijk hebben (ik werk in de neuroscience, maar andere grote groepen zijn fysici, en ingenieurs van allerlei soort, klimaatonderzoek). Hiervoor deed ik deeltjesfysische simulaties, en die zijn embarrasingly parallel: efficiente netwerk topologie of node configuratie maakt dan helemaal niets uit. In de computational neuroscience moeten nodes van het netwerk natuurlijk continue signalen uitwisselen, dat is immers de kerneigenschap van neurale netwerken, en dan maakt het opeens ontzettend uit wat voor netwerk backbone/topologie je hebt, en hoe nodes hierop zitten aangesloten.

Arbor speelt in de benchmarks echt de rol van "wat als straks alle software zowel geoptimaliseerd is voor compute, alswel zware eisen stelt aan internode communicatie?". Zo 1-2-3 komen alleen neuroscience en klimaatwetenschap bij me op als software die zulke eisen stellen. Veel (wetenschappelijke) HPC software is vaak een 'gewone' code met wat OpenMP en MPI erin geschoven daar waar het logisch lijkt om meerdere cores, en evt meerdere nodes te kunnen gebruiken. Maargoed, misschien lopen hier Tweakers rond die daar meer weten dan ik ;)
Mocht er nog iemand zich afvragen wat "exascale" betekend in deze context:
Exascale supercomputers are systems capable of performing more than a billion billion calculations per second
Uit het bronartikel.

Of de meer gedetailleerde beschrijving op wikipedia:
Exascale computing refers to computing systems capable of calculating at least "10^18 IEEE 754 Double Precision (64-bit) operations (multiplications and/or additions) per second (exaFLOP)"

[Reactie gewijzigd door AndrewF op 28 juli 2024 07:46]

Qua definities kan je beter de klassieke Engelse woordenboeken van je voorkeur gebruiken:
https://en.wikipedia.org/wiki/Category:English_dictionaries

Overigens, de context is gewoon IT, ICT of computers. Nog specifieker betreft het de rekenkernen.

[Reactie gewijzigd door Bulkzooi op 28 juli 2024 07:46]

Ik heb even gezocht bij wat Europese systeembouwers, maar zie helaas niet wie dit cluster gaat bouwen en de hardware gaat leveren. Dat zijn natuurlijk wel mooie opdrachten om binnen te halen.

Ik hoop op een vervolgartikel T.net!
Het gaat om Atos BullSequana X hardware
Oh, is dat al bekend? Dat heb ik gemist.
Ik denk dat @HaerdenCliff refereert naar jouw gelinkte cluster, tenzij hij uiteraard informatie heeft die Tweakers nog niet heeft.
Als je gaat kijken op de Atos website en je vergelijkt het artikel zal je zien dat alle elementen terug komen zowel het groen verhaal als de indeling van de processor en acceleratie is zo goed als letterlijk de blueprint van Atos.

https://atos.net/en/client-stories/forschungszentrum-julich

Er is een directe samenwerking tussen Atos en Julich, zowel in 2018, 2019 en 2021 hebben ze al super computers gebouwd dus het is volkomen onlogisch dat ze nu ineens het geheel over een totaal andere boeg zouden gooien maar dan wel exact dezelfde taal gebruiken in hun officiele communicaties.

Dus neen ik heb geen uitgebreide resources maar ik volg het een tijdje omdat ik het gewoon een interessante materie vind.
Dat door mij gelinkte cluster staat hier helemaal los van. Dat is een supercomputer die op het punt staat operationeel te worden en waar de afgelopen twee jaar aan gewerkt is.

Dit nieuwsbericht gaat over vijf supercomputers waarover de knoop is doorgehakt wat betreft financiering en locatie maar waarvan de bouw uiteraard nog moet beginnen.
Maar in je eigen link staat dat ie draait op BullSequana X hardware draait en ik betwijfel of @HaerdenCliff inside informatie heeft over iets wat Tweakers niet weet.

:? tijd voor een bakkie
Grote kans dat ATOS zich zal inschrijven om ze te bouwen. Die hebben ook de nieuwe supercomputer van het European Centre for Medium-Range Weather Forecasts (ECMWF) in Bologna gebouwd.
Dat zal pijnlijk zijn voor E4, die zitten er vlak naast. Maar leuk, wist niet eens dat ATOS ook in de HPC zat. Uiteraard zijn er nog een heel legio bouwers met een vergelijkbaar portfolio.

Maar ik begrijp dus goed dat het nog steeds in de aanbestedingsfase zit, dat verklaart een boel.
Atos is de derde grootste leverancier van de top500, zowel in aantal systemen als hoeveelheid geleverde performance.
"Het systeem gaat onder meer gebruikt worden voor onderzoek naar het klimaat, duurzame energie, materiaaltechnieken en biologische simulaties."
Uiteraard leuk dat we in Europa er ook een beetje bij (willen) gaan horen op dit vlak, dat we kennis op gaan bouwen en misschien ook echte problemen gaan oplossen...maar het klinkt toch redelijk hypocriet om criteria als bovenstaand aan te dragen om een energie en geld slurpend monster te bouwen van EUR500M. Die EUR500M (als het daarbij blijft) had beter gebruikt kunnen worden om de energie en materiaal consumptie te vermijden en te investeren in herbebossing oid.
Blijkbaar is dat de oplossingsrichting die gekozen is: structureel resources (geld, materiaal en energie) besteden aan meer technologie voor het klimaatprobleem.
Tjah. Als we door technologische vooruitgang elegante oplossingen kunnen vinden voor zaken die helpen met klimaat, duurzame energie en zo, dan kan de "return on investment" positief uitdraaien.

We hebben natuurlijk geen kristallen bol die de toekomst toont, dus je weet dat nooit zeker. Waarschijnlijk wordt hier wel verwacht dat de verbeteringen die door het gebruik van deze supercomputer verwezenlijkt worden meer impact zullen hebben dan het verbruik en de kost ervan.

Om maar even te speculeren: misschien helpt de supercomputer om kern fusie sneller te realiseren. Of misschien helpt het om duurzamere materialen te ontdekken (bvb plastic dat sneller door de natuur afgebroken wordt).
Het JSC doet daarom meer dan het bouwen van supercomputers: het zet ook in op het ontwikkelen van software die 'gebruiksvriendelijk' is en waar mogelijk efficiënt gebruik maakt van hardware. Perf/watt is absoluut de belangrijkste metriek bij een supercomputer.

Mijn eigen project, de Arbor simulator, is zeker een orde energie-efficiënter dan de competitie. Helaas krijgt dit punt nog maar weinig aandacht in de wetenschap: wetenschappers worden afgerekend op aantallen publicaties, niet publicaties per watt ;) Het is o.a. mijn taak onze gebruikersgroep op dit punt te sensibiliseren.
Ja, ik moest er ook wel een beetje om lachen. Laten we het klimaatprobleem proberen op te lossen door veel geld te gooien naar een extreem energie slurpend project :)

Maar goed, het is natuurlijk wel een enorm complex probleem waarvoor veel rekenkracht nodig zal zijn om een oplossing te berekenen.
Goh,

Zo complex is het niet hoor,

We hebben gewoon politieke wil (lees vooral minder corruptie nodig) om veel van deze problemen op te lossen. (en de wil (lees dus , minder corruptie) moet er dan ook nog eens over de hele wereld zijn.

Net nog toevallig naar de nederlandse televisie aan het kijken, was in het nieuws dat de boeren aan het protesteren waren dat ze de "uitstoot" van hun koeien moeten verminderen.
Dan na dit nieuwsbericht, reclame , "Vlieg vanaf 495,- euro met een LearJet een weekendje naar Ibiza" !!!!!

maarja, wie vliegt er met brandstof zonder belasting naar Ibiza, de boeren met hun koeien ? of de politiekers en hun dikke vriendjes ? :)

dus zoals ik zeg, oplossing is simpel hoor, maarja :)
Ik zou zweren dat ik gelezen heb dat die Daedelus supercomputer gebruikt gaat worden om het centrum voor aardbevingsonderzoek te versterken maar ik kan het nu nergens meer vinden. Als iemand daar meer over weet hoor ik het graag.
Het artikel geeft goed aan wat te verwachten van de miljardendubsidies van de EU.
Jülich heeft als enige een internationale wetenschappelijke reputatie, de andere vier niet. Als je kritisch kijkt naar de landen van die vier als EU- en Navoland dan wordt ik niet vrolijk.
Verder is ook duidelijk dat een eigen processor voor de exascale computers er niet inzit, ondanks eerder geüite ambititie en onderbouwing voor het grootse plan en uiteraard de megasubsidie van de EU.
Het geheel laat gewoon zien dat de EU(-landen) verder zullen dalen in de eredivisie van het wereldtoneel. De EU teert op het verleden. ASML is momenteel nog de enige ster van wereldformaat op hardware gebied. Na 2025 zal ook dat nog maar deels het geval zijn.
Je bent zelf ook onderdeel van de EU. Wat is jouw bijdrage om het beter te gaan doen?
Ik denk dat je ten onrechte IMEC vergeet dat op vlak van chip blueprint design een van de wereldspelers is. Deze spin off van de kuleuven zal in de technologieplannen van de EU ook een grote rol spelen.
De EU teert op het verleden. ASML is momenteel nog de enige ster van wereldformaat op hardware gebied. Na 2025 zal ook dat nog maar deels het geval zijn.
Hoezo dat? Wat staat er in 2025 gepland dan?
2025: Het einde van de Chinese grote sprong voorwaarts naar onafhankelijkheid op hardwaregebied van de VS, Taiwan, Zuid-Korea en Nederland(!). SMEE maakt vorderingen. China gaat een eigen euv machine maken. Die heb je echt nodig voor een exascalecomputer.
Wat is er belangrijk aan die eredivisie? De daadwerkelijke motivatie voor een dergelijk systeem is volgens mij amper it te leggen. Alles wat geen real-time vereist en alleen maar stack-wise rekenwerk kan ook met een online netwerk gedaan worden. Wat blijft er over?
De spelers in de eredivisie verdienen het grote geld en verdelen de macht. Dat geldt ook voor de wereld(economie) als geheel.
Ik snap je punt niet. Er wordt nu toch juist iets geproduceerd om op topniveau van de wereld te kunnen acteren. Dat lijkt me juist doeltreffend als je op niveau wilt meedoen...
Ik begrijp eerlijk gezegd niet zo goed waar je nu naar toe wil met je opmerkingen.

Die miljardensubsidie valt wel mee. Iedere lidstaat die succesvol een voorstel heeft ingediend heeft zelf de eerste 65% van de totale financiering op tafel gelegd, de EuroHPC Joint Undertaking gaat nu de resterende 35% aanvullen. De enige uitzondering is het systeem in Duitsland waar de JU 50% (€250 miljoen) bijlegt.

Als deze operationeel zijn staan waarschijnlijk vier van de tien top supercomputers in Europa. Dat zouden er natuurlijk meer kunnen zijn maar daar moet de buidel voor opengetrokken worden. Subsidies dus want private partijen doen zelden dit soort projecten.

Ook je opmerking over de NAVO begrijp ik niet zo goed. Ierland is inderdaad geen NAVO land maar ik zou niet weten waarom NAVO-lidmaatschap hier een voorwaarde voor zou moeten zijn. Als dat wél een voorwaarde was geweest dan had Ierland niet aan een voorstel gaan werken.

Wat ASML betreft, dat heeft hier helemaal niets mee te maken. ASML doet niet aan het beheren of bouwen van supercomputers of computerhardware. ASML maakt alleen lithografiemachines. Je zou misschien kunnen vragen waarom een Europese chipgigant als STMicro hier niet aan meedoet maar dat lijkt me vrij logisch aangezien die vooral op de massa consumentenmarkt zijn gericht, niet op de niche die supercomputing heet. De Europese supercomputergigant die hier misschien wel iets mee te maken krijgt is ATOS. Die hebben, zoals ik hier al schreef, ook de nieuwe de nieuwe supercomputer van het European Centre for Medium-Range Weather Forecasts (ECMWF) in Bologna gebouwd.

Een eigen exascale processor staat hier verder los van. Je kunt wel al je supercomputingprojecten in de ijskast zetten tot dat project klaar is maar dat betekent dus ten eerste vertraging en ten tweede afhankelijkheid van een externe ontwikkeling. Dat lijkt me niet zinnig.

Aan de ene kant lijk je moeite te hebben met het steken van geld in supercomputingprojecten, aan de andere kant denk je dat de EU-landen 'dalen in de eredivisie van het wereldtoneel'. Moeten we dan maar helemaal stoppen met het geld steken in supercomputingprojecten alles overlaten aan de Aziaten? Als de Aziaten dertig jaar geleden zo hadden gedacht dan waren ze niet gekomen waar ze nu zijn.

Op dit item kan niet meer gereageerd worden.