Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Bedrag van 20 miljoen euro moet nationale supercomputer hogere positie geven

De overheid investeert achttien miljoen euro in de bouw van een nieuwe nationale supercomputer, een bedrag dat door de organisatie SURF met twee miljoen euro wordt aangevuld. De investering moet de supercomputer een flink stuk krachtiger maken.

De investering is volgens minister van Onderwijs, Cultuur en Wetenschap van Engelshoven nodig omdat de huidige supercomputer verouderd is en dringend moet worden vervangen. "De wetenschappers die bij hun onderzoek afhankelijk zijn van de nationale supercomputer, uit vakgebieden zoals klimaatwetenschap, theoretische chemie en astronomie, moeten internationaal competitief kunnen blijven."

De minister noemt als streven een capaciteitsverhoging met een factor 5,5 tot 7,8 en een hernieuwde positie in de top vijftig van de Top500 van 's werelds krachtigste supercomputers. In de actuele lijst staat de huidige nationale supercomputer, Cartesius, op plek 360. Dat systeem bereikte zijn hoogste plek in 2014 na een upgrade. Toen werd plek 45 bereikt.

Volgens Peter Michielse, chief technology officer van SURF, moet niet te veel gelet worden op bovenstaande cijfers. "Een hoge notering is voor ons geen doel. We willen een breed scala aan onderzoekers uit verschillende domeinen bedienen en zoeken een general purpose-machine." Volgens hem is de genoemde verbetering met een factor 5,5 tot 7,8 gebaseerd op een zeer conservatieve schatting en hij denkt dat de uiteindelijke snelheidsverhoging hoger kan uitpakken. De benoeming van de notering in de Top500 is volgens hem het gevolg van het feit dat de supercomputer in het verleden na investeringen in de top vijftig kwam.

"Wij zijn hoe dan ook blij met de investering. Cartesius is nu maximaal bezet en we zijn ons al maanden aan het voorbereiden op de vervanging. We hebben bijvoorbeeld al de set benchmarks uitgekozen die leveranciers bij de aanbesteding moeten gebruiken", zegt Michielse. Het gaat daarbij om benchmarks die representatief zijn voor de wetenschappelijke berekeningen die onderzoekers draaien.

Michielse: "De belangrijke component is de applicatieperformance. Verbruik is ook een criterium. Het datacentrum op het Science Park waar het cluster komt, is bijvoorbeeld groen en we gaan weer van waterkoeling en warmte- en koudeopslag gebruikmaken. Ook zal het nieuwe systeem weer een gpu-cluster bevatten. Bij Cartesius maakt dat cluster ongeveer twaalf procent van de prestaties uit en dat aandeel van gpu's gaan we verhogen." Volgens Michielse is het toenemende gebruik van gpu's onontbeerlijk voor de ontwikkeling richting pre-exascaleprestaties. De piekrekenkracht van de krachtigste supercomputers gaat richting exaflops, oftewel een miljard miljard flops.

Hoe de nieuwe nationale supercomputer er daadwerkelijk uit komt te zien en hoe deze gaat presteren, is afhankelijk van de uitkomst van de aanbesteding. Het doel is om het cluster in het eerste kwartaal van 2020 in gebruik te nemen.

Een deel van de huidige nationale supercomputer, Cartesius

Door Olaf van Miltenburg

Nieuwscoördinator

27-03-2019 • 14:03

63 Linkedin Google+

Reacties (63)

Wijzig sortering
De huidige super computer heeft de volgende specs:
47,776 cores + 132 GPUs: 1.843 Pflop/s (theoretical peak performance)
25,920 Haswell cores (thin nodes): 1.078 Pflop/s
12,960 Ivy Bridge cores (thin nodes): 249 Tflop/s
5,664 Broadwell cores (thin nodes): 236 Tflop/s
1,056 Ivy Bridge cores + 132 K40m GPUs (GPGPU nodes): 210 Tflop/s
1,152 Knights Landing cores: 48 Tflop/s
1,024 Sandy Bridge cores (fat nodes): 22 Tflop/s
130 TB memory (CPU + GPGPU + HBM)
Wel grappig dat er zo veel verschillende CPU architecturen door elkaar gebruikt worden.
En hij heeft zelfs Knights Landing kaarten er in zitten (misschien hier beter bekend Als Intel's een na laatste GPU project Larrabee alleen is dit de 2e generatie en deze chips zijn nooit als GPU uitgekomen maar alleen als compute kaart).

De overige GPU's zijn van nVidia Tesla K40M kaarten met GK110 GPU (Kepler generatie).

Ik ben benieuwd wat de nieuwe supercomputer gaat krijgen. Ik hoop zelf op Zen2 + Instinc Mi60.
Maar het zal wel weer een Intel Systeem gaan worden met nVidia Volta compute kaarten.

[Reactie gewijzigd door Astennu op 27 maart 2019 15:28]

Er zal in ieder geval grotendeels Nvidia kaarten in zitten, aangezien CUDA in veel projecten verwerkt zit zoals bijv vrijwel alle AI frameworks. Zen2 lijkt me inderdaad ook wel leuk om te zien.
Cuda is OLD , de nieuwere kaarten van Nvidia zijn beter met openCL als met Cuda.
Dat wil ik best geloven, maar het gaat in dit geval om ondersteuning. Nvidia kaarten hebben CUDA en OpenCL, dus hebben een bredere selectie aan frameworks die gebruikt kunnen worden. Dat is denk ik de grootste reden om voor Nvidia kaarten te kiezen ipv AMD.
Dunno de taken die je draait zijn zo specifiek als die Instinct kaarten daar beter voor zijn is het wel de moeite de boel om te zetten.

Nu is de GV100 ook erg krachtig en heeft ook tensor cores die interessant kunnen zijn.
Al zijn ze erg duur.

Vooral de prijs is bij de MI60 interessant. En die zijn ook erg goed in FP64, FP322, FP16 en ook relatief goed in Int 4 en 8. Dus het zou geen slechte keuze zijn.
De titel klinkt als wedstrijdje ver-plassen. Maar gelukkig geeft SURF zelf al aan dat het vooral om de uitbreiding van de rekenkracht te doen is.

Vraag me af of zo'n supercomputer nog wel rendabel is en je niet beter een cluster van gewone PCs in kan zetten. Wellicht distributed }:O
Ik zou het ook wel cool vinden als ik een donatie zou kunnen doen dmv mijn resources ter beschikking te stellen (wanneer mij dat uitkomt ofc)
Er zijn talloze projecten die dat mogelijk maken. Ken je ons eigen Dutch Power Cows ?
Dit kan je al door door lid te worden van het World Community Grid. Hiermee "doneer" je jouw capaciteit wanneer jou dat uitkomt om te gebruiken voor onderzoek.

Link: https://www.worldcommunitygrid.org
Thanks, ik ken het en heb het ook wel gedaan, maar zou het toch mooier vinden om dit voor/binnen nederland te doen.
@dehardstyler Dat vind ik wel erg cynisch van je, tuurlijk ben ik voor kankeronderzoek (waar dat dan ook mag zijn), maar dat staat nogal los van deze discussie....

@CAPSLOCK2000 Laat weten dat er zelfs projecten lopen onder de tweakers (Dutch Power Cows) die kanker onderzoeken ook steunen.

Het is toch mooi dat dit soort projecten landelijk/lokaal gebeuren en communities opbouwen. Ik vind internationaal samenwerken ook mooi, maar je moet af en toe ook de focus op je eigen land/omgeving leggen. Onze eigen nederlandse onderzoekers kunnen onze rekenkracht ook gebruiken.

[Reactie gewijzigd door GVeen op 27 maart 2019 14:52]

Dutch Power Cows is een team naam, World Community Grid is een van de platformen waarop het actief is. Er is dan in principe ook geen directe focus op een landelijk iets.
Misschien vertrouwd hij Amerikaanse onderzoeken niet :)?
Dat je een onderzoek naar privacy niet vertrouwt kan ik in komen, maar wat is er niet te vertrouwen aan een wereldwijd onderzoek naar enge ziektes?
Ik ken zelf de organisatie niet, maar misschien is hij bang dat ze een medicijn vinden en hem vervolgens € 500.000 per dosis maken ?
Je kunt ook gewoon helemaal niet mee doen en niks vinden, wat kies jij? :D
Volgens mij staat hij niet graag achter phenomenen als dit https://www.bbc.com/news/world-us-canada-34320413 of nog recenter https://www.cbsnews.com/n...als-boehringer-ingelheim/

Amerikaanse Pharma is dan ook gekend als een profit first "medisch" wereldje.
Dus het is best te begrijpen dat hij en misschien anderen liefst enkel alleen aan Nederlandse onderzoek wil meedoen i.p.v Internationaal.
Denk jij echt dat dit anders is in Nederland? Wat heerlijk naïef zeg. De farmaceutische industrie is terminaal ziek. Niet de Amerikaanse farmaceutische industrie en niet de Nederlandse. Maar de farmaceutische industrie. De pil is hier ook niet meer verkrijgbaar en bepaalde ADHD medicijnen ook niet, want Nederland betaald niet genoeg.
Nederland betaald wel genoeg maar medicijnen worden in India goedkoper gemaakt.
Als je op die fiets begint waarom koopt men dan geen rekencapaciteit in het buitenland, is misschien veel goedkoper.

Er is niets mis met een beetje nationalistisch denken op dit gebied en ondersteunen van Nederlands onderzoek.

Het gaat daarnaast zeker ook niet alleen om kanker maar vele andere zaken.
Als je op die fiets begint waarom koopt men dan geen rekencapaciteit in het buitenland, is misschien veel goedkoper.
Omdat het nu gratis is?
Er is niets mis met een beetje nationalistisch denken op dit gebied en ondersteunen van Nederlands onderzoek.
Op medisch gebied juist wel. Bij de berekening van kernwapens inderdaad niet.
Je laat het nu overkomen alsof een Nederlands farmaceutisch bedrijf er een veel betere moraal op na houdt, dan zo'n zelfde bedrijf uit een ander land. Ook @Silversatin.
Het gaat daarnaast zeker ook niet alleen om kanker maar vele andere zaken.
Klopt, ik zal de andere 10.000 ziektes nog even toevoegen aan mijn eerste bericht....
Dat is Boinc toch ?
Er zijn wel zulke projecten, bijvoorbeeld Folding@home: https://foldingathome.org/
"Folding@home (FAH or F@h) is a distributed computing project for disease research that simulates protein folding, computational drug design, and other types of molecular dynamics. As of today, the project is using the idle resources of personal computers owned by volunteers from all over the world. Thousands of people contribute to the success of this project."

Of SETI@home: https://setiathome.berkeley.edu/
"SETI@home is a scientific experiment, based at UC Berkeley, that uses Internet-connected computers in the Search for Extraterrestrial Intelligence (SETI). You can participate by running a free program that downloads and analyzes radio telescope data. "
Effectief zijn moderne "supercomputers" ook gewoon PCs, maar dan met een wat snellere netwerkverbinding om data met elkaar uit te wisselen en misschien wat meer gpus dan een gemiddelde gamebak :)
Effectief zijn moderne "supercomputers" ook gewoon PCs,
Nee, het zijn beide computers (je weet wel, de C in PC), en daarom delen ze eigenschappen.
De originele Cartesius had geen enkele GPU. Erger: er zit video op het moederbord: een Matrox G400. Dat is een zuivere 2D pixelpoeper zonder enige acceleratie. En het 'netwerk' is een Mellanox Infiniband die ofwel op 56Gbit/s, 100Gbit/s of 200Gbit/s draait, maar veel belangrijker: een hele lage latency heeft. Wat gamers 'ping' noemen. Gamers zijn blij met een ping van 10ms, 10GE zit op 0.03ms, Infiniband zit inmiddels op 0.0006ms. Als data van de ene node nodig is op de andere node is iedere nanoseconde die je er op moet wachten verspilde tijd.

Cartesius-nodes lijken net zoveel op jouw PC als formule 1 auto's op jouw auto lijken.
De communicatie tussen een cluster van gewone PCs is meestal niet snel genoeg. Zelfs 10 Gigabit legt het af tegen een degelijk inifiniband-netwerk.

Darnaast wordt daarmee de ruimte ook een ding. Als je een cluster compacter kan maken, heb je minder ruimte nodig. Wij hebben een klein cluster van bijna 4000 cores, in de vorm van 160 24-cores EPYC processors. Dat past in 80 nodes in anderhalf rack. Bedenk eens dat je daar 160 PCs neer mag gaan zetten.
Vraag me af of zo'n supercomputer nog wel rendabel is en je niet beter een cluster van gewone PCs in kan zetten. Wellicht distributed }:O
Ja en nee, die supercomputers zijn tegenwoordig allemaal clusters van min of meer "gewone" hardware die zijn gekoppeld via een super snel netwerk. Maar het zijn geen gewone PC's maar wel redelijk gewone zakelijke hardware. Als je honderden of duizenden van die systemen wil beheren wil je toch wat van die professionele features hebben zoals beheer op afstand en controle over het verbruik en de warmte-productie van zo'n systeem.
Maar wanneer je zoveel systemen bestelt zijn fabrikanten ook wel bereid om wat extra aanpassingen voor je te doen, dus zijn het toch weer "bijzondere" systemen, maar dat is meer omdat het er zo veel zijn als dat het inhoudelijk iets anders is dan een gewone PC.
Dat dacht ik ook inderdaad. Ben überhaupt benieuwd of dr ook daadwerkelijk jobs zijn die de "hele" super computer aan het werk zet. Is het niet gewoon zo dat de meeste onderzoekers een aantal nodes claimen en daar gaan rekenen?
Is het niet gewoon zo dat de meeste onderzoekers een aantal nodes claimen en daar gaan rekenen?
Min of meer, typisch geven ze op hoeveel threads / CPU-cores / GPU's ze tegelijk willen gebruiken, niet alle processen schalen namelijk naar een heel groot aantal nodes, vaak is het zo dat het minder efficient wordt naarmate je meer nodes gaan gebruiken. Ook verschilt het van taak tot taak wat je precies nodig hebt, bv heel veel CPU-cores, of heel veel RAM, of vooral veel GPU.

Omdat er een hoop mensen tegelijkertijd gebruik maken van dat cluster is er eigenlijk nooit ruimte om de hele supercomputer voor jezelf te claimen.

Omdat die onderzoekers per uur CPU-tijd moeten afrekenen hebben ze er wel belang bij om daar een beetje handig mee om te gaan, maar de realiteit is dat de wetenschappers niet genoeg van IT & programmeren weten om dat echt goed te doen. Daarnaast kopen ze het niet echt per uur in, maar koopt hun baas die tijd in grote blokken in en zien de meeste onderzoekers de rekening dus nooit. Om praktische redenen zijn er daarom limieten aan de gebruikers gesteld zodat ze elkaar niet te veel in de weg zitten en een klein foutje niet het hele cluster in beslag neemt.
Rendabel zijn is altijd een afweging, je wil ook enige mate van betrouwbaarheid. Ook is niet alle data geschikt om zo maar bij jan en allemaal op de PC te draaien omdat dit gevoelige informatie is.

En je hebt niet alleen rekenkracht nodig, ook snelle verbindingen, geheugen en storage
De titel klinkt als wedstrijdje ver-plassen. Maar gelukkig geeft SURF zelf al aan dat het vooral om de uitbreiding van de rekenkracht te doen is.
Mee eens, gelukkig staat er iemand met hersens aan het roer die het om de inhoud te doen is, en niet om neuzelige ranglijstjes. Maar ze boffen, deep learning / AI is hotter dan ooit, en we moeten natuurlijk 'laten zien' dat we internationaal 'meekomen' etc etc.
In denk dat er in dat rentabiliteit plaatje in dit geval ook wordt gekeken naar de immateriële opbrengsten voor de wetenschap. Die zijn niet te kwantificeren, maar worden denk ik wel meegewogen hierin.
rendabler kwa wat?
Als we gewoon puur de CO2 uitstoot zouden gaan nemen (toch een hot item nu)
is de super computer vele malen efficienter..

Al die mensen die mee doen aan Dutch Power Cows/ Seti en dat soort dingen zou dat gewoon niet moeten doen maar een bedrag moeten storten om gezamenlijk een super computer hetzelfde te laten doen. Vele malen beter voor het milieu..
maar waarom betalen de instanties die gebruik maken van deze Supercomputer niet mee?

of is het zo dat deze mensen betalen om gebruik te maken van?

[Reactie gewijzigd door bArAbAtsbB op 27 maart 2019 14:09]

maar waarom betalen de instanties die gebruik maken van deze Supercomputer niet mee?

of is het zo dat deze mensen betalen om gebruik te maken van?
Die betalen ook, maar de gebruikers van dit systeem zijn vooral universiteiten en onderzoeksinstellingen die een flink deel van hun budget zelf ook weer van de overheid krijgen, wat dat betreft maakt het dus weinig verschil. Hooguit scheelt het wat overhead omdat het geld direct wordt overgemaakt ipv via een omweg.
Ik kan me voorstellen dat er gewoon een prijs per minuut aan zit o.i.d.
Zou het ook niet raar vinden als dit niet geheel kostendekkend hoeft te zijn om op die manier de wetenschap een beetje te ondersteunen.
Die kopen rekentijd in bij SARA. Dus die betalen wel indirect het cluster. Het is een twee-traps raket :)
De nieuwe supercomputer moet volgens de bronnen in eerste kwartaal 2020 in gebruik zijn, niet 2021 zoals in het artikel staat.
Al aangepast. Inderdaad moet de nieuwe supercomputer binnen een klein jaar gereed zijn. Ik ben benieuwd of ze ook een nieuwe naam gaan kiezen, na Elsa, Teras, Aster, Huygens en Cartegius Cartesius. Zo ja, ik stem voor Lorentz. :)

[Reactie gewijzigd door Olaf op 27 maart 2019 16:23]

Cartesius, geen Cargesius. ;) Typefoutje denk ik, het staat wel goed in het artikel.

Iedere nieuwe supercomputer krijgt een andere naam, dus deze ongetwijfeld ook. Misschien een prijsvraag uitschrijven...?
In navolging van Boaty McBoatface krijgen we dan Floppy McFlopface of zo? Misschien niet zo'n heel goed idee...
why not? een beetje humor is best wenselijk en ik moest toch even grinniken bij het lezen van Floppy McFlopface.
Errare humanum est. |:( Prijsvraag zou leuk zijn maar dan misschien wel kiezen uit een aantal voorgeselecteerde opties.
Het is mij nou niet echt duidelijk of het oude systeem nou echt vervangen gaat worden, met andere woorden, de oude gaat de shredder in. Of dat de oude behouden blijft. Kan me zo voorstellen dat er genoeg partijen behoefte aan hebben, maar niet per se een top500 machine nodig hebben.
Onderschat niet hoeveel het kost om zo'n systeem te draaien, de aanschafprijs is daar maar een deel van. Waarschijnlijk zijn de stroomkosten per jaar alleen al hoger dan de aanschafprijs. Je kan zo'n systeem ook niet zomaar op zolder zetten, je zal er een gebouw voor moeten (ver)bouwen met (simplistisch gezegd) enorme dikke stroomkabels en een gigantische airco. Liefst direct in de buurt van een energiecentrale.
Als je dan nieuwe hardware kan kopen die dubbel zo zuinig is dan is het een no-brainer om je oude hardware weg te gooien en nieuwe te kopen. Daarom koopt niemand een afgedankte supercomputer, een nieuwe geeft meer bang / buck.

Dit systeem bestaat uit verschillende soorten nodes en kan stukje bij beetje worden uitgebreid of vervangen.

[Reactie gewijzigd door CAPSLOCK2000 op 27 maart 2019 23:07]

In de shredder is zonde: op Markplaats met bieden :)
Er zijn diverse opties :

Na circa 2-3 jaar is de flops/watt verhouding meestal al zo dat puur op energie verbruik vervangen loont.
Na circa 4-5 jaar is support op de hardware vaak zo duur dat vervangen loont

Echter heb ik in mijn beheer ook een cluster dat inmiddels de 9 jaar aantikt ... toch nog dagelijks voor 75% of meer bezet en voor velen onmisbaar.
Ben benieuwd of over een jaar of 50 de rekenkracht uit deze huidige supercomputer dan terug te vinden is in een smartphone.
Off course, is nu geloof ik 20 jaar,
Dus een smartphone van nu heeft net zoveel rekenkracht als een supercomputer uit 1999 :)

https://www.top500.org/list/1999/11/

[Reactie gewijzigd door itcouldbeanyone op 27 maart 2019 18:00]

Als je kijkt op https://iopscience.iop.or...742-6596/681/1/012049/pdf dan zie je de Cortex A15 zo'n 1.5 gflops halen per core. Hij heeft 4 cores, dus 6 gflops.

De langzaamste supercomputer van de lijst uit 1999 haalde 33,1 gflops. Een smartphone komt dus inderdaad ernstig in de buurt!

Voor echte smartphone performance moeten we terug naar 1996. Nog steeds indrukwekkend dus!
Jammer dat er een aantal dingen missen in het artikel zo als, wat is de specificatie van de huidige machine? Ondanks dat de Top500 niet uitmaakt zou men waar wat trots zijn als het ding in de top 10 zou staan. Dus waarom dan niet even een zinnetje over de absolute top en de prestaties hier van om dan de huidige prestaties van de super computer te melden, met de ongeveer verwachte prestaties van de opvolger.
Ook het gebruik van het woord flops, dat eigenlijk een afkorting is van floating point operations per second. Had niet misstaan in dit verhaal. Natuurlijk zijn de meeste tweakers hier heus wel van op de hoogte maar als een niet tweaker of iemand die nog niet zo goed ingevoerd is in de terminologie zo iets leest dan zou het toch wel leuk zijn om net wat meer informatie te leveren dan nu gedaan wordt.

Daar naast, is het leuk dat het ding eindelijk eens een heel klein beetje geld krijgt om eindelijk weer eens wat beter te gaan presteren. De manier waarop deze computer eigenlijk gewoon verwaarloosd wordt door de overheid die claimt een kennis economie na te streven waar onderzoek en innovatie hoog in het vaandel staan is toch vreemd. Je zou zeggen dat de overheid die altijd maar overal op bezuinigt toch eindelijk eens een beetje geld beschikbaar zou moeten kunnen maken voor het bouwen van een echte super computer die een flink stuk krachtiger is dan wat er nu staat.
Die foto bij het artikel heeft toch maar een rare hoek.
Kon eerst mijn hoofd er niet om wikkelen. Of het nu een traliewerk was of zo geverfd.

Blijkt dus dat dit een weerspiegeling is van de kasten die buiten het zicht staan.
De kast ziet er duurder uit dan de inhoud - dat zit fout. Een computer moet rekenen en vooral niet te mooi zijn!
Ik zou wel een paar scriptjes los willen laten op deze computer. Zoeken naar een weerlegging van wat wiskundige conjectures.
Leuk dat er in wordt geïnvesteerd.
Je kan voor een paar cent tot hooguit anderhalve euro per uur wat machines huren op Vast.ai.
Van kleine gpu accelerated servers tot dual cpu machines met 10 rtx2080ti videokaarten.

Er daar één gebruiker die zijn script met een eigen taskscheduler op meerdere machines (honderden) tegelijk laat draaien. Voor een knaak en een bounty een distributed supercomputer.
Nice! Bedankt voor de tip.


Om te kunnen reageren moet je ingelogd zijn


OnePlus 7 Microsoft Xbox One S All-Digital Edition LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Sony PlayStation 5

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True