Nooit genoeg rekenkracht
Supercomputers zijn de buitencategorie van de computersystemen. Ze spreken al tot de verbeelding sinds het prille begin in de jaren zestig, toen Seymour Cray besloot systemen tot het uiterste te drijven om zoveel mogelijk rekenkracht te verkrijgen. Deels loopt de trend bij de rekenmonsters gelijk met die bij systemen van gewone gebruikers. Ook voor desktops en laptops gold lange tijd dat hoe meer rekenkracht ze boden, hoe beter het was. En net als bij consumentensystemen is ook bij supercomputers het energiegebruik in toenemende mate een hot item.
Desktops en laptops zijn echter in het stadium gekomen waarin de snelheid voor steeds meer gebruikers 'wel goed genoeg' is. Het besturingssysteem en de basisprogramma's draaien vlot, en heel grote sprongen hoeft de processor voor velen niet meer te maken. Bij laptops en 2-in-1-systemen is het verbruik inmiddels veel belangrijker, met het oog op een lange accuduur. Bij gamesystemen is altijd meer grafische rekenkracht gewenst, maar de snelste cpu hoef je al lang niet meer te hebben.
Bij high performance computing is er geen 'goed genoeg'. Er is een continu streven om aanzienlijk meer rekenkracht te leveren, zowel door de cpu's als in toenemende mate door gpu's en dat liefst tegen een zo laag mogelijk energiegebruik. Er is immers steeds meer data om complexe rekentaken op los te laten, zowel in grote bedrijven als bij wetenschappelijke instituten. Steeds meer wetenschappelijke disciplines zien bovendien de voordelen van big data voor het onderzoek in hun vakgebied.
Supercomputers worden gebruikt om realtime sensordata van satellieten over de toestand van bossen te verwerken, om vliegtuigmotoren te simuleren, bij bodemonderzoek door de olie- en gasindustrie, voor simulaties van complexe chemische verbindingen van nieuwe materialen en medicijnen, in het kader van omvangrijke economische modellen, enzovoorts.
Het is daarom dat besloten is door de ministeries van OCW en EZ, en NWO, om de nationale supercomputer een upgrade te geven. Dat gebeurt via Surf, de ict-organisatie voor het onderwijs en onderzoeksinstellingen.
Geschiedenis: CDC en Cray
Nederland telt een aantal supercomputers, systemen die als een geheel aan complexe rekentaken kunnen werken. Het KNMI heeft bijvoorbeeld een omvangrijk cluster, dat werkt aan weer- en klimaatmodellen. Tweakers ging er in 2012 langs voor een videoreport. In Groningen stond lange tijd een IBM Blue Gene-cluster van de Universiteit Groningen en Astron, het instituut voor radioastronomie, realtime-telescoopdata te verwerken. In België biedt het bedrijf Cenaero rekendiensten aan met een bijzonder krachtig systeem en dit jaar moet er een nieuwe Vlaamse supercomputer bij de KU Leuven in werking gezet worden die tot de honderdvijftig krachtigste systemen ter wereld moet gaan behoren.
Van niet ieder systeem is even duidelijk waar en bij wie het staat. Zo staat er in de top vijfhonderd van supercomputers van Hewlett-Packard een Nederlands cluster bij een niet nader genoemde 'it service provider'. Bovendien is lang niet ieder systeem publiekelijk bekendgemaakt. Zo zijn er wellicht high- performance-computingsystemen bij overheidsorganen als inlichtingendiensten waar niets over bekend is.
Een reusachtig rekenmonster
Een systeem dat nadrukkelijk wel in de openbaarheid treedt, is de 'nationale supercomputer'. Dit is het belangrijkste rekensysteem voor de Nederlandse universitaire wereld. Wetenschappers kunnen hiervan gebruikmaken om grote hoeveelheden data te verwerken, taken waar andere systemen weken, maanden of zelfs jaren over zouden doen. Het omvangrijke systeem staat in een relatief bescheiden ruimte bij SURFsara op het Science Park in Amsterdam. Binnenkort krijgt het een plek in het Nationale HPC Datacentrum dat op het Science Park in aanbouw is.
SURFsara is in 1971 opgericht als SARA door de Universiteit van Amsterdam, de Vrije Universiteit Amsterdam en het Centrum voor Wiskunde en Informatica als verantwoordelijk instituut voor de ict-infrastructuur voor onderzoek. In de hoedanigheid van Nationaal HPC Centrum huisvest de organisatie al sinds 1984 supercomputers, te beginnen met de Control Data Corporation Cyber 205, een voor die tijd reusachtig rekenmonster.

Dit systeem bood in zijn eerste configuratie een piekrekenkracht van 0,1 gigaflops, oftewel 100 miljoen floatingpointbewerkingen per seconde. Ter vergelijking: een enkele Core i7-6700K biedt volgens de benchmark Linpack een rekenkracht van meer dan 200Gflops, een GeForce GTX 980 Ti gaat over de 5000Gflops: respectievelijk 200 miljard en 5000 miljard flops dus.
In de jaren tachtig en negentig werd de CDC opgevolgd door Cray-, SGI- en IBM-systemen, en bleef Sara de standplaats voor nationale supercomputers, met namen als Elsa, Teras, Aster en Huygens.
SURFsara Nationale Supercomputers |
Jaar |
Systeem |
RPeak Gflops |
kW |
Gflops/kW |
1984 |
CDC Cyber205-611 |
0,1 |
250 |
0,0004 |
1988 |
CDC Cyber205-642 |
0,2 |
250 |
0,0008 |
1991 |
CrayY-MP4/464 |
1,33 |
200 |
0,0067 |
1994 |
Elsa: Cray C98/4256 |
4 |
300 |
0,0133 |
1997 |
Elsa: CrayC916/121024 |
12 |
500 |
0,024 |
2000 |
Teras: SGI Origin 3800 |
1024 |
300 |
3,4 |
2004 |
Aster: SGI Origin 3800 +SGI Altix 3700 |
3200 |
500 |
6,4 |
2007 |
Huygens: IBM p575 Power5+ |
14.592 |
375 |
40 |
2008 |
Huygens: IBM p575 Power6 |
62.566 |
540 |
116 |
2009 |
Huygens: IBM p575 Power6 |
64.973 |
560 |
116 |
2013 |
Cartesius: Bull bullx B710 + R428 E3 |
270.950 |
245 |
1106 |
2014 |
Cartesius: + Bull bullx B515 (Nvidia K40m) |
+209.933 |
+44,4 |
4728 |
2014 |
Cartesius: Bull bullx compleet (+B720) |
1.559.155 |
791 |
1971 |
Huygens was de voorloper van de huidige nationale supercomputer, Cartesius. In zijn eerste configuratie, bij de bouw in 2007, bestond Huygens uit 1920 IBM Power5+-processors die op 1,9GHz liepen. De nodes van de IBM System 575 waren via Infiniband verbonden en leverden samen een rekenkracht van 14,6 teraflops. Bij de uiteindelijke configuratie, een jaar later, werden er 3328 Power6-cpu's met een kloksnelheid van 4,7GHz ingeschakeld. Het totale werkgeheugen was toen 15,6TB groot en de diskcapaciteit bedroeg 972TB. Het systeem was in 2008 goed voor plek 53 van de wereldwijde top vijfhonderd van supercomputers.
/i/2001021249.jpeg?f=imagenormal)
Huygens oplappen?
Stilstand is achteruitgang en dit geldt vooral voor computers. Na zijn ingebruikname zakte Huygens van kwartaal op kwartaal verder op de ranglijst. Eind 2011 was de achterstand van Neerlands trots ten opzichte van andere supercomputers zo groot geworden dat het systeem uit de top vijfhonderd verdween.
Nederland dreigde achterop te raken bij high-performance-computing en dat wilde de toenmalige minister van Economische Zaken, Landbouw en Innovatie, Maxime Verhagen, niet laten gebeuren. Vol goede moed kondigde hij een upgrade van 7 miljoen euro voor Huygens aan, waarmee 'een topnotering weer in het vizier' moest komen.
Dat was echter te vroeg gejuicht. Oplappen van de IBM System 575 zat er niet meer in. Het was tijd voor een supercomputer van een nieuwe generatie.
/i/2001021881.png?f=imagenormal)
De rechte groene lijn tussen 2009 tot in 2013 laat zien dat Huygens door het gebrek aan upgrades langzaam uit de top vijfhonderd (blauwe lijn) verdwijnt
Van Huygens naar Descartes
De nationale supercomputer die in 2013 in gebruik genomen werd, heet Cartesius, de Latijnse naam van René Descartes. Niet toevallig was dat net als Huygens een onderzoeker die veel voor de Nederlandse wetenschap betekend heeft en die bovendien niet vies was van een potje rekenwerk: Apud me omnia fiunt Mathematicè in Natura. Daarnaast is voor René Descartes gekozen vanwege de link met Frankrijk. Het Cartesius-systeem is namelijk afkomstig van het Franse it-bedrijf Atos, dat onder de Bull-merknaam hpc-systemen levert.
We zitten in de kleine ruimte voor de systeembeheerder bij SURFsara. De wand is gevuld met geprinte A4-tjes, met plakband aan elkaar geplakt, waarop de topologie van Cartesius schematisch is weergegeven, een schril contrast met het hightech systeem in de ruimte erachter. We zijn hier op uitnodiging van Hugo Meiland, hpc-specialist bij Atos Big Data & Security en verantwoordelijk voor de hardwareondersteuning van Cartesius. Aanwezig is ook Michel Scheerman, systemprogrammeur bij SURFsara. De aanleiding is de omvangrijke upgrade die Cartesius aan het einde van het jaar krijgt.
"Niet alle wetenschappers waren daar even blij mee"
Cartesius is in tegenstelling tot Huygens ontworpen om meer dan eens een upgrade te krijgen. Daarnaast speelden de prestaties van het bestandssysteem en het verbruik een belangrijke rol bij de aanbesteding. Uiteindelijk wist Atos met zijn voorstel de opdracht in de wacht te slepen, maar dit betekende een grote omwenteling: van IBM's PowerPC-architectuur naar Intels x86. "Niet alle wetenschappers waren daar even blij mee, ze moesten delen van hun code herschrijven om optimaal van de andere processorarchitectuur gebruik te kunnen maken", vertelt Scheerman.
Huygens is bij de overstap ontmanteld en in de container gegaan. "De mensen die daarbij hebben geholpen hebben nog steeds zere knieën van het uit de grond trekken van de kabels", grinnikt Meiland. De systemen bij Huygens waren namelijk nog met elkaar verbonden via koperen kabels, die een stuk zwaarder zijn dan de glasvezelkabels van Cartesius. "In totaal had Huygens dertig kilometer aan koperen kabels. Je kon er de hele ringweg van Amsterdam mee beleggen", zegt Scheerman.
Meiland rekent voor dat Cartesius over veertig kilometer kabel beschikt, grotendeels glas. "Dat moet ook wel, want de afstanden tussen de onderdelen zijn te groot. Een koperen kabel mag niet langer dan tien meter zijn voor goede signaaloverdracht. Dat is geen probleem bij de supercomputer van het KNMI, want die bestaat uit zes racks, maar Cartesius bestaat uit veertig racks."
/i/2001026883.jpeg?f=imagenormal)
Die racks zijn verdeeld in verschillende onderdelen. In zijn oorspronkelijk opgeleverde vorm, in april 2013, bestond Cartesius nog slechts uit twee racks met 180 thin nodes en 32 zogenoemde fat nodes, systemen met veel cores en geheugen. "Deze nodes zijn bedoeld voor alle gebruikers die van Huygens kwamen. Bij dat systeem hadden alle nodes de beschikking over 256GB. De trend is tegenwoordig minder geheugen per core, maar we hadden nog gebruikers die meer geheugen nodig hadden voor hun rekenwerk." De nodes van dit onderdeel beschikken elk over vier Intel Xeon E5-4650-octacores, die nog op Sandy Bridge gebaseerd zijn.
Bij SURFsara hanteren ze de term 'eiland' om delen van Cartesius aan te duiden. Binnen elk eiland zorgen de onderlinge verbindingen tussen nodes voor de maximale bandbreedte, tussen eilanden is er een verdelingsfactor van 3:1.
Nieuwe eilanden
In 2013 werden twee nieuwe eilanden toegevoegd, die in totaal uit 540 thin nodes bestaan, met elk twee Intel Xeon E5-2695 v2-processors, dit zijn chips met twaalf cores die op Ivy Bridge gebaseerd zijn. Een jaar later kreeg het cluster een uitbreiding met een accelerator-eiland, dat vooral parallelle rekenkracht biedt dankzij de aanwezigheid van Nvidia Tesla K40M-gpu's.
Systeem |
Node-type |
Cores |
Cpu/gpu |
Kloksn. |
Geheugen |
Aantal nodes |
Aantal cores |
Tflops |
bullx B720 |
thin |
24 |
2x 12-core Xeon E5-2690 v3 (Haswell) |
2,6GHz |
64GB |
1080 (eiland: 3x360) |
25.920 |
1078 |
bullx B710 |
thin |
24 |
2x 12-core Xeon E5-2695 v2 (Ivy Bridge) |
2,4GHz |
64GB |
540 (eiland: 1x360+1x180) |
12.960 |
249 |
bullx R428 |
fat |
32 |
4x 8-core Xeon E5-4650 (Sandy Bridge) |
2,7GHz |
256GB |
32 |
1024 |
22 |
bullx B515 |
gpu |
16 |
2x 8-core E5-2450 v2 (Sandy Bridge), 2x Nvidia Tesla K40M |
2,5GHz |
96GB |
66 |
1056/ 132 gpu's |
210 |
In november 2014 kreeg Cartesius de vorm die hij nu heeft, met een flinke uitbreiding met Intel Haswell-Xeons. Er werden maar liefst 1080 nodes toegevoegd, verdeeld over drie eilanden. Door de uitbreiding werd het aantal cpu-cores uitgebreid naar maar liefst 40.960. De theoretisch maximale rekenkracht komt daarmee uit op bijna 1,6 petaflops, maar in de praktijk kan dit niet gehaald worden.
Voor een plek in de top vijfhonderd moet een hpc-cluster namelijk de synthetische benchmark LinPack draaien, een oude in Fortran geschreven benchmark die vooral om vectorberekeningen draait. Het gaat hierbij om gelijktijdige berekeningen aan floatingpoint-, of drijvendekommagetallen, uitgedrukt in floating point operations per second, of flops. Een supercomputer moet als een geheel deze software draaien en uiteindelijk een enkele uitkomst geven. Bij Cartesius zijn niet alle onderdelen zo met elkaar verbonden dat ze samen tot die uitkomst kunnen komen. De Ivy Bridge- en Haswell-thinnodes kunnen dit wel en bieden samen een theoretische rekenkracht van 1327Tflops. Bij de recentste benchmarksessie werd in de praktijk 1088Tflops gehaald, goed voor plek 69 in de top vijfhonderd. In 2014 wist Cartesius nog plek 45 te halen. De daling op de ranglijst is nog niet significant, maar genoeg om een nieuwe uitbreiding aan te kondigen.
/i/2001026853.png?f=imagenormal)
Meer petaflops
SURFsara maakte in februari bekend dat de uitbreiding deels uit Intel-processors van de Broadwell-generatie gaat bestaan en dat de rekenkracht moet toenemen van theoretisch 1,559Pflops tot 1,8Pflops. Dat blijkt echter maar een voorbeeld van wat zou kunnen; de opdracht is nog niet precies ingevuld.
Toch kan Meiland al wel iets meer vertellen. "In feite gebeurt er niet veel anders dan bij eerdere uitbreidingen. We plaatsen een eiland bij. We hebben nu twee switches, daar komt een derde bij om alles met elkaar in verbinding te houden. Waar de uitbreiding precies uit gaat bestaan weten we nog niet. SARA heeft een budget vastgesteld, maar de vrijheid behouden om te kiezen of het iets met Broadwell gaat doen, iets met Intels Xeon Phi Knights Landing-accelerators of dat het Nvidia Pascal-gpu's gaat toepassen."
Atos kan deze onderdelen bieden met zijn Bull Sequana-platform. Dat is het platform waarop nieuwe generaties supercomputers van het bedrijf gebaseerd zijn en waarmee Atos de race naar exascale-computing inzet. Fabrikanten zijn in deze strijd beland met het streven het eerste cluster te bouwen dat een exaflops, oftewel een miljard miljard flops, aan rekenkracht biedt.
/i/2001027453.jpeg?f=imagenormal)
Bull Sequana X1000 met aan weerszijden twee kabinetten met plek voor 144 compute nodes en in het midden een switch-kabinet. Onderaan zitten de hydraulische modules voor vloeibare koeling.
Onderdeel van Sequana, en dus van de upgrade van Cartesius, is verder de komst van Infiniband EDR. Infiniband is een standaard van het bedrijf Mellanox voor de communicatie tussen de onderdelen van een supercomputer. Dankzij de hoge doorvoersnelheid en de lage latency is het de meestgebruikte interconnectstandaard voor hpc-systemen wereldwijd. Cartesius gebruikt nu nog Infiniband FDR, met een bandbreedte van 56Gbit/s, opgebouwd uit vier kanalen van 14Gbit/s. Cartesius gebruikt actieve glasvezelkabels met aan het uiteinde een omzetting van glas naar koper waarbij elektronica is geïntegreerd. Dat maakt de kabels duur; ze kosten honderden euro's per stuk. "De integratie garandeert dat de aansluiting optimaal en de latency laag is", noemt Meiland als reden voor de keuze.
Met de overstap naar Infiniband EDR neemt de bandbreedte toe tot 100Gbit/s. Met die bandbreedte is Cartesius voorbereid op de toekomst, maar de echte winst zit volgens de Atos Bull-medewerker in de latency, de tijd die het kost om van de ene naar de andere computer te komen.
"Om stukjes data van een harde schijf te halen zou 11,5 dagen duren"
"De verbindingen tussen de onderdelen zijn kritisch. Die zorgen ervoor dat je genoeg data aan je cpu en alu kan blijven voeden om door te rekenen. De interconnectie is wat het tot een supercomputer maakt", zegt Meiland. Hij rekent voor: "Een 1GHz-cpu doet er 1 klokcycle over om zijn eigen registers te benaderen; data uit L1-cache halen doet hij in 2 cycles. Vertalen we dat naar menselijke schaal, dan zou het, zeg, 1 seconde zijn. Bij L2-cache duurt het bij die schaal 2 seconden en data uit het geheugen halen duurt dan 3,2 minuut. Om stukjes data van een harde schijf te halen zou dan 11,5 dagen duren. Je kunt natuurlijk overstappen naar flashgeheugen, dan breng je het terug tot een dag."
Oranje spaghetti
Meiland maakt nu de overstap naar de interconnect. "Op het moment dat je een verbinding hebt en iets uit het geheugen van een andere computer gaat pakken, doe je daar met een 1Gbit/s-koperlijn 3,3 uur over. Dat is heel wat minder dan 11 dagen, maar het kost nog altijd heel wat meer tijd dan het benaderen van het eigen geheugen. Met 10Gbit/s op koper breng je dat aardig terug, naar 50 minuten. Met Infiniband FDR zit je op ongeveer 12 minuten en dan kom je ergens; dan is het nog maar vier keer zo lang als uit het eigen geheugen. Met EDR zitten we straks op ongeveer 8 minuten."
Aan de achterkant van ieder chassis komen 18 glaskabels uit de geïntegreerde Infiniband-switch. In het chassis zitten daar ook nog eens 18 servers op aangesloten. In totaal heeft een Infiniband-switch dus 36 aansluitingen. Die 36 is niet zomaar gekozen, claimt Meiland. "Je kunt daar met je topologie heel veel kanten mee uit; je kunt de touwtjes verdelen over 2, 3, enzovoort. Het maakt je flexibel." Per 18 horizontaal komen ze uit de Level-1 Infiniband-switch, waarna ze naar de Level-2-switches geleid worden en daar verticaal over verdeeld worden. Ook die kruisverbanden hebben een reden. "We praten vanaf een van de nodes met een van de switches en willen naar een andere node. Met die kruisverbanden verdeel je de load over de volgende 18 switches. De reden daarvoor is dat we statistisch gezien geen bottleneck creëren."
Het levert op sommige plekken een enorme oranje spaghetti aan kabels op, aangevuld met de reguliere ethernetkabels die gebruikt kunnen worden voor de overige communicatie met de machines. Kabels worden bovenlangs in goten geleid. Te zien is dat kabelmanagement met glas ondanks de hoeveelheid een stuk eenvoudiger moet zijn dan met koper. Het gpu-eiland van Cartesius werkt nog met zwarte koperen kabels, die een stuk dikker en minder flexibel zijn.
Waterkoeling
In de ruimte waarin Cartesius en andere hpc-systemen staan, klinkt het bijna alsof je in een vliegtuig staat, maar de nationale supercomputer is maar deels verantwoordelijk voor de noise. Een groot deel van het systeem, bestaande uit de bullx B720-blades, wordt namelijk met vloeistof gekoeld, waardoor geen ventilators nodig zijn.
/i/2001027527.jpeg?f=imagenormal)
Het gaat om een gesloten koelsysteem, dat de vloeistof via dikke slangen rechtstreeks de systemen inpompt. De processor, de chipset en de overige onderdelen worden van zo dichtbij mogelijk gekoeld. Bull heeft hiervoor zijn eigen chassis ontworpen, waarbij het de kunst was om mogelijkheden voor flexibel beheer te behouden. De blades kunnen gewoon in en uit het kabinet geschoven worden voor onderhoud, zonder dat Cartesius uitgeschakeld hoeft te worden.
Aan de achterkant is hiervoor een connector geplaatst die direct en volledig druppelvrij verbinding met het koelsysteem maakt. Ook de rest van de onderdelen blijft te benaderen. Een systeem van kanalen leidt de vloeistof in de blade langs de processors. De geheugenmodules zitten tussen thermisch geleidend foam met een koperen koelplaat.
"Je hoeft alleen maar te pompen"
De vloeistof komt met een temperatuur van ongeveer 30 graden het systeem binnen en gaat er met 35 graden weer uit. Vervolgens wordt de vloeistof bij Cartesius naar het dak van het SURFsara-gebouw geleid om af te koelen. "Je hoeft alleen maar te pompen, er vindt geen actieve koeling plaats, wat weer energie scheelt. Het hoeft buiten alleen maar minder dan 34 graden te zijn om voldoende af te koelen. Dat is het in Nederland meestal wel", zegt systeembeheerder Scheerman.
"Luchtkoeling blijft vast nog wel even, maar waterkoeling is in opmars", vult Meiland aan. "Het hangt van de systemen af. Dit zijn systemen waarbij we in een kleine ruimte ontzettend veel warmte genereren. We willen de computer zo klein mogelijk houden en er zoveel mogelijk cpu-capaciteit in stoppen."
De oudere R428-blades van Cartesius zijn echter nog wel voorzien van koeling met ventilators. Zo worden de fat nodes met vier Xeon E5-4650-octacores en 256GB geheugen nog met lucht gekoeld. Deze systemen zijn rond moederborden van SuperMicro opgetrokken.
/i/2001027515.jpeg?f=imagenormal)
Eveneens met lucht gekoeld, maar wel ontworpen door Bull zijn de B515 accelerated blades met Nvidia Tesla-kaarten. Deze systemen hadden wel met vloeistofkoeling kunnen werken, maar daar is niet voor gekozen, omdat SURFsara ondersteuning voor gpu direct wilde, legt Scheerman uit. Dit is een truc die is ontwikkeld door Mellanox en Nvidia om de cpu te omzeilen als je vanuit het ene systeem het gpu-geheugen van het andere wil benaderen. "Hier zit de Infiniband-kaart gelijnd in dezelfde pci-configuratie als de gpu-kaart. Je hoeft dus niet over de Intel Quickpath Interconnect om te praten met het geheugen van de gpu. Dat zou namelijk meer tijd kosten."
/i/2001027529.jpeg?f=imagenormal)
Meiland: "Bij de B515 zie je twee sockets op verschillende dochterborden. Het bordje onderaan is een interconnectbord, maar de sockets zelf en het geheugen zitten daar dwars op. Tussenin zitten de grafische kaarten en ze beschikken dus over twee Infiniband-kaarten. Aan de achterkant van die racks zie je ook dat alle 18 poorten bezet zijn, terwijl er maar 9 servers inzitten. Dat klopt, want ze hebben twee Infiniband-kaarten."
Nieuwe ronde, nieuwe benchmarks
Achter de opvallend vormgegeven deurtjes van de kabinetten van Cartesius gaat een interessante mengelmoes van technieken en hardwaregeneraties schuil. Die verscheidenheid gaat nog eens toenemen met de komst van de upgrade, later dit jaar. Nieuwe Xeon-processors, Xeon Phi-accelerators, gpu's op basis van een nieuwe architectuur en dat alles in een enkel eiland op een geheel nieuwe plek in het Nationale HPC Datacenter. Daarbovenop komt nog een upgrade voor Infiniband en wellicht verbeterde vloeistofkoeling.
Het in aanbouw zijnde HPC Datacenter op het Science Park Amsterdam, komende thuishaven van Cartesius
Zo blijft Neerlands nationale computer meedoen met de grote jongens wereldwijd en kunnen wetenschappers er terecht met nog zwaarder rekenwerk en grotere datasets. Atos' hpc-specialist Meiland en systeembeheerder Scheerman kunnen niet wachten tot ze de eerste benchmarks kunnen draaien. "In september, oktober gaan we uitleveren. Ergens daarna zorgen we dat we het systeem vrijhouden, zodat we Linpack een nacht door kunnen laten draaien voor een topvijfhonderdnotering. Dat zijn de mooie momenten waarop we na een nacht vol spanning hopelijk een mooie uitkomst krijgen."
Met de uitbreiding naar in theorie 1,8 petaflops is Cartesius nog ver verwijderd van exascale-computing, maar volgens Meiland is het slechten van de grens van 1 exaflops dichterbij dan het lijkt. "Technisch gezien, met de machines, kan dat binnen afzienbare tijd. Er zijn nog wat technische stappen te maken, maar 2020 gaan we wel halen", voorspelt hij. "Het probleem zit hem bij de software. Linpack, dat kan daarmee overweg, maar ja, dat is een synthetische benchmark. De software schaalt niet genoeg."
Daar snijdt de Atos-medewerker een belangrijk onderwerp aan: hoe zit het met de software? En wat gebeurt er met de opslag, het beheer en het daadwerkelijke gebruik? Genoeg reden om in de toekomst nog eens op bezoek te gaan bij Cartesius.