Een onderzoeker van de TU Delft heeft manieren gevonden om gpu's efficiënt in te zetten bij verfijning van weer- en klimaatmodellen. Het onderzoek is uitgevoerd in samenwerking met het KNMI en brengt nieuwe toepassingen binnen handbereik.
Onderzoeker Jerôme Schalkwijk promoveerde dinsdag cum laude op het onderzoek, schrijft de TU Delft op zijn nieuwssite. Om het onderzoek te kunnen doen, is een bepaald soort klimaatmodel onderzocht en aangepast, de zogenaamde Large-Eddy Simulations. LES-modellen bestrijken in tegenstelling tot traditionele modellen, kleinere gebieden in oppervlakte, maar geven een veel groter detail weer. Het doel was uit te zoeken hoe goed LES te gebruiken is om het 'werkelijke' weer of klimaat te modelleren. Door de grote hoeveelheid benodigde rekenkracht worden LES-modellen eigenlijk alleen maar voor geïdealiseerde gevallen ingezet. Het LES-model blijkt echter goed aan te passen voor gpu's, zodat nieuwe toepassingen zoals weersvoorspellingen, mogelijk worden.
Het nieuwe GPU-LES-model werd uitgerust met procedures om op een realistische manier de grond- en atmosfeerinteractie en de grootschalige invloeden te behandelen. Om het model te testen, werd een situatie in het jaar 2012 gebruikt rond het dorp Cabauw, vlakbij Lopik. Bij het dorp staat een 213 meter hoge meetmast van het KNMI. Het model geeft de turbulentie en de wolkenprocessen in dat jaar weer.
Het gebruik van gpu's voor allerhande berekeningen lijkt tegenwoordig aan de orde van de dag te zijn, maar dat was het zeker nog niet toen Schalkwijk met zijn promotie begon, vertelt hij aan Tweakers. "Toen we begonnen met mijn promotie-onderzoek 4,5 jaar geleden was het hele gpu-verhaal veel meer onontgonnen terrein, zeker binnen de weer- en klimaatwetenschap. Wij zijn eigenlijk begonnen met gpu's juist omdat er vaak grote supercomputers ingezet worden op dit terrein. Rekenen op een supercomputer klinkt heel gaaf, maar dat heeft wel een omslachtige workflow."
"Met behulp van de gpu konden we ineens simulaties draaien die we tot dan op ongeveer één à twee nodes van de Huygens-supercomputer* bij SURFsara draaiden, met bijkomend voordeel dat de simulaties ook direct mooi gevisualiseerd kunnen worden", vertelt Schalkwijk verder. Hij geeft een opsomming van het aantal stappen van een supercomputer die je dan overslaat. Na het bedenken van de parameters om de simulatie mee te starten, hoef je geen tijd meer te reserveren, geen specifieke bestanden meer over te zetten, geen programma's opnieuw te compileren en geen jobs in de queue zetten. Ook hoef je niet te wachten op de uitkomsten om die vervolgens op een lokaal systeem over te zetten om pas daarna te kunnen zien of de simulatie wel goed gegaan is.
Omdat het gebruik van gpu's zo goed ging, werd besloten ook te gaan kijken bij supercomputers die gebruik maken van gpu's. Uiteindelijk werden de grootste simulaties op de Franse supercomputer CURIE gedraaid, de proof-of-concepts, van het weer over heel Nederland op een 100 meter resolutie. Daarbij werden 256 gpu's van het cluster ingezet om een 'weersvoorspelling van de toekomst' te maken. Het is nog niet mogelijk om een weersvoorspelling te maken, want nu duurt de simulatie nog langer dan de gesimuleerde tijd. "Maar", zegt Schalkwijk, "dit kan zomaar zijn hoe een weersvoorspelling er over tien jaar uitziet."
Tijdens het onderzoek zijn heel wat verschillende grafische kaarten de revue gepasseerd. Ook consumentenmodellen, maar deze bleken niet betrouwbaar genoeg. "Stel, je bent drie uur aan het rekenen en ineens wordt een rekenfout gemaakt en de simulatie ontploft. Het moment van de crash is niet reproduceerbaar. Uiteindelijk bleken veel kaarten overgeklokt geleverd te worden door fabrikanten." Toch zijn consumentenkaarten nog steeds interessant voor test- of demosystemen of voor educatie, denkt Schalkwijk.
* De Huygens-supercomputer bestaat al enkele jaren niet meer.