We haalden het net al even aan: het buzzword voor supercomputers van de jaren twintig wordt: ‘exascale’. We zitten nu nog in de petascaleperiode; de snelste supercomputers hebben een rekenkracht van enkele honderden petaflops, maar de groei in rekenkracht gaat gestaag door. Met exascale-supercomputers, met een rekenkracht van een miljard maal een miljard berekeningen per seconde, oftewel 10^18 flops, zouden hersenen gesimuleerd kunnen worden, en zouden we nog beter het weer en het klimaat kunnen voorspellen.
De groei in rekenkracht van de Top500-supercomputers is echter in de laatste jaren wat aan het afvlakken. Dat is niet omdat computers niet krachtiger kunnen worden, maar vooral een gevolg van de honger naar energie en de daarmee gepaard gaande koelingseisen. We kunnen nodes blijven toevoegen aan een systeem, maar als de energiebehoefte de koelcapaciteit van een gebouw overschrijdt, heeft dat weinig zin. Daarom wordt gezocht naar manieren om supercomputers zuiniger te maken en tegelijk de capaciteit minstens gelijk te houden of te vergroten. Dat heeft geleid tot de Green500, de lijst met de zuinigste supercomputers op basis van rekenkracht per watt.
Als we de Top500-lijst erbij pakken, zitten supercomputers sinds 2016 op een plateaucapaciteit van ongeveer 100 petaflops, maar als de geschiedenis zich herhaalt, wordt dat weer doorbroken. De lijst laat namelijk steeds periodes van weinig groei zien, met elke twee jaar sprongen in rekencapaciteit, die waarschijnlijk deels aan architecturele verbeteringen van processors zijn te danken. Volgens die redenatie zijn exascale-supercomputers rond 2022 pas te verwachten, terwijl de industrie eerder had gerekend op 2020.
Desalniettemin heeft China plannen om in 2020 een exascalesysteem online te krijgen en in het Europese Human Brain Project werken onderzoekers samen om een brein te simuleren. Ook de Verenigde Staten, Japan en Taiwan werken aan exascalecomputers. De stap na exascale, waarbij computers over zettaflops kunnen beschikken, zou het mogelijk maken om het weer wereldwijd accuraat te voorspellen, tot twee weken van tevoren. Weer een factor duizend, op de yottascale, zou nodig zijn om de hersenen van alle mensen te simuleren.
Voorlopig moet echter eerst de exascalebarrière worden doorbroken en wordt gezocht naar manieren om computers efficiënter te laten werken. Dat kan enerzijds met conventionele supercomputertechnieken als grote clusters processors en videokaarten, maar we zien ook steeds meer zuinige architecturen als ARM gebruikt worden. In de toekomst zouden wellicht andere computersystemen, die niet van de Von Neumann-architectuur gebruikmaken, zoals quantumcomputers of neuromorfe computers, de Top500-lijsten kunnen aanvoeren. Of die computers zinnige Linpack-resultaten kunnen neerzetten, is echter twijfelachtig. Misschien hebben we dan na decennia een nieuwe benchmark voor de grootste en meest complexe computers die we hebben.