Amerikaanse exascalecomputer met AMD-hardware neemt koppositie Top500 over

De Frontier-supercomputer van het Amerikaanse Oak Ridge National Laboratory met AMD EPYC-cpu's en Instinct-accelerators heeft de eerste plek in de Top500- en Green500-lijsten van supercomputers overgenomen. Japan had de afgelopen twee jaar die koppositie.

Het Frontier-systeem haalt in de High-Performance Linpack-benchmark een score van ruim 1,1 exaflops. Dat is ruim twee keer zoveel als de Japanse Fugaku-supercomputer met Arm-cores, die sinds 2020 bovenaan de Top500-lijst van supercomputers stond. Iedere zes maanden komt er een update van die lijst uit.

In 2019 werd de Frontier-supercomputer aangekondigd. Het systeem op basis van het HPE Cray EX235a-platform is nu volledig operationeel. De supercomputer is opgebouwd uit AMD EPYC-processors van de derde generatie, met 64 cores per cpu op een snelheid van 2GHz. Het systeem bevat daarnaast AMD Instinct MI250X-accelerators, op basis van gpu's met een multi-chipontwerp.

Supercomputers Top500 juni 2022
Top 10 van supercomputer Top500 juni 2022

In totaal heeft het systeem volgens de Top500-lijst 8.730.112 cores. Dat is de combinatie van cpu- en gpu-cores. Volgens HPE zitten 9408 AMD EPYC-processors en 37.632 Instinct-gpu's in het systeem. De componenten zijn verdeeld over 74 watergekoelde HPE Cray EX-kasten, die verbonden zijn met de HPE Slingshot-interconnect. De supercomputer heeft 700 petabyte aan opslag, met een piekschrijfsnelheid van meer dan 35 terabyte per seconde, aldus de fabrikant.

De Amerikaanse supercomputer heeft niet alleen wat pure rekenkracht betreft de koppositie. Frontier staat ook op de eerste plek van de Green500-lijst, waarbij het om efficiëntie gaat. Het systeem verbruikt 21.100kW en komt daarmee uit op een verhouding van ongeveer 52 gigaflops per watt. Daarmee is de supercomputer veel efficiënter dan het Fugaku-systeem, dat een kleine 15 gigaflops per watt haalt.

Op de derde plek in de Top500 staat nu de Europese LUMI-supercomputer, die in Finland wordt gebouwd. Dit systeem is gebaseerd op hetzelfde HPE Cray EX235a-platform als de Frontier-exascalecomputer, maar met zo'n 1,1 miljoen cores een stuk kleiner. LUMI haalt in de HPL-benchmark een score van ongeveer 152 petaflops en is vrijwel net zo efficiënt als Frontier.

Frontier staat in een wetenschapslaboratorium en is gefinancierd door het Amerikaanse ministerie van Energie. Datzelfde ministerie is de opdrachtgever voor de Aurora-supercomputer op basis van Intel-hardware. Die is meermaals uitgesteld, maar krijgt ook een hogere rekenkracht dan aanvankelijk werd verwacht. Aurora zou met zijn Xeon-processors van de Sapphire Rapids-generatie en Ponte Vecchio-datacenter-gpu's goed zijn voor twee exaflops aan rekenkracht.

Frontier-supercomputer

Door Julian Huijbregts

Nieuwsredacteur

30-05-2022 • 12:01

53

Submitter: Balance

Reacties (53)

53
53
30
3
0
15
Wijzig sortering
But can it run Crysis? }>

Goed om te vermelden dat deze supercomputer gebruikt wordt om nucleaire testen te simuleren. Het wordt onder andere gebruikt om te kijken of het huidige arsenaal nog "goed" is.
Goed om te vermelden dat deze supercomputer gebruikt wordt om nucleaire testen te simuleren. Het wordt onder andere gebruikt om te kijken of het huidige arsenaal nog "goed" is.
Heb je ook een bron die dit bevestigt, want het lijkt me niet dat het ministerie voor energie (die eigenaar is van deze computer) echt geintereseerd is in de staat van het amerikaanse kernwapen-arsenaal.

Edit: dat zijn ze dus wel :+ Dankzij batjes weer wat geleerd vandaag.

[Reactie gewijzigd door Zoidberg_AvG op 23 juli 2024 16:53]

Anoniem: 532949 @Zoidberg_AvG30 mei 2022 14:34
Het is gewoon een politike correct naam. een naam die het publiek minder ongerust maakt.
Onder het ministerie van energie valt natuurlijk ook kernenergie. Een ministerie dat veel R&D doet naar kernenergie heeft wellicht ook precies de expertise in huis om wat zinnigs over de staat van kernwapens te zeggen. Heeft niet zoveel met politieke correctheid te maken.
Nucleaire kennis kan je voor beide inzetten. Net zoals je, mild versimpeld, als je de het traject van een sloopkogel kan berekenen, dat ook kan doen met een kanonskogel. Wetenschap is neutraal, de toepassing ervan maakt het een nutsvoorziening (kerncentrale) of wapen (kernbom). En in het geval van nucleaire reactoren is het wat grijs, want een reactor in een kernonderzeeër is geen wapen an sich, maar wel weer onderdeel van een wapensysteem.

Kortom, deze kennis bundelen is de meest efficiënte optie, een eigenschap die je een overheid doorgaans niet toedicht, maar in dit geval is het volgens mij wel de beste keuze.
Het Amerikaanse departement van energie is verantwoordelijk voor alles dat met nucleaire technologie te maken heeft. Daar valt het Amerikaanse kernwapenarsenaal ook onder.

The United States Department of Energy (DOE) is an executive department of the U.S. federal government that oversees U.S. national energy policy and manages the research and development of nuclear power and nuclear weapons in the United States.
https://en.wikipedia.org/...ates_Department_of_Energy
Ik snap het nog niet helemaal en misschien ga ik nu zodadelijk even wat videos bekijken die hier wat dieper op in gaan maar, als we dit concreet maken - wat wordt er nu daadwerkelijk bijgedragen aan de samenleving.
of het een bijdrage is aan de samenleving kan altijd bediscussieerd worden. Maar wat ze onder anderen simuleren is wat de kracht van de wapens nog is. Nucleair materiaal vervalt, dus het aandeel uranium-235 in de wapens wordt steeds kleiner. Veel van het nucleaire arsenaal is 50 jaar geleden gebouwd. Nu is dat nog niet perse zorgelijk als je naar de halfwaardetijd kijkt van U-235, maar je wilt natuurlijk wel zeker weten dat de bommen nog wel werken en wat de verwachte kracht van de explosie is en ik meen ook dat ze checken hoe stabiel de wapens nog zijn.
Dit is eigenlijk een vervanger van de oude nucleaire testen waarbij ze de bommen lieten exploderen.
wat wordt er nu daadwerkelijk bijgedragen aan de samenleving.
...
als we die vraag gaan stellen bij elk dingetje dat er gedaan wordt kom je nooit verder.

Neem deze quote:"Met het aanvullend beleidsakkoord is hier door het kabinet dan ook een aanzienlijke extra impuls gegeven via 500 MW extra wind op zee. Daarnaast is een innovatieagenda gelanceerd voor een bedrag van ruim € 430 miljoen de komende 4 jaar" uit een rapport van de tweede kamer eind 2009.

Stel dat we die 430 mln destijds in bitcoin hadden gestoken (koers 0.33 euro begin 2010) dan hadden we nu een kleine 36000 - 39000 miljard! euro gehad om allerlei maatschappelijk relevante zaken mee te doen, maar nog steeds geen windmolens op zee n geen kennis om ze te bouwen. Realistisch scenario, nee totaal niet, daarom kan je die vraag over maatschappelijke relevantie dus ook niet stellen omdat je van te voren niet weet wat wel en niet relevant blijkt.

Daarbij, ik neem aan dat deze HPC niet alleen voor simulaties van kernwapens gebruikt gaat worden (want dan hadden ze er uberhaupt niets over vermeld) maar misschien en passant ook wel voor kernfusie reactoren die wellicht als wij met pensioen zijn vrolijk de wereld van ongelimiteerde elektriciteit kunnen voorzien......
als we die vraag gaan stellen bij elk dingetje dat er gedaan wordt kom je nooit verder.
Wat een kolder. Dat moet je juíst doen. Dit is gemeenschapsgeld wat je als overheid van mensen afneemt. Dat lijkt me nou precies de situatie waarin je heel duidelijk moet maken wat het maatschappelijk nut is.

Dit is een perfect voorbeeld van het concept "opportunity cost" en wat Bastiat beschreef als "the seen and the unseen"; je ziet nu makkelijk en concreet wat die €430 miljoen hebben opgeleverd, maar je ziet niet wat die €430 miljoen hadden kunnen doen als ze anders besteed waren (bijvoorbeeld door belastingen voor gewone mensen te verlagen en ze zelf te laten beslissen over hoe ze hun leven ermee willen verbeteren).
En precies om diezelfde reden moet je de maatschappelijke discussie hierover soms niet voeren, juist omdat je dan altijd de maatschappelijk meest wenselijke korte termijn oplossing krijgt, die niet altijd de optimale uitkomst biedt
Laten we vooral niet transparant zijn in wat de overheid met ons geld doet omdat we dan misschien niet de meest wenselijke uitkomst krijgen.

Ik zie niet hoe dit op termijn fout zou kunnen gaan. 8)7
Ik heb niks gezegd over transparantie. Maar de keus tussen geld uitgeven voor een wetenschappelijke supercomputer met mogelijk rendementen ver in de toekomst, of bv belasting verlaging is voor politici net zo lastig als een puber vragen of hij liever gaat gamen of gaat leren voor zijn wiskunde proefwerk….
Er zijn maximaal 21 miljoen bitcoins die langzaam gemined worden, toentertijd waren er nog geen miljoen in omloop, dus je kon maar 300.000 besteden
Whatever, you get the point. Je hebt altijd keuzes en je weet nooit wat je gaat vinden met zo’n toch wel experimenteel systeem
als we die vraag gaan stellen bij elk dingetje dat er gedaan wordt kom je nooit verder.
In tegendeel, je komt juist verder door precies deze vraag te stellen.

Als een ministerie niet kan aangeven wat een project (direct of indirect) gaat toevoegen aan de samenleving lijkt het me een bijzonder onverstandig idee om het project te starten.
Zullen we dan ook maar CERN ook opdoekken? Die miljarden kun je ook besteden aan (vul maar iets in)
Dat zou alleen logisch zijn als je tot de conclusie komt dat het onderzoek van CERN niks toevoegd voor de maatschappij, iets wat je mij nooit zal horen zeggen.
Ach, en dan roepen ze iets over verbetering van leefkwaliteit, of onderzoek naar <populair fenomeen> en krijgen ze de centen, en dan? Ik zie zelden evaluaties van of het doel wel bereikt is, en als ik ze zie 'is er meer geld nodig voor verder onderzoek'...
Stel dat we die 430 mln destijds in bitcoin hadden gestoken
En als we het hadden ingezet op zwart aan de roulettetafel dan was het geld verdubbeld :+
Achteraf makkelijk praten.
Dan mis je dus het punt van de opmerking. Soms weet je van te voren gewoon niet wat er ergens uit komt
Supercomputers play an important role in the field of computational science, and are used for a wide range of computationally intensive tasks in various fields, including quantum mechanics, weather forecasting, climate research, oil and gas exploration, molecular modeling (computing the structures and properties of chemical compounds, biological macromolecules, polymers, and crystals), and physical simulations (such as simulations of the early moments of the universe, airplane and spacecraft aerodynamics, the detonation of nuclear weapons, and nuclear fusion). They have been essential in the field of cryptanalysis.
"Greetings, Professor Falken. Shall we play a game?"
Dat is bijna 40 jaar geleden. dan is wat in je broekzak zit nu een super computer vergeleken met toen.
Doet me denken aan Iron Sky 2 :)
Dat is een hoofdzaak, ook voor bestaande opslag wat er mee gebeurd.
En nog zoveel meer,
Van Kernenergie tot Biologie tot Ruimtevaart.
HPE meldt dit over wat ie gaat doen (aldus de link uit het artikel):
The supercomputer will have significant impact in critical areas such as cancer and disease diagnosis and prognosis, drug discovery, renewable energy, and new materials to create safer and sustainable products.
Het zal best kunnen dat de DoE verantwoordelijk is voor die nucleaire simulaties, maar gaat deze computer dat ook doen?
waarschijnlijk, maar als je ziet dat die amper 600 miljoen dollar heeft gekost en ze 1.8 miljard gingen uitgeven voor 3 stuks, dan kan je je wel afvragen wat de andere 2 gaan doen.
Haha, je was me mooi voor met die vraag :-)
Ook de supercomputers worden voor een budget aangeschaft, maar meestal worden ze niet voor 1 taak ingezet. Klaarblijkelijk is het nogal lastig om de verspreiding en opname van neutronen goed te voorspellen, vandaar de enorme rekenkracht die nodig is.
Vroeger met de Cray’s enzo was het nog duidelijk wat de computer was.

Met deze veel meer modulaire systemen, is het meer een “verzamelde rekencapaciteit”

Het komt eerder neer op een datacenter dat op een bepaalde manier benut kan worden.

Wat dat betreft komen de datacenters van Azure, Amazon waarschijnlijk ook hier dichtbij, of als je hun hele “Cloud” als 1 geheel beschouwt ver overheen.

Ze doen alleen niet de moeite om Linpack te draaien… ze verdienen daar geen geld mee.
Je hebt speciale interconnects en speciale software nodig om het geheel als een computer aan een taak te laten rekenen. Een datacenter zal door het ontbreken van beide nooit vergelijkbare prestaties kunnen leveren als de frontier.

Er zitten in een HPE crey systeem speciale interconnect switches met 100Gb of 200Gb poorten om te zorgen dat er de nodes onderling heel snel heel veel data kunnen uitwisselen.

https://www.hpe.com/nl/nl...ingshot-interconnect.html
Definieer "nodig".

Uiteindelijk heb je een bepaalde hoeveelheid data die je wilt verwerken in een bepaalde tijd, dus je hebt een bepaalde rekenkracht nodig en er zitten grenzen aan hoe distributed je iets kunt/wilt maken.

Maar ondanks al die supersnelle interconnects is het aan het einde van de rit domweg een 'distributed computing' implementatie.

De belangrijkste maatstaf die ze hier nemen om prestaties te meten (FLOPS), kun je redelijk makkelijk vertalen naar een willekeurig datacenter. Of een Cloud.

Die eerste zullen ze nog wel verslaan op FLOPS, omdat ze nogal dure, high-performance spullen hebben ingekocht. Die laatste niet snel, vanwege de enorme schaal.
Ook een cloud kan zonder dergelijke speciale voorzieningen niet een groep servers aan dezelfde rekentaak zetten.
Nou, die speciale voorziening moet je ook weer niet te complex maken.

Om een heel simpel voorbeeld te nemen: niks houdt je tegen om een paar honderd Amazon of Azure instances te huren en daar de Folding@home client te installeren. Tada, supercomputer!

Uiteraard ligt er enige complexiteit in het presenteren van de nodes als benaderbaar geheel, maar daar heb je microservices en orchestration voor. Met de standaard tools die de Cloud providers bieden (en/of open source tools) ga je al een heel eind komen.

Een supercomputer is een nogal vreemde abstractie wanneer je het hebt over distributed computing (en dat is het met al die duizenden cores). Dankzij modulariteit is het nogal een snapshot van de staat van een project. Immers, het is heel goed mogelijk (en doorgaans gebruikelijk) om de 'computer' uit te breiden door een nog een rack of wat naast te zetten.

Het verschil met een datacenter of cloud is er eentje van conventie, mogelijk functie, niet van essentie.

[Reactie gewijzigd door Keypunchie op 23 juli 2024 16:53]

Jij vroeg om "nodig" te definiëren.

Dat jij denkt dat een stel servers met een open source tooltje hetzelfde kan als een specialistische superomputer... tja...
Folding@home is specifiek gemaakt om computers een stukje werk te geven, en dat dan op een willekeurig moment en onafhankelijk van andere stukje werk weer terug te sturen, en dus niet te vergelijken met het werk dat een supercomputer het meest doet.

Een weermodel of een simulatie van de explosie van een kernwapen kun je nooit op deze manier laten doorrekenen, omdat de uitkomst van berekeningen weer voor nieuwe berekeningen gebruikt moeten worden. Bij een weermodel moet voor een bepaald stukje in de simulatie de tempratuur, wind en luchtdruk van alle omliggende stukjes meegenomen worden in de berekening, er moeten dus gigantische hoeveelheden data binnengehaald en verstuurd worden om een node continu van de juiste input te voorzien om te kunnen blijven rekenen.
Definieer "nodig".

Uiteindelijk heb je een bepaalde hoeveelheid data die je wilt verwerken in een bepaalde tijd, dus je hebt een bepaalde rekenkracht nodig en er zitten grenzen aan hoe distributed je iets kunt/wilt maken.
Je kunt niet simpelweg de flops van alle pc's 'die je aan elkaar knoopt bij elkaar optellen en dat preformance noemen als je systeem niet in staat is om data tussen nodes snel genoeg uit te wisselen om alle nodes volop te belasten.

Als je bijvoorbeeld een weermodel doorrekend dat is de uitkomst van andere berekeningnen en andere nodes nodig om verder te kunnen gaan met een berekening. Als de verbindingen tussen de nodes zo traag is dat ze op data moeten wachten dat heb je dus in de praktijk niks aan het aantal flops dat je beschikbaar hebt omdat de nodes niet de data hebben die ze nodig hebben om continue aan het rekenen te zijn.

Even een quote uit een eerder tweakers artikel:
Hoeveel processors en videokaarten of andere accellerators je ook in een supercomputer gebruikt, je hebt er weinig aan als al die rekenkracht op data zit te wachten. Dat was al in de jaren zeventig een van de grootste uitdagingen bij de bouw van supercomputers en is dat nu nog steeds: de onderlinge communicatie tussen de bouwstenen. Data komt voornamelijk van de terabytes aan werkgeheugen waarover elk stukje van een supercomputer beschikt, en natuurlijk moet ook data tussen processors worden uitgewisseld.

De prestaties van supercomputers staan of vallen daarom met de interconnects tussen de nodes en clusters.

https://tweakers.net/revi...is-een-supercomputer.html
wow meer cores dan een Pentium2 aan transistors had
en van 333Mhz clock naar 2Ghz clock
En verbruikt minder dan nummero 2 :) goed teken
En 2x zoveel rekenkracht.
Ja, zo kan je er nog wel 10 bouwen voor je een kerncentrale volledig belast hebt. Gelukkig is het voor het departement of energie. :?
Ik ben benieuwd wat de efficiëntie van het Intel systeem gaat worden.
Maar AMD heeft hier wel een mooie stap gemaakt. Aanzienlijk meer rekenkracht en ook nog heel efficient.
Dat gaat met de nieuwe Genoa en Bergamo chips denk ik alleen maar beter worden.
Dat de Aurora supercomputer vertraging heeft is een understatement :D
Aurora was first announced in 2015 and to be finished in 2018. It was expected to have a speed of 180 petaFLOPS which would be around the speed of Summit. [...] Later, in 2017, Intel announced that Aurora would be delayed to 2021 but scaled up to 1 exaFLOP. In March 2019, DOE said that it would build the first supercomputer with a performance of one exaFLOP in the United States in 2021. In October 2020, DOE said that Aurora would be delayed again for a further 6 months and would no longer be the first exascale computer in the US. In late October 2021 Intel announced Aurora would now exceed 2 exaFLOPS in peak double-precision compute.

Source: https://en.wikipedia.org/wiki/Aurora_(supercomputer)

[Reactie gewijzigd door HuRRaCaNe op 23 juli 2024 16:53]

Het ligt eraan wat je gaat doen, denk ik. Wat ik ken is distributed compilen. Als dat goed is geconfigureerd kan ik een grote veelvoud van de PC's die ik heb staan zonder problemen op 100% trekken. Verschil met een taak op een dergelijk systeem is dat het om allemaal redelijk kleine onafhankelijke delen bestaat. Anderzijds.. zo'n botsing van sterrenstelsels simuleren gaat waarschijnlijk sneller als je alles ter plekke programmeert in plaats van bestaande software te gebruiken.
Dit is dus de hele reden dat Intel geen schijn van kans heeft in de servermarkt. De enige reden dat intel nog een veel verkoopt is omdat AMD nog niet genoeg capaciteit heeft om alle servers te voorzien.

Intel blijft niet concurrent op server gebied tot zeker 2023/2024 op perf/watt.
Volgens mij gaan ze het in de consumentenmarkt ook moeilijk krijgen. Net een nieuwe Ryzen 7 PC in onderdelen gekocht. Als ik iets soortgelijks met Intel probeer samen te stellen wordt het behoorlijk prijzig. 10 jaar geleden was dat een redelijke overweging maar nu lijkt het verschil in prestatie per euro zo groot dat Intel echt achterblijft.
Hier ben ik het dan niet helemaal mee eens, als jij een ALDER lake processor koopt, kan je best goede performance voor de prijs krijgen. Echter heeft AMD met DYI niet zoveel. Alles gaat om perf/watt zodat alle laptop fabrikanten ook overgaan op AMD en natuurlijk de big moneyz. SERVERS.

ik ben al een lange tijd investeerder in AMD dus volg alles zeer uitgebreid in AMD
Welke zou volstaan tegen een AMD Ryzen 7 3800X?
Anoniem: 1201820 30 mei 2022 19:50
Natuurlijk mooi voor de VS. Van meer belang is de soortgelijke computer in Finland ( gelukkig binenkort lid van de NAVO!) Deze is betaald door de EU, als onderdeel van een groot ict plan. Wat opvalt is natuurlijk het verschil in grootte en daarmee prestaties: de EU computer is ca. 1/7e van die van de VS. De EU legt in het merjarenplan de naduk op de ontwikkeling van eigen hardware voor en exascale computer. Daar is nu dus nog geen sprake van. Zowel qua financiële inspanning als technische kunnen stelt de EU op dit gebied op het wereldtoneel dus gewoon niets voor.
Als Aurora nog langer wordt uitgesteld komt Intel niet eens meer voor in de top 10. (nu alleen nog plekje 9)....

Op dit item kan niet meer gereageerd worden.