Amerikaanse marine krijgt supercomputer met AMD Epyc- en Nvidia Volta V100-chips

De Amerikaanse marine krijgt een Cray Shasta-supercomputer met een piekrekenkracht van 12,8 petaflops. De rekenkracht is afkomstig van AMD Epyc 7002-processors en 112 Nvidia V100-gpgpu's.

Welke Epyc 7002-modellen de supercomputer krijgt en om hoeveel processors het gaat, maakt het Navy Department of Defense Supercomputing Resource Center niet bekend, maar wel dat het om 290.304 cores gaat en dat er 112 Volta V100 general-purpose graphics processing units aanwezig zijn.

Verder krijgt de supercomputer Cray Slingshot-interconnects, met een bandbreedte van 200Gbit/s, 590TB geheugen en 14 petabyte opslag, waarvan 1 petabyte nvme-ssd-opslag. Met een Rpeak van 12,8 petaflops zou de desbetreffende Cray Shasta in de top 25 van de actuele Top500-lijst van 's werelds krachtigste supercomputers komen. Het systeem is echter naar verwachting pas begin 2021 gereed en tegen die tijd zal de lijst er anders uitzien.

De marine gaat de supercomputer gebruiken om klimaat-, weer- en oceaanmodellen op te stellen, die de vloot kunnen assisteren bij hun werk. Daarnaast komt de rekenkracht beschikbaar voor het ontwerpen van schepen en vliegtuigen van de Amerikaanse defensie.

HPCMP Navy Cray

Door Olaf van Miltenburg

Nieuwscoördinator

18-02-2020 • 11:08

42

Reacties (42)

42
41
22
2
0
11
Wijzig sortering
Wat ik mis in het artikel is het OS waarop dit systeem draait. Ik kan het zelf niet vinden, anders dan dat het gebruikt maakt van Cray's eigen software.
Het is inderdaad Cray Linux. Eigenlijk draait HPC volledig op Linux, voornamelijk distro's zoals Red Hat en SUSE.

Hier kan je selecteren op Operating System, dan zie je de percentages.
En dat is dan ook het antwoord. Cray heeft een eigen besturingssysteem gemaakt voor zijn eigen supercomputers. Meestal zijn deze gebasseerd op Linux maar met aanpassingen om taken zo goed mogelijk te verdelen over de cluster.
maar nou de hamvraag; kun je er ook spelletjes op doen ? 8-)
Dat kun je met enkel een TR 3990X ook al.
ja, ze hebben crysis al eens volledig in software mode laten draaien op een supercomputer.
209.304/64=4536 Epyc 7742's :p
Dat kan je toch niet weten? De Epyc 7002-lijn start bij 8 cores en eindigt bij 64.
Het kan ook de 7702 zijn overigens.
Maar het lijkt me erg sterk dat ze 26.163 8-cores gaan gebruiken....
Het hangt er een beetje vanaf wat de locatie is, maar erg vaak is ruimte (en hoeveel compute/memory node...) de grotere beperking, en in dit soort nodes is de 64-core variant dan ineens érg aantrekkelijk, met veelal twee sockets/blade. Dan heb je het overigens alsnog over 2268 blades, wat nog steeds (uitgaande 4U, wat niet onrealistisch is..., en 10 blades/u) 226,8u is, en dan uitgaande van 42u/server in totaal 5,4 racks is. En omdat halve racks niet bestaan (lol), laten we uitgaan van 6 racks vol met 10-blade met 128core/blade en de voeding daar omheen. De GPU's moeten natuurlijk ook ergens in (en dan rammen ze vaak 8GPU's in een 2U enclosure...), en dit is een beest, wat puur om ruimte alleen een 64-x2-core blade al snel betaalbaarder maakt.

[Reactie gewijzigd door Umbrah op 23 juli 2024 00:38]

Dat ligt er maar net aan wat je workload is ;
Als je puur memory bandwidth limited bent (wat ook regelmatig voorkomt) heb je er op een gegeven moment niets meer aan om nog meer cores in een node te stoppen, die cores staan dan veel te vaak te wachten op data.
Hij stelt toch niet dat het om de 7742's gaat, maar geeft een simpel voorbeeld om de omvatting te snappen van een dusdanig project 'als de 7742 wordt gebruikt'... iets met mieren en nog iets.
Eereder 7H12, 7742 is leuk voor cloud maar niet echt HPC.

7H12 is al gebenchmarkt op 'Cray Shasta'

https://www.tomshardware....12-geekbench-4-benchmarks
Maat het meest belangrijke, can it run Quake ? (Of minecraft)
Als je hier niet snel simulaties mee kan maken, dan weet ik het ook niet meer. Maar dat dit alleen voor weer/klimaat voorspellingen gaat gebruikt worden lijkt me ook wel een beetje "goedpraten" van de kost. Maar toch knap staaltje van wat allemaal mogelijk is
Can it run Crysis bedoel je?
Vermoedelijk, het kan zelfs zonder GPU:

https://be.hardware.info/...rysis-renderen-zonder-gpu

Dus met enkele EPYC 64 cores (waarvan de klok toch wel wat lager is) zal dit ook al wel kunnen :)

[Reactie gewijzigd door TPar op 23 juli 2024 00:38]

Nee can it run World Of Warships

edit vliegtuigen toegevoegd
En omdat de Amerikaanse marine ook veel met vliegtuigen doet ook World of Warplanes

[Reactie gewijzigd door Euronitwit op 23 juli 2024 00:38]

En voor de alternatievelingen onder ons is er nog: But more importantly, can it run Warthunder? :+ . (heeft leger, marine, luchtmacht in 1 game)
Uhm, weer en klimaat, dat zijn juist zaken waarbij je dit soort supercomputers absoluut nodig hebt. "alleen", er blijft niks over.
Hoe bedoel je er blijft niets over?
Het is je misschien nog niet opgevallen, maar het klimaat wordt als maar "onvoorspelbaar".
eerlijk gezegd niet.
Afhankelijk van je leeftijd kan je dat niet opvallen en de huidige situatie is juist een argument om nog meer computational power beschikbaar te stellen voor modelleren en voorspellen van klimaat.

"Klimaat" zegt namelijk iets over een minimale periode van 30 jaar (en maximaal nog veel langer). Ik bedoel dat er geen computational power overblijft als de US Navy roept dat ze dit voor klimaatmodellen gaan gebruiken. Daar kan je alle rekenracht van dit systeem al aan opmaken.

Dan is de kans groot dat er niets aan computational power/time overblijft voor andere toepassingen.
Hoezo? Gewoon talloze processors naast elkaar in parallel draaien.

Verder lijkt dit weer een geld verslindend project te zijn. Waarom niet gewoon GFS meer rekenkracht geven ipv weer een apart weermodel er bij? De accuracy wordt er nou niet echt beter van.
Ben benieuwd of die Volta's nog geupgradet gaan worden naar Ampere zoals pas bij een amerikaanse universiteit ook is aangepast.

Amerikaanse Supercomputer wordt voorzien van nieuwe Ampere-GPU's met 70% betere prestaties
https://nl.hardware.info/...-met-70-betere-prestaties
Het plan was eerst om het te voorzien van Nvidia's V100-gpu's, waardoor de rekenkracht tot 5,9 tflops gebracht kon worden. Dat plan is echter veranderd.

Er komen volgens Brad Wheeler, de vicevoorzitter van de information technology-tak van de universiteit namelijk 'next generation grafische kaarten van Nvidia' in. We mogen dus verwachten dat het zal gaan om Ampere-chips. Volgens Indiana University zullen deze kaarten 70 tot 75% sneller zijn dan de bestaande modellen. De compute-kracht moet hierdoor toenemen tot 8 petaflops.
Gaat om 256 GPU's:
https://news.developer.nv...upercomputer-big-red-200/

Edit: ging om 256 Volta GPU's, maar wellicht dan minder Ampere GPU's als die 70-75% beter presteren, maar de totale performance 'maar' stijgt van 5,9 naar 8 petaflops, dus een 35% prestatieverhoging.

[Reactie gewijzigd door Rudie_V op 23 juli 2024 00:38]

Toch jammer dat the navy niet voor navi gegaan is :+
Komen wij aan met onze thuis pc, wel indrukwekkend hoe snel we nu zijn thuis, met net boven de 10+TFLOPS

Een high-end build for €2000+ zit op RTX 2080 Ti (13.5 TFLOPS) or an RTX 2080 SUPER (11.2 TFLOPS).
Een interessante vraag is wanneer die rekenkracht nog enkel toebehoorde aan de absolute top van supercomputers.

Meteen maar even zelf gekeken.
In 2000 had je de IBM ASCI White met 7,226 TFLOPS bij het Lawrence Livermore National Laboratory
In 2002 had je de NEC Earth Simulator met 35,86 TFLOPS bij het Earth Simulator Center, Yokohama-shi, Japan
En hier interessant wat er in 2000 op de markt was voor thuis https://www.computerhistory.org/timeline/2000/
in 2000 zaten we met een AMD Athlon XP 1500+ op 3,561 MIPS @ 1.2 GHz
Maar kheb niet paraat hoeveel FLOPs dat zijn

[Reactie gewijzigd door Mel33 op 23 juli 2024 00:38]

Mooi dat er volop wordt gekozen voor EPYC en dat veel bedrijven nu ook in de gaten hebben dat EPYC veel beter is voor de portemonee en ook nog een stuk sneller is!

Rip intel

[Reactie gewijzigd door jordynegen11 op 23 juli 2024 00:38]

Zo hard gaat dat nog niet hoor. AMD's marktaandeel in Server is nog altijd zeer klein, al is inderdaad de weg omhoog wel gevonden. Zie ook deze cijfers van Mercury research gepubliceerd door AMD's marketing afdeling: https://pbs.twimg.com/media/EQBaWsCWoAAUIqf.png

In server is het marktaandeel zo'n 4.5%, een stuk beter dan de +- 0% waarop ze zaten begin 2017 AMD is op de goede weg, maar is er nog genoeg te doen. Ter vergelijking, Intel heeft nog altijd meer "Net income" in een kwartaal dan AMD aan omzet heeft in een jaar. Al zal zit waarschijnlijk in 2020 voor het eerst in lange tijd niet zo zijn.

Rip Intel is dan ook wat voorbarig. Neemt niet weg dat Intel momenteel zeker problemen heeft, bijvoorbeeld met het 10nm productie proces en Intel zal hard aan het werk moeten om op technisch vlak weer bij AMD (en TSMC) in de buurt te komen.
RIP intel is inderdaad voorbarig, maar inderdaad, als je ziet waar het aandeel AMD vanaf komt, is de groei niet onderkenbaar. En dat niet alleen op de minste plekken. Dit soort machines is meestal een gigantische "reliability" veer-in-de-reet, en daarmee een opstapje naar meer datacenter (je kunt bij sommige Cloud Solution Providers tegenwoordig ook al AMD krijgen...). Het feit is helaas altijd dat een succesvolle generatie in het data-landschap niet iets is wat je direct in marktaandeel ziet. Veelal wordt hardware voor 4 á 5 jaar gekocht tegenwoordig. En dat maakt een marktaandeel gelijk een stuk minder waardevol, want percentage verkopen zie je daar niet in terug. Stel dat morgen alle nieuwe verkopen AMD zijn, dan zie je dat namelijk pas over vier jaar terug... als oude servers uitgezet worden.

En nee, natuurlijk is het niet RIP Intel. Hoewel, en dat is iets wat AMD goed doet, je wel kan stellen dat X86 niet het enige doel is (AMD heeft ook een redelijk aandeel DC GPU's en zelfs ARM machines in aanbieding... waar Intel helaas nog niks heeft, en zoals je hier ziet: nVidia door de CUDA-lockin een hoop voordelen heeft weten te halen). De x86 markt zal Intel altijd wel een rol blijven spelen, en hopelijk gaan AMD en Intel beiden naar een 50/50 aandeel in die specifieke sector. Dat is voor ons allemaal goed. De vrees is echter dat de andere producten (Intel lijkt nu een GPU aan het bouwen te zijn, maar de devkits zijn gaar, en er zijn geruchten over 500W/unit... waarbij we niet weten wat de unit is).
Dat zie je inderdaad, waar wij jaren lang eigenlijk geen AMD verkocht hebben zie je inderdaad nu eindelijk weer wat vraag uit de markt komen naar AMD. Dat doen ze inderdaad erg goed. Dat je bij datacenter partijen AMD kan krijgen is ook logisch, juist daar hebben ze een zeer goede propositie. De datacenter markt zal wat dat betreft weer sneller overgaan op AMD dan de veel meer traditionele enterprise sector.
Het feit is helaas altijd dat een succesvolle generatie in het data-landschap niet iets is wat je direct in marktaandeel ziet. Veelal wordt hardware voor 4 á 5 jaar gekocht tegenwoordig. En dat maakt een marktaandeel gelijk een stuk minder waardevol, want percentage verkopen zie je daar niet in terug. Stel dat morgen alle nieuwe verkopen AMD zijn, dan zie je dat namelijk pas over vier jaar terug... als oude servers uitgezet worden.
Dit klopt niet, hier verwar je marktaandeel met "installed base" of User share wat zeer verschillende zaken zijn. Marketshare, wat ik hier link is in dit geval het aantal verkochte producten, in dit geval uiteraard cpu's binnen een bepaalde tijdsspanne, in dit geval Q4 2019 (okt t/m dec), daar je dus dan in Q4 2019 AMD 4,5% van alle verkochte x86 server cpu's leverde en Intel dus 95,5%. Net als dat AMD 18,3% van de desktop markt in handen had en 16.2% van de mobile markt in dat kwartaal.

Ga je kijken naar Installed base zullen de cijfers voor AMD nog veel lager liggen omdat ze eigenlijk pas sinds begin 2017 weer aan marktaandeel winnen en inderdaad, systemen worden in de regel gekocht voor lifecycles van +-5 jaar. Dus pas in +-2022 zullen de volledige effecten van Zen te zien zijn bij evenuele cijfers over installed base.

Marketshare: https://en.wikipedia.org/wiki/Market_share
Installed base: https://en.wikipedia.org/wiki/Installed_base

Over AMD's v.s. Nvidia's datacenter GPU shares kan ik niet direct heel goede cijfers vinden, ik ben eigenlijk wel benieuwd naar AMD's markt aandeel daar. Zakelijk gezien zie ik er weinig van, ik denk dat 90% van wat wij leveren op de zakelijke markt Nvidia is.
De x86 markt zal Intel altijd wel een rol blijven spelen

Tsja, ik denk het wel, maar als ik zie dat bij AMD de sockets voor langere tijd gehandhaaft blijven en bij intel om de haverklap weer wijzigen, denk ik dat menig thuisgebruiker beter af is met AMD.
Als je die wilt upgraden is 't gewoon een nwe cpu erin en klaar, terwijl je bij intel dan ook een nieuw mobo (en als je pech hebt, nieuw geheugen) nodig hebt...
ik weet wel dat als ik mijn good old intel i7 2600's en 2600k's ga 'opruimen' ik dan heel bewust om deze reden voor amd zal gaan kiezen.
De vraag is natuurlijk wel hoe vaak doet de gemiddelde thuisgebruiker een upgrade. Er zullen uiteraard wat Tweakers zijn die dat doen, maar zelfs de meeste Tweakers die ik upgraden eigenlijk altijd mobo, cpu (en vaak geheugen) op hetzelfde moment. De meeste thuisgebruikers (niet tweakers) kopen gewoon om de X jaar een volledig nieuwe machine en upgraden nooit.

Het langer bij hetzelfde socket blijven door AMD is zeker mooi, maar ik vraag me wel echt af hoe groot het percentage gebruikers is dat er daadwerkelijk gebruik van maakt door regelmatig alleen de cpu of alleen het moederbord te upgraden.
o daar heb je zeker een punt...
alleen in mijn beleving hebben de meeste huishoudens wel een familielid of kennis die wat meer computerervaring heeft en ze af en toe hebt met b.v. een harddiskje vervangen of een videokaartje erin zetten ofzo...Althans...als ik naar mijn eigen jeugd kijk, was ik altijd bezig andermans rommel weer op orde te maken en zie ik 't nu ook regelmatig om me heen dat mensen de computer toch wel bij iemand 'in onderhoud' hebben.

als je naar de intel cpu's kijkt, moet je op een gegeven moment gewoon de boel weer helemaal omgooien omdat er andere sockets gebruikt worden. Dus dan zit je aan een nieuwe mobo vast en dat daarmee vaak ook weer aan nieuwer geheugen enz. En ik heb het gevoel dat veel thuisfreubelaars op dat moment wél afhaken (want dat kost ook dermate veel geld dat een nieuwe niet zo erg veel meer kost).

Als alles hetzelfde kan blijven, maar er hoeft alleen een nieuwe chip ingezet te worden, dan zie ik ze dat wel doen...dat is een klusje van 10 minuten...ff koeler eraf, cpu eruit, nieuwe erin, pasta erop en koeler erop...itse simpel en dan kun je gelijk genieten van een nieuwere generatie cpu...
Om dit meer op het onderwerp (HPC) te betrekken: Hier is Intel wel aan het verdwijnen, althans in de top van de 'Champions League' (Exascale).

Aangekondigde Exascale computers:
-VS, Aurora - Intel Xeon
-VS, Perlmutter en Frontier: Ryzen
-CN: Tianhe 3: SunWei, Fujitsu ARM64 of Hygon (Epyc kloon),
-Japan: Riken Post K: Fujitsu ARM64
-Europa: RISC V of ARM (2023 ten vroegste). Pre-exascale (3 stuks) ook gepland op OpenPower

Van de 6 voorgestelde computers heeft er maar 1 Intel. Dus qua HPC-kampioen is 'RIP Intel' wel enigszins begrijpelijk.
Ook dat is denk ik nog altijd vrij voorbarig, voor zover ik weet hebben Intel en AMD beide 1 design win te pakken samen met Cray wanneer we kijken naar Exascale.

AMD met Frontier en Intel met Aurora, Perlmutter is voor zover mij bekend geen Exascale.
Dan heb je nog het contract dat Cray al binnen heeft voor 'El Capitan', maar waar nog niet bekend is of dit in combinatie met AMD of met Intel gedaan gaat worden.

Verder is dit natuurlijk wel een markt waar Intel het snel lastiger zal krijgen, zeker mocht Intel het niet lukken om Aurora op tijd te leveren. Wat gezien de problemen met hun productie proces(sen) nog wel de vraag is.
Maar Intel definitief afschrijven met een "R.i.P Intel" boodschap, nee daar is het nog veel te vroeg voor.
}:O

(sorry, kon het niet laten :9 )
Van de supercomputers draait 99,99% een vorm van Unix - en 99% draait linux of BSD.

Op dit item kan niet meer gereageerd worden.