Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

AMD levert Zen 4-cores voor supercomputer met 2 exaflops rekenkracht

AMD bouwt mee aan een nieuwe supercomputer, El Capitan genaamd. Het systeem wordt opgetrokken rond Epyc-serverprocessors met Zen 4-cores aan boord. El Capitan zou 2,2 exaflops rekenkracht krijgen, ruim tien keer zoveel als de huidige krachtigste supercomputer.

El Capitan wordt in opdracht van het Amerikaanse Lawrence Livermore National Laboratory ontwikkeld. Dat overheidsinstituut doet voornamelijk onderzoek naar nucleaire veiligheid, waarbij onder meer simulaties van bestaande en nieuwe nucleaire wapens worden uitgevoerd. Het instituut heeft voor dergelijke berekeningen momenteel de Sierra-supercomputer, de nummer 2 op de Top500-lijst van supercomputers. AMD levert overigens al in 2021 een exascalecomputer voor een ander Amerikaans overheidsinstituut; Frontier moet volgend jaar bij het ministerie voor Energie zo'n 1,5 exaflops opleveren.

El Capitan zal gemaakt worden met een nieuwe generatie Epyc-serverprocessors met codenaam Genoa. Die generatie krijgt Zen 4-cores aan boord, die op 5nm zullen worden geproduceerd en, volgens AMD, significant meer ipc zullen leveren dan de komende Milan-processors. Het is echter nog niet bekend wat die verbeteringen worden, maar El Capitan zou veel sneller worden dan de huidige supercomputers. Met een rekenkracht van ten minste 2 exaflops zou El Capitan tien keer zo snel worden als de Summit-supercomputer, de huidige nummer 1 in de Top500-lijst supercomputers.

Hoeveel processorcores voor die rekenkracht ingezet gaan worden, maakte AMD nog niet bekend. Wel is bekend dat de Epyc Genoa-processors via een nieuwe, derde generatie Infinity Fabric met onder meer gpu's worden verbonden. De verhouding processors en gpu's zou 1:4 worden en de gpu's in El Capitan zullen bestaan uit een nieuwe generatie Radeon Instinct-kaarten. Die Instinct-generatie krijgt onder meer een nieuwe generatie hbm-geheugen en wordt geoptimaliseerd voor deep learning en andere hpc-toepassingen. Daarnaast zal Genoa, en zullen de Instinct-kaarten via het Infinity Fabric, beschikken over een nieuwe generatie werkgeheugen, waarschijnlijk ddr5.

Hoewel AMD nog niet bekendmaakt uit hoeveel nodes El Capitan zal bestaan, heeft het wel aangegeven dat het aanzienlijk minder dan 40MW energie zal verstoken. Huidige supercomputers vergen 10 tot 20MW energie, wat zou impliceren dat El Capitan aanzienlijk meer verstookt. De energiebehoefte zou overigens dichter bij 30MW zitten, wat de capaciteit is van Crays Shasta-supercomputingplatform. Shasta maakt gebruik van waterkoeling om de warmte af te voeren en beschikt over Slingshot-interconnects om de nodes aan elkaar te knopen.

Met El Capitan is een investering van 600 miljoen dollar gemoeid en naar verwachting wordt het systeem begin 2023 opgeleverd. De Zen 4 Genoa-generatie Epyc-processors wordt overigens al in 2021 verwacht. Dit jaar komt AMD met de Milan-generatie Epyc met Zen 3-cores aan boord.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Willem de Moor

Redacteur componenten

05-03-2020 • 09:55

56 Linkedin

Lees meer

Reacties (56)

Wijzig sortering
"Dat overheidsinstituut doet voornamelijk onderzoek naar nucleaire veiligheid, waarbij onder meer simulaties van bestaande en nieuwe nucleaire wapens worden uitgevoerd."

Hoezo hebben ze een budget van 600 miljoen? Ik snap dat dit beter is dan bom proeven op een eilandje in de oceaan, maar ik vind dit alsnog een gigantische geldverspilling. En ook nog een verbruik van 30MW er bij
Los van het geld vind ik het voornamelijk jammer dat zo'n supercomputer voor dit soort toepassingen wordt gebruikt en niet voor iets constructievers (medisch, klimaat, genetica, etc). Ja natuurlijk zijn er andere supercomputers die daar wel voor gebruikt worden, maar ik wordt er toch een beetje cynisch van dat er een supercomputer wordt gebouwd die 10x zo snel is als de snelste supercomputer nu, en wat gaan we er mee doen? Atoombommen doorrekenen |:(

[Reactie gewijzigd door johnbetonschaar op 5 maart 2020 10:37]

Tegen de tijd dat deze supercomputer klaar is, zal hij misschien 2 á 3 keer ze snel zijn als de snelste op dat moment. Terwijl net de laatste hand gelegd word aan een supercomputer die weer 2 á 3 keer zo snel is als deze.

Een groot deel van de kosten zijn ontwikkelingskosten de 'premie' om de eerste en beste CPU's van de eerste productieruns te krijgen. Een duplicaat van die supercomputer zal op dat moment een fractie van dat bedrag kosten. Wat weer gunstig is voor anderen organisaties.
Leg dat eens uit.
Volgens mij moeten die te verslagen supercomputers eerst ook nog ontwikkeld en gebouwd worden.
Deze supercomputer wordt nu ontwikkeld en is over een paar jaar afgebouwd. Op dat moment zal hij 10 maal sneller zijn dan de snelste supercomputer van nu.
Tussen nu en het moment waarop El Capitan wordt opgeleverd, worden meerdere andere supercomputers opgeleverd, waarvan er ongetwijfeld een aantal sneller zullen zijn dan de snelste supercomputer van dit moment.
Wat nu dus wordt aangekondigd als tien maal zo snel als de snelste, zal bij oplevering 2 á 3 keer zo snel als de snelste zijn, omdat er in de tussentijd een paar supercomputers zijn opgeleverd die sneller zijn dan de snelste supercomputer van nu.
Tja, als het gaat om de vindingrijkheid van de mensheid om elkaar letterlijk de kop in te slaan, is dit de ultieme drijvende kracht achter "wetenschappelijke" vooruitgang en technische innovatie, helaas.
Je vergeet voor het gemak even dat die militaire onderzoeken ook wel zeker bijdragen aan de rest van de maatschappij.

Mooi voorbeeld is al dat ruimte onderzoek.
En waar worden atoom splitsingen nog meer voor gebruikt.

Juist een redelijk groot percentage van de enrgie behoefte. Vergeet ook de schepen niet met een reactor aanboard.
Het opslaan van ouwe bommen alleen al is een onzekerheid en een risico en ja, daar is een zware supercomputer voor nodig om het veilig te houden. Ik heb liever ook geen nukes, maar ik ben geen idealist die ze ff weg kan denken
En toch he, het veilig houden van het nucleaire arsenaal is best wel handig. Ook is bijvoorbeeld onderzoek doen naar nieuwe wapens geen gek idee. Nu kun je roepen ja maar we willen toch dat niemand ook een nieuwe atoombom bouwt maar dat is niets anders dan roepen omdat we allemaal wereld vrede willen zullen we het leger maar naar huis sturen.

Daar naast zijn er heel erg veel andere toepassingen waarbij een goede kennis van nucleaire processen zo als verval fission of fusion erg handig kunnen zijn. Ook is het zo dat de oudere versies van deze systemen niet meteen uitgezet worden maar vaak voor andere doeleinden door leven en door andere onderzoekers gebruikt worden.

Iemand moet een sneller systeem bouwen en er zijn maar weinig onderzoeksinstituten die instaat zijn om even $600M uit de poeplap te trekken om zo iets te betalen. Dus wat dat betreft is het helemaal niet zo gek dat juist dit instituut zo'n ding laat bouwen nucleaire veiligheid is nu eenmaal iets waar best veel geld voor beschikbaar is.

He verbruik is helemaal zo gek nog niet zeker niet omdat het in verhouding tot de huidige machines relatief weinig is. Als een systeem dat 10x langzamer is nu ~20MW gebruikt en je bouwt dit systeem dat 1000% meer snelheid bied terwijl het "maar" 50% energie nodig heeft dan is het gewoon heel erg zuinig.
Je hebt het hier echt over het snelste systeem op de planeet en dat verstookt nu eenmaal flink wat energie. Maar vergeet niet dat wat we in de jaren 80 en 90 als supper computers zagen nu hoog uit een flinke cluster is maar niet veel meer dan dat, omdat de doorsnee systemen zo heel erg veel sneller geworden zijn. Die systemen in de jaren 80 en 90 lusten ook makkelijk 10MW tegenwoordig is het nog maar een aantal kW op zijn meest.
Het is dus zeer aannemelijk dat we over 30 jaar of zo een vergelijkbaar systeem gebruiken dat op zijn meest een paar kW gebruikt maar wel lekker soepel GTA12 kan draaien.

Super computers moeten gebouwd worden omdat we anders stil kommen te staan. Als je zo'n ding bouwt moet het een doel hebben niemand geeft je zo maar $600M omdat je ze dan zo vriendelijk bedankt of zo. Het doel van dit systeem is een doel waar de overheid heel erg veel geld voor overheeft omdat het erg belangrijk is om de huidige en toekomstige atoomwapens veilig te houden en er zeker van te zijn dat ze mochten ze ooit ingezet moeten worden ook daadwerkelijk doen wat er van verwacht wordt en niet minder maar ook niet meer (beide zouden erg vervelend kunnen uitpakken) Ook wil je er zeker van zijn dat zo'n ding niet om welke reden dan ook onstabiel wordt en op eens boom doet omdat iemand net even een te harde scheet liet naast zo'n ding. Om maar wat voorbeelden te noemen
Ze doen niet alleen onderzoek naar nucleaire veiligheid, ze zijn er ook (politiek) verantwoordelijk voor. En dan oa voor het opslaan en onderhouden van de wapens, maar bijvoorbeeld ook voor alle nucleaire aandrijvingen van de Amerikaanse marine.

Zonder simulaties op flinke systemen als deze, want er is een wereldwijde ban op fysiek testen, is er geen mogelijkheid om te kunnen modelleren en begrijpen hoe veilig al die wapens en aandrijvingen zijn op lange termijn.. Maw, dan is het volgende signaal dat er iets misgaat, een "meltdown" van de reactor in een kernonderzeeër, of ontploffend kernwapen in een B2 op patrouille ofzo.

Ook is deze club verantwoordelijk voor het anti-proliferatie beleid van de VS, waarbij de rekenkracht ook van pas kan komen om bijvoorbeeld afgeluisterde testdata van Noord Koreaanse testen door te rekenen.
Volgens mij zijn ze er niet verantwoordelijk voor, politiek of anderzijds. Dat is DoE (department of energy). Die zijn ook eigenaar van de atoombommen zelf.
VS geeft 663 miljard uit aan defensie. Dit is dus niet zo vreemd.

https://nl.wikipedia.org/...n_naar_militaire_uitgaven
Deed dit instituut niet voornamelijk onderzoek naar het verval van huidige nucleaire wapens. Het huidige arsenaal is verouderd en men wil simuleren hoe dit in verloop van tijd blijft werken/ verantwoord ontmanteld kan worden.
Geldverspilling, lol, van de Amerikaanse overheid. Daar is geen cent van jou bij. "verspilling" Is een beetje een buzz woordje vandaag de dag, over het algemeen prima maar in deze context is het lariekoek.

[Reactie gewijzigd door dezwarteziel op 5 maart 2020 19:47]

Op wat voor OS draait zoiets?
Grote kans dat het een variant van Linux wordt, speciaal aangepast voor deze hardware.
Toch zou MacOS 10.11 (El Capitan) toepasselijker zijn :+
Windows 3.1 :+

Nee, het is gebruikelijk dat deze computers op een custom of geoptimaliseerde versie van Linux distro draaien.

Windows is hiervoor niet geschikt ivm overhead, problemen met de scheduler en closed character. een custom Windows Versie voor supercomputers zou een oplossing kunnen zijn maar denk dat dit simpel weg te veel geld zou kosten.
Microsoft heeft ooit z'n best gedaan om mee te komen in deze wereld: In 2004 kwamen ze met Windows for Supercomputer en in 2008 met https://en.wikipedia.org/wiki/Windows_HPC_Server_2008. Dit was rond de tijd dat Microsoft z'n glans verloor, en Ik geloof dat ze opvallend onsuccesvol waren rondom supercomputer: https://www.zdnet.com/art...ike-a-bug-supercomputers/.

Windows HPC Server leeft nog voort in Microsoft HPC Pack 2016 (https://docs.microsoft.co...ng/overview?view=hpc16-ps), maar zowel de ambities als de zichtbaarheid, zijn flink naar beneden bijgesteld.

Sinds jaren wordt er uitsluitend Linux gebruikt op supercomputers: https://www.linuxjournal..../linux-and-supercomputers
ik denk ook overigens dat het een costum linux word of een costum windows versie.
Ik denk dat ze in deze computer heel veel cores zullen duwen die dus verbonden zijn met elkaar.
en daardoor dus heel erg veel rekenkracht heeft infinity fabrick moet dat allemaal met elkaar gaan verbinden.Het zal een goede computer zijn voor wiskundige berekeningen te doen.Maargoed dat is bij elke super computer het geval.
Azure draait de NT kernel en valt zeker in de categorie super computers gezien Azure infeite 1 wereldwijd distributed systeem was (Al is het tegenwoordig wel meer gesplitst, EU, Duitsland, China, Rusland etc), heeft jaren terug nog een linpackje gedraait en is zo de top 500 ingeramt. Microsoft kan het prima, er is voor hun alleen te weinig markt/interesse voor om daar een echte SKU of NT build voor uit te brengen

Linux heeft ook overhead, daar zit niet zo ontzettend veel verschil in. We hebben het hier over de kernels zelf. Beide kunnen prima met zo'n gigantische hoeveelheid resources om gaan. Windows als OS is er alleen niet voor gebouwd, net zo min als dat je Debian of Fedora ook niet tegen komt op deze systemen.
Gewoon Linux lijkt mij? Bijna iedere supercomputer in de wereld draait op Linux, dus deze waarschijnlijk ook.

[Reactie gewijzigd door snippiestgem op 5 maart 2020 10:05]

Hier kan je selecteren op Operating System, dan zie je de percentages. HPC is vrijwel altijd Linux.
(Waarschijnlijk) SUSE Linux Enterprise Server met Cray Linux Environment.
In het persbericht staat immers dat HPE het ding bouwt, en Cray is van HPE.

CLE XC™ System Administration Guide (CLE 5.2.UP03) S-2393 .

Zeer waarschijnlijk ook Docker, het Amerikaanse energie-onderszoekscentrum is kennelijk fan.

[Reactie gewijzigd door kidde op 5 maart 2020 19:54]

(OSX) El Capitan, met dezelfde foto als het bureaublad van dat OS? En dan te bedenken dat er geruime tijd geruchten gaan dat Apple Intel gaat verruilen voor AMD processors. Zou dit dan de bevestiging zijn?
El Capitan is een bergwand in Yosemite National Park. Deze bergwand wordt regelmatig op deze manier op de foto gezet en daarom lijken alle wallappers van El Capitan op elkaar. De wallpaper die Apple koos voor El Capitan was toch wel anders...
Het is niet dezelfde foto, en het is gewoon een bergwand die zo heet. Dat heeft verder niks met Apple te maken anders dan dat zij ook dezelfde naam gebruiken.
En nu gebruikt men 'Sierra', dus .......

Het zijn gewoon grote, bekende landmarks in de VS, men heeft daar ooit voor gekozen en de kans is altijd groot dat anderen eenzelfde soort keuze maken.
Dus niet helemaal toevallig, maar ook niet opzettelijk en/of subliminal.
Nee El Capitan is de helling die je daarop ziet, dat is een klimwand (met uitroepteken) in het Yosemite NP. Dus het is niet zo gek dat je deze bij alles naar wat El Capitan wordt genoemd ook in beeld komt :P .
Het vorige/bestaande systeem heet blijkbaar Sierra en systeem daarvoor Sequoia, dus ik vermoed dat ze toevallig, net als Apple, op de kaart van California hebben gekeken voor inspiratie
AMD heeft niets met die naamkeuze te maken. Het is de naam die door de klant aan de computer is gegeven, de naam waaronder het project bij het labo bekend staat.
Er zijn reeds verwijzingen naar Ryzen gevonden in een beta versie van MacOS.

https://www.macrumors.com...alina-amd-apu-references/
OSX El Capitan is van 2015 dus al flink verouderd. En Apple gaat (waarschijnlijk) ARM-processors gebruiken in de lichtere MacBooks. Dus tja, die naam is inderdaad een vreemde keuze die verwarring schept.
Apple wil intel inruilen voor eigen arm gebaseerde cpu's niet voor amd.
Mooie theorie! El Capitan is echter ook een bekende berg in Yosemite, California. En het Lawrence Livermore lab staat ook in California. Meer plausibel? Toch fan van jouw redenering _/-\o_

Edit: Haha zoveel reacties hierop... Mansplaining oid?

[Reactie gewijzigd door ElectroDonker op 5 maart 2020 10:09]

El Capitan komt helemaal niet van AMD af en is al helemaal niet de naam van een AMD cpu. Het is gewoon bekend dat de naamgeving komt van de rotsformatie genaamd "El Capitan".

Het is de naam die de DoE, in de vorm van de NNSA en LLNL (De opdrachtgever) gegeven heeft aan dit project. Dit contract is trouwens al meer dan een halfjaar geleden gegund aan Cray ( Zie: https://www.hpcwire.com/2...l-capitan-exascale-award/ ) De keuze tussen AMD en Intel schijnt echter, volgens Anandtech pas zeer recent genomen aangezien LLNL zo lang mogelijk wilde wachten om zo de meest recent mogelijke hardware te verkrijgen.

Cray (nu van HPE) is dus ook de ontwikkelaar en eindverantwoordelijke voor het systeem, niet AMD. AMD is de CPU en GPU leverancier.

Geen idee waar het gerucht over "Interne boardmeetings" vandaag komt, maar dat lijkt het volledig uit iemand zijn grote duim te komen.
Ik vraag me hoe hun software dan werkt?
Dus die kunnen simulaties maken die ALLE cores gaan gebruiken voor die simulatie?

Raar want huidige 3D software zoals Cinema4D doet alles singlecore voor simulaties omdat je frame per frame moet simuleren. In multicore zouden de simulaties niet werken.
Ik denk dat hun doel niet perse een 3D weergave is, en ja ze zullen een specifieke implementatie hebben die heel goed schaalt over meerdere core's.
Elk atoompje zijn eigen proces?
Dat soort sofware schrijven is een vak op zich. Je moet rekening houden met alle interacties. Cache, shared memory, interconnect, etc. Tussen verschillende (multi)cpus bestaat ook nog eens een verschillende latency doordat de interconnect een hiërarchie heeft. Je moet in alle ontwikkelstappen nadenken over alle gevolgen van je beslissingen.

[Reactie gewijzigd door MeMoRy op 7 maart 2020 15:40]

AMD spreekt al vol lof over Zen 3 en hun agressieve roadmap voor de toekomst lijkt wel verzekerd te zijn met deze push naar een koploper supercomputer op basis van Zen 4. Zo blijft AMD hun markt-aandeel bij gamers ook toenemen. Tot 27,4 procent deze afgelopen maand.

Edit; Typo

[Reactie gewijzigd door JeffreyGorissen op 5 maart 2020 11:39]

Buiten het feit dat de Steam survey volledig onbetrouwbaar is, zegt het al helemaal niets over marktaandeel. Hoogstens over Installed base en dat is heel wat anders. En zlefs dan zou ik de Steamsurvey gezien hun ontbetrouwbaarheid in verleden niet als gerespecteerde bron willen gebruiken.

Wil je marktaandeel duiden, kom dan met cijfers van bijvoorbeeld Mercury of IDC. Zie hier de laatste cijfers over Q4 2019 https://cdn.mos.cms.futur...cLq2AaWoCr4nAJ-650-80.jpg
Buiten het feit dat je mijn punt enkel sterker maakt, waarvoor dank, is steam inderdaad niet de beste bron maar het geeft wel de algemene trend weer. Laat dat nu net zijn wat ik aangaf.
Onderzoek doen naar nucleaire veiligheid en nucleaire wapens. Lijkt me ook een vreemde combinatie. Vraag me af wat voor soort berekeningen ze op die computers doen.
betere bommen maken? gezien ze niet meer live mogen testen van bommen (een nuclear verdrag uit de jaren 80 geloof ik?), moeten ze het simuleren. Dus hoe meer power je hebt, hoe complexer, of sneller je door parameters heen kan gaan om te zien wat het beste werkt.
Maar dus hm AMD zit al op 5nm en Intel nog steeds op 10nm, dat springt er wel uit voor mij.
Tegen die tijd he, nu is het nog Zen3 op 7nm
Intel zit nog op 14nm 'for all intents and purposes'. De 10nm chips zijn zeer beperkt en hun 14nm fabs draaien overuren :)

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True