Amerikaans instituut voorziet AI-supercomputer van 6000 Nvidia A100-gpu's

Het Amerikaanse National Energy Research Scientific Computing Center neemt Perlmutter in gebruik, een supercomputer gericht op kunstmatige intelligentie. De supercomputer bevat van meer dan zesduizend Nvidia A100-accelerators en vijftienhonderd AMD EPYC 7763-cpu's.

Perlmutter is geplaatst in Nersc's Shyh Wang Hall-faciliteit van Berkeley Lab en is vernoemd naar Saul Perlmutter, een natuurkundige die in 2011 mede de Nobelprijs won voor zijn onderzoek naar de snelheid waarmee het universum uitdijt. Meer dan zevenduizend wetenschappers kunnen gebruikmaken van het high-performancesysteem, dat drie tot vier keer zo krachtig is als Nersc's Cori-supercomputer, die tot nu toe de krachtigste van het instituut was.

Het cluster is gebaseerd op het Shasta-platform van HPE Cray en wordt in drie fases gebouwd. Fase een is gereed en biedt 1536 nodes, met elk een AMD EPYC 7763-processor en vier A100-gpu's die via NVlink verbonden zijn. Ook biedt het systeem een Lustre-bestandssysteem van 35 petabyte aan flashgeheugen. Daarmee hebben wetenschappers toegang tot meer dan vier exaflops aan mixed-precision-rekenkracht.

Perlmutter Nvidia AMD SupercomputerPerlmutter Nvidia AMD Supercomputer

Die kunnen de rekenkracht inzetten voor onder andere het maken van een 3D-weergave van het zichtbare universum, beschrijft Nvidia. Daarvoor moeten enorme hoeveelheden data van het Dark Energy Spectroscopic Instrument verwerkt worden, iets wat op het vorige systeem weken tot maanden duurde, wat Perlmutter terug moet brengen tot enkele dagen.

Later dit jaar moet de supercomputer bij fase twee een upgrade krijgen met 3072 cpu-nodes, elk met twee AMD EPYC 7763-processors en 512GB geheugen per node.

Perlmutter supercomputer

Door Olaf van Miltenburg

Nieuwscoördinator

28-05-2021 • 13:27

34

Reacties (34)

34
23
5
1
0
10
Wijzig sortering

Sorteer op:

Weergave:

De A100 GPU met 40 GB (niet de 80 GB versie).

https://docs.nersc.gov/systems/perlmutter/

[Reactie gewijzigd door Rudie_V op 24 juli 2024 00:03]

/sarcasme aan
6000 A100 gpu's.... aangezien die groter zijn dan een GA102 betekend dit dat nvidia in plaats van die A100's meer dan 6000 GA102's had kunnen laten produceren.....
Nvidia laat de gamers dus weer mooi stikken....
/sarcasme uit
Even een vraag tussendoor. Mij valt op dat als het om machine -learning gaat, er altijd verwezen wordt naar Nvidia kaarten, met zijn cuda cores en tensorflow cores.

Nu ben ik zelf een beetje fan van de grafische kaarten en prijzen van AMD. Tegenover cuda gebruikt AMD opencl, maar ik heb AMD nooit echt een antwoord zien geven op de tensor-cores van Nvidia. Bestaat die wel? En welke kaarten van AMD zijn geschikt voor ai-research?

En waarom heeft die soort ai-learning op AMD kaarten nooit een hogere vlucht genomen?

[Reactie gewijzigd door DeArmeStudent op 24 juli 2024 00:03]

Het AMD ROCm platform begint nu langzaam een beetje volwassenen te worden. Met de nadruk op langzaam.
Bedankt voor de tip
Zodat we die grapjes al gehad hebben: '6000 GPUs? Vandaar de chip tekorten' en 'Die gaan natuurlijk in het weekend lekker crypto minen!' :+

Die blauwe en rode 'kabeltjes' op de foto zijn voor de koelvloeistof. Zat al te zoeken op de foto naar de koeling van de ruimte, maar de computer wordt dus op die manier op temperatuur gehouden. Gewoonlijk is die kant ook afgesloten, het is alleen open voor de foto.
210 mh/s (https://www.tomshardware....10-mhs-ethereum-hash-rate) * 6000 = 1.260.000 mh/s. Dan is mijn 1080 Ti in zn vrije tijd toch teleurstellend met zijn 35 mh/s :P
Je hebt ook een iets mindere investering gedaan. Dat voordeel heb je al in je zak.
Dan moet ik mij toch meteen afvragen hoe groot deel van deze supercomputer dat instituut uit eigen zak heeft moeten betalen :D
En hoeveel er werkelijk betaald is.
Niet zelden is een van de voorwaarden voor stevige kortingen dat men niet openbaart hoeveel er werkelijk betaald is.
Misschien kortingen, maar ik denk dat de er vanuit kan gaan dat het wel een veelvoud is van een 1080 Ti ;)
Dan doet hij alsnog "maar" 1260 th/s en dat resulteerd in iets van 1.5 ish Bitcoin per jaar ...wat dan wel weer tegenvalt haha.
Zodat we die grapjes al gehad hebben: '6000 GPUs? Vandaar de chip tekorten' en 'Die gaan natuurlijk in het weekend lekker crypto minen!' :+
De echte grap is natuurlijk But does it run Crysis?
Letterlijk de eerste gedachte die in mn hoofd op kwam bij de titel XD
How long does it take to boot windows 95 ?
Waarschijnlijk enkele tientallen dagen. Windows 95 initialiseert de nodes sequentieel.
Auw, waarschijnlijk ook nog in 16/32 bit pseudocode, ik lees net ook nog maximal 480Mb en een echte limiet van 2Gb... Beter Qemu opstarten :)
Klimaatmodellen zijn al lang goed genoeg en het probleem is al lang opgelost. Het is alleen nog niet uitgevoerd en dat probleem ligt bij de politiek en niet bij de wetenschap.
Onwil, andere belangen, en niet gebrek aan kennis.

[Reactie gewijzigd door Durandal op 24 juli 2024 00:03]

Mobieltjes zijn al lang snel genoeg. Nieuwe en snellere zijn nergens voor nodig.
Je bent dus een 1 issue persoon.

Eerst dit dan dat.

Waarom niet eerst dit EN dat EN dat EN dit ENzovoorts

Broaden your mind and learn to multitask.

[Reactie gewijzigd door jqv op 24 juli 2024 00:03]

Maar je snapt wel dat de onderzoekers in die gebieden andere mensen zijn toch? Het is niet zo dat 1 onderzoeker alles als specialisatie heeft. Jij doet nu alsof dit ten kostte gaat van klimaatonderzoek, maar dat zijn twee totaal andere richtingen en specialisaties.
Ook klimaatonderzoekers hebben toegang tot dit soort supercomputers, want geen enkel van dit soort systemen wordt gebruikt voor maar 1 ding en alleen dat ene ding. Dus ja het kan prima en en, en het is zelfs vrij stom om je te focussen op 1 ding en de rest 'hier heb je een 1 kaart, zoek het uit' te doen, want dan raakt een ander deel van de wetenschap weer achtergesteld.
Ja, tuurlijk. Dat is niet mijn punt.
Mijn punt is, dat wanneer een wetenschappelijke theorie in het verleden zeer indrukwekkende en voor de mensheid relevante resultaten heeft gegenereerd, dat dan alsnog een doorontwikkeling van diezelfde wetenschappelijke theorie in een later stadium zijn wetenschappelijke relevantie volledig kwijt kan zijn.
Donkere energie is precies dat. Als je je daar echt in verdiept in plaats van het klakkeloos voor waarheid aanneemt kom je erachter dat het als theorie best wel een aantal heftige aannames doet, op basis waarvan je een DESI instrument eigenlijk helemaal niet als zodanig meer zou mogen benoemen.

Men doet met dit supercluster alsof ze donkere energie kunnen meten, maar dat kunnen ze helemaal niet. Er worden bepaalde effecten gemeten die ook via andere theoretische wegen verklaard kunnen worden. Zoals het effect van ruimtelijke expansie op andere natuurkundige concepten. Even voor de goede orde, die expansie zet zelfs de relativiteitstheorie op losse schroeven omdat licht dan geen constante meer is. Dat ze met dat inzicht vast blijven houden aan donkere energie is gewoon slechte theoretische onderbouwing.

Investeer die middelen dán maar in een andere discipline met meer maatschappelijke relevantie.

[Reactie gewijzigd door MrHankey op 24 juli 2024 00:03]

Op dit item kan niet meer gereageerd worden.