Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Zwitserse supercomputer met Nvidia P100-gpu's pakt derde plek in Top500-lijst

Door , 43 reacties, submitter: AnonymousWP Linkedin Google+

In de halfjaarlijkse lijst van Top500.org heeft de Zwitserse Piz Daint-supercomputer de derde plaats bereikt. Vorig jaar behaalde het systeem nog de achtste plaats, intussen zijn er een aantal upgrades doorgevoerd. De P100-systemen scoren bovendien hoog op efficiŽntie.

Volgens de organisatie heeft het Zwitserse CSCS de oudere Nvidia Tesla K20X-gpu's vervangen door de nieuwere P100-varianten, waardoor de prestaties zijn toegenomen. Daarmee komt de Piz Daint, vernoemd naar een Zwitserse berg, op een totale prestatie van 19,5 petaflops. In de lijst van november waren dat nog 15,98 petaflops. De upgrade was toen al wel onderweg, maar deze is eind vorig jaar volledig afgerond. Een deel van de vernieuwingen was ook het installeren van andere cpu's. De aanwezige processors werden vervangen door Intel E5-2690 v3-cpu's met twaalf kernen op 2,6Ghz.

Er zijn twee van deze processors per XC50-node aanwezig, waarvan het systeem er in totaal 5320 heeft. Daarnaast zijn er nog 1431 XC40-nodes met Xeon E5-2695 v4-processors op 2,1Ghz, maar zonder gpu's. Deze werden echter niet gebruikt voor de plaatsbepaling in de Top500; dit had volgens de organisatie nog een extra petaflop toegevoegd.

Door de stijging van de Piz Daint is het Amerikaanse systeem, de Titan van het Oak Ridge National Laboratory, uit de top drie verdwenen. Die staat nu op plaats vier. Het Nederlandse Surfsara-systeem, de Cartesius 2, staat inmiddels niet meer in de top 100. In november wist het systeem nog de 80e plaats te behalen, maar in de huidige rangschikking staat het op plaats 113. Het BrEniac-systeem van de KU Leuven komt dit jaar op plaats 370, een jaar geleden was dat nog plaats 196. De eerste plaats is nog steeds de Chinese Sunway TaihuLight met 93 petaflops. Deze positie heeft het systeem sinds een jaar. China kondigde eind vorig jaar de bouw van een systeem aan dat tussen de 930 petaflops en 1 exaflops moet behalen.

De systemen op basis van de P100-gpu van Nvidia scoren goed op het gebied van efficiëntie, oftewel het aantal gigaflops per watt. Uit de recente lijst blijkt dat de dertien efficiëntste systemen over deze gpu beschikken. De Tesla P100 is gebaseerd op de GP100-gpu, de eerste en grootste gpu van de Pascal-generatie die Nvidia vorig jaar aankondigde. De huidige GeForce-videokaarten in de 10-series zijn gebaseerd op een kleinere variant van deze chip. In mei kondigde Nvidia de Tesla V100-accelerator aan, die is gebaseerd op Volta GV100-gpu's. Deze zijn geoptimaliseerd voor deep learning. De V100 moet in het derde kwartaal van dit jaar beschikbaar komen.

De aankomende Amerikaanse Summit- en Sierra-systemen maken van de V100-accelerators in combinatie met IBM Power9-processors gebruik. Het Zwitserse CSCS weet nog niet of het de V100 in gebruik neemt. De prestatiewinst is mogelijk niet hoog genoeg om een upgrade binnen een dergelijke korte tijd te rechtvaardigen.

    De Piz Daint

Moderatie-faq Wijzig weergave

Reacties (43)

Reactiefilter:-143043+129+27+32Ongemodereerd9
Reken maar van yes... van hele kleine zaken (de aerodynamica van een pringle zodat deze met minder middelen kan worden geproduceerd waardoor zowel de energie van de pringle fabriek omlaag gaat, als de kosten), tot hele grote zaken, zoals complexe weermodellen, astronomische ontwikkeling, apparaat/vliegtuig ontwikkeling, nieuwe materiaal experimenten waardoor we nůg zuiniger kunnen rijden, betere batterijen krijgen (de energiedichtheid is al jaren aan het toenemen!), en met minder nůg meer kunnen doen.

Hoe het werkt met die supercomputers is dat je meestal een "slot" op dat ding (of een gedeelte ervan) kan huren om je specifiek ontwikkelde taak uit te voeren. De SurfSara omgeving is een samenwerking van vele internationale universiteiten, Nederlandse universiteiten, en stukken bedrijfsleven. Wat je daar in de praktijk vaak ziet is dat er een hoop onderzoek op wordt gedaan, zoals bijvoorbeeld het analyseren van nieuwe manieren om lithografie toe te passen om nůg kleinere schakelingen op chips mogelijk te maken (TU/E & ASML), en zo kun je nog meer bedenken...

Maar reken er maar op: de meeste van deze monsters staan constant te stampen, hebben een vrij forse wachtrij, en zijn vanaf dag 1 eigenlijk al "oud". In Europa hebben we cartesius bij Surf/Sara (en natuurlijk ook veel anderen...) bijvoorbeeld aangesloten op het world computing GRID aangesloten waar we wederzijds CPU/GPU tijd uit kunnen lenen aan elkaar...
Interessant idee. Een Tweakers knowledge graph waar dit soort user generated content wordt gepubliceerd.
Misschien moet nut/noodzaak beter uitgelegd worden. Zonder vak technische termen.

Bovenstaande comment zeggen maar een kleine groep mensen iets namelijk.

Een simpel voorbeeld als je hebt een cijferslot van 7 cijfers die waarvan je juiste combinatie wilt weten en je moet 10 miljoen combinaties uit proberen geeft al voor een leek beter aan waarom je iets snel wilt kunnen doorrekenen.

Vanaf een dergelijk simpel voorbeeld kun je aangeven waarom je veel en snel geheugen en interconnect tussen geheugen en nodes hebt etc...

Ontopic het is opvallend dat zwitserland bij top 3 zit.

Duitsland/Frankrijk en Italie zijn de grootste economien van Europa en dat zie je daar niet in terug.

Ben benieuwd of tezijnertijd Europa wel in top 3 zal komen en blijven.

nieuws: BelgiŽ gaat meebouwen aan Europese exascale-supercomputer
offtopic: Je hebt natuurlijk gelijk, maar 'onderzoeken' begint bij het stellen van een vraag.

Op het moment dat ik iets wil weten, kan ik er voor kiezen om de vraag op een forum te stellen. Wanneer het een vraag is over supercomputers omdat ik hier een artikel over dat onderwerp lees, is het logisch om die vraag hier te stellen. Dat is misschien geen academisch onderzoek met bronvergelijkingen etc. etc., maar het is wel degelijk onderzoek.

Vergeet niet dat er hier op veel verschillende terreinen artikelen voorbij komen die vaak ook weer vragen oproepen. Als ik bij elke vraag op zoek moet naar antwoorden op Wiki of erger nog, in allerlei papers, dan heb ik een dagtaak (want een vrij brede interesse). En dus is het prettig als de meeste vragen al in de comments hier worden beantwoord, omdat meer mensen dezelfde vragen hebben.

Korte conclusie: Ik vind je veronderstelling dat vragen stellen gelijk is aan pizza consumeren dus nogal uit de hoogte.

Ontopic: Ik vraag me af in hoeverre de exponentiele toename in rekenkracht ook zorgt voor een verhoudingsgewijs even sterke toename aan mogelijkheden. Gaan berekeningen dan ook daadwerkelijk 10x zo snel, kunnen de modellen 10x zo complex, of is de winst beperkter.

Je hoeft deze vraag overigens niet te beantwoorden. ;)
Als Adviseur Cluster Computing bij SURFsara kan ik je vertellen dat de systemen een behoorlijk hoge bezettingsgraad hebben. De meeste gebruikers zijn wetenschappers, maar er zijn soms ook onderzoeksinstituten die modellen bij SURFsara doorrekenen. Veel voorkomende onderzoeksdisciplines zijn natuurkunde (lucht/waterstroming, klimaatmodellen, verzin het maar), sterrenkunde, chemie (met name quantumchemie), machine learning, genetica, etc. Onder 'praktijkvoorbeelden' vind je hier een aantal concrete voorbeelden van onderzoeken die met behulp van Cartesius gedaan zijn https://www.surf.nl/diens...-supercomputer/index.html

Naast Cartesius is ook onze cluster computer Lisa erg populair: veel wetenschappers hebben de snelle interconnects (infiniband) tussen de nodes in Cartesius niet nodig, omdat hun processen volledig onafhankelijk zijn. Dan is een cluster zoals Lisa (waar de nodes veelal met 'gewoon' ethernet aan elkaar zitten) net zo goed - en goedkoper. De bezetting van Lisa is op de meeste dagen 95-97%; de paar procent vrije nodes worden bewust vrij gehouden voor zogenaamde 'express jobs' van <5 min, bedoelt voor korte testjes (bijv of een script goed draait). De bezetting van Cartesius weet ik niet exact. Die zal waarschijnlijk iets lager zijn, mede omdat hij ook groepen nodes bevat met meer specifieke toepassingen (een GPU eiland, Xeon Phi nodes) die wellicht (nog) niet altijd volledig bezet zijn.

Het kan natuurlijk altijd zijn dat voor sommige landen de prestige wel degelijk een factor is, maar voor ons geldt dat denk ik niet (al zijn we natuurlijk wel trots op onze systemen ;-))
Die snapshot is er juist wel en die hebben we al verschillende keren in steeds hogere resolutie gemaakt:
https://map.gsfc.nasa.gov/news/
http://www.esa.int/Our_Ac...smic_microwave_background

Met deze computer simulaties kun je een helehoop toetsen en vergelijken met wat je dus ook daadwerkelijk kunt observeren.
Niet alleen dat, maar je kunt ook op hele kleine schaal simuleren hoe deeltje zich bewegen, voornamelijk quarks en andere. (het atoom aanzicht heeft weinig geheimen meer).
Beide,

De "beste" computer rekent het "snelste". Elke afnemer wilt hier dus gebruik van maken zolang deze betaalbaar is [relatief voor hen]

(EfficiŽntie speelt dus ook een rol)

Door hoger op de ranglijst te komen, kun je andere/betere klanten krijgen en zo blijft deze wedloop dus ook altijd maar doorgaan


Het wordt inderdaad voor grote onderzoeken/berekeningen gebruikt

[Reactie gewijzigd door Simii op 19 juni 2017 16:29]


Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch Samsung Galaxy S8+ LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True

*