Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Zwitserse supercomputer met Nvidia P100-gpu's pakt derde plek in Top500-lijst

Door , 43 reacties, submitter: AnonymousWP Linkedin Google+

In de halfjaarlijkse lijst van Top500.org heeft de Zwitserse Piz Daint-supercomputer de derde plaats bereikt. Vorig jaar behaalde het systeem nog de achtste plaats, intussen zijn er een aantal upgrades doorgevoerd. De P100-systemen scoren bovendien hoog op efficiŽntie.

Volgens de organisatie heeft het Zwitserse CSCS de oudere Nvidia Tesla K20X-gpu's vervangen door de nieuwere P100-varianten, waardoor de prestaties zijn toegenomen. Daarmee komt de Piz Daint, vernoemd naar een Zwitserse berg, op een totale prestatie van 19,5 petaflops. In de lijst van november waren dat nog 15,98 petaflops. De upgrade was toen al wel onderweg, maar deze is eind vorig jaar volledig afgerond. Een deel van de vernieuwingen was ook het installeren van andere cpu's. De aanwezige processors werden vervangen door Intel E5-2690 v3-cpu's met twaalf kernen op 2,6Ghz.

Er zijn twee van deze processors per XC50-node aanwezig, waarvan het systeem er in totaal 5320 heeft. Daarnaast zijn er nog 1431 XC40-nodes met Xeon E5-2695 v4-processors op 2,1Ghz, maar zonder gpu's. Deze werden echter niet gebruikt voor de plaatsbepaling in de Top500; dit had volgens de organisatie nog een extra petaflop toegevoegd.

Door de stijging van de Piz Daint is het Amerikaanse systeem, de Titan van het Oak Ridge National Laboratory, uit de top drie verdwenen. Die staat nu op plaats vier. Het Nederlandse Surfsara-systeem, de Cartesius 2, staat inmiddels niet meer in de top 100. In november wist het systeem nog de 80e plaats te behalen, maar in de huidige rangschikking staat het op plaats 113. Het BrEniac-systeem van de KU Leuven komt dit jaar op plaats 370, een jaar geleden was dat nog plaats 196. De eerste plaats is nog steeds de Chinese Sunway TaihuLight met 93 petaflops. Deze positie heeft het systeem sinds een jaar. China kondigde eind vorig jaar de bouw van een systeem aan dat tussen de 930 petaflops en 1 exaflops moet behalen.

De systemen op basis van de P100-gpu van Nvidia scoren goed op het gebied van efficiëntie, oftewel het aantal gigaflops per watt. Uit de recente lijst blijkt dat de dertien efficiëntste systemen over deze gpu beschikken. De Tesla P100 is gebaseerd op de GP100-gpu, de eerste en grootste gpu van de Pascal-generatie die Nvidia vorig jaar aankondigde. De huidige GeForce-videokaarten in de 10-series zijn gebaseerd op een kleinere variant van deze chip. In mei kondigde Nvidia de Tesla V100-accelerator aan, die is gebaseerd op Volta GV100-gpu's. Deze zijn geoptimaliseerd voor deep learning. De V100 moet in het derde kwartaal van dit jaar beschikbaar komen.

De aankomende Amerikaanse Summit- en Sierra-systemen maken van de V100-accelerators in combinatie met IBM Power9-processors gebruik. Het Zwitserse CSCS weet nog niet of het de V100 in gebruik neemt. De prestatiewinst is mogelijk niet hoog genoeg om een upgrade binnen een dergelijke korte tijd te rechtvaardigen.

    De Piz Daint

Moderatie-faq Wijzig weergave

Reacties (43)

Reactiefilter:-143043+129+26+32Ongemodereerd9
Los van de geweldige prestaties, de enorme hoeveelheid geld die hier tegenaan wordt gesmeten en de drang om hoger in een ranglijst te komen: worden deze supercomputers ook daadwerkelijk ergens voor ingezet?
Reken maar van yes... van hele kleine zaken (de aerodynamica van een pringle zodat deze met minder middelen kan worden geproduceerd waardoor zowel de energie van de pringle fabriek omlaag gaat, als de kosten), tot hele grote zaken, zoals complexe weermodellen, astronomische ontwikkeling, apparaat/vliegtuig ontwikkeling, nieuwe materiaal experimenten waardoor we nůg zuiniger kunnen rijden, betere batterijen krijgen (de energiedichtheid is al jaren aan het toenemen!), en met minder nůg meer kunnen doen.

Hoe het werkt met die supercomputers is dat je meestal een "slot" op dat ding (of een gedeelte ervan) kan huren om je specifiek ontwikkelde taak uit te voeren. De SurfSara omgeving is een samenwerking van vele internationale universiteiten, Nederlandse universiteiten, en stukken bedrijfsleven. Wat je daar in de praktijk vaak ziet is dat er een hoop onderzoek op wordt gedaan, zoals bijvoorbeeld het analyseren van nieuwe manieren om lithografie toe te passen om nůg kleinere schakelingen op chips mogelijk te maken (TU/E & ASML), en zo kun je nog meer bedenken...

Maar reken er maar op: de meeste van deze monsters staan constant te stampen, hebben een vrij forse wachtrij, en zijn vanaf dag 1 eigenlijk al "oud". In Europa hebben we cartesius bij Surf/Sara (en natuurlijk ook veel anderen...) bijvoorbeeld aangesloten op het world computing GRID aangesloten waar we wederzijds CPU/GPU tijd uit kunnen lenen aan elkaar...
Van mij mag tweakers standaard deze comment bovenaan zetten onder elk artikel over supercomputers ;).
Scheelt weer 20 "wat moet je ermee" comments. En hele pagina's aan uitleg en discussie comments.

Ontopic, wel gaaf om te lezen hoeveel vooruitgang er alweer is. Volgens mij nog geen tien jaar geleden werd de petaflop grens doorbroken door roadrunner. Die chinese computer doet al bijna een honderdvoud daarvan!
Interessant idee. Een Tweakers knowledge graph waar dit soort user generated content wordt gepubliceerd.
En we noemen het: wikipedia :+ https://en.wikipedia.org/wiki/Supercomputer#Applications

Maar zonder grappen, het zou inderdaad best interessant zijn om na te denken wat we nou kunnen doen dat er niet iedere keer dezelfde vragen boven komen. Zeker ook omdat sommige dingen niťt zo makkelijk te Googlen zijn (las net nog wat Tweakers commentaar over bijv. chips en waarom de kwaliteit van de ene chip van de andere verschilt, dat zijn toch dingen die doorgaans niet op Wiki staan.
Nu nog een businessmodel, anders bouwen ze het niet.
Gek is dat jij het omdraait.
De vraag wat moet je ermee beantwoorden bij ieder bericht over supercomputers?
Mensen mogen zelf ook eens onderzoek doen. Consumeren is handig bij de pizzeria.
een onderzoek levert je meer kennis op dan het te vragen en dan wachten op een antwoord van anderen.
Google zal je een heel eind op gang helpen en anders is er nog Wikipedia.

Ontopic.
Ongelofelijk dat de chinezen werken aan apparaten die dus 10 keer de rekenkracht hebben van de huidige nummer 1. De overgang van petaflops naar exaflops (of bijna)

[Reactie gewijzigd door jqv op 19 juni 2017 19:52]

offtopic: Je hebt natuurlijk gelijk, maar 'onderzoeken' begint bij het stellen van een vraag.

Op het moment dat ik iets wil weten, kan ik er voor kiezen om de vraag op een forum te stellen. Wanneer het een vraag is over supercomputers omdat ik hier een artikel over dat onderwerp lees, is het logisch om die vraag hier te stellen. Dat is misschien geen academisch onderzoek met bronvergelijkingen etc. etc., maar het is wel degelijk onderzoek.

Vergeet niet dat er hier op veel verschillende terreinen artikelen voorbij komen die vaak ook weer vragen oproepen. Als ik bij elke vraag op zoek moet naar antwoorden op Wiki of erger nog, in allerlei papers, dan heb ik een dagtaak (want een vrij brede interesse). En dus is het prettig als de meeste vragen al in de comments hier worden beantwoord, omdat meer mensen dezelfde vragen hebben.

Korte conclusie: Ik vind je veronderstelling dat vragen stellen gelijk is aan pizza consumeren dus nogal uit de hoogte.

Ontopic: Ik vraag me af in hoeverre de exponentiele toename in rekenkracht ook zorgt voor een verhoudingsgewijs even sterke toename aan mogelijkheden. Gaan berekeningen dan ook daadwerkelijk 10x zo snel, kunnen de modellen 10x zo complex, of is de winst beperkter.

Je hoeft deze vraag overigens niet te beantwoorden. ;)
Misschien moet nut/noodzaak beter uitgelegd worden. Zonder vak technische termen.

Bovenstaande comment zeggen maar een kleine groep mensen iets namelijk.

Een simpel voorbeeld als je hebt een cijferslot van 7 cijfers die waarvan je juiste combinatie wilt weten en je moet 10 miljoen combinaties uit proberen geeft al voor een leek beter aan waarom je iets snel wilt kunnen doorrekenen.

Vanaf een dergelijk simpel voorbeeld kun je aangeven waarom je veel en snel geheugen en interconnect tussen geheugen en nodes hebt etc...

Ontopic het is opvallend dat zwitserland bij top 3 zit.

Duitsland/Frankrijk en Italie zijn de grootste economien van Europa en dat zie je daar niet in terug.

Ben benieuwd of tezijnertijd Europa wel in top 3 zal komen en blijven.

nieuws: BelgiŽ gaat meebouwen aan Europese exascale-supercomputer
Stel dat je als Dutch Power Cows nou eens 1 etmaal de maximale CPU-tijd van een top-10 systeem kan inzetten....... ;-)
Denk je niet dat sommige clusters hoger scoren?

Alleen bij gebruik van grote datasets zul je die clusters van computer thuis niet kunnen gebruiken.
Hoho, ik bedoelde niet als vervanging, maar als ťxtra :)
Ik weet wat je bedoelde.

Ik weet niet hoe het tegenwoordig is, maar in hoogtijdagen van b.v. DISTRIBUTED.NET had je honderden duizenden systemen wereldwijd mee draaien.

Dutch Power Cows heeft regelmatig records gehad.
Als Adviseur Cluster Computing bij SURFsara kan ik je vertellen dat de systemen een behoorlijk hoge bezettingsgraad hebben. De meeste gebruikers zijn wetenschappers, maar er zijn soms ook onderzoeksinstituten die modellen bij SURFsara doorrekenen. Veel voorkomende onderzoeksdisciplines zijn natuurkunde (lucht/waterstroming, klimaatmodellen, verzin het maar), sterrenkunde, chemie (met name quantumchemie), machine learning, genetica, etc. Onder 'praktijkvoorbeelden' vind je hier een aantal concrete voorbeelden van onderzoeken die met behulp van Cartesius gedaan zijn https://www.surf.nl/diens...-supercomputer/index.html

Naast Cartesius is ook onze cluster computer Lisa erg populair: veel wetenschappers hebben de snelle interconnects (infiniband) tussen de nodes in Cartesius niet nodig, omdat hun processen volledig onafhankelijk zijn. Dan is een cluster zoals Lisa (waar de nodes veelal met 'gewoon' ethernet aan elkaar zitten) net zo goed - en goedkoper. De bezetting van Lisa is op de meeste dagen 95-97%; de paar procent vrije nodes worden bewust vrij gehouden voor zogenaamde 'express jobs' van <5 min, bedoelt voor korte testjes (bijv of een script goed draait). De bezetting van Cartesius weet ik niet exact. Die zal waarschijnlijk iets lager zijn, mede omdat hij ook groepen nodes bevat met meer specifieke toepassingen (een GPU eiland, Xeon Phi nodes) die wellicht (nog) niet altijd volledig bezet zijn.

Het kan natuurlijk altijd zijn dat voor sommige landen de prestige wel degelijk een factor is, maar voor ons geldt dat denk ik niet (al zijn we natuurlijk wel trots op onze systemen ;-))
"CSCS scientists are using Piz Daint to tackle some of the most important computational challenges of our day, like modeling the human brain and uncovering new insights into the origins of the universe," said Ian Buck, vice president of Accelerated Computing at NVIDIA. - See more at: http://nvidianews.nvidia....uter#sthash.U97w2T6l.dpuf

Of bijv. http://www.cscs.ch/index.php?id=1578
The size and shape of red blood cells could be determined by the spleen, or so it would seem from simulations on ‘Piz Daint’.

[Reactie gewijzigd door SCiENTiST op 19 juni 2017 16:22]

Hoe kan een computer nieuwe inzichten van het ontstaan van het universum "berekenen"? Wat moet het berekenen dan? Gaat een soort super AI-brein filosoferen over het ontstaan van het universum? Hoe moet ik zo iets voor me zien?
Er zullen simulaties worden gedaan van de omstandigheden tijdens de oerknal, waarna de uitkomsten vergeleken kunnen worden met wat we vandaag de dag kunnen meten en zien.

Het is dus vooral een kwestie van brute-force simuleren met een zo groot mogelijk bereik aan variabelen. Er gebeurt niets AI-achtigs in dergelijke berekeningen. De daadwerkelijke "nieuwe inzichten" komen dan ook van de wetenschappers die de uitkomsten van de simulaties gaan interpreteren.
Er zullen simulaties worden gedaan van omstandigheden tijdens de oerknal, waarna de uitkomsten vergeleken kunnen worden met wat we vandaag de dag kunnen meten en zien.
niet van dť omstandigheden, maar van "omstandigheden", niemand heeft namelijk een snapshot van materie voor the big bang, enkel aannames die nu afgetoetst worden
Die snapshot is er juist wel en die hebben we al verschillende keren in steeds hogere resolutie gemaakt:
https://map.gsfc.nasa.gov/news/
http://www.esa.int/Our_Ac...smic_microwave_background

Met deze computer simulaties kun je een helehoop toetsen en vergelijken met wat je dus ook daadwerkelijk kunt observeren.
Niet alleen dat, maar je kunt ook op hele kleine schaal simuleren hoe deeltje zich bewegen, voornamelijk quarks en andere. (het atoom aanzicht heeft weinig geheimen meer).
Niet geheel waar, door de eindige lichtsnelheid kan men met behulp van radioastronomie 'terug in de tijd' kijken: radiogolven van miljarden jaren geleden ontvangen die al die jaren onderweg zijn en nu pas op aarde 'aankomen'.
licht en straling die ons al zijn gepasseerd kunnen we niet meer opvangen en dus zijn onze gegevens bij voorbaat onvolledig, om nog maar te zwijgen van alles wat nog onderweg is ;)
Is ook bullshit. Je kunt er natuurlijk wel allerlei modellen me doorrekenen , en zo tot bruikbare gemiddeldes komen om het weer zo nauwkeurig mogelijk te voorspellen , ook al kan dat nooit ver vooruit. Verkeersstromen simuleren , waterstroming simuleren etc... Maar kunstmatige intelligentie is ook gebaseerd op iets zo dicht mogelijk te benaderen d.m.v. gemiddeldes , de meest succesvolle combinaties onthouden voor bv gezichtsherkenning. Niks intelligents aan dus , geen begrip van iets. Het blijft rekenen...De modellen van NASA zijn dan wel bullshit , en niet op de werkelijkheid gebaseerd , maar je kunt ze er prima mee simuleren :)
Dit is niet om hoger in een ranglijst te komen, maar meer om de capaciteit en tijd die nodig is om berekening uit te voeren respectievelijk naar boven en beneden te brengen.
Er wordt zoveel gedaan met supercomputers, dat ik niet eens ga pogen om het op te lijsten.
Misschien eens een avondje op wikipedia gaan surfen met supercomputers en hun toepassingen
De vraag is wel of het handig is om alle benodigde capaciteit in een machine te stoppen. In de praktijk speelt die vraag niet omdat de capaciteit toch opgeknipt wordt.
Denk je echt dat het er om gaat om bovenaan in de ranglijst te staan?

Er word door wetenschappers veel gebruik van gemaakt, je huurt tijd op een supercomputer. En afhankelijk van je probleem en software gebruik je een X aantal processoren.
Ik denk dat het er voor sommige landen wel degelijk om gaat om bovenaan de ranglijst te staan. Als je jezelf serieus neemt als land dat technische ontwikkeling faciliteert en zich profileert als onderzoeksland, dan is een bepaald aanzien gewoon belangrijk om onderzoek(ers) binnen te halen.

Dan is een supercomnputer niet het belangrijkste, maar het helpt natuurlijk wel mee in het beeld wat er van je heerst.
Alle supercomputers die je kan vinden in de Top500-lijst zijn vol bezet en draaien 24/7 op vol vermogen. Voor onderzoekers kan het soms dagen duren voordat een rekenopdracht de nodes aangewezen krijgt door het beheersysteem, zeker als het om een grote berekening gaat.

De raking in de top500-lijst is dan ook meer een gevolg dan een streven van de bouwers/beheerders van deze computer om hoger in de lijst te komen. Het is immer slecht een getal en dat leverd niets op. Meer computer uren per dag wel.
Waarom vraag je als je zelf kunt onderzoeken wat er gedaan wordt met supercomputers?

Het is geen strijd om boven aan te komen, maar om berekeningen zoals de big bang, atoomexplosies en de GHC snel te kunnen doen voor verschillende onderzoeken. Wikipedia helpt je een eind op weg. Ga daar eens kijken.

Hoog op de ranglijst heeft voordelen. Je kunt namelijk tijd kopen op deze computers. De sneller en efficienter deze apparaten zijn, de meer klanten je genereerd. De meer inkomsten, de sneller je kunt upgraden...

[Reactie gewijzigd door jqv op 19 juni 2017 18:48]

Het gebeurt niet vaak, maar ik heb geen flauw idee wat ik lees en/of waar het gebruikt wordt.
Is dit commercieel of een wedstrijd voor fabrikanten?
Beide,

De "beste" computer rekent het "snelste". Elke afnemer wilt hier dus gebruik van maken zolang deze betaalbaar is [relatief voor hen]

(EfficiŽntie speelt dus ook een rol)

Door hoger op de ranglijst te komen, kun je andere/betere klanten krijgen en zo blijft deze wedloop dus ook altijd maar doorgaan


Het wordt inderdaad voor grote onderzoeken/berekeningen gebruikt

[Reactie gewijzigd door Simii op 19 juni 2017 16:29]

Geen van beide, dit is voor onderzoeken.
Meta-wedstrijdje voor organisaties die sowieso al enorme supercomputers bouwen voor simulaties, dataverwerking en onderzoek. Indirect mooie reclame voor producenten van de onderdelen, maar deze systemen staan vooral dag in, dag uit ingewikkelde analyses en modellen uit te stampen.
Tevens is deze Zwitserse supercomputer zeer efficient. Hij staat 6e in de Green500, en is de enige uit de top 50 snelste supercomputers die meer dan 10 GFlops per watt haalt.
Zou deze ook gebruikt kunnen worden voor Bitcoin mining?
Hangt geheel van het script af en hoe deze omgaat met hardware.

Maak een coin die draait op de samenstelling van een supercomputer en dan kan het. Echter gok ik dat deze niet van de grond zal komen aangezien er maar "weinig" mensen aan mee zouden kunnen doen

Of het bestaande coins kan draaien;
Vast wel, maar ik denk niet efficient :)
Het kan, maar het zou niet bijzonder efficient zijn. Bitcoin-miners maken tegenwoordig gebruik van chips die speciaal voor dat doel zijn gebakken en dan ook enkel de berekeningen kunnen doen die voor Bitcoin-mining nodig zijn. Dergelijke ASICs (Application Specific Integrated Circuits) zijn veel sneller en efficienter dan GPUs.

Er zijn echter een heel aantal andere cryptocurrencies waarbij GPUs nog wel het meest effectieve platform vormen om te minen. Daar zou je dit apparaat voor in kunnen zetten en er een niet-triviale hoeveelheid inkomsten uit kunnen halen.
Vrijwel elke computer kan gebruikt worden voor cryptocurrency mining. Zo ook deze monsters.
Is het efficient ? Nee, de TCO is veel hoger dan de mogelijke opbrengst, dus winst valt er niet mee te behalen.
Het zou hooguit voor de eer zijn.
Deze kan perfect gebruikt worden voor crypto mining, laten we wel even duidelijk stellen niet voor bitcoin zelf omdat deze vooral op de AMD architectuur is opgebouwd.
Decred is compleet gebaseerd op cuda cores en alhoewel het niet echt duidelijk is hoeveel van deze GPU's er per node aanwezig zijn is het verschil tussen deze kaart en 1080Ti die indentiek de hoeveelheid cuda cores heeft aanzienlijk. In de stats van bepaalde mining pools staan deze kaarten op 1ste plaats met 20% meer capaciteit in mining. En dit vergelijk gaat om 1 kaart deze supercomputer kan per P-100 een miner runnen.
P-100 95.12% 2.9 TH/s avg 2.2 GH/s -
Waar kan ik controleren op welke plek mijn systeem staat? :+
Zou onder je bureau beginnen

(sorry kon het niet laten om een ongewenste reactie te plaatsen)
Kort antwoord.
NIET

Alleen de eerste 500 staan in de lijst, niet de eerste 500 miljoen.


Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch Samsung Galaxy S8+ LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True

*