Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 52 reacties

De SaturnV van Nvidia, die bestaat uit DGX 1-modules met Tesla P100-accelerators, is de meest efficiŽnte supercomputer volgens de Top500-lijst. Het systeem is goed voor 9,46 gigaflops per watt. Als het om rekenkracht gaat, staat het cluster op de 28e plaats.

SaturnV is volgens Nvidia 42 procent efficiënter dan de supercomputer die bij de bekendmaking van de vorige Top500-lijst in juni de rangorde aanvoerde. Nvidia's supercomputer is opgebouwd uit DGX 1-modules, die ieder acht Tesla P100-accelerators en twee Xeon-processors bevatten. Het SaturnV-cluster bevat in totaal 60.512 cores en behaalt een rekenkracht van 3,3 petaflops, terwijl het 0,35 megawatt verbruikt.

Piz Dait, de Zwitserse nationale supercomputer staat tweede op de lijst als het gaat om zuinigheid, met 7,45 gigaflops per watt. Dat systeem bestaat onder andere uit Xeon-processors, maar heeft onlangs een upgrade gehad met Tesla P100-accelerators. Piz Dait staat wat rekenkracht betreft achtste op de lijst met 9,8 petaflops.

De Tesla P100 is gebaseerd op de GP100-gpu, de eerste en grootste gpu van de Pascal-generatie die Nvidia in april aankondigde. De huidige GeForce-videokaarten in de 10-series zijn gebaseerd op een kleinere variant van deze chip.

De krachtigste supercomputers staan in China. Sunway-TaihuLight voert net als zes maanden geleden de Top500-lijst aan met ruim 93 petaflops. Het systeem is opgebouwd rondom de 64bit-SW26010 risc-processor, die op 1,45GHz loopt en 260 cores heeft. In totaal heeft het cluster meer dan 10 miljoen cores en verbruikt het 15,3 megawatt. Ook de tweede plek is voor China met de Thiane-2, die goed is voor 33,9 petaflops. Volgens de Top500-organisatie staan er zowel in China als in de VS nu 171 supercomputers die een plekje hebben veroverd op de lijst.

Cartesius, de krachtigste supercomputer van Nederland, zakte van de 80e plaats naar de 97e positie. SURFsara kondigde eerder dit jaar aan dat het systeem een upgrade krijgt, maar in de nieuwe Top500-lijst wordt nog uitgegaan van de specificaties van vorig jaar. Met de beloofde rekenkracht van zo'n 1,8 petaflops na de upgrade, zou het systeem op dit moment rond de 55e plek uitkomen.

Nvidia DGX SaturnV

Moderatie-faq Wijzig weergave

Reacties (52)

Ongelooflijk war een kracht ... Maar jongens echt waar. Draait dit op een OS? Zo ja, kan het Minecraft of GTA 5 draaien?


(noot: dit is geen grap)
Vrijwel alle supercomputers werken tegenwoordig op Linux. Voor de tijd van Linux draaiden ze op commerciŽle Unixen als Irix of Tru64.
En daar komen de minnetjes weer binnenstromen, hij geeft toch aan (oke misschien niet duidelijk genoeg) dat het om interesse gaat? Waar gaat het heen met tweakers als je al niet meer uit interesse dingen mag vragen? Die reactie hieronder snap ik de minnetjes dan weer wel van.

Even gegoogled en het lijkt erop dat het draait op een afhangsel van ubuntu en wat andere software gimmicks of wat het dan ook mogen wezen. Hier.

Dus ja, als er een soort van ubuntu op draait zou er ook minecraft op gedraaid moeten kunnen worden, Gta 5 dan weer niet.

Voor de mensen onder ons die geen zin hebben om het hele artikel door te lezen (scrollen); open-source Ubuntu operating system to our DIGITS deep-learning training system to our CUDA Deep Neural Network (cuDNN) GPU-accelerated library of primitives and an array of NVIDIA drivers

Zoiets

[Reactie gewijzigd door Xm0ur3r op 15 november 2016 22:02]

Whine :+ maar zal wel draaien in software rendering hoor

[Reactie gewijzigd door twicejr op 15 november 2016 22:01]

Wat ik me dan altijd afvraag is, hoe zetten ze dit in? Wat doen ze met al die rekenkracht?
Worden hier complexe weerberekeningen mee gemaakt of berekeningen over het universum of wat doen ze precies?
Hydrodynamica (weer, turbulente vloeistofstromingen met of zonder gas en/of vaste stoffen met toepassing in de auto- en vliegtuigindustrie, klimaat), astronomie (uitdijing heelal met invloeden van zwaartekracht al dan niet volgens Einstein of Newton, supernova's, samensmeltingen van zwarte gaten), fysica (verwerking van resultaten van deeltjesversnellers, simulatie van atoomkernen of elementaire deeltjes met loop quantum gravity-modellen of vergelijkbare methoden, gewone multi-quantumbitsystemen, simuleren van kernwapenexplosies en kernfusiereactoren), datavisualisatie, eiwitstructuren voorspellen vanuit first principles en/of afleiden uit kristallografische gegevens en daaraan gekoppelde voorspelling van effectiviteit van nog niet bestaande medicijnen, simulatie van hersenweefsel, verwerken van seismische gegevens voor olie- en gasindustrie, ... . En dan vergeet ik er vast nog een hoop.

Je zou denken dat met dit rekengeweld een hoop problemen allang zijn opgelost, maar niets is minder waar. We kunnen nu geloof ik nťt een beetje uitrekenen hoe een proton (= waterstof) eruit ziet. En zelfs dat moet nog met de nodige aannames en vereenvoudigingen die natuurkundig gezien niet mogen. Met nog meer aannames en vereenvoudigingen zijn we onlangs tot ťťn enkel koolstofatoom gekomen (een beetje): van belang vanwege de zogenaamde Hoyle staat zonder welke wij niet zouden bestaan.

[Reactie gewijzigd door cymric op 16 november 2016 01:33]

gaaf, bedankt voor deze info. Maar hoe gaat dit precies in zn werk? neem aan dat systemen als dit permanent ergens geparkeerd staan en dat universiteiten/bedrijven etc hem tijdelijk kunnen huren.. Moet ik het zo zien dat al het voorwerk elders plaats vind (formules opstellen, gegevens inladen etc. etc.) en dat de eind berekening/rendering hier plaats vind? Kan me hier nou nooit echt een lekkere voorstelling van maken.
Ik heb zelf nooit met supercomputers gewerkt, maar voor zover ik weet is het huren ervan inderdaad wat ermee gebeurt. Instanties die die rekenkracht willen gebruiken eerst hun eigen kleinere gedistribueerde machines om de 'codes' te testen (zo heten de programma's die de berekeningen uitvoeren) waarna ze worden ge-upload naar deze monsters en opnieuw hun ding mogen doen, maar nu met veel meer FLOPS en RAM tot hun beschikking. De beheerders van de machines zullen waarschijnlijk wel kunnen helpen met het optimaliseren van de diverse aspecten die nodig zijn voor het IPC-gedeelte van de 'code' en misschien ook wel met de speciale nukken van de parallelisatie van de rekencores, maar wat de formules zelf doen zullen de gebruikers toch echt helemaal zelf moeten uitknobbelen. Daarna krijg je nog te maken met het niet geringe probleem hoe de bergen data naar je eigen systemen terug te krijgen, dus uit praktische overwegingen zal er ook een hoop analyse op de grote machine moeten plaatsvinden.

Er zijn grofweg vier soorten berekeningen waarom je een supercomputer nodig hebt. Soort 1 vind je terug in alles wat rechtstreeks met behoudswetten te maken heeft. Je schrijft de behoudswetten uit die voor dit soort systemen gelden (massa, energie, impuls, ...), maar toegepast op een fijnmazig rooster dat de geometrie van je probleem voorstelt. Je houdt dan een stelsel van vele tientallen zo niet honderden miljoenen lineaire vergelijkingen over die je met geŽigende technieken oplost. Dat laatste is geen sinecure en haast een vak apart. (Big Data sluit hier trouwens nauw op aan in dat het via een hele andere weg ook op het oplossen van dit soort systemen uitkomt.) Op een supermachine kun je het rooster fijnmaziger maken. Of gewoon 'meer rooster' uitrekenen. Of meer behoudswetten opnemen. Of betere benaderingen voor allerhande effecten waar je de fysica niet precies van kent ten koste van vaak heel veel FLOPS.

Soort 2 is dat je letterlijk tientallen miljarden 'deeltjes' neemt, die voorziet van regels hoe ze op elkaar inspelen (trekken ze elkaar aan, stoten ze elkaar af, hoe bewegen ze, enzovoort) en dan 'gewoon' maar uitrekent wat er gebeurt. Daarna mag de machine nog even helpen met visualisatie, en wat je overhoudt zijn fraaie resultaten als deze. Deze zijn overigens al 10 jaar oud, dus tegenwoordig zal het allemaal weer gelikter zijn. Maar het principe blijft gelijk. (Je kunt trouwens een soort 1-probleem meestal opschrijven in termen van soort-2. Dat brengt wat inherente voordelen met zich mee, zoals betere verankering van natuurkundige principes in de berekeningen.)

Soort 3 tref je aan bij alles dat 'quantum' in z'n omschrijving heeft staan. Nu moet je een pittig probleem ŗ la soort 1 of 2 vele miljarden keren herhalen omdat toeval inherent aan 'quantum' is. Men probeert dan nu uit het gemiddelde van al die herhalingen allerlei eigenschappen af te leiden. Het moge duidelijk zijn dat de details van die soort 1- en 2- problemen niet supernauwkeurig kunnen worden meegenomen omdat je nu streeft naar herhaling tot de max. Dat brengt allerlei nadelen met zich mee waar je vreselijk bedacht op moet zijn: want is het resultaat nu 'echt', of simpelweg een uitvergroting van het feit dat je moest vereenvoudigen?

En dan heb je als soort 4 problemen die gewoon te maken hebben met het verwerken van veel gegevens simultaan zonder dat er individuele regels als bij soort 2-problemen gelden. Deep learning met supergrote neurale netwerken zou hieronder vallen, maar ook de verwerking en visualisatie van de resultaten van alle hierboven genoemde berekeningen.

Deze classificatie is overigens gangbaar noch officiŽel, maar gewoon een poging van mij om enkele toch wel kenmerkende eigenschappen ervan te schetsen.

[Reactie gewijzigd door cymric op 16 november 2016 14:55]

Top, bedankt voor je reactie! Interessant om eens wat meer over op te zoeken :)
Het zal vast wel op een OS draaien, anders kan je het ook niet aansturen.

Maar niet Windows denk ik :). Ik denk niet dat Windows ondersteuning biedt voor zoveel rekenkernen. Alles zal custom ontworpen worden voor de taken die de supercomputer moet uitvoeren.

Dus neen, je kan er geen games op spelen denk ik.
Ik denk niet dat Windows ondersteuning biedt voor zoveel rekenkernen.
Windows indirect wel. NT ondersteund het. Azure draait op NT en kan gezien worden als 1 grote super computer. In 2012 nog op plek 165 met 8000 cores.

MS is momenteel zelfs bezig met een rollout binnen Azure dat het wel eens de sterkste super computer kan maken. Een Supercomputer As A Service :)

http://arstechnica.com/in...upercomputing-powerhouse/
Je kan gewoon een windows cluster opzetten hoor.
Ik weet niet om hoveel nodes dit gaat.
En anders cluster knoppix lekker eenvoudig op te zetten.
Heb zelf een klein render farm met meerdere servers elk 2 tot 8 cpu's
Haal denk ik net de teraflop grens
Wordt een uitdaging voor windows, een cluster van 100.000-200.000 machines oid.
Je moet dan wel even wat device drivers etc. ontwikkelen, ook ontbreken (op een uitzondering na) de videokaarten..., waar de videokaarten er nog wel in zitten, zit er vermoedelijk geen VGA/HDMI stekker op.
Ook de IO moet wat anders georganiseerd worden...

Dit vereist een verwerking op een heel andere schaal. Onderandere op netwerk niveau, je wil bij dit sort architecturen helemaal geen Multicast / Broadcast... Windows Clusters (of elk regulier cluster) zal zwaar leunen op Multicast/Broadcast.
Dan haal je meer ellende in huis om op te lossen dan gemak van een klikje hier of een klikje daar....
Lijkt mij sterk, de rekenkracht van de P100-accelerators is volgens mij niet ingericht voor gamen of het renderen van games. In theorie zou het wel kunnen met een flinke vertaalslag er tussen, maar efficiŽnt is het niet.

[Reactie gewijzigd door Mic2000 op 15 november 2016 19:22]

Gelukkig is efficiency niet heel belangrijk wanneer je 93 Petaflops ter beschikking hebt.
Volgens mij wel. 15,3 Megawatts mag wat kosten, dat wilt niemand echt. Als je dezelfde rekenkracht kunt krijgen met minder Megawatts, zal dat ren stuk goedkoper uitpakken.
Efficiency omtrent gaming gaat meer om 'delay' van input -> output.
In het geval van een supercomputer kan dat nog wel eens tegenvallen als je elke node in de cluster mee wil laten werken.
Ook al worden snelle interconnects gebruikt je bent constant data
INPUT DEVICE -> CPU (workload spreading tool) / RAM -> BUS -> interfacekaart out -> kabel -> interfacekaart in -> BUS -> RAM -> CPU/GPU
en dan weer dezelfde weg terug eindigend in een OUTPUT device (monitor).

Die extra vertragingen/vertaalslagen zijn prima wanneer je een parallelle werklast hebt die makkelijk te verdelen is en die je in GB's naar compute nodes kunt pompen maar voor zoiets basaals als input -> output van een computerspel is het totaal ontoereikend.

[Reactie gewijzigd door Ayporos op 16 november 2016 01:57]

Bij een game is het anders wel fijn wanneer die berekende frames zo snel mogelijk op je monitor terecht komen. Deze supercomputer is daar niet op gebouwd en ik denk dat het genereren van frames uiteindelijk een enorme bottleneck is, zodat je nog er niet veel mee opschiet.
Integendeel. Hoe groter de schaal, hoe meer er met efficiŽntie valt te winnen.
Nee, niet echt. Maar je kan er wel heel veel berekeningen tegelijkertijd mee doen en zo kun je heel veel data per seconde verwerken. Dit is bijvoorbeeld handig voor het voorspellen van het weer of simulaties doen van sterrenstelsels.

Wat een computer nodig heeft om een normaal OS te draaien is een CPU die een heleboel verschillende dingen kan en meerdere cores hebben daar wel een meerwaarde, maar ontiegelijk veel eigenlijk niet. De supercomputer bestaat juist uit heel erg veel cores die niet alles kunnen wat een CPU doet, maar wel heel erg snel en efficient zijn in floating point operations, die zijn vooral handig voor wetenschappelijke toepassingen en ook voor het renderen van CGI.
Of WipeOut (PS), cockpitview, in 4K UHD, met een simstoeltje dat ondersteboven kan... :P

Blijft zonde dat Sony "Studio Leeds" heeft gesloten, want die hadden de game moeten leveren... :(

OK, bijna helemaal off-topic, maar we fantaseren wat we voor zinvols met al die rekenkracht zouden doen! O-)
Hoewel de Tesla p100 bijna dezelfde chip is als de gtx Titan XP, zal het waarschijnlijk toch niet draaien. Dat heeft in de eerste plaats te maken met de drivers. Deze sturen namelijk helemaal geen beeld aan met al die rekenkracht. Verder is er nog het probleem dat Games maximaal 4 grafische kaarten ondersteunen (Hoewel slechts een handjevol dat Łberhaupt fatsoenlijk doet). En dan is er nog het laatste probleem dat dit systeem in feite alleen een heleboel gpu's heeft en geen CPU. Omdat een gpu alleen bepaalde type instructies kan verwerken, zou een normaal geprogrammeerde Game hier niet op kunnen draaien. Waarschijnlijk zijn er nog meer problemen, maar dit zijn de drie voornaamste.
Top! Bedankt voor alle reacties heren. Heb ik mijn avond toch kunnen vullen met veel leesvoer over al het bovenstaande!
Minecraft leent zich niet zo goed voor verspreiding over veel kernen... daar moet de software anders voor in elkaar worden gestoken. (Minecraft draait vrijwel op een CPU).

Je zou er wel 200.000-1.000.000 sessies van mincraft op kunnen draaien bv.
Maar zoveel schermen heb je niet bij elkaar...
Kortom Minecraft gaat niet zo lekker op zo'n bak. (Overigens bedenk dat je energie verbruik thuis iets omhoog gaat, het verbruik is te meten in MWh... met cijfers voor de komma.)
9,46 gigaflops per watt
Wow, dat is inderdaad efficiŽnt!

Even voor de goede orde: Dit zijn 9,460,000,000,000,000 floating point operations per seconde per watt!

(nb. kan ik niet gewoon floating point operations per joule zeggen en de 'per seconde per watt' wegstrepen? :P )

[Reactie gewijzigd door anandus op 15 november 2016 19:36]

Het moet megawatt zijn.

Een stukje verder is te lezen:
" behaalt een rekenkracht van 3,3 petaflops, terwijl het 0,35 megawatt verbruikt."
Het is 9,46 Gflops per watt en 3,3 Pflops per 0,35 megawatt.
Je hebt 6 nullen teveel... Een Gigaflop is 1.000.000.000 floating point operations.

Het gaat om de snelheid dus om operaties per seconde.
Maar we hebben daar niet echt een aparte aanduiding voor dus in de praktijk bedoelen we atijd flops/s.

Dus beide (Gflops/W en GFlops/J) kloppen doordat je GFlops op 2 manieren kunt interpreteren...
De conventie is Gflops/W.
Beetje verwarrende naam Tesla P100
Uiteraard wel in ludicrious mode :D
As het maar niet naar Musk ruikt... :+
Nog beter, kan het Wargames spelen ? :p

Met al die spanningen overal op de wereld.
Tesla wordt gebruikt in Nvidia en Nvidia wordt gebruikt in Tesla's :)
Ik ben benieuwd hoe Keyshot hierop zou draaien als het technologisch mogelijk is, of met een andere render? of evt. 3DS max dat je levensechte 3D werelden maakt (zoals wat je ziet met interieur ontwerp wat niet van echt te onderscheiden is) en on the fly kan renderen :) met 60 fps of meer :)
You must play the saturn... }:O

Benieuwd naar wat het eerstvolgende is wat een andere partije ertegenover gaat zetten...
Als Nvidia met een vervolg komt...

De N64?
Nintendo 64? dat is zo 1990...?
Dat is inderdaad erg zuinig. De Mercedes van mijn buurman zou hem nog kunnen voeden :P
we hebben toch al de Dutch Power Cows :D
Wat een onnozele opmerking.
De Nederlandse supercomputer is ontworpen op basis van de eisen van de diverse gebruikers, en niet op basis van de top500. Dus gebouwd met puur Hollandse nuchterheid. Zee https://www.surf.nl/diens...-supercomputer/index.html voor meer informatie.
ik bedoel zou goed voor de economie zijn hoor, dat nederland in zichzelf investeerd en steeds minder afhankelijk worden van andere landen. 1 supercomputer is goed, 2 is beter.
en als je het door een nederlands bedrijf laat maken de cores, dan kan je er met de winstbelasting nog een procentje van terugkrijgen, echter de bevolking heeft meer te besteden.. en dat gaat weer terug met belastingen... was meer iets van beter hierin geld stoppen dan in een bodemloze put (rdam zuid bv)
Leg uit, wat is er verkeerd aan de eerste zin?
Ze hebben het al aangepast.

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True