Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 63 reacties
Submitter: witeken

Top500.org heeft de 46ste supercomputer-top-vijfhonderd bekendgemaakt. Deze halfjaarlijkse lijst wordt voor de zesde keer op rij aangevoerd door de Tianhe-2 van de Chinese National University of Defense Technology.

De Tianhe-2, een cluster met Intel Xeon E5-2692-processors, heeft 3,12 miljoen cores, haalt 33,86 petaflops en gebruikt 17.808 kilowatt. Met slechts weinig veranderingen in de top tien is het aantal Chinese systemen sinds de vorige top vijfhonderd uit juni bijna verdrievoudigd, schrijft de organisatie op zijn site.

Slechts twee Nederlandse systemen haalden de Top500-lijst nog. Het eerste Nederlandse systeem is de Cartesius 2 van Surfsara in Amsterdam, op de 68ste plaats. Het volgende systeem staat op 356 en is van een niet bij naam genoemde it-serviceprovider. België ontbreekt in de ranglijst. Het totale aantal Europese systemen is ook sterk gedaald van 141 een halfjaar geleden naar 108 nu. Daarmee lijkt stuivertje gewisseld met Azië, waar zich nu 173 systemen bevinden in plaats van 107 een halfjaar geleden. Daarvan neemt China 109 computers voor zijn rekening. De Verenigde Staten heeft nu precies 200 supercomputers, in tegenstelling tot 231 in juni.

Niet alleen het aantal in China aanwezige supercomputers neemt toe, maar ook het aantal supercomputers dat door Chinese fabrikanten is gebouwd. Dat laatste komt vooral doordat Lenovo de x86-tak van IBM heeft overgenomen. Lenovo komt nu vijfentwintig keer voor in de lijst, tegen drie keer in de vorige lijst, al worden negen systemen nu aangeduid als Lenovo/IBM. Daarmee staat Cray met 24,9 procent van de systemen nog bovenaan, gevolgd door IBM met 14,9 en Hewlett Packard met 12,9 procent. Supercomputers van Chinese makelij vormen 9,2 procent van het totale aantal.

Het totale aantal petaflops in de lijst is opgeteld 420Pflops tegen 309Pflops een jaar geleden. Verder gebruiken 104 systemen gpu- of andere versnellingssystemen, waarvan 66 met Nvidia-chips, drie AMD Radeon en 27 Intel Xeon Phi-coprocessors. 98 procent van de systemen gebruikt processors met zes of meer cores, 88 procent acht of meer en 47 procent gebruikt tien of meer cores.

Moderatie-faq Wijzig weergave

Reacties (63)

volgens deze lijst staat Surfsara niet op de 68e maar op de 69e plaats...
"Tianhe" betekent overigens Milky Way in het Chinees, wat in mijn ogen een gepaste naam is voor een cluster van dit kaliber :Y)

Hier staat wat meer info over de Tianhe-1 en zijn opvolger en huidige kampioen de Tianhe-2

Nog een aardig weetje; de huidige nummer 1, de Tianhe-2, weet bijna het dubbele aantal petaflops/s te behalen dan de nummer 2, de Titan (Cray)

[Reactie gewijzigd door BaBy-G op 17 november 2015 12:13]

Dankjewel voor die informatie!

Mij valt dan op dat de nummer 2, de Titan (Cray), maar rond de 560.000 cores heeft tov de 3,12 miljoen van de Tianhe-2. Wat zegt dit precies? Dat de cores van de Titan veel sterker zijn per stuk? En zou er nog enorm groeipotentieel zijn voor de Titan, als zij evenveel cores zouden bouwen als de Tianhe-2?

Is economisch kapitaal dan (kennelijk) de alles beslissende factor? Of zou er een andere reden zijn waarom niet alle supercomputers 3,12 miljoen cores gebruiken (of meer)?

Misschien zijn dit domme vragen (voor zover die bestaan), maar ik heb weinig kaas gegeten van dit onderwerp :)
In snelheid heeft het denk ik weinig nut, de reden dat de Titan de helft van de score haalt van de Tianhe-2 heeft denk ik meer met scaling te maken. Daardoor is de winst (ondanks dat het dan bijna het dubbele aantal petaflops haalt) marginaal in verhouding.
Geef dan ook even een linkje naar de lijst ?

http://top500.org/list/2015/11/
Linkje staat er gewoon bij hoor ("weetje" is klikbaar), ik lever nooit halve werk :Y)
Een jaartje of 20 wachten, en we hebben deze power in onze broekzak steken.
De nummer 1 van november 1995 haalt 170 GFLOP/s.
Hoewel de Adreno 430 uit de SD 810 388 GFLOP/s zou moeten kunnen halen vermoed ik dat dat niet bij dezelfde nauwkeurigheid is.
Bovendien had dat systeem toen 140 cores tegenover 1 core in normale desktop systemen. Nu heeft de nummer 1 3,12 miljoen cores tegenover maximaal 8 in normale desktop systemen. De verhouding tussen supercomputer en normaal systeem is nu dus veel schever dan toen.
Waarschijnlijk komt de power van de smartphone van 2035 dus niet in de buurt van de rekenkracht van de Tianhe-2.

Andere benadering:
Als we er vanuit gaan dat het stroomverbruik elke 1,5 jaar gehalveerd wordt bij dezelfde performance is het stroomverbruik over 20 jaar ongeveer 10.000 keer zo laag als nu. 17.808 kw nu delen door 10.000 is dus 1,7 KW over 20 jaar. Ook met nieuwe accutechnieken wil je dat over 20 jaar echt niet in je smartphone.

[Reactie gewijzigd door DitisKees op 17 november 2015 12:31]

Je gaat uit van lineaire groei. Het is slechts een theorie, maar Moore's wet en in het verlengde daarvan, Kurzweil's Law of Accelerating Returns gaat uit van exponentiële groei van zowel het grondtal als het exponent.

Wat ipaqlinux48 zegt is een theorie die Ray Kurzweil onderschrijft in zijn boek: The Singularity is Near: When Humans Transcend Biology.
Mooi leesvoer als je meer wilt weten over de toekomst van de mensheid in het licht van de komst van AI.

Die power zit dan niet in onze broekzak maar we hebben dan zelf die rekenkracht.
Nou.. nee.. In 1995 zaten we op +/- 200 Gflops en de laatste SoC's hebben er ongeveer 1 á 2, heeft ook helemaal geen zin want je kan die berekeningen beter ergens anders laten gebeuren en het antwoord ophalen over een mobiele verbinding.

Edit: ik heb het over CPU Gflops en niet GPU Gflops die lopen al wel redelijk op.

[Reactie gewijzigd door GewoonWatSpulle op 17 november 2015 12:30]

Leuke PC om op te renderen :+

Natuurlijk begrijp ik wel dat de software op zo'n server hier niet gemaakt voor is :P
Jammer dat er niet in het article staat wat dit systeem doet
De Tianhe-2 is meer een man op de maan project, dan werkelijke een bruikbaar systeem:

Quotes, van : http://www.scmp.com/news/...ss-some-potential-clients
One problem is cost. The electricity bill for the machine at the Sun Yat-sen University campus in Guangzhou runs between 400,000 yuan (HK$485,400) and 600,000 yuan a day.

Another obstacle remains a lack of software, they say. Tianhe-2 has been used for railway design, earthquake simulation, astrophysics and genetic studies. But so far investment has focused on hardware, forcing clients to write the programmes to allow them to use it.

"It's like a giant with a super body but without the software to support its thinking soul," Chi said. Some users would need years or even a decade to write the necessary code, he added.
= 62 730,40 U.S. dollars
dat zijn inderdaad aardige bedragen voor de stroomrekening...

Belangrijkste vraag is echter hoe dit tegenover andere computers staat.. op het moment dat de kosten per petaflops (of hoe je dat ook weergeeft..) gelijk zijn aan een kleiner/trager cluster, dan heb je bij deze nog het voordeel dat je doorlooptijd kort is (even software buiten beschouwing gelaten). Als kleinere clusters lagere kosten per petaflop hebben, dan moet je gaan kijken of de extra kosten de tijdswinst waard zijn. (als het gaat om 1 uur vs 1 dag, maakt het natuurlijk niet veel uit in de meeste gevallen, maar 1 dag of 24 dagen stampen.. dan wordt het een ander verhaal
Waarschijnlijk weersveranderingen voorspellen en simulaties draaien van het effect van bepaalde medicijnen natuurverschijnselen etc etc maar is maar een wilde gok he !
Ik heb tijdens een stage in China meegewerkt aan een project waar grondonderzoek werd gedaan. Die modellen werden ook naar een supercomputer gestuurd. Het is onderzoek naar grondstoffen, olie dat soort zaken. De verwerking van de verkregen radarsignalen werd gedaan op de supercomputer omdat het met een normale PC enkele weken zou duren :p
"According to NUDT, Tianhe-2 will be used for simulation, analysis, and government security applications."
Link

Volgens de site tenminste, ook wel logisch aangezien de Tianhe-2 van het Chinese ministerie van defensie is ;)
Renderfarms en supercomputers verschillen niet heel sterk. Het belangrijkste verschil is dat renderen goed te paralleliseren is en daardoor geen hogesnelheidsnetwerk nodig is.
Vooral data van CERN verwerken, heb ik begrepen.
Zou je Google of Facebook of Amazon, als geheel, ook niet kunnen zien als 1 supercomputer?
Nee, dat is eerder een distributed computer. Nuttig voor makkelijk paralleliseerbaar werk, niet voor werk waarbij je veel geheugen nodig hebt waarbij er veel interactie is tussen die geheugenplaatsen.

Het verschil wordt ook wel aangeduid als capability computing (supercomputers) versus capacity computer (grote rekenclusters). Technisch is het verschil dat supercomputers vaak ook een dedicated intern netwerk hebben. En dan bedoel ik geen Ethernet, maar typisch iets als InfiniBand waarover MPI software gebruikt wordt. OmniPath is een recenter alternatief voor InfiniBand, en soms zie je ook wel FiberChannel (hoewel dat laatste toch vooral in NAS omgevingen gebruikt wordt).

Over het algemeen heeft een rekencluster net zo veel als, of wellicht zelfs meer cores dan een supercomputer, maar is een supercomputer toch in staat bepaalde berekeningen te doen die een cluster niet kan (omdat memory-to-memory access tussen twee verschillend hosts een te hoge latency heeft). Het voordeel van een cluster is dan weer dat het vaak een stuk goedkoper is, zowel in hardware als in energieverbruik.

[edit: grammar fix: net zo veel als, of meer dan. Dank Darkno1]

[Reactie gewijzigd door MacFreek op 17 november 2015 20:33]

Dank je, wist niet dat er zo'n groot verschil in berekeningen kunnen zijn dat een cluster dat niet aankan.
Met die logica zou je het hele internet bij elkaar als 1 grote supercomputer kunnen zien, dat is toch echt niet het geval. Een supercomputer is meer dan een netwerk van computers die samenwerken (al zou je met bepaalde software wel een heel eind kunnen komen om een hoop machines bij elkaar te rapen en supercomputer achtige dingen te doen, denk aan seti@home ed.).
Benieuwd hoeveel rekenkracht Google heeft, als zij bijv. 1% van iedere core zouden reserveren...
17.808 kilowatt niet 17.808 watt. Het is 1000x verschil
Inderdaad:
http://top500.org/statistics/efficiency-power-cores/ (Chart Type even op 'Power' zetten)
De amerikaanse komma is zoals onze punt en andersom, voor wat betreft decimalen. Kijk maar naar de nummer twee op de lijst.
Mocht je interesse hebben in energie-efficientere supercomputers: de Green500 zal ook wel deze week (tijdens SC15) gepresenteerd worden.

18 MWatt klopt denk ik wel aardig voor Tiahne-2. top500.org is even down, maar Wikipedia zegt het ook: "17.6 MW (24 MW with cooling)".
dan zou dat ding in Nederland ongeveer 3,561600 miljoen euro aan stroom per jaar kosten? Dat lijkt mij dan ook weer erg veel?
Ik vind 3.5 mln Euro weinig voor 24 MWatt (Tiahne-2 is 18 MW, maar er komt nog eens 6 MW bij voor cooling).

Nederlandse commerciele prijzen zijn iets van 22 cent per kWh. Groothandelstarief is ongeveer de helft, zo'n 11 cent per kWh. Bron: Eurostat. Dat is makkelijk rekenen: er zitten 8760 uur in een jaar, dus een kWjaar kost een bedrijf zo'n ¤1000 en jou ¤2000. En een Watt-jaar kost jou 2 euro. Kortom, een computer die een jaar lang continue 100 Watt trekt kost een bedrijf 100 euro per jaar. Jou zou het 200 euro per jaar kosten.

24 MWatt kost dus 24 miljoen euro per jaar. Nou denk ik dat je wel tot 6 cent per kWh kan zakken in Nederland bij dit soort afname, en in China is het misschien nog iets goedkoper, maar dan nog vind ik 3.5 mln euro per jaar aan stroomkosten voor dit ding weinig.

[Reactie gewijzigd door MacFreek op 17 november 2015 13:48]

17,8kW voor 3,12 miljoen cores leek mij ook al ontzettend weinig.
Ik vond het al heel knap :) in vergelijking met mijn 500 wat desktop (met 4 cores)
Jouw quad core trekt echt geen 500 watt uit het stopcontact.
Vond het al wat aan de lage kant, zo'n processor wil ik wel hebben haha
Interessant.
- Linux heeft >90% marktaandeel
- X64 heeft > 90% marktaandeel.
Je vraagt je of hoelang andere processor architecturen en OS nog blijven leven, in ieder geval voor supercomputing.

[Reactie gewijzigd door Sir Isaac op 17 november 2015 12:10]

Er wordt steeds meer gedaan met ARM in de servermarkt dus dat speelt zich vast ook wel weer door naar de supercomputers. Ik neem aan dat de Cell/PowerPC computers zo goed als geheel uit de lijst zijn verdwenen en dat die 10% SPARC's zijn? Ik kan zo snel geen filter mogelijkheden op de top500 site achterhalen.
Als je de XLS downloadt (even een accountje aanmaken) kun je wel meer filters toevoegen. Maar om je vraag te beantwoorden:
AMD x86_64 21 4,20%
Intel Core 1 0,20%
Intel Haswell 138 27,60%
Intel IvyBridge 165 33,00%
Intel MIC 1 0,20%
Intel Nehalem 21 4,20%
Intel SandyBridge 118 23,60%
Intel Westmere 1 0,20%
Others 1 0,20%
Power 7 1,40%
PowerPC 19 3,80%
Sparc 7 1,40%

Het is dus eigenlijk één grote x64-show.

Edit: tabel beter leesbaar.

[Reactie gewijzigd door sanderr op 17 november 2015 14:25]

Vindt het niet zozeer één grote x64-show maar veel meer aantonend dat er meerdere wegen naar Rome zijn gezien het gebruik van chips van 4 verschillende fabrikanten op de plekken 1 t/m 4.

Goede ontwerpers kunnen veel met chips die niet zo bekend zijn bij gewone consumenten.
De nieuwe verdeling in de lijst komt doordat er nieuwe supercomputers zijn bijgekomen, waardoor anderen uit deze top 500 zijn geschoven. Er zijn dus wel meer supercomputers, maar die halen gewoon die top 500 niet meer.

Wordt wel eens tijd voor Nederland om toch maar weer te gaan investeren in die dingen, aangezien ze er nog maar 2 hebben die mee kunnen doen in de top. Waren deze plannen er niet al?
De eerste nieuwe entry in die lijst is op #6. Alle andere systemen in de top-5 gaan al eventjes mee (2011, 2012 en 2013). De huidige nummer 1 staat al sinds 2013 op die plek (zonder aanpassingen in de performance).

Met andere woorden: wat een beest! :)

[Reactie gewijzigd door sanderr op 17 november 2015 12:33]

Wat ik me dan altijd afvraag. Zo grote supercomputer bouwen, investeren, onderhoud, plannen kost allemaal geld. Waarvan een deel uit investeerders komt neem ik aan?

Hoe ziet het verdienmodel eruit van een gemiddelde supercomputer? Of is het "in the name of science" en rust het voornamelijk op investeerders?
Bedrijven/universiteiten/etc kopen rekenkracht in. Bedrijven betalen dit uit eigen zak (tenzij ze baanbrekend onderzoek doen in landje X want daar is weer potje Y voor). Daarnaast is het natuurlijk ook door investeerders gefinancieerd, maar ze doen het echt niet gratis en willen de investeerders echt wel hun geld terug.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True