Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Japanse supercomputer met twintig miljoen cores pakt vierde plek in Top500-lijst

Door , 83 reacties

Het Japanse Gyoukou-systeem is van de 69e naar de 4e plek gestegen in de Top500-lijst van supercomputers. Dat komt door de toevoeging van duizenden PEZY-SC2-chips, waarmee het totaal aantal cores nu op 19.860.000 staat.

Bij de vorige editie van de halfjaarlijkse Top500-lijst van supercomputers stond het Gyoukou-systeem van het Japan Agency for Marine-Earth Science and Technology nog op de 69e plek. Destijds bevatte het systeem zo'n 3,2 miljoen cores. Dankzij een grote upgrade is de rekenkracht van het systeem gestegen naar 19,1 petaflops en dat is goed voor een 4e plaats op de wereldwijde ranglijst.

De supercomputer bevat na zijn upgrade naar de ZettaScaler 2.2-architectuur tienduizend PEZY-SC2-chips. Deze bevatten ieder 2048 cores op 1GHz. De many core microprocessor verbruikt 180 watt en is gemaakt op het 16nm-finfetprocede van TSMC.

In de Gyoukou-supercomputer zijn niet alle cores van de chips ingeschakeld. Om de yields te verbeteren zijn er 1984 van de 2048 cores actief. Het totaal aantal cores komt daarmee op 19.840.000. Ook zijn de chips lager geklokt, op een snelheid van 700MHz. Voor iedere acht PEZY-SC-chips zit er een Intel Xeon D-1571-processor met zestien cores in het systeem. In totaal zijn er 1250 Xeons aanwezig, goed voor nog eens 20.000 cores.

De ZettaScaler-architectuur maakt per PEZY-SC2-chip gebruik van een module, daarvan passen er 32 op een zogenaamd brick. Van deze bricks gaan er maximaal 16 in een immersion tank. Dat is een kist die gevuld is met de Fluorinert Electronic-vloeistof van 3M. Voor de Japanse Gyoukou-supercomputer zijn er nu zo'n 20 van deze tanks gevuld, maar er zijn er 26 beschikbaar, waardoor er nog upgrademogelijkheden zijn.

Uit de nieuwe ranglijst blijkt ook dat China de VS heeft ingehaald als het gaat om het aantal supercomputers in de Top500. Er staan 202 Chinese systemen in de lijst van november tegenover 143 supercomputers uit de VS. Een halfjaar geleden waren dat nog 169 Amerikaanse supercomputers tegenover 160 systemen in China. Bovendien is het snelste Amerikaanse systeem, de Titan, gedaald naar de 5e plek.

Nederlands' snelste supercomputer, de Cartesius 2 van SURFsara, zakte van de 113e naar de 142e positie op de lijst. In het afgelopen halfjaar kreeg het systeem dat Intel Xeon-cpu's en -accelerators gebruikt geen upgrades. Een jaar geleden stond Cartesius 2 nog op de 80e positie. Het BrEniac-systeem van de KU Leuven is uit de Top500 verdrongen. Zes maanden geleden stond de Belgische supercomputer op de 370e positie.

In de top drie van supercomputers is niets veranderd aan de ranglijst. Het Chinese Sunway TaihuLight-systeem voert de Top500 al twee jaar aan met zijn ruim tien miljoen cores en rekenkracht van 93 petaflops. Op de tweede plek staat de eveneens Chinese supercomputer Tianhe-2, met 33,9 petaflops. Het Zwitserse Piz Daint-systeem blijft met 19,6 petaflops op de derde plek staan. Het systeem bemachtigde die positie een halfjaar geleden na een upgrade met Tesla P100-gpu's.

Door Julian Huijbregts

Nieuwsredacteur

14-11-2017 • 11:35

83 Linkedin Google+

Reacties (83)

Wijzig sortering
Het is toch best triest dat een computer met de helft minder cores, 5 maal zoveel flops heeft? Of zie ik dat verkeerd?
De trend is naar meer maar zuinigere cores, zoals bijvoorbeeld de TaihuLight met 10 miljoen cores en ook vele andere systemen die in ontwikkeling zijn. Sowieso is de maximale kloksnelheid van een enkele core inmiddels wel ongeveer bereikt en stijgt daardoor de hoeveelheid cores in een supercomputer, maar meer simpele en lager geklokte cores gebruiken is energiezuiniger en beter te koelen en heeft daardoor vaak de voorkeur.

De uitdaging is systemen en applicaties goed werkend te krijgen met zoveel cores, en dat is waar veel onderzoek en ontwikkeling in dit gebied nu op gericht is. Applicaties schrijven voor 10k of 50k cores is nog wel te doen met traditionele methoden en clusters, maar met miljoenen cores moet de manier waarop gecommuniceerd wordt, hoe storage wordt aangesproken en hoe geheugen gedeeld wordt veranderen. 50k cores iets laten synchroniseren is bijvoorbeeld al inefficient, maar met miljoenen cores wordt dat bijna onmogelijk. Als betere methodes om gebruik te maken van grote hoeveelheden cores eenmaal goed beginnen te lukken kunnen de aantallen cores nog veel verder worden opgeschaald.
Ja dat zie je inderdaad verkeerd, want de ene core is de andere niet. Het artikel hierboven maakt een klein foutje (ik zal het ook even in de feedback gooien); er zitten namelijk niet 2048 MIPS cores op een chip. Er zitten slechts 6 MIPS cores op elke chip, en de 2048 andere "cores" zijn meer hele kleine processing elements net zoals de shader cores op een GPU. De architectuur van die PEs is niet zo duidelijk, al staan er hier wel wat details van een eerdere generatie. Waarschijnlijk zijn de PEs nog wel ongeveer het zelfde gebleven, maar is de indeling en het aantal er van in deze generatie omhoog geschroefd (andere cache afmetingen/topologie o.a.)
Het is toch best triest dat een computer met de helft minder cores, 5 maal zoveel flops heeft? Of zie ik dat verkeerd?
Het is natuurlijk een upgrade van dit systeem. Dit ding stond op de 69e plek, nu op de 4e. Dus grote kans dat de 'oude' cores gewoon een flink pak trager zijn.
Maar een upgrade zoals deze is waarschijnlijk goedkoper dan het hele ding vervangen. En cores bijpluggen zal waarschijnlijk efficienter zijn, dan de oude weghalen en vervangen door nieuwe. Simpelweg omdat je dan veel meer moet kopen, en oud spul dat nog prima werkt afschrijft.
Waarom zou dat triest zijn? Je kunt proberen om aal je rekenkracht via Xeon processors te verkrijgen, maar kennelijk is het in dit geval veel efficiënter om processoren met 1984 energiezuinige cores per stuk te gebruiken. Ondanks dat ze maar op 700Mhz draaien levert dat je een flinke performance op voor slechts 180 watt aan maximaal energieverbruik.
Ja, dat zie je verkeerd. Het gaat ook om het energieverbruik en de complexiteit van de cores die gebruikt worden. Een supercomputer is een balans van complexiteit van de cores, energieverbruik, kosten, complexiteit etc. Het is ook niet zo dat de snelste supercomputer in flops altijd de beste computer is voor het onderzoek dat je wilt doen. Niet elke klus kun je eenvoudig over miljoenen processoren verdelen.
Wat ik echt triest vind is dat Japan schijnbaar nog steeds aan walvisvangst doet...voor de Japanse regering en Agency for marine-earth science and technology geen reden om op te schepen. Houd eerst eens op de natuur in de vernieling te brengen.
Prima post al dan niet off topic
Helemaal mee eens maar idd offtopic
https://www.volkskrant.nl...n-op-uitsterven~a2615444/

En dit kun je helaas voor practisch alle gangbare verkrijgbare vissen stellen.
De Oceaan is groot, maar met genoeg schepen krijg je die ook wel leeg zoals nu blijkt.
Zouden we over 20 jaar de rekenkracht van de #1 met 93 petaflops ook in onze smartphones hebben (voor zover die dan nog bestaan)?

Toevoeging: Met in het achterhoofd dat dat nu namelijk ook het geval is in vergelijking met supercomputers van 20 jaar geleden.

[Reactie gewijzigd door Yooo Kerol op 14 november 2017 12:06]

Als je kijkt, 20 jaar geleden was de snelste computer 1.333TFLOPS (1997). Een Nvidia Tesla P100 kaart kan nu 18.7TFLOPS aan. Dat was de snelheid van een super computer uit 2001 (schatting, 2000 was het 7TFLOPS en 2002 was het 35TFLOPS).

Ik denk dat het met een desktop dus zeker moet lukken.

Als je Huawei moet geloven dan haalt hun NPU 1.9TFLOPS en die zou mogelijk in een smartphone kunnen:
https://www.anandtech.com...ed-neural-processing-unit

Als dat waar is, dan zou in theorie het dus mogelijk kunnen zijn dat we in 20 jaar inderdaad in de pentaflops komen op een mobile device.

Maar ik denk van niet :)

[Reactie gewijzigd door Da_Teach op 14 november 2017 11:52]

Waarom niet?
20 jaar geleden besloeg de rekenkracht van een huidige doorsnee PC net zoveel ruimte als de Japanner nu.
Als ik die foto zie van de supercomputer krijg ik een nostalgische flashback naar de jaren 70. Die oude foto's van flatgebouwen waarin de eerst computer werd gemaakt.
We naderen atoom afmetingen met ons processor procede. Ofwel, met huidige basis lijkt het fysisch niet mogelijk. Halve atomen bestaan helaas niet in onze definties.

Mogelijk? Vast wel ooit. Over 20jaar? Als we onze huidige kennis vergroten en fysische limieten tackelen.

Tweede vraag is: gaan de bedrijven hiervoor of word straks alles op een cloud compute-cluster gegooid met die 93 petaflops. Cloud seems to be everything nowadays.

En inderdaad het gaat verdomd hard! Ik heb net nog met een portable Xbox One genaamd Nintendo Switch gespeeld :+

[Reactie gewijzigd door Sugocy op 14 november 2017 15:20]

Mwa, met een kwart gedowngrade xbox one.
Vooruit enige nuance :Y)
Ik heb een sleutelhanger met een ingegoten 64 kB geheugenchip erin. Jawel, KiloBytes. :)
Het eerste Mainframe waar ik in de 70-er jaren mee te maken kreeg had dezelfde geheugencapaciteit.
Dat frame woog bijna een ton. :*)
Tja zo zijn er nog veel meer dingen, de eerste hardeschijf die ik in een computer had was 10 megabyte groot!

Dat is allemaal leuk en aardig, maar dat was meer dan 20 jaar geleden (damn ik ben oud) en dat zelfde geld voor jouw 64kbyte.

Feit is wel dat de kans niet heel groot is dat we 93 petaflops in een handheld krijgen in 20 jaar. Onmogelijk? Nee, zeker niet. Maar niet erg waarschijnlijk.

De kans is veel groter dat we een soort "device as a service" krijgen, waarbij je handheld alleen een scherm is (mogelijk projectie van een soort) die een snelle internet verbinding heeft, de rest wordt dan offsite geregeld.

Het is immers veel efficiënter om het allemaal door de cloud te laten afhandelen. Dat doen we nu niet omdat de bandbreedte en de latency te hoog wordt, maar zodra dat "onder controle" is dan is het veel efficiënter. Want waarom zou je een snelle (dure) mobile cpu willen hebben die je 90% van de tijd niet gebruikt.

Tevens is het 'upgraden' van je device dan eerder een sneller abonnement nemen i.p.v. heel nieuw device.

Maar goed, we zien het wel, ik zelf denk niet dat de kans groot is dat het gebeurd. En dan eerder niet vanwege het 'niet kunnen' maar meer dat het niet interessant zal zijn om dit te doen.
Waarschijnlijk iets met hoe groot noem je handheld, want op een gegeven moment kunnen computers niet kleiner, want dan gaan Quantum effecten je normale pc werkzaamheden verzieken.
Nee, als de wet van Moore van toepassing blijft dan hebben we tegen dan 2^10 keer zoveel transistoren op dezelfde oppervlakte als nu.
In het beste geval zal je smartphone 1024 keer zo snel zijn, zeer waarschijnlijk minder omdat 2x zoveel transistoren niet gelijk is aan een verdubbeling van de performance.
Nee, als de wet van Moore van toepassing blijft dan hebben we tegen dan 2^10 keer zoveel transistoren op dezelfde oppervlakte als nu.
Dat zou betekenen dat transistors dan ook ongeveer 210 maal zo klein zijn (een paar atto-meter), dwz ca 1000 maal kleiner dan een proton (~1 femto-meter).

Dat gaat met traditionele transistors (waarvoor de wet van Moore geldt) zeker niet lukken, ook niet met nano-technologie en ook niet met transistors die maar één atoom groot zijn. Er is momenteel totaal geen aanwijzing dat het uberhaubt mogelijk is om wat dan ook zo klein te maken.

[Reactie gewijzigd door BadRespawn op 14 november 2017 13:41]

Goeie opmerking, de wet van Moore loopt op zijn einde, ze gaat echter al zo lang mee dat het bijna een absoluut gegeven lijkt. ;-)
Maar het is niet alleen het aantal transistors wat snelheid bepaald.. Wellicht over 5 jaar gaan we ipv van verkleinen / meer transistors wel weer terug naar de GHZ race en focuses we op snellere transistors ipv kleinere.. Never know
Ik denk ook aan extreme optimalisaties en schaaltechnieken.
Precies, straks met optische interconnect verbindingen gaat denk ik wel veel doen, net als 3d xpoint achtige geheugen structuren etc, extreem snelle (en grote) L1 caches.. Zijn genoeg bottlenecks te overwinnen die gigantische snelheden opleveren
Dat is een hoop kracht, maar dat zal je waarschijnlijk ook merken in het stroomverbruik :)
20 tanks * 16 bricks * 32 cpu's = 10240 PEZY-SC2 chips a 180 watt = 1840KW maximaal, met daarbij nog het energieverbruik van 1250 Xeon's a 45 watt = 56KW maakt samen zo'n 1900KW enkel aan CPU stroomverbruik, zonder alle aanverwante apparatuur. Valt imo nog wel mee als je kijkt naar de enorme toename in rekenkracht na deze upgrade.
1350KW volgens de Top500-lijst. Waarschijnlijk omdat de PEZY-chip dus wat lager geklokt is in deze supercomputer.

In de Green500-lijst staat dit systeem ook op de vijfde plek. Nummers 1 t/m 3 maken bovendien allemaal gebruik van dezelfde ZettaScaler-2.2-architectuur.
Zeer laag stroom verbruik trouwens, significant minder dan vergelijkbare systemen.
Om de yields te verbeteren zijn er 1984 van de 2048 cores actief.
Wat hebben ze met chips van 1983 cores gedaan?
Wel een bijzonder getal... 1984 :+
1984 is 64 cores minder dan 2048, opeens niet meer zo'n gek getal toch?
Prullenbak. Waarschijnlijk is het aantal processoren met minder dan 1984 werkende cores toch kleiner dan 10%.
straks moeten ze nog licentie kosten aan George betalen ;)
Zeker als je achter 1984 nog combineert met 14 november. Heb je gewoon mijn verjaardag! :+
Gefeliciteerd... grappig detail: ik ben ook jarig vandaag :P
Gefeliciteerd. Nog een grappiger detail: ik ben niet jarig vandaag :X
Wat voor instructieset heeft deze chip überhaupt?


Designs lijkt me dusdanig afwijkend dat het aparte drivers nodig heeft. En dan nog vraag ik me af in hoeverre het voor andere branches behulpzaam kan zijn.


Het aantal ‘supercomputers’ lijken hard te stijgen,
maar deze supercomputers zijn minder flexibel dan ze zich voordoen.
Wat voor instructieset heeft deze chip überhaupt?
MIPS aldus de wikipagina.
Designs lijkt me dusdanig afwijkend dat het aparte drivers nodig heeft. En dan nog vraag ik me af in hoeverre het voor andere branches behulpzaam kan zijn.
MIPS is een redelijk gangbare architectuur. Software zal sowieso specifiek gebouwd moeten worden, je kunt niet zomaar een .exe ergens vandaan plukken en hierop gaan draaien. Software die hierop draait moet ook wel geschikt zijn voor het werken met miljoenen cores. De architectuur speelt wat dat betreft minder een rol.
Het verschil tussen de nummer 1 en nummer 2 is echt een factor 3. Dat is beste wel groot vind ik.

Nu wil men plotseling de manier waarop de snelheid van een supercomputer berekend wordt veranderen, om de Chinezen te pesten. Zielig gewoon.
Titel
20.000.000 cores

Alinea 1
19.860.000 cores

:? :?

[Reactie gewijzigd door fifty_seven op 14 november 2017 11:45]

De titel noemt twintig miljoen cores, niet 20.000.000, dus het is een afronding die niet onredelijk is.
Op die manier kan ik alles afronden ja haha
Dat is de manier hoe men in de wetenschap inderdaad afrondt. Iets met significante cijfers. 20 * 106 heeft een andere betekenis dan 20.000.000. Die eerste notatie geeft aan dat het ergens tussen de 19.500.000 en 20.500.000 ligt.

[Reactie gewijzigd door .oisyn op 14 november 2017 14:41]

"Japanse supercomputer met negentien miljoen achthonderdzestigduizend cores pakt vierde plek in Top500-lijst"

Goed idee. 8)7
Met bijna 20 miljoen cores
Met ~20 miljoen cores
Met 19.86 miljoen cores

Kan ook allemaal

[Reactie gewijzigd door fifty_seven op 14 november 2017 14:03]

Je kunt inderdaad veel dingen afronden, zeker als het om zulke kleine verschillen gaat (0.7% in dit geval).

Zo zeg je ook dat er 17 miljoen mensen in Nederland wonen ipv. het exacte aantal. Is dat onjuist? Moet iedereen altijd exacte (significante) cijfers geven?

Daarnaast wordt het exacte aantal verderop in het artikel ook nog genoemd.
Je geeft in mijn optiek helemaal niet aan dat je het raar vindt lezen en je verdraait zelfs wat er in de titel staat.

Het had misschien nauwkeuriger geweest als de titel "met bijna twintig miljoen..." was geweest, maar het verschil is zo klein, dat mag je gewoon negeren voor een mooiere titel.
Dus een :? geeft niet aan dat ik het raar vind?

En hoezo verdraai ik de titel? Omdat ik 20.000.000 zeg ipv 20 miljoen?

[Reactie gewijzigd door fifty_seven op 14 november 2017 14:52]

Ja ":?" geeft het wel aan, heb je gelijk in.

Maar je tweede punt is precies het kritieke denk ik. Ze schrijven niet 20.000.000 omdat dat exact 20 miljoen is, maar omdat ze het getal uitschrijven in woorden ipv. cijfers ronden ze af naar "twintig miljoen" om vervolgens het exacte getal in cijfers te geven in de eerste alinea.

Je schrijft niet "negentien miljoen achthonderdzestigduizend cores" uit zoals @BlueSmileyBE al had gereageerd.

(Ga het hier bij laten, denk dat we al ver genoeg zijn afgedwaald, dus pak 't laatste woord als je wilt ;) )
valt verder niet meer af te dwalen denk ik _/-\o_
Ik had jouw gedachte eerst ook, maar het komt er op neer dat hij 20 miljoen cores heeft a 1 GHz per core. Echter, hebben ze er een aantal (groot aantal) uitgeschakeld waardoor je op die 19,860 miljoen cores uit komt. Daarbij zijn ze ook nog eens omlaag geclockt naar 700MHz.
Dus maximaal zou je op 1 GHz kunnen draaien per core en ook nog eens 20 miljoen cores tegelijk aan hebben staan.

Het eerste stuk is interessant, maar maakt het wel verwarrend zo blijkt.
20 miljoen heeft twee significante cijfers en kan dus alles tussen de 19,5 en 20,5 miljoen betekenen.
met wat omwegen zou dat wel kunnen, maar ik denk niet dat je meerdere duizenden euros aan stroom kwijt wil zijn voor een speelsessie Crysis :)

Deze apparaten draaien over het algemeen op een eigen variant de linux kernel en worden onder andere gebruikt voor (wetenschappelijk) onderzoek en weersvoorspellingen. daar is die enorme hoeveelheid rekenkracht nodig voor.

[Reactie gewijzigd door ard1998 op 14 november 2017 12:00]

http://knowyourmeme.com/memes/but-can-it-run-crysis

edit: nou mensen vinden het ook niet leuk als ik het uit moet leggen :P

[Reactie gewijzigd door Iva Wonderbush op 14 november 2017 11:48]

Hoelang nog nodig om 1 private key van BTC te vinden? :)
Veel te lang. Dat ga je niet serieus verkorten met een supersnelle supercomputer. Een kwantumcomputer kan je weleens gaan helpen daarentegen.
Foutieve info, excuus
Thx voor het melden @Zahariac mijn fout zie ik nu inderdaad.
8)7

[Reactie gewijzigd door SSDtje op 14 november 2017 14:18]

Ik ben bang dat je nog even het artikel opnieuw moet lezen! Het is 180 Watt per CPU!


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*