Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Amerikaanse supercomputer is weer nummer een in Top500

Een Amerikaanse supercomputer heeft voor het eerst sinds 2012 weer de eerste plek ingenomen op de Top500-lijst, die twee keer per jaar een update krijgt. Het totale aantal Amerikaanse systemen daalt wel ten opzichte van de vorige editie.

Op de eerste plaats van de lijst staat nu het Summit-systeem van het Oak Ridge National Laboratory van het Amerikaanse ministerie van Energie, dat het kort geleden onthulde. Het claimde toen dat het systeem tot een piekprestatie van ongeveer 200 petaflops in staat is. In de HPL-benchmark die voor de Top500-lijst wordt gebruikt, behaalde het systeem een prestatie van 122,3 petaflops en een piek van 187,7 petaflops. Een ander nieuw systeem van een Amerikaans laboratorium, genaamd Sierra, heeft de derde plaats van de lijst ingenomen met respectievelijk 71,6 en 119,2 petaflops. Dat betekent dat het Chinese Sunway TaihuLight-systeem, de voormalige nummer een, op de tweede plaats staat.

Dat systeem stond sinds 2013 op de eerste plaats, in dat jaar stootte het de Amerikaanse Titan van de koppositie. Die is inmiddels naar de zevende plaats verschoven. Top500 merkt op dat met de toevoeging van de nieuwe systemen de totale prestaties van de gehele lijst voor het eerst de 1 exaflops overschrijden. Bij de vorige editie van de lijst, van november, kwamen de gecombineerde prestaties nog uit op 845 petaflops. Het totale aantal Amerikaanse systemen is naar 124 gedaald, ten opzichte van 145 systemen in de vorige editie. China heeft er in de tussentijd vier bijgekregen en staat op 206 systemen.

De eerste Nederlandse vermelding op de lijst is te vinden op plaats 123 en komt op rekening van een niet nader genoemd softwarebedrijf. SURFsara staat in deze editie op plek 218 met de Cartesius 2, ten opzichte van 142e plaats in november. De organisatie is bezig met de voorbereidingen voor een nieuwe 'Nationale Supercomputer' die Cartesius volgend jaar moet vervangen. Daarvoor voert het 'verkennende gesprekken' met leveranciers. SURFsara benadrukt dat het doel niet is om tot een zo krachtig mogelijk systeem te komen. De organisatie richt zich ook nadrukkelijk op schaalbaarheid en efficiëntie. Eind dit jaar maakt SURFsara meer bekend over de gekozen specificaties en de verdere planning.

Er is geen Belgisch systeem te vinden in de Top500. Het BrEniac-systeem van de KU Leuven stond er in de vorige editie ook al niet meer in. Opvallend is ook dat een Japans systeem met 20 miljoen cores, dat vorig jaar de vierde plaats pakte, niet langer in de lijst te vinden is. De organisatie liet in april weten het systeem te moeten uitzetten vanwege het 'verlopen van een lease'.

Dat systeem maakte gebruik van de ZettaScaler 2.2-architectuur en PEZY-SC2-chips. Drie Japanse systemen met deze configuratie leiden de zogenaamde Green500-lijst waarin systemen op basis van hun efficiëntie worden ingedeeld, oftewel het aantal gigaflops per watt. Ook het nieuwe Amerikaanse Summit-systeem scoort goed op die lijst en staat daar op plaats vijf. Het maakt dan ook gebruik van 27.648 Nvidia Tesla V100-accelerators.

Volgens Top500.org is Lenovo de grootste fabrikant met een aandeel van 23,8 procent in de lijst, oftewel 122 systemen. Daarna volgt HPE met 15,8 procent, gevolgd door Inspur, Cray en Sugon. IBM, de fabrikant van onder meer de Summit, heeft in totaal 19 systemen in de lijst staan.

Door Sander van Voorst

Nieuwsredacteur

25-06-2018 • 10:48

63 Linkedin Google+

Reacties (63)

Wijzig sortering
Het zou leuk zijn als zulke systemen in perspectief worden gezet met huidige consumentencomputers. Ik als leek (zowel binnen de supercomputer- als de gewone computerwereld) heb geen idee hoe absurd snel dit nou eigenlijk is.
Je zou verwachten bij de term "supercomputer" dat het 1 mega snelle computer is. In feite zijn het heel veel (alsnog zeer snelle) losse computers. Als gebruiker kan je dan 1 of meerdere 'nodes' aanvragen om je proces op te laten draaien. Vaak bevatten deze omgevingen ook zeer snelle netwerkmogelijkheden om nodes (en dus je proces) onderling te laten communiceren, soms zelfs op geheugen/cpu niveau.

Ik heb een tijd geleden voor PCM een artikel geschreven die dit in wat meer detail uitlegt: http://www.mirdesign.nl/de-supercomputer.html

En qua perspectief; 1 node kan bijvoorbeeld een 16 core CPU bevatten met 256 GB intern geheugen (ja echt.. :-)) en flink wat opslag ruimte (>1 TB). Ik werk dagelijks op dit soort system om bijv. DNA data te analyseren. Daarvoor zijn dit soort omgevingen erg handig (al dan niet noodzakelijk).

Het gevaar is wel dat het de ontwikkelaar lui kan maken. Denk maar aan de 640K geheugen "opmerking" van Bill Gates.. tegenwoordig heb je zoveel geheugen en snelheid; waarom zou je nog netjes programmeren? Dat is een flinke valkuil.

edit:
Gb -> GB
opmerking -> "opmerking"

[Reactie gewijzigd door Mir op 25 juni 2018 13:59]

Denk maar aan de 640K geheugen opmerking van Bill Gates..
Never happened ;), maar dat maakt je punt niet minder valide.

[Reactie gewijzigd door .oisyn op 25 juni 2018 11:47]

Nou, ik las een boek waar een link in zat naar deze uitspraak: http://csclub.uwaterloo.c...s%20Talk%20on%20Microsoft

In dit verhaal hoor je Bill Gates praten en maakt hij wel degelijk een uitspraak over dat 640 Kb genoeg is. Alleen hij zegt niet dat het genoeg is voor altijd, maar hij maakt wel de opmerking dat hij had verwacht dat de capaciteit van 640 Kb langer mee zou gaan.

Mocht dit een nepsite zijn of de persoon in deze audio file niet Bill Gates zijn, dan heb ik niets gezegd :) .
Ter aanvulling, hij heeft het er over bij 22:00.
Hij zegt: "That left 640K for general purpose memory. And so that leads to todays situation where people are talking about the 640K barrier. Uuuhm the limit of how much memory you could put to these machines. I have to say that in 1981 making those decissions, I felt like I was providing enough freedom for 10 years. Uuuuhm that is, a move from 64K to 640K felt like something that would last a great deal of time. Well it didn't, it took about 6 years before people started to see that as a real problem."

Bedankt voor de bron, dit is vermoedelijk DÉ bron van het gerucht dat Bill Gates gezegd zou hebben dat niemand ooit meer dan 640 K nodig zou hebben (waar nog altijd geen bron van te vinden is).

Daarnaast vind ik 6 jaar geen geheugen tekort best een lange tijd (dat zie ik dus als een great deal of time). Dus goed werk van Bill Gates en zijn team!
Het artikel waar @ceesiebo1 naar verwijst is een achteraf gesprek. Het kan best zijn dat hij dat - binnenskamers - echt gezegd heeft, ergens rond 1981 of 1980, maar dat 'ooit meer' is er uiteraard bij verzonnen. Uiteraard ontkent hij het zelf in alle toonaarden, zeker als als hij dat laatste erbij gezegd heeft. Het is al opmerkelijk dat dit is opgenomen, interne besprekingen zijn dat zo goed als nooit.
256 gigabit geheugen is toch niet zo heel veel? Micro services of zoiets?
Hoeveel geheugen zit er in jouw PC? Mijn laptop draait op 16GB geheugen, ofwel slechts 6,25% van één node (van de vaak honderden) van die supercomputer.

Ook de gemiddelde applicaties die ik tegenkom draait vaak op een dedicated webserver met <8 GB ram.
Hier draait ook een multicast server met 256GB. Helemaal zo gek nog niet dus.
Het gaat er niet om dat het nooit voorkomt, de reactie van Fabbie dat het 'niet zo heel veel is', wilde ik even ontkrachten (met het feit dat niet eens 6% van die capaciteit voor het zeer overgrote deel van serverbehoeften en dagelijkse werkzaamheden al overkill is).
Bedankt voor de uitgebreide reactie! Ik ga het artikel later op m'n gemak doorlezen.
offtopic:
wobbegong shark? :+
Volgens Wikipedia piekt een Core i7 op 3,2 Ghz op 70 gigaflops. Als de nieuwe nummer in piekt op 188 petaflops dan is hij dus circa 2,5 miljoen keer zo snel. Dan reken ik de videokaart niet mee, volgens mij doen die al snel 5.000 gigaflops als je een beetje een goede hebt.

edit: Als je die meerekent is het 37.000 keer zo snel. Het systeem heeft 27.000 gpu's dus dat doen ze netjes.

[Reactie gewijzigd door Sharky op 25 juni 2018 11:17]

Het probleem is natuurlijk dat GPU's vaak niet geschikt zijn voor berekeningen die een super computer uitvoert. Het is de bedoeling dat iedereen zijn code op hun systemen kan uitvoeren, dus vaak zijn het alsnog CPU's. Maar er zijn ook processoren waar je de structuur kunt aanpassen en soorten berekeningen waar je speciale processoren voor kunt ontwikkelen. Zoals de MRI's waar videokaarten zeer geschikt voor bleken. Maar goed ik weet ook niet hoe de zaken er op dat punt voor staan hoor.
Klopt, maar voor supercomputers wordt de rekenkracht uitgedrukt in berekeningen met dubbele preciesie, die je daadwerkelijk aan moet tonen met de HPL-benchmark. Een Tesla-GPU kan in dubbele precisie rekenen, de videokaart in je PC enkel in enkele precisies. Daardoor mag je in Top500-termen de rekenkracht van de videokaart niet bij die van je processor optellen.

Bij de Summit mag dat dus wel.
Als je kijkt naar de grote en de hoeveelheid aan onderzoeken ze daar doen.
Dat is echt enorm, lijkt groter dan enige universiteit doet.

https://www.ornl.gov/division/csed/modeling-simulation

[Reactie gewijzigd door gp500 op 25 juni 2018 15:17]

Hoe zit zoiets nu eigenlijk qua software/besturingssysteem? Ik vermoed dat er niet gewoon Windows 10 op draait :) (zonder een specifieke mening over Windows te willen uiten)

[Reactie gewijzigd door Buzzinga op 25 juni 2018 11:58]

(Bijna?) alles draait op de een of andere variant van Linux. Zie https://www.top500.org/statistics/list/.
Er is maar 1 'supercomputer' die NT draait. En dat is Azure.
Zou ook onbetaalbaar zijn want Microsoft verkoopt licenties per core :+
Zitten powerpc cores op, dus ik vermoed AIX?
"Gewoon" Linux. Linux is zo standaard in de HPC-wereld dat AIX het alleen maar lastiger maakt om een dergelijk apparaat te exploiteren. Bedenk dat componentenleveranciers als Nvidia en Mellanox heel erg bekend zijn met Linux, maar weinig ervaring hebben met AIX.
Als je kijkt bij gerelateerd nieuws, zie je dat tweakers op 8 juni ook een artikel had...

nieuws: Amerikaans ministerie onthult Summit-supercomputer met piek van 200 p...

[Reactie gewijzigd door Keypunchie op 25 juni 2018 10:53]

Oké, en dit artikel is dan.. Een bevestiging van wat we al wisten? Ben het overigens eens met Powerpau; Tweakers is helaas niet per sé de plek waar technieuws altijd actueel en van hoge kwaliteit is.
De performance van een supercomputer wordt gemeten op basis van floating point berekeningen per seconde. Dat moet consistent gebeuren, bijvoorbeeld met alleen single, half of double precision. In de eerste pers releases hadden ze het over mixed precision. Dat kan van alles zijn. In de TOP500 lijst staan nu getallen waar je wel wat aan hebt. Dat kan je ook zien aan de berichten, op 8 juni hadden ze het over 200 petaflops, dat zie je niet terug in de TOP500, daar zijn de petaflops lager. Met andere woorden; de eerste pers release was niet bepaald wetenschappelijk, maar gewoon spierballentaal.
Nee. Op 8 juni claimde Oak Ridge dat ze met dit systeem de nummer 1 zouden worden, maar de lijst wordt niet elke dag geupdate. Het kon zijn dat ze hun resultaten overschatten of dat er voor het uitkomen van een nieuwe lijst nog een nieuwe supercomputer de #1 positie claimde.

Vandaag is de lijst gepubliceerd, en zijn ze dus weldegelijk #1 geworden onder de supercomputers.
Op 8 juni onthulde Oak Ridge het systeem, toen was al de verwachting dat het de nummer 1 in de lijst zou pakken. Kijk ook hier nieuws: Amerikaans ministerie onthult Summit-supercomputer met piek van 200 p.... Nu is de lijst daadwerkelijk uitgekomen.
Niet iedereen leest andere bronnen/websites voor hun nieuws. Ik had dit bijvoorbeeld nog niet gelezen, ondanks dat ik wel af en toe nu.nl check.

Dat het wat oud nieuws is, is natuurlijk wel wat jammer, maar doet niet af van het feit dat dit nieuws is.
Alleen is het geen oud nieuws. Dat nieuws was de 'onthulling' van de supercomputer. Dit is van het verschijnen van de TOP500 lijst.
Dat was een aankondiging dat hij ontwikkeld zou worden, nu is hij gebouwd en getest. Nu is het nieuwswaardig dus ;)
Dit artikel gaat helemaal niet over die computer. Dit artikel gaat over de lijst, die is nu gepubliceerd. Dát is het nieuws. Uiteraard wordt die computer ook genoemd, omdat hij nu eenmaal op #1 staat.
Hier de link van 8 Juni van Tweakers.net

Waar in staat dat ze verwachten dat ze x gaan halen.
Dit nieuwsartikel is naar aanleiding van de vandaag(!) verschenen TOP500 lijst. Hoe snel wil je het hebben?
bron: https://www.top500.org/ne...-grabs-number-three-spot/, check de datum...
Mijn ervaring ook, Onlangs een newstip gegeven aan de redactie van tweakers en na weken kwam het nieuws op de frontpagina :-(
Op 8 juni heeft de eigenaar van het systeem een persbericht de deur uit gedaan dat ze nummer 1 gingen worden. Vandaag heeft de organisatie achter de Top500 pas hun nieuwe lijst gepubliceerd en tot vanochtend was het dus nog onzeker of de eigenaar zijn grote woorden waar kon maken; het kon zo maar zijn dat de Chinezen nog een konijn uit hun hoed toverden, wat dus niet gebeurd is.

Ik zat vanochtend overigens in de zaal waar de aankondiging gedaan werd.

Toch zijn de Chinezen vandaag de echte winaars. Ze hebben in de Top500 de meeste systemen staan, de meeste rekenkracht en de meeste systemen zijn door Chinese constructeurs gebouwd. Dit is een belangrijke aardverschuiving in de supercomputerwereld.

Dat de Chinezen plek 1 hebben moeten afstaan, daar zullen ze niet van wakker liggen. Het verschil is dusdanig klein dat ze met een simpele uitbreiding van het systeem de toppositie terug kunnen pakken.

Ook interessant is dat de Chinezen de Tian-he 2 een upgrade hebben gegeven: Ze hebben de Xeon Phis eruit gegooid en er een tot nog toe onbekende "Matrix 2000" voor in de plaats gezet. Vermoedelijk is dit eigen Chinese technologie. De Tian-he 2 staat nu weer op plek 3.
Natuurlijk is een copy/paste van de ANP news feed sneller. Ik wacht wel op tweakers.
Wordt af en toe ook wel eens de verhouding verbruik/pFlops meegegeven? Of is dat misschien een moeilijk tot onbruikbaar/onrelateerbaar gegeven voor systemen van deze schaal? Ik weet er helaas geen bal van :p het valt mij vooral op dat meestal alleen het aantal pFlops wordt genoemd :)
Ja, als je met 'verbruik' het stroomverbruik bedoelt. Dat wordt ook als aparte lijst gepresenteerd (hoewel het in feite dezelfde lijst is, maar dan anders gesorteerd): de green500.
Bedankt! Eigenlijk tof om te zien dat de Summit alsnog op nummer 5 staat, maar de verschillen in GFlops/Watt tussen de nummer 1 en 5 op die lijst alsnog behoorlijk afwijkt.

Meteen vallen mij in die lijst https://www.top500.org/system/179164 (Suiren2) en https://www.top500.org/system/179165 (Shoubou B) op; voor mij als relatieve leek lijken de systemen redelijk gelijk, toch een behoorlijk verschil in prestatie en wat ik vooral niet snap; een vergelijkbaar gebruik alhoewel Shoubou 50% meer geheugen heeft en ook meer cores inzet...

Ga toch eens uitzoeken of er wat meer van dit onderwerp te begrijpen valt :)
Kwestie van zuinigere (en duurdere) componenten gebruiken. Denk bijv. aan de Intel/AMD battle van een aantal jaar. Je kon vaak een AMD kopen die grofweg dezelfde performance had als de Intel voor 50-100$ minder, maar de Intel was veel zuiniger/koeler.
Volgens de links zouden ze dezelfde processoren gebruiken op eenzelfde snelheid, daarom verbaasde ik me mede over het verschil :)
Het is vrij makkelijk wat hoger in de green500 te kopen: koop een PEZY-SC2 of NVIDIA Tesla hardware accelerator. De plaats in de lijst wordt namelijk bepaald hoe snel je de Linpack software (oplossen lineaire vergelijkingen) kan draaien, en deze GPU (NVIDIA Tesla) of multi-core (PEZY-SC2) kaarten kunnen dat heel goed voor heel weinig stroomverbruik.

Op die manier bezien is de ideale green500-computer eentje die alleen maar Linpack draait, met zo min mogelijk stroomverbruik, en niets anders. Het nadeel is dat je supercomputer dan niet meer breed inzetbaar is.

Om deze reden is er de laatste jaren aandacht voor alternatieve benchmarks. Dit is keer is naast de top500 en de green500, ook een High Performance Conjugate Gradients (HPCG) Benchmark gepubliceerd, die volgens mij een wat evenwichtiger beeld wil geven van de rekenkracht.

Ik zit niet zo goed in de materie dat ik de genoemde systemen ken, dus daar durf ik niets over zeggen. Wel kan ik me heel wat methodes bedenken om een lager stroomverbruik te krijgen. Van de kloksnelheid terugbrengen (ik dacht het energieverbruik kwadratisch gaat met frequentie omdat bij hogere kloksnelheid de spanning omhoog moet), tot het hele systeem onderdompelen in olie (wat efficiënter koelt dan lucht- of waterkoeling). Erg praktisch is het nog niet :).
Mooi dat Bohemian Rhapsody eindelijk weer van de troon is gestoten!
Gyoukou is op eens verdwenen. Vorig jaar nam deze supercomputer plaats 4 in en was het van de 100 snelste supercomputers de efficiëntste.
A scandal in Japan
Gyoukou leapt up the rankings in November 2017 with a reported performance of 19.14 exaflops and a claimed power efficiency of 14.17 gigaflops/watt, almost double the efficiency of its rivals, following an upgrade using thousands of 2048-core SC2 accelerators from Japanese chip company Pezy.

It ought by now to be in fifth place, down from fourth in November, but in December 2017 the Tokyo District Public Prosecutor’s Office arrested Motoaki Saito, the founder and CEO of Pezy and chairman of Exascaler, on suspicion of fraud, according to Japanese press reports.

In April 2018, Exascaler said that the earth-science agency had canceled its contract for the upgraded Gyoukou and asked the company to restore the previous version of the computer.

Japan can still hold its head up high, though, as it has a new entry in the Top500, coincidentally taking the fifth place vacated by Gyoukou.

The AI Bridging Cloud Infrastructure (ABCI) was built by Fujitsu for Japan’s National Institute of Advanced Industrial Science and Technology (AIST). It delivers a performance of 19.9 petaflops using 20-core Intel Xeon Gold processors and Nvidia Tesla V100 GPUs.

Despite Gyoukou’s disappearance from the rankings, Japan now has 36 computers in the Top500, up from 35 in November. (bron)

[Reactie gewijzigd door Balance op 25 juni 2018 11:43]

De eerste Nederlandse vermelding op de lijst is te vinden op plaats 123 en komt op rekening van een niet nader genoemd softwarebedrijf
Voor de volledigheid: het bedrijf in kwestie wordt genoemd als 'Software Company (M)' (Microsoft ?). Bedrijven met dezelfde aanduiding, wellicht allemaal hetzelfde bedrijf ?, hebben nog 5 vergelijkbare systemen in nederland staan, en 4 vergelijkbare systemen in ierland. Al deze systemen hebben exact dezelfde performance, en ze staan op plaatsen 122 t/m 130, voor een totale snelheid van 14841.9 TFlops (Rmax).

Ook is er nog een ander (?) bedrijf, aangeduid als 'Hosting Services', met bij de omschrijving ook 'Software Company (M)'. Wellicht dus ook hetzelfde bedrijf. Die bezet plaats 106 t/m 121, met nog eens 17 vergelijkbare systemen met ook weer exact dezelfde snelheid. Alles bij elkaar komen die 26 systemen op 42876.6 TFlops (Rmax). Als dat één systeem was, zou die op plaats 5 staan...

Op plaats 201 t/m 206 staan ook nog een paar vergelijkbare systemen van een vergelijkbaar bedrijf met totaal 6739.2 TFlops Rmax.

Op plaats 261 & 261 nog twee (2024.0 TFlops)
Tussen 301 en 400 staan er nog 16, goed voor totaal ca. 13600 TFlops (geschat)
Tussen 401 en 500 staan er nog 11, goed voor totaal ca. 8700 TFlops

Alles totaal circa 73939 TFlops (Rmax), goed voor de derde plaats, als het één systeem was.
(Ik weet dat het niet één systeem is, en ik weet dat andere bedrijven en instanties ook meerdere systemen hebben, en dat die nóg hoger uit zouden komen als je die bij elkaar op zou tellen, maar in dit geval lijkt het er in ieder geval op dat het om één bedrijf gaat, met érg veel computing power.)
Ik vraag me toch altijd weer af of dit nou werkelijk de snelste supercomputer is. Het zou me niets verbazen als er een of meerdere geheime diensten een supercomputer hebben staan die krachtiger is...
Een ander nieuw systeem van een Amerikaans laboratorium, genaamd Sierra, heeft de derde plaats van de lijst ingenomen met respectievelijk 71,6 en 119,2 petaflops.
Mooi! Da's vast om Leisure Suit Larry 4: The Missing Floppies te compileren. :P :*)
Dit komt toch door Bitcoin en niet door dit soort systemen?
Eh, ze gebruiken Tesla V100s, volgens mij zijn die buiten jouw budget ;)
Ik denk niet dat ze 27.648 videokaarten bij de MyCom hebben besteld :+

Het zijn compleet andere systemen en andere markten. Lenovo wordt genoemd als de grootste leverancier, maar ik zie nog geen te kort aan laptops.
Lol.. game videokaarten in een super computer.. Voor een super computer is een 1080 gewoon nutteloze troep die extreem ondermaats presteert.
In tegendeel, er zijn een heleboel nuttige toepassingen die het uitstekend doen op een 1080. Maar deze Summit heeft daarentegen toch Tesla's.


Om te kunnen reageren moet je ingelogd zijn


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True