Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 77 reacties
Bron: Top 500

Op de site van Top500 staat het persbericht dat vandaag de 22e editie van de top 500 van 's werelds snelste supercomputers is uitgebracht. Het blijkt dat de door NEC gebouwde Earth Simulator voor de vierde keer op rij de lijst aanvoert met een Linpack benchmark-performance van 35,86 Tflops (biljoen berekeningen per seconde). Nieuw binnengekomen op de derde plaats is de cluster van 1100 PowerMac G5's gebouwd door VirginiaTech, waar wij al eerder over berichtten. Wat opvalt aan de lijst is dat het aantal clustersystemen gegroeid is van 149 naar 208 in vergelijking met een half jaar geleden. Hierdoor zijn geclusterde supercomputers de meest voorkomende soort in de lijst geworden. Gekeken naar de totale performance per fabrikant voert IBM nog steeds de lijst aan met zo'n 35 procent, tweede is HP met 22,7 procent en derde NEC met 8,7 procent:

top500 supercomputer logoThe list of cluster systems in the TOP10 has grown impressively to seven systems. These systems are built with workstations or PCs as building blocks and often connected by special high-speed internal networks. The number of clusters in the full TOP500 grew also again strongly, now totaling 208 systems up from 149 six months ago. This makes clustered systems the most common computer architecture seen in the TOP500. The importance of this market can also be seen by the fact that most manufacturers are now active in this market segment.

Lees meer over

Gerelateerde content

Alle gerelateerde content (26)
Moderatie-faq Wijzig weergave

Reacties (77)

Jammer dat de prijzen van die systemen niet vermeld zijn. Een goede prijs/kwaliteit verhouding is nooit weg imho.
Earth tegen de 400 miljoen dollar. Dat is de machine alleen. Een aparte hoogspanningsleiding is vast nodig voor de 7 megawatt dat 't eet. Dat zal in aarbevingsrijk Japan wel prijzig zijn zo'n hoogspannignsleiding. Als ik mag gokken rond de 2.5 miljoen per kilometer aldaar.

Dan nog een soortgelijk bedrag aan personeelskosten.

Vergelijk de geweldige supercomputer van NL.

Zo'n altix3000 kost per 64 processors rond de 1 miljoen dollar.

Naar ik gok zal het ook rond de 1300 watt per processor doen (routers en i/o erbij). De itanium2 op zich is een stuk minder zo rond de 100 watt. Dat is echt het probleem niet.

Dus aan stroomkosten wordt ook heel wat betaald. Niet zoveel als hier enige tijd geleden werd gemeld. Boven enige gigawatts is stroom minimaal factor 10 goedkoper namelijk.
En de G5 op 2 Ghz zit rond de 50 Watt volgens mij. Dus zo'n dual G5 zal een wattje of 300 trekken, dat x 1100 is ongeveer 330.000 Watt. Valt mee in vergelijking tot de rest. Tevens is het G5 cluster zo'n beetje de goedkoopste van de top 30 volgens mij.
De processor vreet niet veel, maar de routers en dus je bandbreedte wel. ook bij de altix hoor.

Dus een als de G5 al 50 watt vreet, dan ben je iets van 1250 watt per processor node kwijt.
Je kan je afvragen of dit verder nog nut heeft voor iemand anders dan computerliefhebbers. Volgens mij werkt het net zo als met de Ati vs.nVidia oorlog en Intel vs. AMD. De winsten worden niet met de top-producten behaald, maar met midrange en budget-producten (de Durons, Celerons en MX-en).

Als je op een gegeven moment het snelste product in zijn soort kan aanbieden, geeft dat een positieve impuls aan de verkoop van je budgetspul :) Het is gewoon goede reclame en je naam wordt geassocieerd met iets goeds.

Niet dat een 'eenvoudige' supercomputer budgetterig te noemen is, maar NEC lijkt een goed uitgangspunt te hebben om het marktaandeel uit de breiden. Want het lijkt me niet dat deze markt heel erg anders is, deze lijst zal wel degelijk *een* ( ;)) rol van betekenis spelen.
deze supercomputers moeten toch echt allemaal hun geld terugverdienen ...
Als je zo een computer gebruiken mag, betaal je gewoon per seconde voor de tijd dat je hem ook gebruikt...
En het feit dan mensen betalen zegt dus iets over het nut van zo een computer, bedrijven als shell doen bijvoorbeeld simulaties, die als je een gewone pc zou gebruiken een paar jaar tijd nodig hebben. En dingen als seti@home kunnen natuurlijk nog veel sneller gedaan worden met een supercomputer.

voor een bedrijf als intel zal het idd niet echt veel effect op de omzet hebben dat er nu twee of 300 intel systemen in die lijst staan, daar geld dan weer alleen het prestige om met zoveel mogelijk systemen zo hoog mogelijk te eindigen, maar voor een bedrijf als cray (of bij welke grotere partij ze tegenwoordig zitten) is het naturlijk essentieel dat je topsysteem in de top 10 terecht komt.
Denk eigelijk dat het andersom is, de winsten worden gehaald met state-of-the-art hardware. De omzet komt voort uit de budget (bulk) producten.
quote uit de kijk: "Wetenschappers komen altijd te kort aan rekenkracht".

Kortom, deze supr computers worden gebouwd met een bepaald doel in de wetenschap. En nou niet om perseej boven aan deze lijst te komen.
Hoeveel Tflops doet een standaard PIV (Zeg PIV 3 ghz HT - 1024 mb)?
Start Sandra en kom erachter, een 3 ghz P4 (HT heeft er niets mee te maken, daarvan kan je CPU alleen meer rekenen onder bepaalde omstandigheden) doet minder als 0.004 TFlops (SSE2 niet meegeteld, want ook dat is alleen onder bepaalde omstandigheden), met SSE2 doet ie er iets meer als 0.0065 TFlops
En ook dat is ruim overdreven, want zodra je gaat vermenigvuldigen en delen dan kan de P4 op de schroothoop.

Alleen 64 bits processors blijven dan overeind staan.

De 1.3Ghz itanium2s van SARA leveren 5.2 Gflops. De oude 500Mhz R14000s iets van 1 Gflop.
Wat een bullshit.
FP op de P4 (en op de athlon) is 80-bits. Of de proc 64-bits integers aankan verandet daar niets aan. Je kan hooguit beweren dat RISC-processoren nog steeds sneller zijn in FP dan CISC. En ja, veel commerciele risc processoren zijn tegenwoordig 64-bit.
Hij bedoelt natuurlijk dat de huidige 64-bit processoren het veel beter doen, en dan niet speciaal omdat ze 64-bit zijn... Sja je moet er toch een naampje voor bedenken hŤ... Dus zo'n bullshit vertelt hij helemaal niet.
Wel als je alleen integer software bouwt :)

Dat het 80 bits is (tegenwoordig overigens grotendeels 64 bits gecast) en 128 bits eigenlijk op de itanium2, dat is niet zo belangrijk.

Belangrijk is de hoeveelheid gflops die je effectief per seconde kunt halen voor floating point software.

Als je dus 3 execution units op de itanium2 hebt, tegen 1 armzalige op de P4 die ook nog overal meer als 1 clock voor nodig heeft, dan is de race snel gewonnen voor de itanium2 natuurlijk.

Want al ben je 3.4Ghz geclockt. Als 1 instructie uitvoeren 100 clocks kost, dan ben je gezien.

Bij algoritmische software, is het zo dat zelfs simpele varianten die wat data streamen om te vermenigvuldigen (matrice) dat dat non stop doorloopt op de itanium2/opteron.

Op de P4 heb je een mega probleem daar dan

a) je kunt niet zoveel per seconde streamen
b) de L1 cache is te klein en wordt niet opgevangen
door een grote L2 of L3. Slechts 512KB
c) hij krijgt overal branch mispredictie penalties
van rond de 40 cycles gemiddeld.

Dus dan mag je 40 cycles wachten terwijl in die tussentijd de itanium2, op weliswaar de halve clock,
er dus zo'n 20 cycles op heeft zitten en in die 20 cycles ongeveer 40 bundles erdoor heen kan jassen van elk 3 instructies.

Dus effectief 120 instructies kan verwerken terwijl je koffie zet met de P4.

Dan is het zo dat je programma natuurlijk ook nog complex is en dus veel registers nodig heeft. De opteron komt daar dan met 16 registers niet goed bij en gewoon te kort. De P4 al vet eerder.

De Itanium2 heeft er 128.

De opteron die kan er 1 instructie per clock doorheen jassen (16384 is de grootte van de BPT) tegen de P4 die haalt de 1 gemiddeld per clock nog niet eens. De opteron heeft veel pieken van 3 instructies per clock (dat is de reden waarom hij als supercomputer cpu iets minder is: maar 1 execution unit dus kan maximaal 1 vermenigvuldiging per clock doen).

In de tussentijd stream en vermenigvuldig je op de Itanium2 vrolijk door met 2 bundles per clock.

Elke bundle 3 instructies.
Om even in cijfervorm aan te geven hoeveel 35,86 Tflops is: 35.860.000.000.000 berekeningen per seconde! Damn! B-)
*effectief* uitgevoerde berekeningen zelfs.

Aantal instructies per clock dat een cpu uit kan voeren ligt nog aanzienlijk hoger ;)
hmm, ik vind een cluster met losse computertjes eigen niet de term supercomputer waardig.

liever zie ik de vrieskisten van cray :P
Aster (staat bij Sara), eerste Nederlandse entry op plaats 41 is zo'n ding, namelijk een SGI Altix met 419 processors. Leuk apparaat, maar het zou me niets verbazen als die duurder was dan de 1100 powermacs van Virginia Tech..
Aster is geknutseld van Itanium II's en wordt niet bij de ALDI verkocht ;) (nee apple ook niet :) )

Hij's onder andere duurder omdat je er allerlei support toestanden bij afneemt, ik neem aan dat Apple nog geen complete clusters verkoopt. Deze TOP500 heeft ook een keerzijde, tis namelijk maar net wat ze meten. Overigens is Aster geen vrieskist meer hoor, maar gewoon 19" racks met nodes erin.

Magoed.. Aster is een leuk beesie O+
Goede opmerking. Ze meten hier helaas alleen een programma dat hoegenaamd geen snelle communicatie nodig heeft tussen de CPU's.

Dat soort benchmarks staan ver af van wat er in werkelijkheid op draait op die machines.

De vraag die we ons wel moeten stellen is wat dan wel een goede benchmark is. Eentje die niet superlineair schaalt?

Eentje die alleen de i/o snelheid meet of de memory bandbreedte?

En dan moet het ook nog open source zijn ook zo'n benchmark!

Dat is eigenlijk de kern van het probleem.

Dus dat de sporthal systemen dit soort lijsten domineren is wel logisch.

Uiteindelijk is het dan toch wel zo dat het snelste supercomputer systeem op de eerste plek staat. Namelijk Earth.

Dat is niet alleen een supercomputer maar outpowered ook de sporthal systemen overal.

Dat met 500Mhz vector processors :)
De nummer een van de lijst kost geloof ik 70 keer zoveel als de nummer drie (de Big Mac dus)
Wat voor soort software wil je op die BIG mac draaien eigenlijk?

Ik zou het SVM-MAC (Sporthal Vol met Macs) willen noemen namelijk.

Dus hij staat alleen 1e op de SVM lijst. Dat is een lijst waar de belangrijkste doelstelling is om zo snel mogelijk een sporthal voller te laden met pc-tjes als iemand anders.
Bij de McDonalds niet hoor ;)
Hulde aan de goedkoopste top 3 supercomputer!

Wie zei er alweer dat mac's duur zijn? Een mac is ooit duur geweest maar behoort nu tot de beste prijs/kwaliteit verhouding.

Al vind ik een Big Mac toch nog te duur voor mijn beurs :+
Aster bij SARA is 416 processors 2.2 tflop

grootste job die gesubmit kan worden: 62 processors
MPI iets meer in toekomst.

Dus de 'oude' Teras die 512 processors in 1 klap kan aansturen is vrij superieur t.o.v. dit systeem voor grote karweitjes.

Op al die clusters in top500 kun je alleen jobs draaien met waardeloze 'random' latencies. Eigenlijk is het gros van de wetenschappers daar niet bij gediend. Dus Aster in de top50 dat laat duidelijk zien dat Nederland het geniaal doet!
Ik heb wel eens met Teras gewerkt, echt een mooi systeem.
Had hem maar 5 minuten nodig toen was hij al klaar.

Zou nog wel eens een keer iets met Aster willen proberen. 2.2 Tf/s :9~ dat is dus weer 2.2x Teras. En daarbij iets van 800 GB Geheugen.
je kunt die 2.2Tf/s niet effectief gebruiken, dat is de kern van het probleem.

Tenzij je MPI bent natuurlijk en totaal latency onafhankelijk.

Dan draai je echter ook goed op de sporthal systemen. Die leveren veel meer gflops natuurlijk in totaal.

5 minuten kost de teras niet. 512 processors inswappen kostte gisteren nog 3000 secondes.

Dat was P7.

Maar zodra je ingeswapped bent dan versla je elk ander systeem handsdown :)
Ben ik helemaal mee eens want zijn dat gewoon niet een aantal computers aan elkaar gekoppeld. Dan is DPC toch ook en supercomputer?
Als je Seti@home ook als een clustered supercomputer meetelt, staat die bovenaan met 56,87 TFlops/sec :Y)

zie http://setiathome.ssl.berkeley.edu/totals.html
Wat mij opvalt in de lijst is dat nr 98 t/m 101 allemaal 256cpu Altixzijn, met allemaal preciet dezelfde tflops en peaks etc, alleen dat nr 100 1,5ghz is en de andere 3 1,3 ghz. Betekend dit dat de Altix gewoon totaal niet schaalt of dat de onderlingen verbindingen gewoon te wensen overlaten? Toch raar, 256x 200mhz sneller zou toch wat uit moetne maken lijkt mij, maar de cijfers zeggen van neit. Raar :)
wel leuk dat 2200 Powemac G5 CPU's sneller zijn dan 2500 Xeon 3.06Ghz.

wat vertelt Mhz/Ghz nu ???
juist geen ene flikker....
bij singel en dual kan het wat uitmaken al hoeft dat niet (kijk maar naar amd)

maar bij super computers is de infrastructuur die de nodes met elkaar verbind minstens even belangrijk als de brute rekenkracht per node.

wel grappig dat gollems render farm
(van weta digital) toch nog op een respectabele 48ste plaats staat
best netjes :7
En het leuke daaraan is, dat die cluster G5's praktisch niets kost, in vergelijking met die Supercomputers... 5 miljoen dollar tegenover 300 miljoen... *)
Inderdaad zo zie je dat de supercomputer van SARA met 416 SGI Altix 1.3 GHz processoren nog sneller is dan een supercomputer met 1834 Xeon 2.4 GHz processoren...
En wat nog veel interessanter is dat 2200 2 GHz G5's het winnen van 2816 Opteron's 2 GHz met een Rmax van 8051 tegen een Rmax van 10280 voor de G5 cluster. :)
NEC 3e plek met 8,7% geinig zo'n 8,5% kan je alleen al danken aan die Earth Simulator. Dat ding is echt een bruut stukje hardware.

Ik zou wel eens willen weten hoe snel die kan grazen eerlijk gezegd }>
De NEC earth simulator is voor gflop programma's werkelijk hemel op aarde. Het systeem kan via een centrale router werkelijk duizenden van zijn in totaal 5000 processors tegelijk op 1 mega job zetten en die dus SIMULTAAN met enorme dataflows voeden.

Dat alles ook nog met geniale latencies. Dus dat is de tijd dat het kost om bijvoorbeeld maar 8 bytes op te halen.

Natuurlijk doet Earth niet aan 8 bytes maar pompt hij liever 8 TB naar je toe als 8 bytes. Maar zelfs 8 bytes doet het ding enorm snel. Zeker voor een vector supercomputer.

Die centrale router moet mega duur zijn in Earth.

De processors zijn geclockt op 500Mhz. Dus als Fujitsu die dingen wat hoger clockt en nog wat meer gflops per Mhz eruit perst, dan is een relatief simpele update van de Earth simulator weer afdoende om hem weer 5x sneller als de rest te maken.

IBM kan hem daarbij niet bedreigen met hun nieuwste schepsel. Want die zullen moeten bewijzen dat ze effectief halen wat Earth al bewezen heeft om te halen.

Earth valt dan ook in een totaal andere categorie als de SV lijst (sporthal vol PC's lijst).
Die 1100 G5's winnen denk ik wel.
Een G4 op 800 Mhz maakte een dual P3-S Tualatin op 1 ghz al in, die op zijn beurt weer een P4 @ 2.6 Ghz evenaard..
en toen werd je wakker? :)
@ the dolf,

ik denk niet dat dit voor de huis-tuin-keuken familie is en dat in die wereld geld geen rol speelt. Tenminste het hoeft geen miljarden te kosten, maar dit is zeker overgefinancierd. Vind het wel grappig, maar wat heb je eraan, hoewel: het zal wel voor vooruitgang zijn. Jammer dat ze geen foto's hebben.
Foto's en plannen van de Earth Simulator:
http://www.es.jamstec.go.jp/esc/eng/GC/index.html
http://www.es.jamstec.go.jp/esc/eng/ES/facilities.html

Het staat in een gebouw van 50x65x17 meter, heeft 11 aardbevingisolators in de fundering, een bliksemafleidingsysteem, een dubbele vloer van een meter dik vol met kabels en natuurlijk een krachtige airconditioning.
Airconditioning? geen waterkoeling? ik had een keer op Discovery gezien, naar de supercomputer van de NSA, daar hadden ze in de kelder een complete installatie om de computer te koelen. Een capaciteit van weet ik veel hoeveel water per seconde konden die rondpompen.
Niet te doen, zoveel geld om zo'n systeem te maken en niet eens geld voor goede pics te maken. :+
Dit is voor natuurkundige simulaties. Stond laatst een artikel van in de kijk. Bij een van die ( dacht nummer 1) hebben ze de wereld gesimuleerd ( matrix ??).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True