Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties
Bron: Top 500

De 27e editie van de supercomputer Top 500 is vandaag gepresenteerd op ISC2006 in Dresden, Duitsland. De eerste drie posities zijn onveranderd gebleven ten opzichte van een half jaar geleden: het volledig door IBM gebouwde trio Blue Gene/L, Watson Blue Gene en ASC Purple bleek sterk genoeg te zijn om de tand des tijds te doorstaan. Laatstgenoemde verbeterde zijn score zelfs nog van 63 naar 75 teraflops. Er zijn drie nieuwe binnenkomers in de top tien: op vijf vinden we de Franse Tera-10 met 8.704 Montecito-processors (42,9 teraflops), op zeven de Japanse Tsubame grid cluster met 10.368 Opterons (38,2 teraflops) en op positie acht is de Duitse JUBL met 16.384 Blue Gene-processors (37,3 teraflops) nieuw binnengekomen. Neerlands trots Stella is hierdoor afgezakt van de negende naar de twaalfde positie. De gecombineerde rekenkracht van de hele lijst is op dit moment maar liefst 2,79 petaflops, een toename van 65% ten opzichte van een jaar geleden.

Aan de verdeling tussen de soorten processors is duidelijk te zien dat het clusteren van goedkope x86-machines steeds populairder begint te worden voor supercomputertaken. Meer dan de helft van de x86-clusters op de lijst is inmiddels voorzien van 64-bit-extensies en AMD is met zijn Opterons terug te vinden in 23% van de x86-machines, oftewel 16% van het totaal. De enige alternatieve architectuur die de laatste tijd nog succes lijkt te hebben is Power, waar de Blue Gene-machines van IBM op gebaseerd zijn. Maar liefst 240 van de 500 systemen zijn door IBM gebouwd en het bedrijf drukt dan ook een duidelijke stempel op de lijst. Intels Itanium heeft een flinke tegenslag te verwerken gekregen. De reden hiervoor is dat de HP Superdomes van de eerste generatie inmiddels niet meer snel genoeg zijn voor een plaatsje op de lijst, en de dualcore Itanium 'Montecito' officieel pas volgende maand op de markt komt.


ProcessorfamiliesJuni 2003Juni 2004Juni 2005Juni 2006
x86111259 up279 up345 up
...van AMD10%12%9%23%
...met 64-bit extensies10%12%36%57%
 
Power10278 up77 up83 up
Itanium2059 up79 up37 up
PA-RISC13057 up36 up19 up
Cray109 up94 up
Alpha3916 up5 up4 up
SPARC103 up5 up4 up
NEC129 up7 up4 up
Moderatie-faq Wijzig weergave

Reacties (70)

Op wat voor os draaien die dingen eigenlijk?
unix of linux? en zelf geschreven of gecompiled?
Linux: 73,4%
Unix: 19,6%
Mixed: 4,8%
MacOS: 1,0%
BSD: 0,8%
Windows: 0,4%
De grootste machines in de top500 draaien uitsluitend op gemodificeerde linux kernels.

Mac heeft wel een publiciteitsstunt uitgehaald, maar dat betreft de nodes ervan, de kernel is gewoon linux in principe.
Intel doet het dus toch niet zo heel erg slecht:

8.704 Montecito-processors (42,9 teraflops)
10.368 Opterons (38,2 teraflops)
16.384 Blue Gene-processors (37,3 teraflops)

Minste aantal processors meeste teraflops.
Montecito is wel dual-core he ;)
En de Opteron niet dan?
Montecito wordt nog niet verkocht, laat staan geleverd.
wordt wel geleverd alleen niet aan iedereen. SGI / Bull krijgt ze .
Minste aantal processors meeste teraflops.
Aantallen processors zegt weinig. Je kunt beter kijken naar energiegebruik of prijs.
Energie verbruik lijkt me nou niet een van de meest belangrijke criteria bij het aanschaffen van zulke systemen. Als je al geld genoeg hebt om 9000 itaniums te kopen (a 4000 euro per stuk) dan maakt die energie rekening je ook niet zo heel veel meer uit. Voornamelijk de hoeveelheid rekenkracht per besteedde euro is wat belangrijker.
Juist wel, je hebt een gigantische verbrandings oven in je kantoor staan op deze manier. Als je nou een wat duurdere maar net wat zuinigere berekenaar koopt haal je dat er d.m.v minder energie verbruik weer uit.
Misschien koop je dan juist wel duurdere proc's zodat je op langere termijn kosten bespaart in de hoek van de energieverbruiken?

Dit soort apparaten wordt niet aangekocht om slechts een jaar of twee jaar gebruik van te maken denk ik...
Bij de kleine clusters is energieverbruik natuurlijk een factor.

In de telecommunicatie is energieverbruik zelfs doorslaggevend.

Maar bij de grote supercomputers is het eigenlijk geen factor of dat 1 node nu 1000 watt vreet of 200 watt, daar ze de stroom factor 20 goedkoper inslaan.

Zie tarieven grootgebruik van de energiemaatschappijen.

p.s. natuurlijk waren de oude cray machines wel buiten proporties. per 4 processors rond de 500 kilowatt meen ik me te herinneren: 500 KW = 500000 watt

p.s. de meeste supercomputers zijn 3 jaar goed bruikbaar en dan min of meer al afgeschreven.
Ik denk niet dat bij dergelijke computers energie of prijs de doorslaggevende factor is. Aantal processoren tov prestatie is wel een graadmeter.
integendeel.

die 416 processor machine van onze overheid met 1.3Ghz itanium2 processors zal rond de 15 miljoen dollar gekost hebben.

Die levert maar 2.2 teraflop en dat op *papier*.

Wat in Groningen/Dwingeloo staat kostte zover ik genoemd zag rond de 5 miljoen euro en heeft tegen de 40 tflop en 12288 ibm processoren.

Wat heb je liever?
Eigenlijk gaat het niet meer om de supercomputer zelf, maar om de hoeveelheid geld die men wil besteden aan het aantal processoren... Hoe groter je grid, hoe meer teraflops :Z

Misschien moeten ze maar eens een ranking maken van een supercomputer met 1 processor? Die zal inderdaad niet de waanzinnig hoge snelheden halen, maar dat is tenminste een computer :).
Hoe groot je Grid is maakt niet uit, het gaat erom uit wat voor soort onderdelen het bestaat, zoals HighwayDevil al zegt, maar let wel... Grid betekent multi-domein, multi-user, heterogene omgevingen en gebaseerd op standaarden.
De top500 lijst bestaat momenteel alleen nog maar uit individuele supers of clusters :)

edit:
Een goede reden waarom je niet de individuele CPU wil testen is omdat de efficientie van het hele systeem afhangt van alle componenten. Ook de interconnects tussen twee CPUs.
Op een moederbord gaat het vaak vrij hard tussen 2 CPU's, maar je kan je voorstellen dat de communicatie naar een andere CPU in een ander deel van het systeem een andere performance ratio heeft.
Dus hoe je het systeem getweakt heb is duidelijk afhankelijk op je performance.
Interessant staatje.

Wat mij altijd een beetje stoort is de term "64 bits extensies". AMD64/EMT64 is namelijk gewoon een volledig 64 bits architectuur. Dat de processor terug kan schakelen naar 32 bit doet daar m.i. niets aan af.

Wel interessant verder dat er een Montecito systeem bijstaat in de hoogste regionen terwijl deze proc nog niet eens geintroduceerd is door Intel.
Intel heeft inderdaad een speciale regeling getroffen met Bull om dat systeem op tijd af te krijgen, ondanks het uitstel van Montecito voor de rest van de wereld. Wat betreft de 64 bit extensies: AMD64/EM64T is een superset van x86 en dus wel degelijk een uitbreiding zoals het woord extensie ook suggereert. Niemand zegt dat het niet 'volwaardig' is of wat dan ook.
Die bull supercomputer is een enorm monster van een computer. Het wordt gebruikt om in Frankrijk kernproeven te simuleren.

Het netwerk is geniaal. Quadrics QM500 kaarten, dubbele rail zelfs.

Iedereen heeft het over rekenkracht, maar bij die grote supercomputers telt alleen het netwerk. Bij die grootte loopt de kostprijs van het netwerk snel op naar 4000 dollar per port (dubbele rail).

Welke processor er dan inzit is minder belangrijk. Dat wordt pas belangrijk *nadat* er een goed netwerk inzit.

Op dit moment schalen bij de megasupercomputers alleen infiniband en quadrics goed. De overige netwerken zijn vrij matig.

one way pingpong latency van quadrics voor kleine messages zit rond de 1.33 us versus infiniband claimt nu rond de 2.5 us voor hun nieuwste kaart (maar wat is de PRIJS van die kaart?).

Overigens is mij de prijs ontgaan. Het is goed mogelijk dat de Franse overheid gewoon een open bid gedaan heeft en dat intel die processoren bijna gratis weggegeven heeft aan ze (want met de normale prijs van die itanium2 processoren kun je natuurlijk geen supercomputer bouwen, dat wordt VEEL TE DUUR per node).

Elke node in die bull is overigens een QUAD machine. Dus ik wil HEEL GRAAG weten wat de Franse overheid betaald heeft per processor. Mogelijk maar 1/8e deel van de werkelijke prijs als je ze per 1000 officieel zou inkopen.
Jammer dat de nummer 1 puur wordt gebruikt voor het uitvoeren van simulaties van kernexplosies door de Amerikaanse overheid.

Ze hebben dat ding alleen amar neergezet omdat het minder commotie veroorzaakt en goedkoper is dan het uitvoeren van ondergrondse kernproeven in de woestein van arizona
Wat een verschrikkelijk slecht doel zeg, het simuleren ipv uitvoeren van kernproeven. Straks gebruiken ze zo'n systeem nog om simpele en goedkope dier en mensproeven overbodig te maken. :Z :Z
Misschien bedoelt DKasemier wel dat al die Teraflops voor betere doeleinden gebruikt kunnen worden.
Dat lijkt me een heel nuttige toepassing omdat op die wijze er geen echte atoomtesten te hoeven worden gedaan.
Andere supercomputers doen net zo nuttige dingen zoals het voorspellen van het weer en Pi berekenen, lekker boeiend dus.
Welke supercomputer in de top500 voorspelt enkel en alleen het weer of is alleen bezig pi te berekenen?

Geef eens een voorbeeld.

Ik ken er geen.
Er staat er 1 in Duitsland die alleen het weer berekent. In de USA (ik meen bij Los Alamos) hebben ze een partitie alleen aan een nauwkeurigere reperesentatie van Pi gewijdt.

Bij het KNMI in de Bilt staat ook een Shared Memory systeem die alleen weer voorspeld en weersimulaties doet. Althans ... die weersvoorspellingen hebben in ieder geval prioriteit boven het meterologische onderzoek (er wordt immers geld mee verdient).
Idd, zoiets zou ik veel beter gebruiken, bijvoobeeld om BF2 met 30000 frames te spelen en te hosten :Y)
65% meer rekenkracht dan vorig jaar. Denk daar eens over na.

Dat is bij benadering de wet van Moore!!! en dat vind ik echt bizar. Die man heeft echt een serieus ingenieuze stelling neergezet!
Moore had het toch niet over rekenkracht maar over het aantal transistors op een computerchip?
wikipedia: "De Wet van Moore stelt dat het aantal transistors op een computerchip door de technologische vooruitgang elke 18 maanden verdubbelt."
Ik bedoelde het ook als opmerkelijk dat een dergelijke regel ook van toepassing is op zaken die indirect betrokken zijn bij de wet van moore. Aangenomen dat het fysieke volume van supercomputers gelijk blijft, is blijkbaar de rekenkracht gelijk everedig aan het aantal transistors per inch2
Helaas niet :) Zijn stelling is nu meer regel dan stelling geworden, voldoe je niet aan de wet van Moore... dan lig je er simpel wel gewoon uit.
ok, dan heb ik de oorzaak-gevolg een beetje omgedraaid ;)
AMD doet het goed.

ik vraag me af wat voor systemen achter de vr simulatoren van us defensie zitten. wat voor grafische kaarten, :9
Gewoon Quadro FX 3400 kaarten, maar dan wel 260 van die kaartjes in een visualisatiecluster van Dell Precision workstations, dual Xeon, 4GB RAM. Dat wordt iig bij Sandia gebruikt. En het leuke is dat je dezelfde visualisatie software ook thuis kunt gebruiken, het is namelijk opensource (paraview). Kun je je eigen visualisatiecluster bouwen :).

http://www.nvidia.com/object/IO_19962.html
http://www.paraview.org
Jeej, mn stageplek staat op 12... Stella doet het nog wel aardig :)
Mijn werkgever op de 1e 2e en 3e plek :P
En wat doen ze ermee? Het weer voorspellen...
Vroeg ik me ook af, staat er ergens een opsomming met de toepassingen waarvoor ze al die rekenkracht gebruiken?
- weersvoorspellingen
- kernproefsimulaties
- ..
Misschien een n00b vraag, maar hoeveel MHZ of GHZ is 1 teraflop? |:(
Kopietje van ergens op het net

Dit is een eenheid voor processors op basis van floating-point-metriek. Ter vergelijking: Een PC met een processor van 3 gigabytes komt overeen met een snelheid van 6 gigaflops

Hier is ook een aardig artikel om te lezen:
http://news.zdnet.com/2100-9595_22-525670.html
.......suggests that the 700MHz Athlon is capable of sustained, 1 gigaflop rates when software takes full advantage of its design.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True