Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 51 reacties
Bron: Top 500

De kop van nieuwste editie van de Top 500 supercomputers wordt gedomineerd door IBM. Sowieso bezet het bedrijf de eerste en tweede plaats met Blue Gene/L en de Watson Blue Gene, maar in de toptien zijn daarnaast nog drie andere varianten van de Blue Gene terug te vinden. De in Groningen geļnstalleerde Stella staat bijvoorbeeld op de zesde plaats. In totaal staan er nu vijftien Blue Gene-systemen op de lijst genoteerd, waarvan de traagste met 4,7 teraflops nog steeds een respectabele 64e positie bezet. Wanneer ook de andere producten van IBM worden meegeteld dan doet het bedrijf het nog veel beter: het leverde 51,8% van de systemen en 57,9% van de rekenkracht.

Top 500 supercomputer logo De groei in de wereld van supercomputers zit er nog steeds goed in. De totale rekenkracht van de systemen in de top 500 bedraagt nu namelijk 1,69 petaflops, een groei van 50% ten opzichte van zes maanden geleden. Het systeem dat op dit moment achteraan staat, is grofweg even snel als de complete top 500 van juni 1993 samen (1,17 teraflops). Zes maanden geleden stond dit systeem overigens nog op de 299e positie.

Wat opvalt is dat ondanks de dominatie van IBM ongeveer tweederde van de systemen op de lijst is gebaseerd op processors van Intel. Iets meer dan de helft van de supercomputers op de lijst draait op Xeons, en de Itanium neemt de overige zestien procent voor zijn rekening. De Power-familie van IBM zelf pakt slechts iets meer dan 15%, gevolgd door rond de 7% voor HP PA-RISC. De Opteron van AMD heeft met 25 systemen precies 5% in handen, en de overgebleven procenten worden opgegeten door minder bekende architecturen, zoals Alpha, MIPS, SPARC en exotische ontwerpen van bedrijven als Hitachi en NEC.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (51)

Op dit moment draait Linux op de meeste supercomputers... Geschat tot wel zo'n 60%.

"Linux has dominated the marketplace for high-performance computing," says Mark Seager, assistant department head for advanced technologies at the Lawrence Livermore National Laboratory in Livermore, Calif., which operates ten machines on the Top 500 list, including Blue Gene/L, the world's most powerful supercomputer, and Thunder, which ranks fifth.
maar dat gaat wel verandereren als Microoft straks met Windows voor supercomputers komt :) :) :) zal wel direct na Longhorn uitkomen..
Zullen we dan weer met zn allen gaan klagen dat de minimale systeem eisen weer echt veels te hoog zijn :+
Jah sure...zeker aangezien veel bouwers van supercomputers op dit moment eigen versies van linux gebruiken en dus zelf zaken aanpassen, dat kan met de windows versie naar alle waarschijnlijkheid niet...
Overigens IBM overstappen naar de windows versie na alle promotie en financiele injecties richting linux ???
maar dat gaat wel verandereren als Microoft straks met Windows voor supercomputers komt
Niet snel: bestaande supercomputers zullen ze niet om gaan bouwen. En MS zal zich nog moeten bewijzen op supercomputers, waardoor een aantal leveranciers na introductie niet snel zullen kiezen voor een MS product.

Dus het zal nog wel even duren voordat MS een serieuze kandidaat zal zijn/worden in het veld...
Cray is ook hard bezig met een comeback....
Hun oude techniek begon met een voorsprong, maar er zat maar weinig uitbreidingsmogelijkheid in. Die techniek is dus al lang ingehaald door IBM.

Cray is nu bezig met het stimuleren van onderzoek naar de combinatie van herprogrameerbare logica en vector processors. Het MOLEN project aan de TU-Delft en de VIRAM architectuur, ontwikkeld bij de universiteit van California, Berkley, zijn van die projecten die direct door Cray gestimuleerd worden.

Huidige General Purpose processoren worden steeds complexer. Daardoor blijft het moeilijk om heel veel te combineren. Met een simpele vector architectuur wordt communicatie een veel kleiner probleem. Zie ook de Cell processor, die heeft 8 vectorprocessoren.
Wat moet ik me nu voorstellen bij een teraflop? Is dit om te rekenen naar aantal Ghz ofzo?
Een flop is een floating point operatie, een tera flop is dus een heleboel (tera is 1000x giga) operaties per seconden. In princiepe is het wel op te rekenen naar GHz, maar dan zou je moeten weten hoeveel operaties de processor per klok kan uitvoeren. Meestal zal dat iets van 2 zijn ofzo in het geval van normale x86 processors.
Een quote van Wikipedia.....laat maar.

zie ook reactie:

http://www.tweakers.net/reacties.dsp?Action=Posting&ParentID=1331208

Whoeps te laat. Ik vraag me af waarom men het aantal flops ook niet gebruikt bij gewone computers. Dan kunnen we namelijk kijken welke processors het snelst zijn dmv flops ipv Hz. Dan is de GHz race zo van de baan.

edit: quote wikipedia weggehaald
Omdat voor de wetenschappelijke wereld floating point berekeningen belangrijk zijn, maar voor thuisgebruik veel integer berekeningen gebruikt worden. Dingen zoals instructieset (Denk aan MMX etc) zijn voor het spelen van spellen vaak belangrijker dan floating point operations.
Een floating point operation is een berekening met een niet-geheel getal, bijvoorbeeld 1.234567
Een "gewone" (integer) operation is met gehele getallen.
Waarom zijn integer berekeningen zo belangrijk bij games? Waarom hebben grafische chips dan zoveel FLOPS in huis? :?
Wikipedia en google zijn je beste vrienden als je iets niet weet.

http://en.wikipedia.org/wiki/Flops
http://nl.wikipedia.org/wiki/Flops

"FLOPS staat voor floating point operations per second en wordt wel als een eenheid gebruikt om de rekenkracht van CPU's aan te duiden."

Maar zoiets had je ook zelf op kunnen zoeken :o
FLOPS is een afkorting voor floating operations per second, en heeft niets met Gigahertz te maken. FLOPS wordt als algemene benchmark gebruikt voor supercomputers, maar niet zozeer voor een gewone thuiscomputer. Maar als je per se een vergelijking wilt: een pentium 4 HT 3.06 GHz heeft een theoretische max van 12 gigaflops...
Hielko was me net voor maar als je Googled kom je al snel op iets vergelijkbaars:
teraflop

A teraflop is a measure of a computer's speed and can be expressed as:

* A trillion floating point operations per second
* 10 to the 12th power floating-point operations per second
* 2 to the 40th power flops
Waarbij je wel even moet opletten het amerikaanse tellen

Amerika - Nederland
million - miljoen
billion - miljard
trillion - biljoen

Een nederlandse triljoen = 10^18
Een miljoen keer meer
Een flop is een 'floating point operation'... een teraflop is dus een hoeveelheid flop's per seconde (ongeveer).

Vroeger ging dat in megaflops, ondertussen zijn we de giga alweer voorbij met de teraflops ;)

Via google is wel te vinden hoeveel flops een moderne consumenten-cpu doet
De klok-snelheid waar jij naar refereert is niet relevant. FLOPS zijn FLoating-point OPerations per Second, als ik een 100Mhz processor heb die 32 FLOP's parallel kan uitvoeren kan ik er meer mee dan met een 2Ghz processor die er 1 tegelijk kan doen.

FLOPS bepalen de echte rekenkracht, Klok-snelheden zijn irrelevant. Jij leeft nogsteeds in de Mythe die door Intel de wereld in (en inmiddels weer uit, ze zijn er weer op terug gekomen) is geholpen.

[edit]
Maar ik was iets te laat zie ik :P |:(
"PowerPC 2300 MHz (9.2 GFlops)"

Dus een PowerMac G5 2,3GHz heeft 9,2GFlops... zie hier je omrekening :)
Wat ranglijst betreft is wel opvallend dat de PowerPC het beste doet. Itanium en Opteron kort hierop volgen.
en dat de Opteron het in de ranglijst wat positie betreft een stuk beter doet als de Xeon.
Cray gaat de laatste tijd ook lekker met hun Opteron Clusters
Toch knap voor een relatieve nieuwkomer. AMD heeft eigenlijk pas sinds de Opteron een echte serverprocessor in handen.
In principe is alles wat smp enabled is te gebruiken voor supercomputers...dus zo nieuw zijn ze niet (athlon mp)...ze hadden alleen nooit iets interessants hiervoor.

Overigens niet bedoeld als commentaar van mijn kant op AMD hoor, vind het kicken cpu's op dit moment...
opteron komt uit 2003. nummer 500 stond ongeveer 6 maanden geleden op 299 dus in 6 maanden tijd zijn er 200 nieuwe super computers geintroduceerd. van mijn part is het ongeveer een half jaar geleden dat de opteron deel hiervan uit maakt dus van die 200 zijn er in het totaal toch zeker 25 opteron systemen. kan aan mij liggen maar 200 / 25 is toch een uitermate minimale prestatie. en dit toont alleen nog maar aan dat amd nog niet groots genoeg is voor dit soort werk.
als je de verkoopcijfers in dit segment bekijkt zie je dat amd dan ook nog niet geschikt is om deel uit te maken van de supercomputers en dat intel het hier toch een stuk sterker doet. zoals ze ook al aangeven is dat op het moment (over de hele top 500) een kleine 400 stuks.
ik vraag me dan ook meer af hoelang men nodig heeft om amd te vertrouwen voor dit soort werk als je je realiseert dat in 3 jaar tijd men 25 supercomputers weet te bouwen. amd is in de low-mid end sterk genoeg maar voor highend/supercomputers ziet men amd nog steeds niet als voldoende helaas
wat is de markt aandeel van AMD op de desktop markt? en wat is het aandeel als je alle proccessoren mee rekend (ook embeded)? dan is 10% nog niet zo slecht voor dat kleine bedrijfje!
Cray gaat helemaal niet lekker, hun aandeel is bijna niets meer waard en ze verliezen tientallen miljoenen per kwartaal.
Ik ben wel eens benieuwd hoe effectief die supercomputers gebruikt worden, als ze net zo staan te idle-en als m'n computer op het werk (98% idle) dan staat zo'n ding er waarschijnlijk meer voor de "heb".
Vaak moet je tijd op een supercomputer weken (zo niet maanden) van te voren reserveren, en dan ook nog eens verdomd goed onderbouwen waarom je het nodig hebt. Zo'n ding zul je dus niet snel uit z'n neus zien vreten, want men staat letterlijk in de rij om hem te mogen gebruiken.
Bijna waar... Zo was er de laatste tijd regelmatig een stuk of 100 procs op Teras in Amsterdam vrij. Je computer tijd moet je er wel aanvragen, maar dat gebeurd meestal op project basis. Zou wel heel vermoeiend zijn als voor iedere test run van een paar uur apart tijd gereserveerd moet worden.
Ik ben benieuwd wat de Cell-processor kan gaan betekenen voor de supercomputers. IBM verwacht met het eerste prototype 200 gigaflops per processor te gaan halen. Dit zou betekenen dat de rekenkracht van de nummer 1 op deze lijst geevenaart zou kunnen worden met ongeveer 1800 cell-processoren op 3.2Ghz. De nummer 1 heeft 65.536 processoren, PowerPC 440 700 MHz (2.8 GFlops per processor).

De cell-processor zal waarschijnlijk wel alleen in bepaalde situaties deze maximale rekenkracht halen, maar toch, er zit een factor 70 verschil tussen de beiden processoren
ATi zegt ook dat zijn nieuwste videokaart 200 gigaflops heeft... ik ben benieuwd wat de Radeon gaat betekenen voor de supercomputermarkt ;).

De ene flop is de andere niet. De nauwkeurigheid van de Cell schiet bevoorbeeld behoorlijk tekort voor serieuze doeleinden.
Bijna goed :)
De CELL kan wel double precision floats aan, maar dan wordt de Float performance bijna een factor 10 lager.
Nog steeds heel aardig... (rond de 28 GFlops)
CELL is niet ontworpen voor wetenschappelijke doeleinden maar voor multimedia performance, en daar is single precision meer dan genoeg.
Mocht de prijs echter laag komen te liggen door het grote aantal wat geproduceerd wordt, dan wordt het weer een heel ander verhaal.
De cell heeft alleen een heel ander ontwerp en een veel langzamere geheugen bus. Theoretisch dus veel vermogen maar weinig om het aan kwijt te kunnen. Dus leuk als je alleen met registers werkt, maar dat lijkt me voor supercomputers niet te doen. (idd, nauwkeurigheid is ook een factor)
De PS3 zou iets van 2TFLOPS moeten hebben volgens de heren van ibm en sony maar dat is natuurlijk alleen als je specefieke operaties zonder geheugen toegang gebruikt.Bovendien hangt er nog steeds veel af van je IO snelheid als het gaat om het veel lezen / schrijven van data naar geheugen / IO. (lees het stukje over flops op wiki maar eens, link een paar posts naar boven)
De nummer één heeft 65.536 processoren in gebruik - betekent dat dat het Blue Gene/L-ontwerp aan z'n maximum aantal cpu's zit? Dan zou er alleen nog maar met snellere CPU's doorgeschaald kunnen worden; waarmee het vasthouden van de koppositie weer kostbare ontwikkeltijd gaat kosten...
Er zitten in een aantal systemen in die lijst 2^x CPU's, dus het hoeft niet te betekenen dat 2^16 in dit geval het maximum is.
't Is gewoon een mooi rond getal om in je aankooporder te zetten. Boven de 64 processors zijn veel systemen min of meer onbeperkt schaalbaar (Ook als er staat dat je ze tot maximaal 512 oid kan krijgen op de website zijn dat vaak alleen de 'standaard'configuraties), en zeker degenen die voor dit soort dingen gebouwd worden.
Cool,

De huidige nummer 500 stond in 2001 nog op de 11e plaats.

Om maar even aan te geven hoe hard het de laatste jaren is gegaan met performance .
De huidige nummer 500 stond in 2001 nog op de 11e plaats.
Tegelijkertijd: een computer van 4 jaar oud die nu nog steeds meedraait in de 500... Betekent toch dat ze destijds iets knaps gebouwd hebben! Of zouden ze ondertussen wat processoren geupgrade hebben?
Of dat betekent gewoon dat er niet veel supercomputers gebouwd worden.
wat is nou precies het nut van zn pc?
<to Frogy>

ten eerste,
het is geen pc (personal computer)

ten tweede er zijn dingen op te berekening die best complex zijn, zoals de effecten van kernexplosies en allerlei andere wetenschappen complexheden..

die jij voorlopig echt niet op je pc-tje kan doen....

ga maar eens lezen wat de Nec Earth Simulator berekend..
Ik weet niet hoor maar volgens mij hebben die Blue Gene's in verhouding helemaal niet zoveel power...

Op nummer 6 staat Nederland met een Blue Gene en ruim 12.000 CPU's - PowerPC 440 700 MHz (2.8 GFlops)

Maar op nummer 5 staat Spanje met zijn IBM Clustertje,
Waar slechts 4.800 CPU's in zitten. - PowerPC 2200 MHz (8.8 GFlops)

Mss. eens een andere processor gebruiken... :)
Maar die heeft wel weer Myrinet comms, en is dus meer een cluster dan een echte supercomputer zoals de Blue Genes dat wel zijn. Daarnaast is Blue Gene al een aantal jaren in ontwikkeling, en dat zal de reden zijn dat de nodes daar nog met 700 MHz PowerPCs werken. Vergeet trouwens niet dat die een heeeel stuk goedkoper zijn dan 2200 MHz varianten en als je er enige tienduizenden moet kopen scheelt dat nogal :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True