Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties
Bron: News.com

IBM zal volgens recent opgedoken geruchten met overtuigende voorsprong de eerste positie innemen op de volgende editie van de top500-ranglijst. Het bedrijf zou namelijk in het geheim een benchmarkresultaat van meer dan 70 teraflop per seconde hebben neergezet in Linpack. De race om de snelste supercomputer is dit keer feller dan ooit, omdat voor het eerst in ruim twee jaar de positie van de NEC Earth Simulator in bereik is gekomen van andere bedrijven. De Japanse machine met 5120 vectorprocessors staat al sinds juni 2002 op kop met een score van 35,86 teraflops. IBM opende de aanval op deze positie eind september, maar zette met 36,01 teraflops laag in. Het eerste resultaat van IBM werd behaald met de nog steeds in aanbouw zijnde Blue Gene/L, die op het moment van de benchmark 'slechts' uit 16.384 van de geplande 131.072 PowerPC-processors bestond.

SGI zag zijn kans waarschijnlijk schoon, en kondigde een kleine maand later aan dat de voor NASA gebouwde Columbia de snelste zou worden. Ook deze supercomputer was nog niet af, maar 8192 van de geplande 10.240 Itanium 2-processors leverden een score op van 42,7 teraflops, genoeg om het resultaat van IBM te overtreffen. Helemaal zeker was men echter niet, want naar verluidt is er in het geheim ook nog een tweede resultaat ingestuurd, maar dan van het volledige systeem. Columbia zou daardoor als verrassing met 51,9 teraflops in plaats van de aangekondigde 42,7 teraflops op de lijst terecht komen. Op dat moment werd al gespeculeerd over een soortgelijke zet van IBM, en dat lijkt nu terecht geweest te zijn. Het genoemde cijfer van 70 teraflops zou betekenen dat het IBM gelukt is om een versie van Blue Gene/L met 32.768 processors te testen, en dat de eens ongenaakbare Earth Simulator in één klap met een factor twee wordt verslagen.

SGI NASA Columbia

Hoewel bovenstaande afbeelding dus maar korte tijd waar is geweest, mag SGI nog wel een ander record op zijn naam schrijven. Het bedrijf leverde aan Japanse atoomonderzoekers een supercomputer met een recordhoeveelheid geheugen: 13TB. Dit systeem heeft echter maar 2048 Itanium 2-processors en maakt dus geen kans in de race om teraflops.

Moderatie-faq Wijzig weergave

Reacties (50)

Ongetwijfeld een heel domme vraag maar kan iemand me vertellen hoe je Teraflops kunt vergelijken met Hertz? Of ja doe maar Gigahertz......anders worden gestallen te groot :P

Thanks
ter·a·flop (plural ter·a·flops)
noun
measure of computer speed: one trillion floating-point operations per second, a measure of computer speed

http://encarta.msn.com/dictionary_/teraflop.html

Dus niet direct te vergelijken, de ene processor doet bijv. 1 flop per GHz, de ander 2.
Je weet duidelijk niet waar je het over hebt. Al geldt er in dit geval één verzachtende omstandigheid: bij Encarta weten ze het ook niet.

FLOPS, oftewel FLoating point Operations Per Second, is een eenheid. Het is dus niet zo dat flops meervoud is en flop het bijbehorende enkelvoud, al zijn er wel veel mensen die dat denken.
de ene processor doet bijv. 1 flop per GHz
Hier staat dus eigenlijk:

de ene processor doet bijv. 1 floating point operation per per GHz
oftewel:
de ene processor doet bijv. 1 floating point operation per per per nanoseconde
oftewel:
de ene processor doet bijv. 1 floating point operation per nanoseconde
oftewel:
de ene processor doet bijv. 1 miljard floating point operations per seconde
oftewel:
de ene processor doet bijv. 1 gigaflops

Goh, het slaat verbazingwekkend genoeg toch nog ergens op! Maar had je het ook zo bedoeld?
de ene processor doet bijv. 1 flop per GHz, de ander 2.
Zou niet zo mooi zijn als dat echt zo was..
Hier een sommetje:

Een Amd XP @ 2Ghz doet ongeveer 3000 MFlops(volgens sisoft sandra).
70 Teraflops = 70000000 MFlops.
70000000 / 3000 = 23333,33
23333,33*2Ghz= 46666,66

46.667Ghz op een AMD XP.
Ik heb me altijd al afgevraagd wat precies wordt verstaan onder een FLOP. Ik neem aan dat het een gemiddelde van een bepaalde mix van FLOP's.
2 floats delen zal immers (meestal) langer duren dan 2 floats optellen.
Daarnaast heb je vast ook nog CPU's met bijvoorbeeld in hardware uitgevoerde complexe functies (sin, e^, ln etc.) Dat zijn dan ook FLOP's.

Is er dan een of andere standaard voor wat een FLOP precies is in dit kader ?
Volgens mij is er geen standaard voor, maar wat de hier steeds gebruikte benchmark (Linpack) doet is in ieder geval vermenigvuldigen.
en nog omrekenen in jaren totdat we dat bereiken (de prestatie ;))

rekent ;)

1.5 jaar per verdubbeling (moore)

uhm dat is 2 * 2 ^X = 46666
x = 14.51
aantal jaar = 21.76 jaar
Gepost door mguilmot - donderdag 4 november 2004 - 12:21 Score: 2 (Grappig)
Wel spijtig dat je die niet onder je bureau krijgt
en dat pas btw wel onder je bureau ;)

zo :P.... en niet zeuren dat 640k genoeg was :P.
Eigenlijk totaal onvergelijkbaar, maar als je toch een idee wil krijgen een voorbeeld: de Itanium 2 heeft vier floating point units op zijn core en draait op 1,5GHz. In theorie zou hij dus 1,5 miljard * 4 = 6 gigaflops kunnen halen. Een deel van de rekenkracht gaat echter altijd verloren omdat er gewacht moet worden op I/O. Dat kan cache zijn, RAM, een andere processor, een ander systeem, enz. Het grote verschil tussen "koop maar een vrachtwagenladig pc's en zet ze naast elkaar" en een échte supercomputer is de hoeveelheid performance die op die manier verloren gaat. Je kunt uitrekenen dat de SGI Columbia een efficiëntie heeft van ongeveer 85%, erg hoog dus (zeker als je bedenkt dat zelfs een simpel systeem met één processor zonder communicatie met duizenden anderen al moeite heeft om boven de 95% te komen).

Columbia heeft dan ook een zeer geavanceerd netwerk (en dan bedoel ik geen ethernet maar een speciaal ontwikkeld systeem voor supercomputers met zeer lage latencies) om de systemen met elkaar te laten praten. De totale geheugenbandbreedte is meer dan 1TB/s, dat helpt natuurlijk ook. Het verschilt overigens wel per applicatie in hoeverre die efficientie belangrijk is, voor sommige toepassingen maakt dat soort overhead weinig uit (denk aan een koetje, dat zelfs via internet kan werken).
Ik heb toch wel even twee dingen die ik een beetje vreemd vind... Ten eerste, leuk dat het record verbroken word, maar wel lullig dat je daarvoor meer dan 25 keer zoveel CPU's nodig hebt. Dan vind ik eigenlijk dat de Earth Simulator een grotere prestatie neerzet dan de IBM.

Ten tweede, het zinnetje:
Dit systeem heeft echter maar 2048 processors en maakt dus geen kans in de race om teraflops
Vind ik ook een beetje voorbarig... Als je al ziet dat een supercomputer met 5k CPU's de helft van de teraflops kan uitpoepen van de "grote winnaar" die er 131k CPU's voor nodig heeft. Dan lijkt het mij dat als ze gebruik maken van 2k aan verbeterde versies van de Earth Simulator CPU's ze toch een heel eindje moeten kunnen komen. Er staat er niet bij wat voor CPU's er gebruikt worden, maar dat lijkt me dan toch wel handig om dat eerst te weten voor zulke uitspraken te doen. :)
Vind ik ook een beetje voorbarig... Als je al ziet dat een supercomputer met 5k CPU's de helft van de teraflops kan uitpoepen van de "grote winnaar" die er 131k CPU's voor nodig heeft.
Het zijn er maar 32k bij IBM, de uiteindelijke versie met 131k wordt nog veel sneller ;). Op zich heb je wel gelijk dat het aantal processors niet alles zegt, maar in dit geval gaat het gewoon om Itanium 2-processors. SGI verkoopt gewoon niets anders op deze schaal, maar ik heb het nu maar even expliciet gezegd in de post.

Verder zou ik voor je de Earth Simulator een betere prestatie noemt even gaan Googlen op het verschil tussen vector en scalar processors. Scalar systemen zoals onze desktops, Blue Gene en Columbia hebben hele andere voor- en nadelen dan vectorsystemen zoals ES. Een vectorchip heeft al snel ontzettend veel theoretische flops, maar kan deze alleen voor specifieke soorten problemen volledig benutten. Zie het een beetje als CPU vs. GPU, je kunt ze qua flops wel vergelijken maar het hangt van de toepassing welke sneller is.
Zie het een beetje als CPU vs. GPU, je kunt ze qua flops wel vergelijken maar het hangt van de toepassing welke sneller is.
nou eigenlijk is de GPU veel sneller.

een CPU doet zo'n 3gigaflops, maar een GPU kan rond de 40gigaflops halen.
dat is het voordeel van specialitatie, maar daar zitten ook flink want nadelen aan. een CPU kan alles, een GPU eigenlijk niet zo veel.
Met andere woorden: Aan pure Gigaflops heb je dus weinig. IMO zouden ze aparte top 500s moeten hebben voor scalar en vector processors, als het verschil zo enorm is.
Met andere woorden: Aan pure Gigaflops heb je dus weinig. IMO zouden ze aparte top 500s moeten hebben voor scalar en vector processors, als het verschil zo enorm is.
Gigaflops zeggen inderdaad lang niet alles. Voor vector vs. scalar ligt het vooral aan het soort berekeningen dat gedaan wordt. Als je bijvoorbeeld een vectorprocessor met één fp-unit en een vectorlengte van zestien waardes vergelijkt met een scalar met vier fp-units kan de vectorchip vier keer zo snel of juist vier keer zo traag zijn. Het ligt er maar net aan of je dezelfde of juist verschillende operaties tegelijk wil doen.

Top500.org houdt overigens - naast een aantal andere eigenschappen - wel bij welke machines vector en scalar zijn. Als je wil kun je ook makkelijk een overzicht krijgen van de snelste vectormachines. Een aparte lijst is waarschijnlijk alleen overdreven, want in de huidige top 500 staan er maar 25, waarvan slechts 4 in de top 100. Dit terwijl de lijst vroeger juist werd gedomineerd door vectorcomputers. Onder andere Cray en NEC gaan er nog wel mee door, maar als we naar de laatste tien jaar kijken dan kan toch wel gesteld worden dat het stervende is, of in ieder geval is geweest.
Hangt er natuurlijk vanaf. De Bleugene zal waarschijnlijk maar de helft van de fysieke ruimte innemen als de Earth simulator en zal een stuk minder stroom verbruiken. Ik vind het belangrijker dat je meer prestatie kunt behalen uit kleinere, goekopere en zuinigere CPU's.
Om even schaamteloos een reactie uit de /.-thread(over de SGI met 13TB aan geheugen) te quoten:
I guess that'll be enough to run Longhorn then.
Damn.....zoals ze zeggen: LVT.....lees: Leuk voor thuis :P
Kun je de verwarming ook afzetten komende winter :+
kan je daarmee dingen zoals de tafel van 3 heel snel uitrekenen?
Droogkloot :P

Maar die machine rekent de tafel van 3 in een paar dagen verder uit met twee (virtuele) vingers in zijn neus dan een mens in heel zijn leven kan uitrekenen.
mag ik vragen wat het doel van dit soort operaties is?....

Je knoop 1000 pc'je achter elkaar je bent overiges een smak geld kwijt voor de hardware en installie + ontwerp... Worden ze nog voor een doeleinde gebruikt?
Bijv de eath simulator probeert (dacht ik) het weer te voorspellen door met zo veel mogelijk dingen rekening te houden.
niet alleen het weer, ook de geologische verschuivingen van de aarde, ivm aardbevingen, want daar hebben ze nog wel eens last van in Japan en ze willen graag van te voren weten wanneer die plaatsvinden
Bijvoorbeeld :

"Het bedrijf leverde aan Japanse atoomonderzoekers een supercomputer met een recordhoeveelheid geheugen"

misschien gewoon even de moeite nemen om het artikel door te nemen....
Wel spijtig dat je die niet onder je bureau krijgt (8>
je kan je bureau er toch wel overheen modden??
en dat de eens onaanraakbare Earth Simulator in één klap met een factor twee wordt verslagen.
*uche*moore*kuch*

:P
Maar dan wel een half jaar te laat en met 36K CPU's ipv 5K
Wie kan me vertellen waarom dit interessant zou zijn, dan alleen maar reclame voor Intel/AMD/IBM/Nasa, enzevoort.

Meer PC's aan elkaar knopen zodat je systeem sneller wordt heeft toch alleen maar te maken met hoeveel geld je hebt om deze computers te kopen. Er komt toh weinig inventiviteit bij te kijken, toch? :?
nou....als het zo simpel is, dan kan jij me vast wel vertellen wat er allemaal nodig is aan kennis/apperatuur/software/configuratie om dit te verwezelijken.....
Die rekenkracht heb je nodig voor heel rekenintensieve simulaties. Bijvoorbeeld simulaties op microschaal tot op het electron nauwkeurig. Maar ook op macro schaal van de aarde en het universum zelfs. Ook nucleair onderzoek vereist ontzettend veel rekenkracht. The Earth Simulator heet niet voor niets de Earth Simulator en ook die heeft 100'en Teraflops te weinig om enigzins in de buurt te komen van een betrouwbare simulator.
Dat geeft toch maar weer aan, hoe goed de Earth Simulator van NEC werkelijk is. Om met 5.120 processors (van twee jaar oud!!!) de halve score neer te zetten van de Blue Gene/L met 32.768 hedendaagse processors. Het NEC systeem is grofweg 3x zo snel per processor, dan het systeem van IBM; terwijl het twee jaar oud is!! Dat is echt héél erg knap van NEC.
Als NEC het echt zou willen, dan pakken ze de titel van snelste supercomputer ter wereld zo weer terug. Gewoon de processor en I/O tweemaal zo snel maken (moet kunnen na twee jaar) en het aantal CPU's in het systeem vergroten. NEC heeft dan 'slechts' (131.072 / 6 =) 21.846 CPU'tjes nodig om king of the hill te blijven ten opzichte van een volledig gereed zijnde Blue Gene/L.

PS. Ik wist trouwens niet dat de Nijmeegse voetbalclub nog andere activiteiten ontplooit, naast hun core-business!
Als NEC het echt zou willen, dan pakken ze de titel van snelste supercomputer ter wereld zo weer terug.
Het is heus niet zo dat ze niet willen. Maar iemand moet wel zo'n supercomputer bij ze bestellen voordat ze gaan bouwen. Het is allemaal een kwestie van geld, je kan dan misschien beter kijken naar het aantal FLOPS per dollar.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True