Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 117 reacties

Een Amerikaanse supercomputer die deels is gebaseerd op de Cell-cpu van IBM, is er in geslaagd de petaflopsgrens te doorbreken. Het systeem is meer dan twee keer zo snel als IBM's Bluegene/L.

De supercomputer, Roadrunner gedoopt, zal door de Amerikaanse defensie gebruikt worden om het gedrag van nucleaire wapens te simuleren, vlak nadat ze ontploffen. Voordat het systeem door defensie in gebruik wordt genomen, mogen wetenschappers het gebruiken om berekeningen met betrekking tot klimaatverandering uit te voeren.

De Roadrunner bevat 12.960 Powerxcell 8i-cpu's van IBM en bijna 6500 dualcore Opterons van AMD. De Cell-processors worden gebruikt om een boost te geven aan delen van berekeningen. In totaal heeft de supercomputer 116.640 cores tot zijn beschikking en daarmee wist hij 1,026 biljard sommetjes per seconde op te lossen. Om de rekenkracht van de machine in perspectief te plaatsen, maakt Thomas D’Agostino van de Amerikaanse National Nuclear Security Administration tegenover de New York Times een vergelijking: "Als zes miljard mensen met rekenmachines dag in dag uit en 24 uur per dag calculaties zouden uitvoeren, zou het ze 46 jaar kosten om te doen wat Roadrunner in een dag kan."

De Roadrunner is ontwikkeld door IBM en het Los Alamos National Laboratory en de bouw heeft 133 miljoen dollar gekost. Het systeem draait Red Hat Enterprise Linux, wordt beheerd met xCAT en verbruikt 3 megawatt. Nu de petaflops-grens gepasseerd is, gaat de supercomputerindustrie op jacht naar de volgende doorbraak: het doorbreken van de exaflops-barrière.

IBM Roadrunner
Moderatie-faq Wijzig weergave

Reacties (117)

Ik vind het eigenlijk wel meevallen, 1 petaflops; ik zocht net even op wat de G92's van mijn 8800 GT SLi setje neerzetten en die zitten al op ~1 teraflops. Dan is die supercomputer maar 1000x sneller!

Ok ik zit appels met peren te vergelijken want een CPU != GPU maar met de komst van de streamprocessoren is er al wel veel mogelijk. Met toolkits als CUDA (NVIDIA) en CTM (AMD/ATi) kunnen die prima worden ingezet om wetenschappelijke berekeningen uit te voeren.
Helaasch... Meeste berekeningen doen ze/we liever in 64-bit, vanwege nauwkeurigheid. Daarnaast kan een videokaart parallelle berekeningen wel doen, maar iets als de eerste 100 getallen optellen is lastiger op zo'n ding. Elke keer weer een nieuwe set gegevens ophalen, weer 1 core benutten, en de volgende ronde. Schiet niet op, dat doet een ouwe celeron nog sneller. Ga je daarintegen iets als een set watermoleculen volgen, dan begint je GPU al te schijnen. Dat kan namelijk allemaal naast elkaar (met het juiste algoritme), en dan gaat het hard. Of dat kunstje met atoombommen ook gaat weet ik niet. Mag wel aannemen dat ze er in elk geval over gedacht hebben, voor je 100+ miljoen spendeert verwacht je dat ze wat andere opties vergelijken. (tot je het over OV-kaarten hebt, maar goed).
Roadrunner gebruikt trouwens 3.9 megawatt, is het dan niet beter om het af te ronden naar 4 megawatt?
bron
Ik vraag me dan altijd af of we wel genoeg werk aan kunnen leveren aan zo'n machine, voordat hij het alweer verwerkt heeft. Ik bedoel: iemand zal toch de instructies moeten geven aan zo'n ding? Heeft iemand een idee hoe dat werkt?
Je wil een bepaald iets simuleren (liefst ook nog in 3D). De simulatie moet daarbij ook heel nauwkeurig zijn. Thuis kun je ook wel een atoombom simuleren, maar dan heb je iets wat er realistisch uitziet. Het kan zijn dat de omtrek van de explosie in werkelijkheid enorm veel zou verschillen. Er zijn aardig wat verschillende gegevens die je bij zo'n test kan verzinnen en zij willen allerlei gegevens en details kunnen ontvangen. En natuurlijk willen ze die erg nauwkeurig. Ook moet je allerlei details invoeren (type atoombom, bouw, vorm, vulling). En zo'n ding werkt met atomen en is daar heel erg van afhankelijk. Om nou aan elk atoompje te rekenen, en daarmee iets extreem betrouwbaars te maken...
Dat laat ik mijn arme Celeron niet doen hoor ;)

En ik ben geen pro op dit gebied. Ik ben maar scholier. Ik vermoed dat ik maar een fractietje heb van hoe ingewikkeld het eigenlijk is.

Je gaat dat ding niet bouwen omdat je TI-84+ (grafische rekenmachine bij mij op school gebruikt) net ff niet snel genoeg is.

[Reactie gewijzigd door Amanoo op 9 juni 2008 11:11]

Naast dat moet je ook rekening houden dat er meerdere effecten zijn aan een atoombom dan de explosie. Ondanks het feit dat er in het stuk staat dat de computer voornamelijk gebruikt gaat worden voor de explosie, is het na effect op het milieu en klimaat zeker van belang voor de wereld. Indien Amerika gebruik wilt maken van nucleaire wapens is deze informatie bijzonder belangrijk en zal dit meewegen met de beslissing om de wapens te gebruiken in een bepaalde situatie.
Naast deze hal staat er nog zo eentje, maar dan vol met toetsenborden en beeldschermen ;)

Maar serieus, het is in principe één hééééééle grote rekensom. Je geeft één keer de som in, en daarna mag dat ding gaan rekenen.
De formule hoeft niet zo heel moeilijk te zijn, maar door hoge resolutie (zowel in tijd als in ruimtelijk wordt het een hele lange berekening.
Met deze nieuwe supercomputer zullen ze waarschijnlijk vooral een nauwkeuriger simulatie gaan doen.

Om een tweaker-achtig voorbeeld te geven:
Ga Doom3 spelen met een resolutie van 800.000 * 600.000 ipv de normale 800*600
En dan in plaats van 1 dynamische lichtbron per kamer 100 dynamische lichtbronnen.
Je kan daarvoor gewoon dezelfde engine gebruiken (de instructies blijven dus heel simpel) maar de berekening is ineens veeel en veel groter geworden.
Ik vraag me af, is de resolutie niet nog groter?
Je zit wel aan hele kleine atoompjes te rekenen.
En veel ook!
En waarschijnlijjk willen ze ook een stukje TimeShift erbij.
Altijd handig om vooruit of achteruit te kunnen spoelen of stil te kunnen staan.

Ik weet niet zo zeker of het maar één som is hoor.
Anders hadden ze denk genoeg aan één core. Ik denk wel dat ze erg lang zijn :|
En er zijn aardig wat gegevens om in te voeren te verzinnen en ook veel die hij weer zou moeten kunnen uitvoeren.
Ik denk dat ik niet aan zo'n machine zou willen beginnen hoor.

Is idd een tikkie ingewikkelder 8-)
Het is niet eens gezegd dat het ingewikkeld is.

Neem bv weer de dynamische lichtbronnen van dat Doom3 voorbeeld.
De berekening of een bepaald element in een kamer verlicht wordt door een lichtbron is niet moeilijk. Gewoon kijken of er een object tussen zit die een schaduw veroorzaakt.

Vervolgens moet je diezelfde simpele berekening uitvoeren voor ontzettend veel elementen in de kamer en heel veel lichtbronnen. En dan ook nog door de tijd.

Dat maakt de berekening nog steeds niet ingewikkeld. Alleen wel ontzettend veel !!

Vervolgens kan je het wel makkelijk opplitsen omdat je twee verschillende cores aan twee verschillende elementen (pixels) kan laten rekenen.

Overigens was die resolutie van 800.000 x 600.000 alleen maar als voorbeeld bedoeld.
Ik vraag me dan altijd af of we wel genoeg werk aan kunnen leveren aan zo'n machine, voordat hij het alweer verwerkt heeft. Ik bedoel: iemand zal toch de instructies moeten geven aan zo'n ding? Heeft iemand een idee hoe dat werkt?
Om te beginnen wordt er veel data verwerkt. Deze kan door een vorige rekenslag (of meerdere) gegenereerd zijn of gewoon heel veel waarnemingen gedaan zijn. Makkelijk voorbeeld: een klimaatmodel met waarnemingen van allle waarneemstations ter wereld.

Verder wordt het lang niet altijd door 1 proces gebruikt, maar vaak ook door meerdere intensieve processen tegelijk. Bijvoorbeeld 10x hetzelfde proces met iets andere beginparameters of zelfs verschillende processen van verschillende klanten (in dit geval intern defensie) tegelijk. Af en toe komt er dan iets voorbij dat nagenoeg alles verbruikt.

De flexibiliteit van toewijzen van capaciteit (meer of minder per proces) maakt 1 zo'n cluster dan beter bruikbaar dan 10 kleinere clusters. En honderd processoren voor je simulatie is beter dan de ene die op je bureau staat.

[Reactie gewijzigd door ritsjoena op 9 juni 2008 11:41]

Heb je enig idee hoe complex zo'n nucleaire simulatie is? Hint: heel, heel erg complex.
Wat ze met dit soort computers in feite willen doen is het vervangen van kernproeven. Sinds deze niet meer mogen is er een probleem dat eigenlijk niemand weet hoe een "oude" kernkop zich gedraagt. In plaats van testen proberen ze dat nu te simuleren.
De Roadrunner bevat 12.960 Powerxcell 8i-cpu's van IBM en bijna 6500 dualcore Opterons van AMD.
Gewoon een vraagje.... geen Intel? - ben benieuwd waarom er voor deze cpu(s) gekozen is.
Zijn bedoeld voor simulaties. amd processoren zijn daar meestal beter in vanwege de geintegreerde geheugencontroller. daardoor kunnen ze eerder bij het geheugen dan een intel cpu. voor simulaties kan dat een hoop schelen
En zoals hierboven aangegeven is het ook dat ze beter schalen

[Reactie gewijzigd door markje1 op 9 juni 2008 10:56]

Het kost nogal tijd om zo'n ding te maken dus die beslissing is een hele tijd geleden gekozen. Dus dat moet je al zeker in het achterhoofd houden. En aangezien men hier toch gebruikmaakt van mega veel cpu's is het niet zo belangerijk dat je de snelste afzonderlijkke cpu hebt maar wel de goedkoopste per performance. Hou hier ook rekening met het feit dat als je een andere fabrikant kiest dat je dan ook je moederborden moet veranderen.
Het mag duidelijk zijn dat het x86-gedeelte van deze machine nauwelijks een rol van betekenis spelen in de rekenkracht. 6480 dualcore Opterons leveren maximaal maar 83 teraflops op. De andere 943 teraflops, oftewel 92% van het totaal, komt van Cell-processors.
je kan de cell cpus rechtstreeks aan de AMDs koppelen via de HTT bus. intel heeft voorlopig nog niks wat dat kan bieden.
en je kan veel meer cpu's aan elkaar koppelen via de HTT bus als met intels FSB.
omdat opterons beter schalen dan intel (xeons)!
Waarschijnlijk vanwege de geintegreerde geheugencontroller en de HyperTransport links van de Opterons.
IBM heeft ook nog eens betere banden met AMD dan met Intel.
Denk zelf dat de banden van IBM met AMD en Intel de hoofdreden is.
Vindt niemand het raar dat het ding bedoeld is om nucleaire explosies mee te simuleren? De wetenschap mag er mee aan klimaatmodellen rekenen totdat ie helemaal klaar is. Is MacCain al winnaar dan?
Nucleaire wapens worden nog steeds ingezet maar op een heel andere basis dan slecht een atoombom. Het gaat vaak om wapens die geircht zijn op een bepaalde controleerbare reikwijdte waarbij men in staat is om slecht een divisie uit te schakelen zonder een heel gebied te vervuilen voor langere tijd.

@ Beugelfles :

Je hebt gelijk dat defensie in Amerika heel wat geld krijgt maar dat is omdat het volk graag een vrije samenleving er op nahoudt dus mag het wat kosten. Daar waar Amerika nu heel veel investeerd in nieuwe wapen ontwikkeling staat de EU stil en word er steeds meer op bezuinigd. de VS kijken meer naar de lange termijn en voeren daarvoor bepaalde risico tabellen uit. Als olie en zoetwater over 20 jaar een probleem gaat worden dan kunnen we hier in de EU binnen een dag overrompeld worden en dat hoef je visa versa niet te proberen bij de Russen of de Chinezen. En alles wat tegen vrijheid is is nu al een potentieel gevaar voor de VS en de support die ze geven aan bepaalde landen waarborgen ze ook. Ook de EU is afhankelijk van VS en daar zijn best wel wat "stille" afspraken over alleen merken we dat hier niet zo, omdat het geen levend issue is :)
Nucleaire wapens worden nog steeds ingezet maar op een heel andere basis dan slecht een atoombom. Het gaat vaak om wapens die geircht zijn op een bepaalde controleerbare reikwijdte waarbij men in staat is om slecht een divisie uit te schakelen zonder een heel gebied te vervuilen voor langere tijd.
Hoe kom je daar nou bij, nucleaire wapens worden nergens ter wereld ingezet.
tja, het is inderdaad een behoorlijke aluminiumfoliehoedjesreactie (3x woordwaarde :+ ) maar verarmd uranium koppen in sabotmunitie? tja, onzin natuurlijk, heeft hier niets mee te maken maar als je alleen de klok hebt horen luiden kan ik me de vergissing voorstellen :)

daarnaast: ze worden niet daadwerkelijk gegooid maar zeker wel paraat gehouden hoor :) al snap ik niet helemaal hoe je met een Abom wel een divisie uit zou kunnen schakelen (veel succes, gemiddelde divisie ligt meestal aardig verspreid... ) zonder langdurige vervuiling/onbewoonbaarheid te veroorzaken... maargoed.
Het is al vele jaren zo dat de krachtigste supercomputers bij Los Alamos staan voor dit doel. Als gevolg daarvan hoeft de VS al heel lang geen kernproeven uit te voeren. (in tegenstelling tot bv Frankrijk)

Vandaar dat weinig mensen hier verbaasd zullen zijn.

Overigens zijn klimaatmodellen zo primitief en onnauwkeurig dat zo'n supercomputer weinig nut voor ze zal hebben. Totdat het ding klaar is, is het natuurlijk leuk voor ze, maar daarna zou het gewoon overkill zijn.
Wat veel mensen niet weten was dat de VS en de UK tegen betaling de onderzoeks rapporten heeft gekregen van frankrijk en er ook bij aanwezig waren om zo de modellen te kunnen verfijnen.
Uiteraard. Als een bevriende natie toch zo'n proef gaat uitvoeren dan laat je je de kans niet ontlopen om je modellen er aan te toetsen.
En ondertussen blijft Frankrijk de grote slechterik...

Zo'n kans zou je zelf toch ook benutten?
3 megawatt, het is ook niet voor niks dat ze 'Rolling Blackouts'nodig hebben. LOL
Beetje humor misschien is dat dit gebruikt wordt door het ministerie van energie te Los Alamos (nog steeds een militair onderdeel overigens) en vervolgens toch 3 Mw verbruikt.
Verder de CPU zelf is niet dezelfde als die we in de PS3 terug zien het gaat hier om een second gen. met de volgende stats

Double Precision FP 190TFLOPS (5 x zo snel als de eerste CELL)
Memory: uitgebreid tot 32gb
Memory: DDR2 ipv Rambus
65nm ipv 90 nm
bron dat hij 5x zo snel is? Wat ik op wikipedia kan vinden is dat het enkel een nieuwe revisie is hoor... hij kan meer soort berekeningen doen en is naar 65nm verkleind, en uiteraard een stuk zuiniger...
Dat is 150W per cpu, minder dan jouw desktop. Maar totaal is het nogal wat ja.
Mijn desktop (ex. monitor) doet idle toch echt maar 110W en met enkel de cpu belast iets van 140W. Terwijl dat soort systemen per cpu efficienter zouden moeten zijn, doordat ze doorgaans meerdere processoren per voeding hebben.
Anderzijds zal daar natuurlijk ook aardig wat storage en een fors netwerk in zitten, dus helemaal netjes is het niet om de boel met een desktop te vergelijken.
De powerxcell 8i proc gebruikt max. 92 Watt
92 Watt * 12.960 proc's = 1.192.320 Watt (1,19MW)
Dan heb je nog de AMD Opteron proc's waarvan niet aangegeven is welke Opterons er in de RoadRunner zitten. Kan dat ook niet zo snel vinden.

Vind wel het volgende, en dat is dat er bijna 6950 AMD Opterons in de RoadRunner zitten
en niet bijna 6500 zoals aangegeven in het artikel.
Die rolling blackout is als deze uit de energiezuinigstand terugschakelt :+
Ik dat men de koeling er niet bij betrokken heeft.

Maar 3MW valt me nog mee, al is het heel veel energie.
1/100 van een degelijke energie-centrale.
Ik dat men de koeling er niet bij betrokken heeft.

Maar 3MW valt me nog mee, al is het heel veel energie.
1/100 van een degelijke energie-centrale.
Of 1 standaard windmolen anno 2007.
1/1000ste is meer de juiste benaming. een grote kerncentrale doet 3000MW

en dan gaat het over het maximaal piekvermogen van een grote windturbine op zee ja :)

[Reactie gewijzigd door successor op 9 juni 2008 14:10]

Een beetje kerncentrale doet gemiddeld 1000 MW in de UK wat dan ook inhoud dat deze zeker overdag erg veel energie verbruikt tov zijn omgeving echter bij vol gebruik in de nacht zou dit niet zoveel problemen opleveren. Het zou mij overigens niet verbazen als dit tevens een eigen centrale heeft zoals veel industrie gebieden.
Ziet er erg indrukwekkend uit, Maar die prijs? is dat niet ERG goedkoop? ik meende dat vorig Super-Computer in de 600 Miljoenen liep? Ik las pas een stukje over een Fastra pc met 8 GPU's http://fastra.ua.ac.be/nl/ (9800GX2 in quad SLI) Is het met deze berekeningen ook niet sneller om deze op een X aantal Stream processors te laten lopen aangezien ze fysieke dingen willen berekenen?

1026 biljard sommetjes per seconde

SuperPI iemand? :Y)
?

[Reactie gewijzigd door Sqorpius op 9 juni 2008 11:07]

FASTRA gebruikt geen SLI. Met CUDA kun je de GPU's toch niet met elkaar laten communiceren. FASTRA Technical FAQ
tja, maar opschalen gaat een probleem worden met die fastra, en bedenk je wel dat de gemiddelde GPU VZVIW minder dingen kan dan een celletje... en die cell is al behoorlijk paralel opgezet ivm een gewone CPU hoor!
Voordat het systeem door defensie in gebruik wordt genomen, mogen wetenschappers het gebruiken om berekeningen met betrekking tot klimaatverandering uit te voeren.
Ik had dit liever andersom gezien. Dat dit ding gebouwd is voor wetenschappers en dat die militairen er in de avonduren meer konden spelen bij wijze van spreke. Het is toch jammer dat de (Amerikaanse) maatschappij wel bakken met geld tegen militaire zaken aangooit, maar niet het geld gebruikt voor andere maatschappelijke problemen.

Maar goed defensie heeft het budget; dus veel plezier ermee ;)

[Reactie gewijzigd door Beugelfles op 9 juni 2008 10:58]

Overall system information:

6.480 dual-core Opterons with 51.8 TB RAM (in 3.240 LS21 blades)
12.960 Cell cores with 51.8 TB RAM (in 6.480 QS22 blades)
216 System x3655 I/O nodes
26 288-port ISR2012 Infiniband 4x DDR switches
296 racks

wowo.. :) dat zijn redelijke specs :-)

Bron: http://en.wikipedia.org/wiki/IBM_Roadrunner
een keertje superpi draaien?
ja. helaas draait dat maar op een core tegelijk.
BUMMER :+
Cinebench een beter idee misschien?
"Als zes miljard mensen met rekenmachines dag in dag uit en 24 uur per dag calculaties zouden uitvoeren, zou het ze 46 jaar kosten om te doen wat Roadrunner in een dag kan."

Beetje slechte vergelijking. een dualcore thuiscomputertje kan ook 6 miljard mensen met rekenmachines verslaan.
Maar waarschijnlijk niet met een verschil van 1 dag vs. 46 jaar ;)
In hoeveel tijd kraak je hiermee een standaard 1024bit key?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True