Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Bron: The Register, submitter: EaS

Het Los Alamos National Laboratory (LANL) is van plan om een supercomputer te laten bouwen op basis van zowel Opteron- als Cell-cpu's. Verschillende bedrijven dongen mee naar het contract, maar het ziet ernaar uit dat IBM het snelheidsmonster zal mogen bouwen. Het project gaat onder de naam Roadrunner door het leven en moet een petaflop per seconde aan rekenkracht bieden. Het LANL gold lang als een van de toporganisaties op het gebied van supercomputers, maar zag heel wat van zijn onderzoekers vertrekken en zag zijn marktpositie in elkaar storten. Met Roadrunner wil het de geleden schade herstellen. De huidige nummer één op de supercomputer top500-lijst is een BlueGene, ook al van IBM, en levert maximaal 367000GFlops of ruim 280 teraflops. Voor de bouw van het systeem is momenteel 35 miljoen dollar gereserveerd, maar geschat wordt dat de uiteindelijke rekening om en nabij de 100 miljoen dollar zal bedragen.

Supercomputer-paintjobRoadrunner zal zich onder andere bezighouden met de simulatie van nucleaire explosies. Experts wijzen er op dat men er misschien goed aan zal doen een kerncentrale te reserveren voor het leveren van energie aan de supercomputer. John Gustafson van het bedrijf Clearspeed, een leverancier van supercomputeronderdelen, stelt dat het bereiken van petaflop-capaciteiten met traditionele processors al gauw tientallen megawatts aan stroom vergt. Hij rekende ZDNet even voor dat dit systeem al gauw tien miljoen dollar aan jaarlijkse operationele kosten zal vergen.

Moderatie-faq Wijzig weergave

Reacties (37)

Ik snap dat niet "voor het simuleren van kern explosies". Hoeveel keer is dat al wel niet langs gekomen :Z. En we hebben al zoveel nukes om heel de wereld op te blazen waarom zoiets dan nog berekenen?. (oke evt een melt down van een kern centrale, maar daarvoor heb je toch niet 101 super computers voor nodig.

Beter gebruiken ze die kracht voor het beter maken van mensen met kanker of een andere ziekte.
helaas komt bij ziektes meer ander onderzoek kijken dat kun je niet even berekenen zodat je een medicijn hebt, daar komt veel meer bij kijken dan alleen 1+1 maar dan heel vaak

kernexplosies, tja dat kun je gewoon uitrekenen :)
al wordt er toch erg veel distributed computing gebruikt voor ziektes enzo :)
Dat is allemaal leuk, distributed computing, maar wat ik me nou afvraag is, hoeveel oplossingen of vooruitgang heeft dat, in termen van medicijnen of behandelingen tot nu toe opgeleverd?

Hoor daar nooit iets over eigenlijk.
Dat computing levert tot nu toe nog nauwelijks iets op in termen van medicijnen.

Alle wetenschappers willen natuurlijk graag heel gericht medicijnen ontwikkelen, maar verreweg het meeste gaat nog gewoon met de botte bijl methode. Dus uitproberen op cellen en met miljoenen tegelijk screenen.

Dat blijkt voorlopig in de meeste gevallen het effectiefste... De moleculaire interactie van eiwitten, anti-lichamen e.d. is toch nog een tikkie te ingewikkeld dat we daaruit een medicijn kunnen ontwikkelen.
http://folding.stanford.edu/papers.html

De resultaten kan elke wetenschapper inzien
en gebruiken voor zijn eigen onderzoeken
Laten ze het grbuiken om de gevolgen van de versnelde temperatuursstijging te berekenen, dan weet ik tenminste wanneer ik zuidholland verlaten moet.
Dan komt die superPC waarschijnlijk tot de conclusie dat als hij uit staat dat dan het broeikas effect minder snel optreed :P
Gek he als t elke keer over t zelfde lab gaat die elke keer naar een andere SC kijke :P
Ik snap dat niet "voor het simuleren van kern explosies".
Heb je soms liever dat ze het niet simuleren, maar gewoon in de praktijk uitproberen?
Zoals Frankrijk vrij recent nog deed?

Kernwapens bestaan nu eenmaal, en die gaan nooit meer weg. Dat moet je gewoon accepteren.

Op een gegeven moment verouderen ze en moet er getest worden of ze nog wel werken. En op een gegeven moment zal een deel ook vervangen worden.

Wees blij dat ze dat met simulaties doen.
@data_king: omdat de miltairen steeds vragen naar nukes voor speciale toepassingen, zoals eentje die mensen doodt maar gebouwen laat staan, of wat ze nog meer aan morbide wensen kunnen hebben. En tegenwoordig wordt er ook gerekend aan juist heel primitieve kernwapens, om inschattingen van de risico's te kunnen maken als terroristen over dergelijk spul beschikken.
Had er iemand een koetje besteld? :7
De cell is toch juist relatief goedkoop wat betreft FLOP/Watt :?
ja maar de cell is geoptimaliseerd voor een bepaald doel en als je dat doel probeert te bereiken is hij heel snel, laat je hem andere dingen doen zal die snelheid veel minder zijn

daarnaast is een petaflop wel heel veel he, als je kijkt dat de nr1 van nu nog minder dan 1/3 petaflop heeft...
was dat nu niet juis de taak van die opterons chips????

zodat die cell dus echt alleen gebruikt wordt voor FP berekingen, waar de opteron de INT berekingen mat verhapstukken...?????
maximaal 367000GFlops of ruim 280 teraflops
Sinds wanneer is één teraflop niet meer duizend gigaflops? Hint: 367 tflops is de piek, 280 tflops is sustained :).
Experts wijzen er op dat men er misschien goed aan zal doen een kerncentrale te reserveren voor het leveren van energie aan de supercomputer.
Grappige 'experts' zijn dat met hun tientallen megawatts. De Blue Gene/L gebruikt 1.5 megawatt voor 280 teraflops, dus voor een petaflop zit je dan grofweg op 5.3 megawatt. Stap dan nog een keer over op een efficientere processor (moet na twee jaar toch wel kunnen) en je doet het nog beter. Een beetje kerncentrale levert trouwens zo een gigawatt, dus die hoeft echt niet gereserveerd te worden. Goed, de processors van de Blue Gene/L zijn ook geen standaard pc-dingen, maar toch nog lang niet zo raar als Clearspeed of Cell.

Ik vraag me trouwens af ze domweg 250 'Sony-gigaflops' per Cell hebben gerekend om aan die petaflop te komen, of dat ze de echte prestaties hebben ingeschat.
Ik vraag me trouwens af ze domweg 250 'Sony-gigaflops' per Cell hebben gerekend om aan die petaflop te komen, of dat ze de echte prestaties hebben ingeschat.
In dat geval heb je dus aan 4000 stuks PS3 genoeg. Verbruiken die dingen zoveel stroom dan? ;-)
Nee, maar ze willen de supercomputer *voor* 2018 operationeel hebben, dus wachten op de PS3 zat er niet in :P
Het is gewoon koppelverkoop: supercomputer + kerncentrale. :+
De verwijzing naar ZDnet:
"Wanneer je peta-rekenkracht uit gewone processoren wilt halen, heb je het al gauw over tientallen megawatts aan stroomverbruik", verklaart John Gustafson van het bedrijf ClearSpeed, dat onderdelen levert voor supercomputers. Gustafson: "Een watt aan stroom kost ongeveer een dollar per jaar. Dus bij tien megawatt heb je het over tien miljoen dollar aan jaarlijkse operationele kosten."
Goh die man heeft behoorlijk wat tijd in z'n berekening gestoken.... :Z
Als ze nou eens wat meer tijd gaan besteden aan kernfusie onwikkeling met zo`n supercomputer dan kan je nog zeggen dat de kosten goed besteed zijn.
Alsof ze alleen maar kernexplosies gaan simuleren op dat ding. Er staat duidelijk "onder andere". Wie weet ook wel jou voorstel...
Was Performance/Watt niet de nieuwe trend? :+
jup, daarom verbruikt deze ook extra veel met extra hoge prestaties :Y)
Een hybride Opteron?
Heb eigenlijk geen idee wat ik me daar mij moet voorstellen?
Continue en discrete waarden waarmee gerekend kunnen worden?
Een supercomputer die een voor een deel uit Cells bestaat en voor een deel uit Opterons. Wat is daar niet aan te snappen?
Eén Opteron om een hele array aan Cell processoren aan het werk te zetten misschien? Er is niks mis mee om dat soort systeemtaken te scheiden van het echte rekenwerk. Maar er zullen ongetwijfeld meer details boven komen drijven wanneer ze beschikbaar komen.
Ik ben het er volledig mee eens.
Maar er is blijkbaar behoefte aan en wie is IBM dan om niet in die behoefte te voorzien.

edit:
reactie op data_king
Ik denk dat met name de behoefte er is om weerkundige berekeningen te maken op de langere termijn. De uitkomsten die er nu al zijn, zijn al zorgwekkend. Straks kan men precies uitrekenen wanneer we weer tegen een ijstijd hangen, iets wat blijkbaar toch onvermijdelijk is. Wel zo prettig om te weten wanneer die komt, krijgt de kledingindustrie ook weer een boost :)
Dat is toch onmogelijk om uit te rekenen. Daarvoor is het systeem veel te complex.

Die beroemde uitspraak van die vlinder in het amazone gebied die een orkaan veroorzaakt is wat extreem. Maar het geeft wel goed aan hoe complex het systeem is.

Realiseer je eens dat het KNMI niet eens een nauwkeurige weervoorspelling kan maken die 7 dagen vooruit gaat.

Maar ondertussen denken we wel dat we een nauwkeurige voorspelling kunnen maken die 70 jaar vooruit gaat.

Het probleem met klimaat is niet dat we niet voldoende rekenkracht hebben, maar dat we gewoon te weinig van het klimaat begrijpen om een enigzins betrouwbaar model te maken.
(Helemaal als je weet dat het temperatuurverloop op aarde vééél beter overkomt met een model dat alle veranderingen correleert aan de activiteit van de zon)
Roadrunner zal zich onder andere bezighouden met de simulatie van nucleaire explosies. Experts wijzen er op dat men er misschien goed aan zal doen een kerncentrale te reserveren voor het leveren van energie aan de supercomputer.
Ik denk dat het sleutelwoord SIMULATIE was ;)
Kan dat ding meteen voorspellen wat er gebeurt als zijn eigen stroomvoorziening een meltdown heeft :+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True