Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 26 reacties
Bron: BetaNews, submitter: Remco Kramer

De Amerikaanse NSF heeft de bouw van een supercomputer voor DARPA uitbesteed aan het NCSA en IBM. Die twee partijen zullen voor 208 miljoen dollar bij de universiteit van Illinois een cluster bouwen dat de petaflopsgrens moet doorbreken.

IBM BlueGene/LInmiddels wordt er al zeker zes jaar gesproken over het bouwen van een supercomputer die de 1PFlops-grens doorbeekt. Het computergrid van de NSF, Blue Waters genaamd, moet deze grens doorbreken en de snelste supercomputer ter wereld worden. Of dat lukt is echter nog maar de vraag, aangezien het rekenwonder niet de enige is in de race naar deze magische grens: minstens drie andere teams zijn al op jacht naar dat record. Zo sleepten IBM en AMD in september vorig jaar het contract van het Amerikaanse Department of Energy binnen om Road Runner te bouwen: een supercomputer met AMD Opteron- en IBM Cell BE-processors die 1,6 petaflops als doel heeft.

Sun bouwt voorlopig aan de snelste supercomputer, een Constellation-configuratie. Dit grid moet bij voltooiing 1,7 petaflops beschikbaar stellen aan het Texas Advanced Computing Center. Verder bouwt Cray aan een 200 miljoen dollar kostende petaflopscomputer voor het Oak Ridge National Laboratory van het Amerikaanse Ministerie van Energie. Die supercomputer moet volgend jaar opgeleverd worden, waarmee hij meteen de grootste kanshebber is om de strijd om het doorbreken van de de petaflopsbarrière te winnen. De snelste supercomputer van dit moment is de BlueGene/L, die 280 teraflops aan rekenkracht heeft. De opvolger van dat systeem is de BlueGene/P die volgens IBM schaalbaar is tot drie petaflops. Zelfs die machine wordt in de schaduw gesteld door BlueGene/Q, die tot 10Pflops zou moeten schalen. Wanneer die grens doorbroken zal worden, is echter nog in nevelen gehuld.

Moderatie-faq Wijzig weergave

Reacties (26)

volgens mijn klein verschi; in peta computer en peta cluster..
Anders ken je die PS3's die op F@H zitten ook wel mee tellen die zitten met zijn alen ook al over de peta denk ik momenteel.
Een kluster PS3's Petaflop computer ?...
Vraag mij af wat wij met ons DPC team neer zetten kwa flopjes.
http://www.worldcommunitygrid.org/index.jsp
Oh en dat kost ook geen 200mil :P

[Reactie gewijzigd door warmonger op 10 augustus 2007 12:58]

Nee hoor, F@H zit nog niet boven een peta.
De statistieken kan je hier bekijken:
http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats

Indien iedereen zijn ps3/pc nu en dan eens zou laten folden, dan zou dit wel het geval zijn, maar helaas is dat niet zo.

Bovendien is er imho nog een verschil tussen een grid zoals F@H en een supercomputer zoals BlueGene.

[Reactie gewijzigd door AOC_Popo op 10 augustus 2007 12:58]

F@H is al over de petaflops heen gegaan, maar is inmiddels weer teruggezakt.
Idd, dat was voornamenlijk dankzij zo'n 30.000 PS3's. Als we ff rekenen komt dta op zo'n 18 miljoen euro (bij 600 per ps3).
Ik kan me voorstellen dat 30.000 playstations niet super-handig is in je super-computing center, maar hoe komen ze in hemelsnaam aan de 210 miljoen voor dat ibm-geval als je dezelfde petaflop met de PS3 oplossing voor een tiende van de prijs kunt krijgen?
Omdat er bij een beetje supercomputer veel meer speelt dan alleen maar CPU-kracht. Zo moeten je 30.000 PS3's met elkaar gaan communiceren, misschien wel met een paar duizend tegelijkertijd, en dan ook nog graag op hoge snelheid. Dat ga je niet redden met je gigabit netwerkje.

F@H heeft het relatief gemakkelijk in dat het erom gaat heeeeel veeel dezelfde soort sommetjes te doen die allemaal op zich zelf staand uit te rekenen zijn. Er is dus nauwelijks contact met een server nodig. Vaak runnen op supercomputers applicaties waarbij het probleem niet opgedeeld kan worden in tig losse problemen, en is er dus veel onderlinge communicatie nodig om de tussenresultaten van berekeningen aan elkaar door te geven. Dat vereist een aangepast infrastructuur, en daarom zijn supercomputers (relatief) duur.
Tweakers had het bij het verkeerde eind.
Dat was het resultaat van een fout in de verwerking van de statistieken, veroorzaakt door serverproblemen, waardoor er een piek was. In werkelijkheid is F@H nooit over de petaflops gegaan.
Dat staat in de reacties op het aangehaalde artikel te lezen, en ook op het F@H forum.
Al die supercomputers zijn in weze clusters, meestal gebouwd met 19" racks en bestaan uit vele talloze kleinere componenten, voornamelijk blades. De supercomputer definitie is volgens mij simpelweg dat 'de' computer in één ruimte moet staan.
208 miljoen dollar...wow.

Als je van de geruchten vanuit gaat en zegt dat een 9800gtx 1 TFlop haalt en het rond de 600$ zal kosten. Dan zit je met 1000 van die kaarten aan 600.000$ om theoretisch 1PFlop te halen. Je krijgt er ook 1gb GDDR4 512-bit bij dus op dat vlak zit je ook goed. Laten we dan zeggen dat je er max 10.000.000$ bijgooit om het hele boeltje draaiend te krijge als 1 grote cluster. Dan zit je nog steeds aan 10.600.000$, wat een enorme verschil is van 197.400.000$.

Ik denk dat het term "super computer" echt verouderd is aan het worden. Tegenwoordig kan je voor veel minder, mainstream hardware gebruiken om zo'n super computertje in elkaar te steken ipv miljoenen te zitten weggooien voor een reden dat vrijwel waardeloos is.

[Reactie gewijzigd door broli123 op 10 augustus 2007 13:26]

Ik denk dat het term "super computer" echt verouderd is aan het worden. Tegenwoordig kan je voor veel minder, mainstream hardware gebruiken om zo'n super computertje in elkaar te steken ipv miljoenen te zitten weggooien voor een reden dat vrijwel waardeloos is.
Veel mensen blijven zich vergissen in waar je een supercomputer voor gebruikt. Kijk eens bij: http://en.wikipedia.org/wiki/Embarrassingly_parallel
En klik na het lezen rustig even door naar het artikel over supercomputers. :)
Ik sprak niet over functionaliteit maar over het term. Wie zegt dat super computers alleen moeten bestaan uit blade servers die zo'n 20.000$ per node kosten. Terwijl je bv tegenwoordig clusters kan bouwen mbv ps3's of gpgpu videokaarten die je voor een fractie van het prijs kan aankopen.
Dan zit je met 1000 van die kaarten aan 600.000$ om theoretisch 1PFlop te halen
Met 1000 geclusterde kaartjes haal je wss zelfs de 0,4PFlop niet... ;)
The DARPMA Initiative? :')
Hebben ze daar te veel Lost zitten kijken ofzo?

Wat ik alleen niet snap is waarom de "Department of Energy" zoveel rekenkracht moet hebben. Ze hebben al de snelste supercomputer (BlueGene/L), en ze hebben twee >1Petaflop computers in aanbouw: AMD Opteron/IBM Cell systeem (RoadRunner) en het Cray systeem.

[Reactie gewijzigd door knirfie244 op 10 augustus 2007 13:27]

The United States Department of Energy (DOE) is Cabinet-level department of the United States government responsible for energy policy and nuclear safety. Its purview includes the nation's nuclear weapons program, nuclear reactor production for the United States Navy, energy conservation, energy-related research, radioactive waste disposal, and domestic energy production. DOE also sponsors more basic and applied scientific research than any other US federal agency, most of this is funded through its system of United States Department of Energy National Laboratories.

Bron: http://en.wikipedia.org/w...ates_Department_of_Energy
Ok nog leuk te weten wat ze onderzoeken :)

The Office of the Undersecretary also includes many of the DOE's applied energy research offices. The offices include

1. the Office of Energy Efficiency and Renewable Energy (EERE) which supports work in areas including fuel cells, advanced batteries for hybrid electric cars (FreedomCAR), and solar energy;
2. Fossil Energy, which supports work in areas like Solid oxide fuel cells (SOFC) and clean coal research;
3. Nuclear Engineering, supporting work in areas such as reactor design and nuclear safety;
4. the Office of Environmental Management;
5. the Office of Civilian Waste Management, which controls efforts to eliminate nuclear waste in commercial nuclear reactors and is in charge of the Yucca Mountain repository;
6. the Office of Legacy Management, and
7. the Office of Electricity Delivery and Electrical Reliability.

[Reactie gewijzigd door DavidAxe op 10 augustus 2007 13:56]

Zou toch een leuke grap wezen om 100,000 tweakers.net gebruikers zo gek te krijgen om al hun dual/quad computers allemaal mee te nemen naar één locatie en aan elkaar te koppelen en de gezamelijke computerkracht gebruiken om de petaflop nog dit jaar te doorbreken, en wel in Nederland }:O

Ik neem aan dat het supercomputer record alleen geld voor één locatie, anders was die petaflop volgens mij al lang behaald met al die PS3's+PC's in de @Home projecten.
Het is leuk dat het gehaald wordt, maar niet echt brekend nieuws. Processoren worden nog steeds sneller dus logischerwijs worden er (ook) op supercomputervlak steeds hogere prestaties neergezet. Het is meer een psychologische grens dan een technologische.

* PolarBear zal ik dan ook meteen een }:O grap maken? Dan hoeft dat ook niet meer gedaan te worden O-)
Het nut van deze supercomputers mis ik ook een beetje, zo is er 1 die de gevolgen van vervuiling van klimaat gebruikt. En dat terwijl die computer evenveel stroom gebruikt als een klein stadje.
Ik denk aan berekeningen waarbij bepaalde genmutaties sneller kunnen worden berekend om zo sneller medicijnen te kunnen ontwikkelen. Of om banen van planeten exact te kunnen berekenen.

Er zullen vast ook minder nobele doelen bestaan waarvoor dergelijke rekenkracht kan worden ingeschakeld, maargoed.
Een tijdje terug stond op Digg een artikel van de top 10 van supercomputers. De helft ervan werd gebruikt voor defensie (simuleren van nucleaire technologie,...)
klimaat berekenen, hmm ze kunnen amper een zomer voorspellen. Laat ze dat nu eens eerst onder de knie krijgen
Ben het opzich met PolarBear eens, zo schokkend is het niet dat deze dingen steeds harder gaan. Overigens is het dan wel weer intressant om deze ontwikkelingen naast die van normale systemen te zetten. Gezien deze snelheden d.m.v. schaalbaarheid worden behaald, lijkt me niet dat de ontwikkeling van super coomputers daadwerkelijk ook sneller gaat. Vraag me af of je daartussen een verband zou kunnen ontdekken ;) .

offtopic:
Inmiddels wordt er al zeker zes jaar gesproken over het bouwen van een supercomputer die de 1TFlops-grens doorbeekt.

Moest dit niet zijn:
die de 1PFlops-grens doorbeekt.
Dat alles sneller wordt is zeker maar het is wel een lastig verhaal om deze data effecient rond te sturen zowel hard als software matig via een grid. Er moet dan ook verder gekeken worden dan enkel de cpu en als je daarbij meedenkt is het toch wel een lastig verhaal om dit te ontwikkelen.
Wat ik trouwens interessant vindt, ik geloof dat Sun de enigste is die daadwerkelijk 1 geheel maakt terwijl de rest clusters zijn? Het zou wel eens leuk zijn om te weten hoe zij tegen dit project op kijkent ov andere partijen.
"TFLOPS is the actual teraflops from the software cores, not the peak values from CPU/GPU/PS3 specs"
Als ze die dus wel zouden gebruiken gaat met over de petaflops.
Deze heeren gaan ook uit van petaflop aan cpu's cores niet vanuit werkelijke prestaties :P
heeft voor chipbakkers het voordeel dat ze weer een bak geld kunnen investeren in onderzoek en dat kan voor ons uiteraard ook geen kwaad :)
"Pet Af Lop" is de juiste benaming, de term komt origineel uit de voetbalwereld.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True