Nieuwe krachtigste supercomputer waarschijnlijk voor NASA

Naast de Amerikaanse marine heeft ook de ruimtevaartorganisatie NASA plannen om een krachtige supercomputer in gebruik te nemen. Er is gekozen voor een cluster van twintig SGI Altix-systemen, met elk 512 Itanium 2-processors van Intel aan boord. Op die manier zal de nieuwe supercomputer, Space Exploration Simulator genaamd, beschikken over liefst 10.240 processors. Hij zal worden ingezet voor simulatie en onderzoek met betrekking tot het heelal, de opwarming van de aarde en luchtvaart in het algemeen. Indien er tussen nu en over een paar maanden geen andere krachtigste supercomputer meer bijkomt, zal de Space Exploration Simulator de titel van krachtigste supercomputer ter wereld overnemen van de Earth Simulator van NEC, die het met 'slechts' 5120 processors moet doen.

NASA-logo (groter)De twintig geclusterde systemen zullen Linux gebruiken als besturingssysteem, wat een nieuwe overwinning betekent voor dit OS. Ook voor SGI als supercomputerbouwer en Intel als leverancier van cpu's is het een kleine overwinning, zeker nu de vermoedelijk krachtigste supercomputer ter wereld Itanium 2-processors zal gebruiken. De momenteel tweede krachtigste heeft ook al Itanium 2's aan boord. Volgens de NASA zal de beschikbare rekencapaciteit met een factor tien toenemen dankzij de nieuwe supercomputer, die deel uitmaakt van een 45 miljoen dollar kostend project om, verspreid over drie jaar, de computerinfrastructuur te verbeteren.

Door Steve Lersberghe

Nieuwsposter

28-07-2004 • 07:45

34

Bron: C|Net

Lees meer

Google gaat samenwerking met NASA aan
Google gaat samenwerking met NASA aan Nieuws van 29 september 2005

Reacties (34)

34
32
25
9
0
0
Wijzig sortering
Opmerkelijk dat ze voor de Itanium gaan, google heeft toendertijd juist niet gekozen voor de itanium vanwege de enorme energie rekening die daarmee gepaard zou gaan. http://www.tweakers.net/nieuws/23675/?highlight=amd+google
dan moet je dat wel goed lezen
Ondanks dat het de snelste processor op de markt is, gebruikt hij te veel elektriciteit. Google heeft nu een netwerk waarin 15.000 processors zijn verwerkt. Elke Itanium 2 verbruikt ongeveer 130 watt en in zo'n cluster zal dat leiden tot een enorme kostenpost. De software van Google schaalt heel goed over meerdere servers, waardoor Google niet zoekt naar de snelste processor, maar naar de meest efficiente.
het is bij google bedoeld voor software die heel goed over verschillende servers schaalt. Daarnaast is het een gedistribueerd cluster.

NASA heeft dat cluster op 1 plek bij elkaar staan en gaat simulaties draaien. Daarnaast zou het me niet veel verbazen als ze een eigen energie centrale op het terrein hebben staan.
Daarnaast zou het me niet veel verbazen als ze een eigen energie centrale op het terrein hebben staan.
Het zou me meer verbazen als ze er geen hadden, middelgrote fabrieken en kantoren (+2000 man) hebben meestal al een eigen wkc omdat ze anders het net te veel belasten, en het scheelt flink in de kosten.
En ik denk dat NASA niet afhankelijk wil zijn van het net want daar schuilt toch een serieus veiligheidsrisico in.
Anoniem: 65804 @ginamri28 juli 2004 09:47
Alles gaat naar Itanium. SGI heeft de hele MIPS-lijn laten vallen, SUN z'n nieuwe SPARC CPU gaat ook niet door, dus dat zal ook wel Itanium worden.

Dan heb je de twee grootste partijen wel zo'n beetje gehad. De derde partij is IBM met z'n SP systemen welke nog wel op eigen CPUs draaien. Vraag is: hoe lang nog
Anoniem: 116213 28 juli 2004 09:21
Hij zal worden ingezet voor simulatie en onderzoek met betrekking tot het heelal, de opwarming van de aarde en luchtvaart in het algemeen.
Met 10.240 processoren zal er aardig worden meegedaan aan het opwarmen :+
Het lijkt er op dat SGI zijn aandacht aan het verplaatsen is van grafische werkstations naar supercomputers. De markt van grafische powerhouses is ook niet meer zo interessant nu snelle 3D kaarten voor weinig op de markt verschijnen.
SGI zit toch al enige jaren in de superz.
Kijk maar eens hoe oud Teras is bij SARA in ons eigen kikkerlandje en dan maar eens searchen op dat processor type dat daar in gebruikt is.
Dit is echt niet iets van het laatste jaar ofzo ;)
ja maar toen waren ze ook de eigenaar van CRAY. En die is al weer lang verkocht. DUs leek het er op dat ze weer terug wilden naar hun roots.

Maar in de grafische wereld is nix meer te verdienen, relatief dan. De Wintel dozen zijn nu zo krachtig dat er geen voordeel meer is voor een andere oplossing.
Anoniem: 65804 @boner28 juli 2004 09:44
CRAY hebben ze toendertijd gekocht voor de CRAYlink (tegenwoordig NUMAlink genoemd) technologie, en zaken als TSM. Ze hebben CRAY gekocht, de technologien gejat en CRAY weer weggeschopt. Niet heel netjes van ze, maar ja, zo gaat dat in die wereld
Maar echt dominant zijn ze in die markt ook niet:

http://www.top500.org/list/2004/06/

Het leek er op dat SGI het niet zou gaan redden, maar deze deal met NASA zet ze weer (even) op de kaart. Ik vraag me af wat er nu met IRIX en de MIPS processoren gaat gebeuren nu dit soort machines Linux op Itaniums draaien.
De MIPS processoren zijn al weer enige jaren verschoven van de desktop computer markt naar de games console markt. In de Sony Playstations zitten MIPS processoren.

Dus zo lang Sony backwards compatibility in z'n consoles bouwt zal de MIPS processor blijven bestaan.
Anoniem: 61096 @rev28 juli 2004 10:47
Voor backward compatibility heeft sony geen MIPS processor nodig. Een processor die krachtig genoeg is om de MIPS proc uit de Playstations te emuleren kan ook.
En al veel eerder. Er hebben diverse CRAY systemen gestaan, IBM SP en inderdaad meerdere SGI systemen (Origin 2000, Origin 3800 en nu een ALTIX).

SGI probeert met de Onyx4 weer een beetje terug te komen in de high-end grafische markt. De vraag is of dat gaat lukken. De grafische werkstation-markt hebben ze denk ik eigenlijk al verloren (Ik vind die Tezro van ze zo lelijk he :))
Ik vraag me serieus af wanneer Microsoft nou eens gaat beginnen met OS'en die efficient geclusterd kunnen worden. Niet dat ze dan kunnen 'winnen' van de UNIX-systemen aangezien die systemen van Microsoft dan geld zouden kosten, maar is het geen leuke uitdaging?

Als men bij Microsoft het WEL gratis (bijv. GPL?) zou verspreiden, dan zou Microsoft in een beter daglicht komen te staan, lijkt me. Moeten ze eens over nadenken, denk ik.
MS typen zijn het typen mensen die een totaal tegenstaand beeld hebben van GPL. i.a.w. ze willen hun daar nooit aan mee werken, omdat ze dan denken/gokken dat andere bedrijven er met hun source code van door kunnen gaan.

MS is wel van plan Windows HPC in elkaar te frutselen. Een cluster optimized versie van Windows voor het betere rekenwerk en waarschijnlijk een dikke support/integratie van de nodige MS producten en hopelijk/snel en dynamisch cpu power verspreiding van rekenopdrachten vanuit normale desktops/terminals, zoals render jobs voor 3D teken technieken of video bewerking.
Dat lijken me erg goede afzetmarkten, zeker als dat ook leuk werkt met een klein rackje van servers. Dan kan je als MKB-er of afdelings-dude ook je eigen mini-render farm opzetten voor jou en je collegue zonder 20 extreme workstations neer te moeten zetten.

Ik zie daar wel toekomst in. Ik hoop dat MS niet de illusie heeft om met Windows HPC de Unix achtige super computers te evenaren.
echter 3d software levert er meestal al goede distro software bij zodat MS z'n software niet eens nodig is. maar wat ik bijv. wel mis is voor linux de mogelijkheid om goed te renderen met windows software pakketten (buiten maya en pixar dan)

en zolang je voor linux/beowolf niets hoeft te betalen snap ik niet waarom men dure MS oplossingen zou willen. daar waar MS totaal geen ervaring in heeft en linux al jaren voor gebruikt wordt en zich onderhand ook al bewezen heeft
Het klinkt waarschijnlijk lekker interessant in de ogen van managers dat ze een Windows Cluster hebben dat volledig met het dagelijkse werk te integreren is :P

Ik weet niet of ik me dan moet voorstellen dat zo'n cluster de spellingscontrole afhandig kan maken van mijn terminal :D

Linux/Windows integratie schiet al aardig op, maar qua rekenopdrachten doorgeven is het nogsteeds twee compleet gescheiden werelden die constant als een hemellichaam langs elkaar heen blijven draaien in een elips. Zo komen naar elkaar toe ... ze gaan van elkaar af ... <repeat>
maar is het geen leuke uitdaging?
Ik denk niet dat MS echt op een uitdaging zit te wachten, ze willen gewoon zeker weten dat ze met een product geld kunnen verdienen.
wanneer Microsoft nou eens gaat beginnen met OS'en
Microsoft heeft echt goede programmeurs in dienst, al heeft het de schijn vanwege alle instabiliteits- en veiligheidsproblemen tegen zich. Microsoft mist gewoon de ervaring om een OS te bouwen voor duizenden processoren, en als ze zich er aan wagen ben ik benieuwd of het wel rendabel is; hoeveel moet dat OS wel niet gaan kosten als het op 5 systemen per jaar zal worden geinstalleerd ???
ik vind het altijd leuk om hier wat aan te rekenen, even voor de vuist weg:
het ding kost 45 miljoen dollar. Stel, hij gaat 9 jaar mee bij NASA (eerst als top-of-the-bill machine, in het laatste jaar als caching proxy server of weet ik veel :)). Dat betekent elk jaar 5 miljoen dollar, dat kost elke dag zo'n 13.700 dollar. Hoe hou je zo´n ding bezig? Staat dat ding echt elke seconde te rekenen voor zijn geld of zijn er wel eens van die "oeps....die machine heeft niets te doen, uh oh, dat is al 3 dagen zo....." :z
Ik denk meer het omgekeerde, afdelingen die vechten om processortijd. Ik denk dat heel strak ingeroosterd wordt.
Het is idd meer zoals je ook ziet bij bijv. de Hubble: stel eerst maar eens een gedegen onderzoeksplan op, en kom dan bedelen op een share van de rekenkracht ;) Dat moet je dus inderdaad aanvragen en misschien krijg je het dan wel.
Nu nog UD-grid erop installeren... :+
Anoniem: 84698 28 juli 2004 08:56
Ik ben ook wel benieuwd hoeveel ruimte dit alles in beslag neemt. En hoeveel ampjes deze systemen trekken.

Het is toch wel leuk speelgoed :P
Anoniem: 117091 29 juli 2004 11:44
offtopic:
Hoelang duurt het om met zo'n cluster bv. een paswoord te bruteforcen?
0.090867166799 seconden (bij benadering ;))
Anoniem: 86857 29 juli 2004 15:01
offtopic: Alweer een nieuwe schaakcomputer :P

Anyway, hoe lang heeft zo'n ding nodig om een 2048-bit public key te kraken?

Op dit item kan niet meer gereageerd worden.