Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 86 reacties
Bron: Linux Magazine

De Amerikaanse ruimtevaartorganisatie Nasa gaat in augustus een SGI Altix-supercomputer in gebruik nemen. De Altix wordt voorzien van 1024 Intel dualcore Itanium 2-cpu's.

De supercomputer is bedoeld voor high performance computing en moet de bestaande Columbia-hpc-hardware gaan vervangen. De 2048 cores kunnen in totaal 4TB aan werkgeheugen aanroepen. De Altix draait op een enkele Linux-versie en heeft een rekenkracht van 13,1 teraflops. Daarmee is de supercomputer de snelste Linux single system image (ssi) ter wereld. Door het gebruik van de ssi-architectuur kan de supercomputer al zijn rekenkracht en geheugenruimte benutten voor het uitvoeren van een enkele taak, maar kunnen berekeningen ook efficiŽnt in delen opgesplitst worden. De Nasa heeft ook een SGI Infinite Storage 10000-opslagsysteem aangeschaft, met een totale capaciteit van 240TB. De ruimtevaartorganisatie gebruikt de rekenkracht van de Altix onder andere om nieuwe ruimteschepen te ontwerpen, klimaatmodellen na te rekenen en natuurkundige vraagstukken op te lossen.

Supercomputer in Nasa-rekencentrum
Moderatie-faq Wijzig weergave

Reacties (86)

Pff over overbodig gesproken... In 1969 vlogen ze nog naar de maan met de rekenkracht van een 386. Naar Mars moet dus best kunnen lukken met een 486. Gewoon een beetje optimaliseren hier en daar :)
Het gaat ook niet om het besturen van een shuttle ofzo, daar is geen 13 teraflops voor nodig. Maar het uitrekenen van klimaatmodellen, en het oplossen van natuurkundige vraagstukken, dat is een ander verhaal!
Zoals in het verhaal staat gaat het inderdaad niet om het besturen van de shuttle, maar om het ontwerpen van nieuwe ruimteschepen...
volgens mij deden ze dat in 1969 grotendeels met rekenlinealen...

Maarja... probeer nu nog maar iemand te vinden die die kunst beheert!
Het gaat niet zozeer om de rekenlinialen. Daar kunnen ze het nog steeds mee maar nu gaat het een factor vele malen sneller + dat ze vele andere onstabiliteiten kunnen mee berekenen.

Vergeet niet dat je zomaar even bij NASA aan de aanslag kunt gaan, dan moet je toch wel van hele goeie huizen komen ;) En computers zijn en blijven nog steeds nuttige hulpmiddelen, niet meer niet minder, wat ons in staat stelt dingen te doen die anders niet kunnen, ondanks dat we er ook spellen mee kunnen spelen of betalen :)

De meer geavanceerde vliegtuigen kunnen niet eens meer zonder computers vliegen dus feitelijk kun je zeggen dat we niet meer zonder kunnen, ondanks dat velen toch die liniaal techniek beheersen ;)
"Vergeet niet dat je zomaar even bij NASA aan de aanslag kunt gaan, dan moet je toch wel van hele goeie huizen komen"

NASA is niet meer wat het was.

De probe die ze gestuurd hadden om solar flare deeltjes mee op te scheppen is ter aarde gestort door een absurde design fout.

De probes van vroeger (sommige sturen nog steeds data en zijn verder weg van de aarde dan welke man made probe dan ook) hebben een uitstekend track record.
Maar de NASA vandaag haalt het in z'n hoofd Java te draaien op een Mars probe? Absurd.

Was dat ding nog bijna onbereikbaar geworden omdat een Java app was gecrasht.

@Horemheb:

Ja, dat is inderdaad een probleem, kosten. De visie van NASA is er ook echter niet beter op geworden.

Als chips krachtig genoeg zijn om de nadelen van Java op te vangen moet je eens zien wat ze kunnen met pure Assembly.

[Reactie gewijzigd door Teddy Rukspin op 23 juli 2007 20:00]

De probe die ze gestuurd hadden om solar flare deeltjes mee op te scheppen is ter aarde gestort door een absurde design fout.
't is ook niet bepaald rocket science...
Er draait geen Java op ruimtesondes. De software om ze te besturen is in Java geschreven en dat gebeurt omdat men binnen NASA veel verschillende platformen gebruikt, zoals Linux, Solaris en Windows. Die software heet Maestro en kan je zo downloaden en op je eigen PC installeren mocht je het eens willen bekijken.

De meeste ruimtesondes die de afgelopen jaren zijn gelanceerd draaien VxWorks. Als computer wordt een voor ruimtevaart gecerticifeerde computer gebruikt met een 250 MHz PowerPC. Tegenwoordig werkt men vaak met Flashgeheugen (Cassini, Mars Rovers), oudere sondes gebruiken bandrecorders.

[Reactie gewijzigd door dmantione op 24 juli 2007 09:50]

vergeet de gecrashte marssonde niet die op de oppervlakte van mars te pletter is geslagen omdat ze het imperial en metrische systeem door elkaar gehaald hadden...
Tja, Java het taaltje van de jeugd... Alle embeded systemen wil men op Java zetten, but why ??
Omdat een goede java programmeur nu eenmaal makkelijker te vinden is dan een goede C / assembler programmeur. Bovendien is java productiever dan C om in te werken. En de chips in embeded systemen worden stilletjesaan krachtig genoeg om de nadelen van java op te vangen.
Bij de NASA zullen ze ook wel het rekensommetje gemaakt ivm de kostprijs van Java vs traditionele embeded development.
Zodat men lekker op een fancy PC met Vista en 4Gig kan developpen want java is cross platform, dus dan draait het ook op een 266Mhz arm9 met 64Mb geheugen... Right....
Rekenlinealen, geweldige dingen. Hoeveel raketten en shuttles zijn er ook alweer uit elkaar gespat/ontploft?

De nadruk ligt de laatste tijd op veiligheid en je kunt dus wel met rekenlinealen beginnen, maar als je het daarna nog even kan doorrekenen/simuleren ipv een echte te bouwen, is dat wel een voordeel. Scheelt een paar miljard die ontploft omdat iemand verkeerd gekeken had.

Zo nutteloos is het dus helemaal niet.
je weet toch dat de meeste raketten/shuttles uit elkaar spatten door computer afrondfouten?
delicate zaken als ruimtevaart hebben aan double precision niet genoeg maar daar wordt bij het softwareontwerp te weinig rekening mee gehouden.

en dan komt de narigheid ...
Wat een onzin. Een afrondingsfout wordt pas dramatisch als ze te groot is, en het mooie is dat men precies kan inschatten tussen welke marges een afrondingsfout zal liggen bij een computer, zolang die afrondingsfout niet te groot is zal men geen probleem hebben.

En je moet ook nog eens rekening houden met het feit dat men geen shuttle maakt die bv net de kracht kan verdragen die op de shuttle zal plaatsgrijpen, men neemt vaak gigantische veiligheidsgrenzen. Een lift in een flatgebouw kan ook stukken meer gewicht dragen dan op het veiligheidsbordje staat.

Dus tenzij je afrondingsfouten boven de 10-20% uitkomen van je uitkomst zie ik echt geen probleem.

[Reactie gewijzigd door Shoq op 23 juli 2007 19:18]

je weet toch dat de meeste raketten/shuttles uit elkaar spatten door computer afrondfouten?

Er is welgeteld 1 raket ontploft door een afrondfout: de Ariane 5 die op deze pagina genoemd staat.
je weet toch dat de meeste raketten/shuttles uit elkaar spatten door computer afrondfouten?
Er wordt weer lekker van alles geroepen op T.net waarvan de helft is gefantaseerd en de rest gewoon fout.

Er is eens een shutle (chalenger?) geexplodeerd doordat de zogenaamde o-ringen stuk waren gegaan omdat deze werden gebruikt buiten de toegestande specificaties. De manager wist dat, maar door druk van buiten af gaf die toch zijn goedkeuring (uitstel is duur). Nasa was hier gedeeltelijk zelf verantwoordelijk voor door de extern ingehuurde bedrijven onder druk te zetten.

Er is eens wat neergestort omdat er een stuk schuim was losgekomen en op een zwakke plek in de bocht van de vleuger kwam. De vleugel was wel bestand tegen dergelijke borkstukken, maar toevallig even niet op die plek.

De Ariane 5 had een fout in de software waarbij een 64bit float werd omgezet in een 16 bit signed integer. Dat is dus geen normale afrondingsfout (welke elke processor heeft) maar een hele domme programmer fout.

Er is ook eens wat neergestort doordat iemand wat eenheden door elkaar had gehaald (meter -> miles ofzo?).

Volgens mij zijn de menselijke fouten echt veel vaker de oorzaak van problemen dan afroundingsfouten. Anders moet je even een rijtje voorbeelden geven :).

[Reactie gewijzigd door fietspomp op 23 juli 2007 23:26]

onzin, de challenger knalde uit elkaar dankzij het weer (te koud voor een bepaald ringetje) en de meer recente ramp had te maken met tegeltjes ofzoiets.
meestal is het ook een aaneenschakeling van kleine fouten die tot zo'n ontploffing leiden.... er zijn altijd foutjes maar die worden niet altijd gezien (ook niet met een computer).
en vaak is de mens toch de grootste foutenmaker. er was eens een raket ontploft omdat die dacht met meters te rekenen en alles was in 'feet' aangegeven :z
het is allemaal ook wel wat ge"optimaliseerder zo onderhand en niet meer vergelijkbaar met toen de tijd...
Nou, het ontwerp van die shuttles waar ze nog steeds mee vliegen stammen eigenlijk nog uit de jaren 70 hoor.
Ja.
En om sneller een oplossing te vinden voor de volgende Appollo 13 lancering :+
Een 386 bestond toen niet eens. Ze deden het met nog veel minder aan cpu-power. :)
Een 386 bestond toen niet eens. Ze deden het met nog veel minder aan cpu-power.
Dat zegt hij toch ook niet. Hij zegt dat de rekenkracht van de computers waar de NASA in 1969 mee werkten, VERGELIJKBAAR is met de rekenkracht van een 386 microprocessor. Microprocessor's had je in 1969 nog niet, de eerste microprocessor stamt uit 1971. Voor die tijd bestonden CPU's uit meerdere componenten, vaak met een totale omvang van een twee meter hoge kast.

1968
A two-ton, three-foot high, 21-foot diameter, IBM-assembled Instrument Unit guides the Apollo 8 astronauts in the first manned circumlunar flight. IBM computers in Houston monitor almost every phase of the mission, including the heartbeats of the astronauts. The computers, five System/360 Model 75s at the Manned Spacecraft Center, work in real-time — so fast there is virtually no time between receiving and solving an Apollo computing problem.

NASA delves deeper into theoretical space exploration, becoming the first customer to receive an IBM System/360 Model 91.

The computer, the fastest, most powerful ever put into user operation, is used for deep space simulations.


http://www-03.ibm.com/ibm...ame/mainframe_PP2075.html
http://www-03.ibm.com/ibm...ce/space_chronology2.html

Het gaat hier dus om een IBM System/360 model 75 mainframe uit 1965, de CPU heeft een rekenkracht te vergelijken met een Intel386. En ze gebruikten er 5......
Als ik dat zo zie zou "386 nivo" nog wel eens aan de hoge kant geschat kunnen zijn.

In ieder geval, interesanter is wat ze aan boord hadden. categorie sinclair ZX81 dacht ik zo :)

edit: @SCRAP. Er is geen verband tussen de AGC en de ZX81. Ik schatte alleen het prestatie nivo ongeveer gelijk in. Bij nader inzien denk ik trouwens dat de ZX81 behoorlijk sneller was, maar het blijft natuurlijk een moeilijk zaak om vergelijkingen te gaan trekken tussen dermate verschillende systemen.

[Reactie gewijzigd door locke960 op 23 juli 2007 23:27]

Dat is geen schatting maar een simpele vergelijking van de rekenkracht. Zo'n System/360 kon minstens 1 miljoen instructies per seconde verwerken, 1 MIPS dus. Erg veel voor die tijd. Ook beschikt hij over een floating point unit, iets wat de 386 niet had.

Microprocessors, pc's, Intel/AMD huis tuin en keuken computers lopen nou eenmaal 20 jaar achter op mainframes/supercomputers qua rekenkracht. Dat was in 1985 zo, ten tijde van de 386, maar dat geldt voor vandaag de dag nog steeds, min of meer.

Gekoppeld aan de IBM Data Cell, kon de S/360 tot 3GB aan informatie opslaan. 1 Data-Cell kon tot 400MB opslaan, echter konden er 8 stuks aangekoppeld worden. Dat zag je je 386 in 1985 nog niet doen.

http://www.columbia.edu/acis/history/36091.html
http://www.columbia.edu/acis/history/datacell.html

Het verband tussen de Apollo Guidance Computer en de Sinclair ZX81 is me niet helemaal duidelijk, sorrie.
Ook beschikt hij over een floating point unit, iets wat de 386 niet had.


De 386DX (zeker in combinatie met de 80387DX co-processor) Had toch wel een FPU?
De 386DX dus niet, de 80387 wŠs juist de co-pro. (SX was 16-bits bus ipv 32)
Zelfde verhaal bij een 80286 en 80287, en zelfs de XT.

Bij de 486 begon het verschil tussen SX en DX voor wat betreft de co-pro. (SX zonder, DX met)
Commodore64 zit/zat erin :)
ze willen bij voorkeur ook nog terug...
om naar de maan te gaan zijn er vele testvluhten geweest voordat ze naar beneden gingen. Met mars is dat iets lastiger en daarom moet dat allemaal worden gesimuleerd. Ook is de reistijd dusdanig lang dat de kans om problemen onderweg op te lopen nogal hoog is vergeleken met de maan.

Oh ja, de maan was tijdens de koude oorlog dus was het risico eenvoudiger te nemen....
optimaliseren? heel niet nodig. gebruik de Turbo knop van je 386 ;)
Heeft de Itanium nu nog zoveel voordeel ten opzichte van een 'gewone' Core 2 Duo?

Ik volg de ontwikkelingen de laatste jaren niet zo heel erg meer.. maar dat ding stond toch bekend als de 'Itanic'? ;)

Zijn deze nieuwe generaties wel hun geld/energieverbruik waard? :)
Jazeker, maar alleen als Super-computer processoren, er wordt zelfs steeds meer geld in de processors gepompt, en het aantal super-computers en high-end server met een itanium groeit gestaag! :) Itaniums hebben een steeds groter stuk van die taart!
Een IBM Mainframe lijkt me efficiŽnter.
De Nasa dacht van niet. Maar goed, die hebben er ook geen verstand van :+
Nou dat zal je eens tegenvallen en het zijn ook geen rekenmonsters. Het zijn pakpaarden dus veel data in kortre tijd maar geen supercomputers. Daar missen ze rekenkracht voor.
Was er niet een maand geleden ofzo artikel ergens dat onderzoekers met gewone hardware een supercomputer hadden kunnen maken door gewoon door de gpu van de grafische kaart (GeForce 8800 dacht ik) te optimaliseren? Hun computer was even krachtig als een super computer. Is dat dan geen betere optie?
Een moderne GPU heeft wel veel floating-point rekenkracht, maar ondersteunt meestal niet IEEE754 double-precision FP berekeningen. Ook is de rekenkracht van een GPU niet gratis, die vreten ook een boel stroom, en zijn minder breed inzetbaar dan een CPU. Denk bijvoorbeeld aan integerberekeningen, waarvoor een GPU minder geoptimaliseerd is.
toch zou je voor die berekeningen een gpu aan het werk kunnen zetten ( 500 gigaflops met een 8800 is toch lekker) en qua stroomverbruik och die 150 (?) watt maken niet veel uit hoor als je 20 van die beestjes mee laat rekenen voor de berekeningen waar ze goed in zijn lijkt me dat heel voordelig...
lijkt me alleen lastig de gpu's de floating points toe te sturen en de cpu's de rest ... maar daar vinden ze vast wel iets op...
OHw, dan moet er wel een linux driver komen voor de 8800 he :) en euh, ohja, ik hoor geluiden dat er nog een aantal bugs zitten in de 8800
voor bepaalde berekeningen wel, maar naar wat ik begrijp is dat niet het geval voor alle berekeningen.
[edit]
Ok, ik was weer eens laat :+

[Reactie gewijzigd door MetaFrame op 23 juli 2007 18:01]

En binnen 10 jaar is dat het rekenkracht van een standaard pc.
Dat lijkt me wel een beetje sterk.
Tien jaar geleden zaten we met P2 300Mhz, nu met Q6600 2,4Ghz. Dat is maar 4x zoveel cores, niet 512 x.
4x zoveel cores is dus niet 4x zoveel rekencapaciteit.

Als jij de rekenkracht van een P2-300 naast een Q6600 op 2.4Ghz zet dan zal je zien dat die P2-300 toch echt wel een flink grotere factor als x4 verschilt :)

Dus .... over 10 jaar is van alles mogelijk, best kans dat een normale pc of in ieder geval een high end systeem de rekenkracht van een huidige supercomputer benaderd of evenaard.
elke 24 maanden, 10 jaar = 5 periodes = 2^5 = 32 en niet 512.

Een huidige computer is volgens mij best wel 32 keer zo snel als die bakken van 10 jaar geleden (mits je hetzelfde OS en software draait, niet windows 3.0 met windows Vista vergelijken, daaruit blijft alleen dat Microsoft verwacht dat Moore's Law inderdaad per 12 maanden is, elke release (3jaar) ongeveer 8 keer zo traag op dezelfde hardware).
Sorry, Windows vista is in extreme gevallen misschien 20% langzamer
(bron: http://www.tomshardware.c...29/xp-vs-vista/page6.html )
(even OpenGL niet mee gerekend omdat er op 29-01-2007 nog geen goede OpenGL drivers waren)

Maar over het algemeen scheelt het maar een procentje of 3.

Dat is dus bij lange na niet de 800% die jij beweert ;)

En je krijgt er heel wat voor terug! Stabieler, veiliger, mooier (tsja niet onbelangrijk) en op sommige punten gewoon een veel logischer systeem. :)

Conclusie: je hebt geen gelijk! :)
Vroeger, op een P2 300 MHz draaide windows 3.0 vreselijk snel. Met de een modale moderne PC kun je Vista amper draaien. Hoezo heb ik dan geen gelijk ?
Als 10 jaar geleden die p2 300 windows 95/98 zou hebben gedraait (die nog aardig nieuw waren) zou die pc het niet erg snel hebben gedaan... (niet zo snel als windows 3.0)

net als ik over 10 jaar ga zeggen dat XP het beter doet dan windows nr. 12/13 op een AMD 3000+
En weer gaan we in de fout. Moore's Law gaat niet over de snelheid van een processor maar over het aantal transistoren op die processor.

Er bestaat geen directe relatie tussen aantal transistoren en snelheid van een processor. Je houdt bvb helemaal geen rekening met 1 van de belangerijkste factoren voor snelheid van een processor: de kloksnelheid. Een huidige processor is voor welbepaalde toepassingen best wel een paar 100 keer zo snel als een pc van 10 jaar terug. Vergelijk eens de MIPS en GFLOPS van beide processoren.
Een Pentium 2 heeft zo'n 7,5 miljoen transistors, en een Q6600 heeft er 582 miljoen. Daarbij komt nog dat de nieuwe processoren efficienter zijn, dus die 512x klopt aardig lijkt mij. :o
lijkt me niet, of we willen zoveel cpu's in een pc bakken maar verder ontwikkelen en sneller maken van een cpu zit er niet zo veel meer in aangezien we bijna niet kleiner kunnen. De snelste groei is er wel uit en we zullen nu met meerdere cpu's moeten gaan werken en zoveel als er daar staan gaan niet in mijn midi tower passen :P
Ik wil je over 10 jaar nog wel eens horen :)
Waarom zouden de afgelopen 50 jaar computers met Moore's law steeds sneller worden en nu ineens niet meer?
UIt http://en.wikipedia.org/w...e%27s_Law&oldid=145303799
Moore's Law is the empirical observation made in 1965 that the number of transistors on an integrated circuit for minimum component cost doubles every 24 months.
Moore's law is geen echte wet en heeft bovendien ook niks te maken met de snelheid van computers.
Ik zeg ook niet dat het een wet is, ik refereer slechts naar het begrip Moore's law. Verder is het inderdaad origineel opgesteld mbt. transistoraantallen maar het is op veel meer begrippen toepasbaar, oa. ook op processing-power (wellicht met een iets andere curve)
Er zijn ontzettend veel groeiprocessen die exponentieel zijn, maar das nog geen reden om meteen Moore's law erbij te halen.
En weer wil ik je verbeteren op de inhoud van Moore's law:
..... the number of transistors on an integrated circuit for minimum component cost doubles every 24 months.
En niet puur het aantal transistoren. Een significant verschil.
10 jaar geleden draaien PC's op Pentium II procs rond de 266mhz.... die dingen doen ruwweg 300megaflops, een beetje pc van tegen woordig haalt 40gigaflops(C2D) da's een factor 133 sneller...trek je die lijn door zou je op 5,3 teraflops uit komen.....

De snelheid van pc's is aan het afvlakken though, sneller cpu;s maken plaats voor snellere dedicated hardware zoals videokaarten, physx kaarten en chipsets die zelf hardwarematig de LAN verbinding afhandelen of interrupts naar 't filo I/O regelen....

Qua snelheid is het maar marginaal toegenomen sinds de eerste dual cores de kop op staken....

[Reactie gewijzigd door Rey Nemaattori op 23 juli 2007 19:01]

Da's wel een goede impuls voor SGI... ik meen mij te herinneren dat het bedrijf op stervens na dood was....

nieuws: Vernieuwd SGI herrijst uit de as

[Reactie gewijzigd door -krekel- op 23 juli 2007 17:19]

Pff over overbodig gesproken... In 1969 vlogen ze nog naar de maan met de rekenkracht van een 386. Naar Mars moet dus best kunnen lukken met een 486. Gewoon een beetje optimaliseren hier en daar
Probleem is dat NASA alles tegenwoordig zo veilig wil hebben, public opinion is a bitch. Dus zijn ze een eeuwigheid bezig met bouwen ipv oldskool beunen en maar hopen dat het heel blijft :P ;)
Daarom gaan ze helemaal niet meer naar de maan of naar mars. Ze renderen gewoon een landing. Superveilig en daar is dit beestje natuurlijk erg geschikt voor!
Nee, misschien wel binnen 50 jaar :)
waar ik trouwens nooit meer van gehoord heb is het NASA reliability programma

daarin zou er onderzoek gedaan worden naar computers die maar eens in de zoveel jaar crashen, ultra betrouwbaar was het streven

weet iemand daar (nog) iets over?
Ik vraag me af als we eenmaal een kwantum computer hebben of we dan nog steeds van dit soort foto's hebben bij een datacenter...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True