Geschiedenis van de computer in de ruimtevaart

Iedereen kent wel het beeld van een sciencefictionserie met pratende computers die de moeilijkste berekeningen en ingewikkeldste data in enkele milliseconden uitrekenen en die aangedreven worden door ingewikkelde energiebronnen zoals warppower of ruimte-energiegolven. Zoals de naam van dit genre al aangeeft, is deze fictie sterrenstelsels verwijderd van hoe het in de huidige ruimte-expedities daadwerkelijk met de computerkracht gesteld is. Op het gebied van processors is het juist zo dat simpelheid wordt geprefereerd boven snelheid en rekenkracht. Om een raket recht de lucht in te krijgen is niet enorm veel rekenkracht nodig en de precieze baan is altijd nog bij te stellen wanneer deze in de lucht is. Hiervoor is het wel belangrijk dat de berekeningen enorm precies zijn, maar snelheid is geen probleem.

Bovendien moeten de computers enorme versnellingskrachten weerstaan; dit is makkelijker wanneer ze zo simpel mogelijk gehouden worden. Een aantal decennia na de eerste bemande ruimtevluchten zou men verwachten dat de gebruikte apparatuur enorm up to date zou moeten zijn. Niets is minder waar: de vandaag de dag gebruikte Orbiter heeft de beschikking over vier parallelle redundante IBM AP101S-computers, met een vijfde als onafhankelijke backup. Deze allroundcomputers worden al gebruikt sinds het begin van de jaren tachtig. Het nieuwe ruimtestation ISS maakt gebruik van een even zo moderne technologie en beschikt over een aantal “hypermoderne” 80-386SX processors. Dat er voor de berekeningen van de koers van het schip geen modernere apparatuur nodig is, wil niet zeggen dat er geen snellere apparaten aan boord zijn.

AP101S ruimte-CPU

De snellere computers aan boord worden meegebracht door de astronauten zelf: het zijn de laptops die zij onder andere gebruiken voor hun experimenten. Een aantal redenen om de boordcomputer niet up te graden zijn ten eerste het feit dat een upgrade niet nodig is: de oude computers doen nog prima hun werk. Bovendien hebben de nieuwere processors vele malen meer energie nodig dan hun oudere voorgangers, en energie is een schaars goed in de ruimte. Een derde punt is dat de oude rekenkernen minder warmte produceren en ook hier minder energie nodig hebben om deze warmte af te drijven. Ten slotte ondervinden de CPU’s last van de verhoogde straling in de ruimte in vergelijking met de straling op aarde. Hoe minder componenten een chip heeft, hoe minder last hij zal ondervinden van deze straling.

MarsDit is een extra reden om de chips zo simpel mogelijk te houden. Bipolaire transistors worden ook gebruikt in deze componenten, omdat zij beter bestand zijn tegen de straling. Een voorbeeld van deze verharde chips is te vinden in de Marsverkenners Spirit en Opportunity, die werkzaam zijn op de RAD6000, een verharde versie van IBM’s Power CPU. De derde verkenner Pathfinder maakt gebruikt van een verharde CMOS-versie van de Intel 8085. Voor wat betreft de dataopslag heeft de ruimtevaartindustrie de afgelopen jaren ook een beetje stil gezeten. In plaats van de op de grond gebruikte harde schijven, die niet werken in een vacuüm, maakt men buiten de dampkring nog gebruik van tapedrives.

In de nieuwe Cassini, die op dit moment rond Saturnus cirkelt, wordt echter gebruikgemaakt solid state recorders. Als werkgeheugen wordt magnetic core geheugen gebruikt, omdat dit bestand is tegen straling. Voor de toekomst is het echter nog maar de vraag of de trend van oude computers in de ruimte zal blijven voortbestaan. Veel individuen en bedrijven ontwikkelen ruimtecomputers die zijn opgebouwd uit hedendaagse hardware. Bij de satellieten Pong en Cube is gebleken dat deze moderne hardware beter bestand is tegen de ruimte-invloeden dan voorheen werd gedacht. Dit zou de deur kunnen openen tot een revolutie wat betreft het gebruik van moderne computers buiten de Aarde.

Door Tamara van Hal

Nieuwsposter

25-04-2005 • 10:53

73

Bron: Bit-tech.net

Reacties (73)

73
73
53
25
4
6
Wijzig sortering
De geschiedenis is niet volledig als, zoals in dit artikel, de Russische technologie buiten beschouwing wordt gelaten. De Russchische traditie van 'low-tech' (relatief), maar 'sure-tech' (die niet kapot gaat) heeft hen erg geholpen.
Een aardig verhaal in deze context is dat van ruimte-bestendig schrijfgerei.
De VS heeft ooit heel veel geld geïnvesteerd om pennen te ontwikkelen die zouden werken zonder zwaartekracht. Iedereen weet dat een balpen niet (lang) goed schrijft als je hem op zijn kop houdt.
De Russen pakten dat anders aan. Die gaven gewoon potloden mee.
Anoniem: 61809 @ATS25 april 2005 12:17
Inderdaad. De pen die jij bedoeld heet officieel de "Fisher Space Pen" en is ontwikkelt door Paul C. Fisher in 1965. Hier vind je meer artikelen (geschiedenis, techniek, toepassing) over deze pennen: http://www.allwrite.nl/?incl=article-index
*BASH BASH BASH*
what are you doing?
- that's how us russians fix problems with machinery!
"Russian, American, it's all made in Taiwan"

:+
ziet er trouwens naar uit dat we over een jaar of 30 daadwerkelijk Broes Willus naar een astroide dienen te sturen om 'em op te blazen ;)
Armageddon met Bruce Willis :)
Sterker nog. Ik heb ooit eens gelezen dat de complete start-sequentie van een Sojouz raket een soort speeldoos is. In plaats van geluidjes te maken worden en dan micro-switches bediend. Deze sturen op de juiste momenten de apparatuur aan.

Niets adaptive, maar gewoon over 10 seconden doen we dit. en over 15 seconden gebeurt er dat.
Anoniem: 61810 @resink26 april 2005 01:52
eigenlijk hebben we die hele rekenkracht (nog) niet nodig, het hele mainframe (wat volgens de 'kenners' allang achterhaald is draait nogsteeds op die "oude shit" en er is niemand die iets nieus onwikkeld heeft op basis van die eenvoud met de zelfde of liever hogere rekenkracht.
Anoniem: 140773 25 april 2005 11:04
Het lijkt mij dat die tapestreamers die ze gebruiken juist wel erg gevoelig zijn voor straling. Die straling is toch niet constant? Vanwege zonnestormen enzo?
Is die straling dan ook gevaarlijk voor mensen?
Als dit zo is zouden ze computers moeten ontwerpen die de mens vervangt in de ruimte.
De straling is inderdaad gevaarlijk voor mensen. Mensen worden in de ruimte gebracht uit prestige overwegingen, niet zozeer omdat het handig of verstandig is om mensen in de ruimte te brengen.
Het lijkt mij dat die tapestreamers die ze gebruiken juist wel erg gevoelig zijn voor straling. Die straling is toch niet constant? Vanwege zonnestormen enzo?
Ja die straling is niet constant, maar als je hebt over de buurt van Jupiter of verder, is de zonnestraling niet zo heftig als in de buurt van de Aarde.
Is die straling dan ook gevaarlijk voor mensen?
Nogal. Bij een zonnestorm kan een mens binnen enkele uren sterven in de interplanetaire ruimte. In de buurt van de Aarde wordt de mens beschermt door het magnetische veld van de Aarde. Het merendeel van de gevaarlijke zonnestraling is de zonnewind, die bestaat uit geladen deeltjes die beinvloed worden door magnetische velden. Vandaar dan ook het idee om interplanetaire ruimteschepen te voorzien van stralingsbunkers.
Als dit zo is zouden ze computers moeten ontwerpen die de mens vervangt in de ruimte.
Dat is dan ook altijd het geval geweest.

Wat computers in de ruimte betreft is er dan ook een belachelijk hoeveelheid vooruitgang geweest.

De Maanraket (Saturnus V) had voor zijn tijd een revolutionaire hoeveelheid en kracht aan computers bij zich. Deze computer bevond zich bijna bovenaan de raket in een deel dat 1 meter hoog was, 11 meter in diameter, en vele duizenden kilos woog.
En de rekenkracht van al dat alles: Een commodore 64.
Wat tegenwoordig op een vingernagel past.
Voor enkel die uitsparing zou de Saturnus V ipv 3 nu 6 mensen de ruimte in kunnen schieten. En veiliger en goedkoper dan de Space Shuttle.

De Nasa heeft enkele boeken online staan over de historie achter de ontwikkeling van de maanraket. Daaruit bleek dat het vooral veel trial-and-error was; zo ook het navigatiegedeelte. Feitelijk werd de computer verteld een bepaalde hoek en vermogen voor zus-en-zoveel tijd aan te houden, en dat was het. Ingewikkeldere dingen dan dat kon het niet, en was ook niet nodig. Nog steeds kunnen ruimtevaardeskundigen (van de oude stempel dan) met een rekenlineaal een koers naar de maan berekenen.

De Space Shuttle is godsgruwelijk ingewikkeld, en dat is ook zijn vloek. In de ruimtevaart geldt heel eenvoudig hoe simpeler hoe beter: Keep It Simple Stupid.

En wat tapestreamers betreft, dat is veruit de oudste technologie naast magnetische geheugens die nog steeds gebruikt wordt voor data-opslag. Betrouwbaarheid, energieverbruik en data-dichtheid zijn veel belangrijker dan snelheid.

Maar dat wil niet zeggen dat ze verouderde technologie moeten blijven gebruiken. Kijk maar naar de Crusoe-processor bv, die verbruikt maar 1 Watt, en flashgeheugens heb je ook in low-power versies. De foutdichtheid van normale (DDR- en SDR- e.d.) geheugens licht ook vele ordes van grootte lager dan van eerdere geheugens, dus ook dat is geen excuus meer.

Alleen de ontwikkelingen gaan te snel voor de ruimtevaart. Voor een project als Cassini-Huygens (wat enkele jaren geleden gelanceerd is en nu pas in een baan rond Jupiter draait) werden de specificaties al in begin jaren 90 vastgelegd. Daardoor zitten ze vast aan technologie uit die tijd.

Het feit dat de Marsrovers 256MB aan flashgeheugen aan boord hebben komt vooral doordat de ontwikkeltijd van die rovers slecht 3 jaar is geweest. Daardoor konden ze de tijd tussen het vaststellen van de specificaties (feature-freeze) en de feitelijke lancering zo kort houden.
Wat wel een groot probleem is in moderne componenten (en in het bijzonder geheugenchips) is de trend naar low voltage en kleinere transistors. Beide karakteristieken maken moderne componenten inherent gevoeliger voor straling en dus in principe minder betrouwbaar in de ruimte dan oudere componenten.
Volgens mij klopt het ook niet. Tapestreamers zijn al tijden op op hun retour in de ruimtevaart. Tradiotioneel koos men ervoor vanwege de hogere betrouwbaarheid dan harde schijven, men wil naar componente toe die geen bewegende delen hebben.

Dat betekent flashgeheugen. Hetgeen toegepast wordt in de Marsrovers (256 MB per rover) en Mars Express (ik dacht 2,5 GB flashgeheugen).
Zelfs (bijna) op aarde is het gevaarlijk voor mensen. Het is gebleken dat piloten die vaak in de buurt van de noordpool vliegen een veel grotere kans op leukemie hebben. Dat de zonnestormen daar de aarde beter bereiken kun je zien aan het noorderlicht dat hierdoor ontstaat.
Voor de Zuidpool en het zuiderlicht geldt hetzelfde neem ik aan.
noorderlicht onstaat inderdaad door geladen deeltjes die de dampkring binnendringen, maar vergis je niet, deeltjes die door het aardmagnetisch veld ter hoogte van de evenaar worden 'gevangen', worden door dat veld naar de noord-of zuidpool geleid (afhankelijk van hun lading).
het noorderlicht is geen bewijs dat de zonnestormen tot op de noordpool zouden komen, anders zouden we 't wel geweten hebben :+
Wat ik eigenlijk mis in dit artikel is dat eenvoudige processoren en computersystemen ook makkelijker te debuggen zijn. En als ze daarbij ook al decennia in gebruik zijn, weet je meer over de eventuele 'bugs' in een stukje hardware. Zo goed mogelijke bugvrije hardware en software is een must in de ruimtevaart.
Anoniem: 108806 25 april 2005 11:18
De leeskoppen van harde schijven zweven voor zover ik weet op een flinterdunne luchtfilm.... en in een vacuum gaat dat lastig.
je zou een lageluchtdruk in de hdd behuzing kunnen maken of de hdd's niet aan 'de buitenzijde van het schip' plaatsen maar in het zelfde compartiment als waar de astronauten izhc bevinden....
ehm, de hardware moet ook werken in vacuum, voor het geval de druk/atmosfeer in het ruimtevoertuig wegvalt.
En voor satelieten is het natuurlijk al helemaal geen optie om het onder druk te houden.

Ik geloof eerder dat ze voor flash geheugen gaan als iets anders, ook geen bewegende onderdelen meer, alleen goed inpakken tegen de straling.
Maar in een spacestation is toch geen vacuum? Dan zouden de astronauten toch niet overleven?
Je kan de schijven natuurlijk ook in een luchtdichte behuizing steken met bv. 1 atm., dan is ineens het hele probleem opgelost, dan maakt een eventuele externe drukverandering ook niets meer uit.
Jammer dat je niet bij NASA werkt dan was het hele probleem opgelost.

:? :?
dat zal ook wel problemen opleveren, anders had men het al lang gedaan
Als jij op de himalaya met je laptop gaat spelen is je schijf ook gegarandeerd gecrashed. Dat heeft niets te maken met de zwaartekracht, gewoon de lucht is op die hoogte te ijl om een degelijke luchtfilm te genereren. Bij het opspinnen wordt een luchtkussentje gegenereerd waarna de schijf kan beginnen werken. Tijdens het op/downspinnen heb je dus het probleem dat je kop op de schijf sleept, daarom is er dus een parkeertrack op je schijf waarop de kop rust tijdens het offline zijn (vroeger had je daarvoor een programmaatje nodig (diskpark.exe), tegenwoordig doen die dat automatisch). Ijle lucht of vacuum is dus een probleem. Ook is de kracht die het ding moet weerstaan enorm groot en een harde schijf kan niet zo goed tegen die versnellingen (sla maar eens je schijf keihard op de rand van een tafel)
Waarom als het over ruimtevaart gaat kijken we altijd naar de amerikanen??
In europa hebben we de ESA!
De esa geniet niet zoveel aanzien als de nasa, hoewel je imho best hun mannetje kunnen staan met hun ariane raketten en de landingcrash van het karretje op mars. De amerikanen steken vele miljarden om hun karretjes op mars te krijgen, de esa nog geen 1/10e ervan...

Mischien dat de kosten van een 'paar honderd miljard' om een man op mars te brengen gereduceerd kan worden tot mischien 10 of 15 miljard of zelfs nog minder. En als 1 man op mars is geweest zullen er meer volgen :P
De esa geniet niet zoveel aanzien als de nasa
Och, dat valt nog wel mee, ik zag afgelopen week nog op tv dat ze al een Heineken tap op Mars zetten.

Daar zul je in bepaalde kringen toch wel aanzien mee verwerven... :P
Als je gaat kijken naar de missies van de Voyager's kom je inderdaad terecht bij een bedrag van een paar miljard.
De reden hiervoor is dat ze op dat moment nog van het principe van backup waren.
Vele backups op de toestellen zelf en direct een paar sturen voor moest er eentje uitvallen.

In het begin van de Mars-exploratie hielden ze nog steeds van aan dit principe.
Maar voor hun Pathfinder-missie zijn ze van dit principe afgestapt.
Toen hadden ze een budget van rond de 300 miljoen dollar, wat een peuleschil is in vergelijking met hun andere missies.

Het is ook crisis bij NASA you know :).

En het feit dat de prijzen die je terugvindt bij ESA zo veel lager liggen is omdat ESA zich vooral bezighoudt met commerciele dingen, zoals het lanceren van sattelieten.
ESA is nooit echt zelf uitvoerder van een missie, maar wel deelgenoot van.
En als we bij NASA spreken over een missie is het meestal van begin tot einde NASA die verantwoordelijk is (onderzoek, ontwikkeling, lancering,...).
De ESA is ook van het begin tot het eind verantwoordelijk voor het programma, alleen door dat het een europese aangelegenheid is wordt er veel gebruik gemaakt van nationale instituten. Iets wat bij de NASA niet kan omdat dit geen organisatie is van verschillende landen.

PS Beagle 2 die gecrashed is op Mars was geen karretje en was volledig ontwikkeld en gemaakt door BNSC (Britse Ruimtevaart Instituut). Het reisde alleen mee op de, overigens zeer succesvolle, Mars Express
verschil is ook amerika kende in 2002 een defensie budget van 600 miljard USD daaruit wordt een kleine procent afgeroomd voor de NASA en de rest spendeerd men aan terrorisme bestrijding enzow.
uiteraard is die 6 miljard nog steeds niet te vergelijken met hoeveel de EU eraan spendeerd maar het is wel jammer dat men bv in plaats van het leger inzet om ergens in een zandbak te rennen deze (anders werkeloze) personen bv bij NASA iets te doen. maarja waarschijnlijk zijn ze daar weer te laag voor opgeleid en is dit natuurlijk lang niet zo spectaculair op het nieuws en interessant voor Bush. Sterker nog onlangs kondigde Bush nog aan minder geld te spenderen aan ruimtevaart
Anoniem: 129814 @RAF125 april 2005 11:14
Tis dat je het me nu vertelt... 8-)
Is toch niets nieuws aan? Een x aantal jaren geleden stond volgens mij op tweakers.net een oproep om je oude cpu's aan NASA te doneren.
Zeker in de week voor 1 april..... ;)
ik denk niet dat NASA zomaar CPU's van willekeurige mensen in hun apparatuur zou gaan zetten...
Nee hoor, ik heb dat ook gelezen. Ze kochten op eBay 8086 processors die niet meer gemaakt worden maar wel nog nodig zijn voor de booster rakketten van de space shuttle.

Zie www.tweakers.net/nieuws/21786
http://www.tweakers.net/nieuws/21786

Zo vreemd is het niet die 8086 en 8088 dingen zijn niet kapot te krijgen wat dat betreft. En ja als je niet meer power nodig heb dan moet je het in space ook niet doen. Of je neemt een 8086 die 1 of 2 watt trekt of je moet er de prescott in dumpen van 130 watt zodat je halverwege de lancering al zonder stroom zit. wat kies jij dan? ;)

edit:
hmm ik zie dat ik net ietsie te laat ben hiermee :)
Anoniem: 129362 25 april 2005 11:05
De russiche technologie is ook minder toegankelijk dan de Amerikaanse.
Het is inderdaad wel waar dat zij soms succesvoller waren dan de Amerikanen, maar alles werd geheim gehouden, zelfs intern.
Dit had te maken met de vrees dat hun ideeën gestolen zouden worden door de Amerikanen.
Maar naar mijn mening zullen we bij de Russen wel gelijkaardige technologiën vinden.
Zonder die Russische techniek was er nu geen bemanning in het ISS, en was de Space Schuttle sinds 1990 niet meer fatsoenlijk de lucht in gekomen met de lasten die men nu mee stuurt. Voor de gene die dat laatste niet geloven zoek maar eens na op de Nasa site wat voor soort motoren die Space Shuttle heeft sinds begin jaren '90. Juist ja Russische!! Meer vermogen en stabieler dan die Amerikaanse die regelmatig instabiel werden ondanks hun "geavanceerde electronica"
Gezien de ontwikkelingstijd die zo'n ruimtevaartproject vergt, is het inderdaad niet echt verwonderlijk dat zo'n computer
a) volkomen 'achterhaalde' prestaties levert vergeleken met een 'huidig' product op het moment dat het project klaar is en
b) is gebouwd op duurzaamheid onder extreme omstandigheden - uiteraard een eerste vereiste.

Toch is het een aha-erlebnis als je zoiets leest. Grappig eigenlijk :)
Hoezo harde schijven werken niet in een vacuum? Heeft dat niet eerder te maken met de niet aanwezige zwaartekracht dan, om de lees/schrijf kop tegen de schijf te houden?
Anoniem: 140185 @Ranzy25 april 2005 11:47
Volgens mij werkt een harde schijf ook ondersteboven en op zijn zijkant, dus zwaartekracht lijkt me niet zo'n belangrijke afwezige factor
Waar de zwaartekracht tegenwoordig wél op invloed heeft is de nieuwe databescherming van IBM. Als een harde schijf voelt dat 'ie valt, schakelt deze zichzelf snel uit (brace for impact). Echter dit gevoel van vallen is gelijk aan het gevoel van gewichteloosheid...
Tijdens testen met parabolische vluchten werkten deze nieuwe noteboekjes inderdaad niet naar wens...
Anoniem: 78919 @Ranzy25 april 2005 11:24
Volgens mij heeft een HD lucht nodig om z'n kop te laten 'zweven' over het oppervlak van de schijf.

Als je een harde schijf bekijkt, zit er altijd zo'n stickertje op met "dont remove'".. Als je het wegneemt, zie je een gaatje met een filtertje voor. (Ik vermoed om de luchtdruk in de schijf hetzelfde te maken als buiten de schijf)

In een vacuum wordt alle lucht eruitgezogen -> kop crashed tegen de platters ?

In de space shuttle zelf werkt dit wel natuurlijk. (astronauten nemen zelfs laptops mee) Maar voor satellieten niet natuurlijk.
Denk dat je gelijk hebt. Sowieso, binnen een bemande ruimtevlucht-voertuig (of hoe zoiets ook heet :P), heerst helemaal geen vaccuum ;) En ik neem aan dat de computers zich binnen het voertuig bevinden (ook ivm temperatuur enzo).
Anoniem: 21486 @Ranzy25 april 2005 11:33
De koppen moet in ieder geval niet tegen de schijf aan zitten (head crash). Zover ik weet zijn HD's overigens luchtdicht en is er in het ISS geen sprake van vacuum.
Nee, harddisks zijn niet luchtdicht. Wel eens ooit een zakje paprika chips mee het vliegtuig ingenomen? Het zelfde zou gebeuren met de harddisk van je laptop als-ie luchtdicht zou zijn...
Anoniem: 19339 25 april 2005 11:16
Even een domme vraag, maar waarom werken harddisks niet in een vacuum?

Ik kan wel snappen dat de krachten die een ruimtevaartuig bij lancering en het door de dampkring gaan, wel issues voor (operationele) harddisks kunnen opleveren.
De schrijf- en leeskoppen 'zweven' boven het oppervlakte van de harde schijf. Door het ronddraaien van de platters ontstaat er een opwaartse kracht boven de platter waar de koppen op kunnen zweven.

Een harde schijf is dan ook niet luchtdicht zoals veel mensen denken, maar heeft openingen (met een filter) om de druk in en buiten de schijf even groot te houden.

Overigens zal een harde schijf ook niet werken, of gemakkelijker crashen op plaatsen waar de luchtdruk minder hoog is. (Op bergtoppen etc..)
De koppen van een hdd drijven op een film van lucht.

Als er geen lucht is, komen de koppen in contact met het oppervlak van de disk, die daardoor beschadigd wordt

Op dit item kan niet meer gereageerd worden.