Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 118 reacties

Een medewerker van datarecoverybedrijf Kroll Ontrack is er in geslaagd om onderzoeksdata te herstellen van een gesmolten harddisk die toebehoorde aan de in 2003 verongelukte Space Shuttle Columbia.

Beschadigde harddisk, afkomstig van verongelukte ColumbiaDe harddisk werd tijdens de Columbia-missie gebruikt om data op te slaan van een onderzoek naar de eigenschappen van xenongas in de ruimte. Hoewel gedurende de missie een groot deel van de bevindingen al naar de aarde was gestuurd, wist datahersteldeskundige Jon Edward de nog ontbrekende data van een zwaar gehavende harddisk te redden. Hierdoor kon het wetenschappelijk onderzoek alsnog worden gepubliceerd.

De schijf was, net als andere brokstukken van de Shuttle, kort na het ongeluk gevonden in de Amerikaanse staat Texas en werd na zes maanden door de Nasa naar Kroll Ontrack gestuurd. Volgens Edwards bestond de nauwelijks meer als zodanig herkenbare harde schijf op het eerste gezicht uit niet meer dan twee stukken metaal die aan elkaar kleefden. De harddisk was tijdens de ontploffing van de Columbia-shuttle in de atmosfeer overduidelijk ernstig verbrand en gedeeltelijk gesmolten. Edwards constateerde verder dat niet niet alleen plastic en metalen onderdelen waren gesmolten, maar dat ook de beschermlaag, die de platters tegen stof en vuil moest beschermen, was aangetast.

Toch bleken de platters van de 340 Megabyte-schijf bij nadere inspectie niet onherstelbaar beschadigd; de harddisk was slechts voor de helft gevuld met onderzoeksdata en juist dit gedeelte bleek relatief intact, waardoor een reddingspoging kon worden ondernomen. Ook bleek het gehanteerde bestandssysteem afkomstig te zijn van een oude DOS-variant, waardoor de data ongefragmenteerd was weggeschreven. Door de platters met een chemische substantie te reinigen en ze in een nieuw loopwerk te plaatsen, kon Edward 99 procent van de verloren gewaande data terughalen. Het gehele recovery-proces nam twee dagen in beslag, zo bericht AP. Helaas bleken twee andere schijven die na de noodlottige Shuttle-missie waren teruggevonden zodanig te zijn beschadigd dat hersteloperaties onmogelijk bleken.

Moderatie-faq Wijzig weergave

Reacties (118)

typo: gesmoten ==> gesmolten (in titel)

Btw, een hd van 340Mb, nu kan ik me voorstellen dat het genoeg is voor de data die er op kwam, maar waarom zou er geen grotere HD in gezet zijn? Ik bedoel, in 2001 waren die dingen toch al veel groter?

[Reactie gewijzigd door Freeaqingme op 11 mei 2008 14:17]

Volgens mij staan jullie niet echt stil bij het feit dat deze apparatuur in de ruimte moet werken...

Dit betekend dus dat:
- Het betrouwbaar moet zijn (en dat gaat niet over de berekende MTBF-uren, maar de in tijd bewezen betrouwbaarheid)
- Bescherming tegen (radioactieve) stralingen in de ruimte (speciale coatings en shields, dus dat gaat iets verder dan de EMI-inteferentie waar we hier op de aarde al rekening mee houden)
- Weinig energie mag verbruiken en dus ook weinig warmte mag produceren (die warmte moet toch ergens heen; alleen lucht kan deze warmte opnemen/verplaatsen, dus dat zou betekenen dat je uiteindelijk heel je Shuttle opwarmt)

Hierdoor zitten er geen top-of-the-line onderdelen in een Shuttle. In de meeste gevallen worden deze onderdelen zelfs speciaal ontworpen/geproduceerd voor de ruimtevaart...

Voor meer info, kijk anders eens naar dit artikel.
Kosten? Betrouwbaarheid van de harde schijf?
Dit zouden wel eens issues kunnen zijn waardoor ze voor een kleiner type hebben gekozen...
De Space Shuttles stammen uit de jaren '80 dacht ik. Aansturing gebeurt door 8088-cpu's en de besturingssoftware staat op 8-inch floppies als ik het goed voorheb. Wist zelfs niet dat dat ding al over harde schijven beschikte...

In elk geval, de Space Shuttle is vrij ouderwets, maar dat geeft niet. De oude technologie heeft zijn deugdelijkheid bewezen en geldt dus als betrouwbaarder. De nieuwste satelliet die rond Mars zweeft draait bijvoorbeeld op een oude mac-powerpc chip van 133 mhz, en de hubble telescoop sinds de late jaren 1990 op 486's.

En de automatische piloot in vliegtuigen is doorgaans een 386. Ouderwets != verouderd of slecht.

Overigens, de Columbia verongelukte in 2003 en niet in 2001.
Het is niet alleen ouderdom en "proven concept". Het is ook dat modernere hardware veel gevoeliger is voor storing en straling. In de ruimte heb je veel meer straling en andere dingen waar de atmosfeer ons en onze hardware voor beschermt.
De redenen die fredo_1983 en Electrowolf geven voor het gebruik van de oude hardware zijn echter niet de doorslaggevende reden voor NASA om die (oude)hardware te gebruiken.

Bij NASA wordt programmatuur voor electronica eerst nog met de hand ontworpen op blauwdrukken. Men designt de logica en de programmatuur eerst met de hand op papier waarna een team van experts zich erover gaat buigen en alle mogelijke scenarios na gaat lopen. Er wordt geen regel met een keyboard ingetikt voordat men denkt dat het design op papier door en door exceptioneel uitstekend is.

De rol van oude hardware zoals bijvoorbeeld een 386/486 processor hierin is dat de experts die zich over de software designs buigen de 386/486 CPU door en door kennen, ze weten vrijwel exact hoe die processor in elkaar zit, met alle bijkomende mogelijke defecten die het intrinsiek in zich heeft of kan veroorzaken.

Bijna alle processoren hebben defecten, maar de 386/486 is zo lang en zoveel in gebruik geweest dat alles van de 386/486 nu vrijwel volledig bekend is, inclusief alle mogelijke fouten die het in combinatie met bepaalde programmeertalen zoals C kan veroorzaken.
Zulke vergaande en diepgaande kennis over een processor verkrijgen en verzamelen duurt vrij lang. Daarom zal men ook niet zo snel een moderne processor in ruimtevaartuigen zien, omdat over nieuwe processoren nog maar weinig bekend is.

Tevens is de complexiteit van nieuwe CPU's door de vele malen hogere aantallen transistoren exponentieel hoger. Deze complexiteit maakt het dan ook exponentieel veel moeilijker om alle mogelijke scenarios op papier na te lopen in combinatie met alle mogelijke programmeerfouten in combinatie met alle mogelijke intrinsieke fouten van de CPU.

[Reactie gewijzigd door Arcane Apex op 12 mei 2008 05:01]

En verbruikt het doorgaans meer stroom en genereert dus meer warmte..
Nope. Pentium 75 (jaja, geen 386 of 486 maar toch knap oud): 8 watt. Een Core Duo T1400 27 watt. Die eerste is een desktop CPU, die laatste een notebook cpu. Als je een nieuwe Core Duo ernaast legt zit je snel over de 50 watt heen. Die nieuwe Atom is duidelijk anders: die is gemaakt voor een laag verbruik en niet in dezelfde categorie als Core Duo/AMD whatever x86 product. Dus wil je een zuinige server: zoek een oude pentium machine met PCI sloten. Geheid minder stroom dan een modern doosje met generieke componenten.
Da's nonsense. Gewoon wat lagen metaal er omheen en dan werkt recente hardware prima en zuiniger hoor. Je hebt ook zat 'space certified' storage arrays waar je honderden gigabits aan info op kan zetten (heb ik zelf pas nog naar gezocht voor een ontwerpproject). De reden is gewoon dat het ontwerp 'bevroren' is en er blijkbaar geen behoefte is aan meer opslagruimte, dus dan kost het teveel tijd, moeite en geld om een nieuwe HD te certificeren.
Space certified hardware kun je *nu* krijgen in gigabits, maar dan heb je het inmiddels waarschijnlijk over wellshielded flash chips en niet over HDs. Een project dat is gelanceerd in 2003 heb je het over een designproces vanuit de late 90er jaren, en toen was flash nog geen echte optie. Dus dan zit je vast aan verouderde HDs.

Space certification kost gewoon zoveel tijd en geld dat die technologie per definitie 5 jaar achterloopt.
De Space Shuttles stammen uit de jaren '80 dacht ik. Aansturing gebeurt door 8088-cpu's
Bijna goed, begin deze eeuw (en daar zitten we natuurlijk nog in, ik dacht 2001) heeft de shuttle vloot een upgrade gekregen naar 386 CPU's. De originele waren inderdaad 8088's.

Voor de rest heb je helemaal gelijk, NASA eist voor alles wat te maken heeft met de shuttle 'proven technology'. En de hardware moet de tand des tijds uitstekend doorstaan voor men overweegt die hardware te implementeren in het platform. De laatste XEON zul je er niet tegenkomen.
En laten we wel wezen, het soort software wat op deze computers draait heeft geen enkele vorm van overhead. Alles draait in het geheugen en vanwege het real time karakter van de software is vooraf goed te voorspellen hoeveel processing power je nodig hebt.
maar zeg nu zelf, voor dat stel simpele berekeningen die zo'n spaceshuttle tijdens de flight moet doen, is een 386 waarschijnlijk meer dan voldoende. Ook 320 mb harddrives lijken mij meer dan voldoende om gigantische hoeveelheden data in op te slaan.

oud maar zeer robust. Gaat toch langer mee dan zo'n 45 nanometer cpu'tje. Dat misschien bij een klein schokje het al begeeft.
hehe, eindelijk iemand die ouderwets niet ziet als verouderd of slecht (ik neem tenminste aan dat != hetzelfde is dan <>, werk zelf met sytemen waar != gelijk aan betekent).
!= is toch echt wel het teken voor "niet gelijk aan" in zowat alle programmeertalen, waar == "gelijk aan" betekent :)
idd-ik heb hier een exotische insteekkaart liggen (vesa-lb) en daar zit een 286 op :D. Wel onwijs goed dat ze die data hebben kunnen redden...

[Reactie gewijzigd door shades op 11 mei 2008 19:29]

Leuk, maar dit gaat over de data systemen voor experimenten. Staat uiteraard voleldig los van het besturings systeem van de shuttle zelf. Als de shuttle het als payload zou kunnen meenemen en aandrijven zou het bij wijze van spreken een Cray kunnen zijn. (Als ze dat ding nodig hadden voor de experimenten that is..)

En zelfs bij nasa met enerzijds hightech en anderzijds proben concepts, zal er niemand er ook maar aan denken om experimenten te koppelen op enigerlei wijze aan de boordcomputers.

En die boordcomputers zijn trouwens tot in zesvoud uitgevoerd in de orignele shuttles. En de utival van die systemen is nog best hoog, de circuitboards en componenten hebben last van de vibraties waarbij soms soldeerverbindingen lostlaten en dat kan uiteraard kortslutiing veroorzaken en errors geven.
Wat ik een heel vreemd verhaal vindt, dat ik zelf eens op een Forum van de NASA site de vraag heb gesteld of harde schijven bruikbaar waren in de ruimte vanweg de gewichtlooheid, toen kreeg ik het antwoordt van een NASA onderzoeker dat er geen HD's gebruikt kunnen worden in de ruimte alleen Tapedrive's omdat de koppen zouden gaan zweven in de Harddisk en er zodoende geen data geschreven kon worden. Tape drive's konden wel omdat de band tegen de koppen aangetrokken werden en er dus kontakt was tussen medium en schrij/leeskop. Dus ik vraag mij af waar deze story vandaan komt.
Volgens mij moet dit perfect mogelijk zijn. De koppen staan bij stilstand tegen de platters gedrukt en zweven enkel als de schijf snel ronddraait, waardoor de lucht rond de platters mee circuleert. Het is op deze luchtstroom dat de koppen "zweven". Dit is min of meer gelijk bij gewichtloosheid.
Dat is het antwoord voor "in een vacuum", niet voor "bij gewichtloosheid".
Wat eigenlijk precies de vraag beantwoord (en verder uitgelegd bij bovenstaande posten, nieuw voor mij); het meeste wat zich in de ruimte bevind staat tenslotte niet onder luchtdruk. Bemande ruimtevaart is eigenlijk een grote (en dure) uitzondering.

De trillingen tijdens lancering maken gebruik op dat moment vast niet mogenlijk, evenals tijdens terugkeer.
vreemd :s

als ik mijn harde schijf ondersteboven in mn computer zet, dan werken de stappenmotor en de koppen toch ook precies hetzelfde? tapedrives kunnen beter tegen trillingen en schokken dan harde schijven, maar volgensmij heeft een harde schijf geen last van gewichtloosheid

binnenkort zitten toch overal SSD's in :)
Bij gewichtloosheid van een spaceshuttle op die hoogte, werken hd's echt niet. Het zou kunnen wezen dat op de terugkeer door de dampkring op de hoogte dat er geen gewichtloosheid meer is de files van tape weggeschreven zijn op een HD, dat zou de enige mogelijkheid kunnen wezen omdat men toen al op een kilometer of 64 Km hoog zat, want ik kan mij voorstellen dat een HD wat makkelijker is mee te nemen dan een tape op dat moment al was het alleen maar voor verwerking. Maar op 300 ß 450 Km hoogte is er gewichtloosheid en volgens een Prof van Nasa werken daar hd's absoluut niet. Tenzij Nasa een zwetsverhaal verkocht op dat forum, maar dat lijkt mij uitgesloten.
Waarom zou een HD niet werken in gewichtloze omstandigheden? een HD werkt niet in *vacuum*, maar de zwaartekracht wordt echt nergens voor gebruikt.

Om even voort te borduren: Een HD werkt doordat een kop 'zweeft' op een luchtkussentje over de draaiende platter, maar ze zweven niet tegen de zwaartekracht in maar tegen de veel sterkere veer die de koppen tegen de platters drukt. een kop weegt misschien maar een paar milligram, en dat kan natuurlijk nooit genoeg kracht opleveren van zichzelf.

[Reactie gewijzigd door Jasper Janssen op 12 mei 2008 13:04]

Sorry, maar juist dÝt verhaal lijkt mij gezwets. Een HD is echt niet afhankelijk van zwaartekracht. Als de afstand van de kop met de schijf door de zwaartekracht gereguleerd zou worden, dan zou je geen laptop kunnen gebruiken terwijl je in beweging bent, want de G krachten die voorkomen uit de trilligen van bijvoorbeeld een weg of het zitten in de trein zijn groter dan die van die van de aarde. Laat staan dat zoiets al zo'n portable harde schijf in een PDA gaat werken. Welnu: ik kan je vertellen dat dat laatste prima werkt. Ik vlieg zelf, en ik gebruik zo'n PDA met een kleine HD erin als vluchtcomputer. Tijdens de vlucht heb je al grote verschillen in G krachten (kortstonding meestal), maar tijdens de landing helemaal. Klappen van 5 tot 7 G is niet bijzonder. Daar kan zo'n HD prima tegen.
Die HD die je gebruikt in je PDA zal wel hetzelfde werken zoals die bij notebooks: wanneer er schokken zijn zal deze tijdelijk niets uitlezen en de koppen 'parkeren' zodat deze geen schade kunnen aanrichten aan de schijf.
Indien de HD de koppen gewoon zou blijven gebruiken, treed er schade op doordat de koppen, door te trillingen, de harde schijf af en toe zou raken.
Aangezien het hier om oude techniek gaat;
Vroeger kon je oude SCSI disks die waren 'gecrasht', redden door ze 90 graden gekantelt te monteren. Dit gaat dan niet om het zweven van de kop, maar een eventuele speling in de lagering van de platters.
Dus misschien dat deze schijven ook wel invloed ondervinden van de zwaartekracht, of het gebrek daaraan.
Of de techniek is vooruit gegaan ;)
Behalve in space shuttles waarschijnlijk.

[Reactie gewijzigd door Aham brahmasmi op 11 mei 2008 17:21]

Het is ze dus blijkbaar wŔl gelukt nu :P
Je hebt in 'de ruimte' drie problemen die zich hier op de grond niet voordoen.

De mate waarin je bij je apparatuur kunt nadat deze omhooggeschoten is, is zeer beperkt en kostbaar. Dat betekent dus dat je alles oneindig vaak moet testen en dat je moet kunnen vertrouwen op je hard- en software zonder of met beperkte menselijk inbreng.

De omstandigheden in de ruimte zijn hostile. Er heerst vacuum, er vliegt allerhande rotzooi rond met duizenden zo niet tienduizenden kilometers per uur, en er is geen atmosfeer die allerhande straling tegenhoudt. Dat betekent dat je je apparatuur ofwel heel goed moet beschermen (als er een zandkorrel tegen je satteliet aanvliegt ben je hoe dan ook de klos; dit is dus niet goed mogelijk) of moet aanpassen aan die extreme omstandigheden.

Hetgeen je niet eenvoudig en goed kunt testen op aarde. Want we hebben hier geen vergelijkbare omgeving.

Als je dus een mechaniek moet kiezen, dan kies je een ontwerp waar je op kunt vertrouwen (oud, courant, en geprezen) en pas je dat aan aan de omstandigheden of probeer je het te beschermen. Het enige wat dan nog ontbreekt is het schietgebedje.

In de lucht- en ruimtevaart industrie kijken ze sowieso niet op een dubbeltje meer of minder en kiezen ze niet hun computer op basis van de tweakers pricewatch.
gewicht vooral
In de shuttle gebruiken ze nog embedded 386DX processoren. Het voldoet, en de kosten om een nieuwe gehardde processor te maken zullen niet opwegen tegen de meerwaarde. De grovere struktuur is minder gevoelig voor straling, als in een enkele treffer van een quant verstoort slechts een beperkte hoeveelheid elektronen. Oudere processoren hebben meer elektronen nodig per schakeling.

Hetzelfde verhaal als de geharde 386DX-en gaat op voor de HDD's; door de relatief grote gebieden gebruikt per bit zijn ze minder gevoelig voor verstoring van het magnetische veld door straling.

Het hele vehikel stamt al uit de jaren 70, moet je niet vergeten. Er zitten nog net geen lavalampen standaard in geinstalleerd.
En nog wel ouder dan de 386...

Paar jaar geleden zochten ze nog 8086 spareparts...

nieuws: NASA op zoek naar 8086-chips
Vergeet niet dat de apparatuur in de shuttles een beetje gedateerd is en dat de Columbia al in 1975 is gebouwd http://en.wikipedia.org/wiki/Space_Shuttle_Columbia
Om goed werkende systemen te vervangen is overbodig, als je de opslagruimte niet nodig hebt. Dus 340MB is klein, maar als het werkt dan is het vertstandiger om te laten zitten. Zeker omdat de systemen die erop draaien niet de nieuwste meer zijn (gezien ze blijkbaar nog op een DOS filesystem werken) is het vragen om problemen als je er een 80GB hdd in duwt, dat gaat nooit werken.

Verder denk ik wel dat ze geluk hebben dat het zo'n kleine disk was. De datadichtheid op die dingen is enorm laag, dus is het met de huidige technieken prima te doen er nog data vanaf te halen. Met een hedendaagse disk denk ik niet dat 99% haalbaar geweest was.
Kijk maar eens wat de hubble voor plaatjes schiet met een 300k pixel CCD en een opslag van enkele tientallen MB's

Dan zie je pas wat "het onderste uit de kan halen" betekent :)

Het hubble ontwerp stamt uit de jaren zeventig en is in de jaren tachtig ontwikkeld. Later zijn er aanpassingen gemaakt om de hardware te upgraden naar wat modernere standaard. En toch wordt dan voor bewezen technologie gekozen, want anders kost het miljarden. Bovendien moest al die hardware "radiation-hardened" gemaakt worden, wat betekent dat het bestand moet zijn tegen bitflips door straling. Aanvankelijk bij lancering was de processor een 8086, later tijdens een hubble-servicing mission (shuttle) is deze geupgrade naar een radiation-hardened 386 en die doet vandaag de dag nog steeds het werk.

het was voor die tijd state-of-the art, nu lijkt het allemaal ouderwets maar als je ziet wat voor plaatjes de Hubble nu nog steeds schiet zou je het niet zeggen :)

[Reactie gewijzigd door Pmf1971 op 11 mei 2008 15:22]

in 2001 waren ze ongeveer 10gb groot. Ik denk dat het door de besturingsysteem/hardeschijf controller komt. De computer zal waarschijnlijk nog geen LBA ondersteuning hebben gehad. Vind het eigenlijk wel tegenvallen voor zo dure shuttle.
denk niet capaciteit; denk: extreme eisen aan hardware qua levensduur en betrouwbaarheid. Daarom vind je in de shuttles ook 386's voor de boordcomputers, dat is proven technology. ( een upgrade uit 2001 uit m'n hoofd, tot die tijd waren de boordcomputers 8088's)

Stel je voor dat ze direct bij het uitkomen van de Pentium een zwik van die dingen hadden ingezet, de 66MHz of 75MHz variant bijvoorbeeld. Dan hadden ze mooi met die F0 bug gezeten, en bij trajectory berekeningen lijkt het me HEEL goed mogelijk dat je die tegenkomt.

Ook om die reden hebben ze in de Shuttles 7 verschillende hoofdcomputers (met 386's dus), die hebben allemaal dezelfde hardware, maar de software is door 7 verschillende groepen binnen en buiten NASA ontwikkeld. Op die manier, als er 1 het verkeerde antwoord geeft, kunnen 6 nog steeds het goede geven. Meerderheid wint. Als alle 7 een ander antwoord geven zul je de beruchte 'Houston, we have a problem' kunnen horen.
Misschien hadden ze niet meer nodig dan 340MB. Waarom dat zoveel meer meenemen?
Naast dat waren er ook nog twee andere schijven, dus dat zou inderdaad wel genoeg zijn geweest. Waarom zou je te veel materiaal meenemen?
Oude versie van dos schijnbaar; ik weet nog de tijd, helemaal blij met een 1,5 GB HDD, dat er slechts 500 MB van gebruikt kon worden zonder gebruik van een HDD extender programmatje.

Dat kan ook limiterend zijn geweest in dit geval.

De computer waar onderzoek op gedaan word zal waarschijnlijk wel iets nieuwer zijn geweest dan de flight control computers trouwens, gezien 100% failsafe van minder (nog wel groot, maar niet levensbedreigend groot) belang is.
Shuttle is i386 volgensmij. Of hadden ze laadst al een upgrade naar 486 gedaan?
neen 8088. Waar u op doelt is de Hubble telescoop (bouwjaar 1990) dewelke op het einde van de jaren 1990 een 486-cpu kreeg.
yup, shuttle is inderdaad nog 8088, men is geloof wel bezig om voorzichtig te kijken naar 386 cpuś, maar zeker weet ik dat niet.
Wij denken in DivX, Games, MP3's etc. Waarschijnlijk werkte de Columbia met cijfers en andere tekstuele data. Die nemen veel minder ruimte in dan alle 'moderne multimedia'. Op 340Mb kan je heel wat van dat soort data kwijt dus is er niet echt een reden om grotere (onbetrouwbaardere ??) harde schijven te gebruiken.
Dat is op zich geen argument. Data van wetenschappelijke experimenten kan juist veel meer ruimte in beslag nemen dan je verzameling HD films bij elkaar. Maar dat hangt af van de toepassing. In de space shuttle zullen de beperkingen nogal groot zijn en daardoor de hoeveelheid data niet zo enorm.
En nog een ondersteuning daarvoor.

Na een stage/afstudeerproject heb ik alijd voldoende data verzameld, en dat is dan tussen de 200 en 500 mb tot nu toe. Zonder extreem veel numerieke data te verzamelen. In zo een dure omgeving als de space shuttle wordt de tijd een stuk intensiever gebruikt, en dus meer data gegenereerd in een kortere tijd.

Een geautomatiseerd data verzamel proces kan best hard gaan.. Een voorbeeld LOFAR wiki link staat me bij als voorbeeld hiervan.
True dat, heb in de American Scientific gelezen dat de nieuwe Large Hadron Collider in CERN ettelijke terabytes of zelfs petabytes per seconde genereert aan data, en dat er via hardwarematige selectie die hoeveelheid wordt beperkt tot realistische hoeveelheden die kunnen verwerkt worden door een grid van supercomputers. Ze hebben zelfs eigen glasvezel verbindingen om de data over hun tier2 en tier3 storage network te kunnen verspreiden zodat er wat meer redundantie is.
Een grotere hardeschijf betekent een hogere datadichtheid. Op het moment dat er dus iets met de hardeschijf gebeurt zal het potentieel een groter gedeelte van de data beinvloeden. Vandaar dus dat er wordt gekozen voor een dergelijk kleine hardeschijf.

Bovendien is het proven technology, je wilt niet dat opeens je hardeschijf uitvalt door een bug oid.
We worden hier op aarde beschermt door de dampkring. Buiten de dampkring is de hoeveelheid kosmische straling vele malen hoger. Dit heeft impact op gegevens dragers; bitjes zullen eerder omvallen vanwege straling. Bij een hard disk met een lage capaciteit is dit effect minder sterk, omdat de gegevens dichtheid minder hoog is.
be-trouw-baar-heid!!

Kostprijs is geen argument, want een 340GB schijf kost minder dan een 340MB.
Wat een non-sense. De hele shuttle vloot is gebouwd door onderdelen welke geleverd worden door de goedkoopste aanbieder.
... die aan de gestelde kwaliteitseisen voldoet. Niks onzin dus. Ik vind het dan ook best logisch dat de lagere datadichtheid van een 340MB schijf een hogere betrouwbaarheid heeft.

Ik wilde niet insinueren dat de NASA met geld zou gooien. Da's ooit wel het geval geweest (het Apollo project moest de USAmerikanen letterlijk koste wat het kost eerst op de maan brengen), maar da's idd lang verleden tijd. Mijn punt was dat de bewuste drive in elk geval niet is gekozen omdat hij goedkoper zou zijn dan modernere drives met een hogere capaciteit.
om even aan te geven hoeveel geld het echt was...

de damens van amerika... hebben indezelfde tijd meer geld besteed aan makeup...

daarnaast was het toen een werkelijk militair project... die intercontinatale rakketten zijn niet zomaar ontwikkeld... die zijn voornamelijk uit de private onderzoeken gekomen
de Columbia verongelukte niet in 2001, maar begin 2003...

http://www.meervrijheid.nl/index.php?pagina=483
2001 was nog het tijdperk van de PIII's. Ik denk niet dat de hardeschijven veel groter waren in die tijd.

EDIT:

Bron: http://en.wikipedia.org/wiki/Pentium_III (staat 1999, dus ongeveer het tijdperk van de PIII's)

[Reactie gewijzigd door omgwtfbbq op 11 mei 2008 14:20]

In mijn PC zit een 80 GB harde schijf uit 2000. Dat was destijds wel het grootste dat je kon krijgen, ik heb hem toen op de HCC Dagen gekocht met het idee van "een harde schijf is toch altijd te klein". Bij 340 MB heb je het over de eerste helft van de jaren '90.
2001 was het tijdperk van de P4 Willamette, 80Gb was toen al gangbaar
Ik heb begin 2002 een Celeron Willamette systeem gekocht met een 40GB HDD voor ongeveer 1000 euro. Dat was een midden-2001 systeem toen. Dus ik kan me wel voorstellen dat 80GB toen de 750GB van nu is (aangezien de meeste kant en klare PC's van nu met een HDD van 320GB of 500GB komen).
Wat dus alles behalve 'gangbaar' was...
verwijzingen naar het bouwjaar van de shuttle zijn niet relevant, want dit gaat over een hard disk voor een onderzoeks project.

Voor onderzoek hangt het gewoon af van de opdrachtgever wat voor hardware er gebruikt wordt, dat kan bv ook een nieuwe laptop zijn voor de data opslag.

In dit geval zat de harddisk in een module in het laadruim en is het mogelijk dat de hardware al ontworpen was in de jaren 90 (340MB was heel normaal in 94).

De besturing van de shuttle vind trouwens niet plaats met 386 of iets dergelijks maar met een zelfgemaakt systeem uit de jaren 70, het is vrijwel niet veranderd in de afgelopen 40 jaar (behalve bugs eruithalen). Wel zijn er extra dingen toegoevoegd later, bv voor meer data overdracht naar de aarde.
Klopt niet helemaal. De huidige hoofdcomputers dateren uit 1990. Deze zijn volledig compatibel met de oorspronkelijke computers (met wat meer megahertzen en geheugen). De "moderne" electronica was zoveel zuiniger, lichter en vooral betrouwbaarder geworden dat het de moeite waard was de computers opnieuw te ontwerpen met "moderne" componenten.

Astronauten werken overigens niet zelden met hypermoderne laptops voor hun dagelijkse taken.

[Reactie gewijzigd door dmantione op 12 mei 2008 09:26]

hmm merk IBM maybe?

en vliegtuig en space shuttle technology gaat nog heel veel uit van zwaar beproefde materie.. die nemen geen risico met een hyper moderne computer. dit doordat de stabiliteit niet is gegarendeerd.
Naar het merk kunnen we denk ik alleen gissen. Bedenk je daarbij dat we in die tijd nog wat meer fabrikanten hadden dan nu. Een bedrijf als Quantum bestaat niet meer, Conner ook niet meer, (behoort nu allemaal tot Seagate, Quantum is overgenomen door Maxtor en die zijn nu bij Seagate, Conner is direct door Seagate overgenomen). En als ik me niet vergis bestond Seagate toen nog niet, maar was het Shugart.
En blijkbaar had je rond die tijd nog MiniScribe, Rodime, JT Storage en Kalok. Die zijn er inmiddels allemaal niet meer.

En wie zegt dat ze geen custom built disks hebben gebruikt? Ik kan me eerlijk gezegd nog wel voorstellen dat ze toch een wat meer solide disk willen hebben.

[Reactie gewijzigd door TERW_DAN op 11 mei 2008 14:48]

Nee, Seagate was altijdt al Seagate (1979) en dus ook nog in 2003.
Het eerste produkt stamt uit 1980 en de oprichter kwam wel bij Shugrate Associates vandaan aldus Wikiped.
"Seagate Technology was founded (under the name "Shugart Technology")"
Het heette dus wel Shugart in het begin
Ik betwijfel of de harddisks onder die naamverkocht werden, als dit al het al het geval was en dan nog zal het volgens mij al vrij snel (80s) in Seagate zijn veranderd.
Ik meen de HD's zeker al sinds begin 90's te kennen.
De ST506/ST412 standaard (aka MFM/RLL harddisks, pre-IDE) zijn genoemd naar de ST506 en ST412 HDs, half height 5.25 van 6 MB en full-height 5.25 van 12 MB respectievelijk. En dat zijn Shugart Technologies modelnamen. Seagate Technologies gebruikt overigens nog steeds modelnamen die beginnen met ST.
Wat voor merk ook, ga er maar van uit dat het niet je huis-tuin en keuken harde schijfje is geweest. Hij heeft er misschien hetzelfde uitgezien, maar deze harde schijf was veel meer bestand tegen drukverschillen, is radiation-hardened en heeft een veeeel grotere tolerantie tegen vibraties. En ga er ook maar van uit dat de prijs het honderdvoudige is geweest can een vergelijkbaar desktop diskje van die capaciteit. En dat dat allemaal factoren zijn geweest waardoor de harde schijf uberhaupt nog uit te lezen is geweest.
Kalok....haha ja heb ik er nog 1 van liggen, nog eentje met ouderwetse stappenmotor. Wel IDE aansluiting, dat wel :)

En als ie draaide was het geluid wat ie maakte : "Kalokkalokkalok"

What's in a name :P

[Reactie gewijzigd door Pmf1971 op 11 mei 2008 15:29]

Ik denk eerder dat het nog een MFM controler is geweest die deze HDD heeft mogen aansturen.
De volgende keer toch maar Rugged Harddisks of SSD's gebruiken? :P
Het enige probleem is dat de hardschijf is gesmolten, dat zou bij SSD ook gebeurd zijn. Gesmolten chips lijken mij niet eenvoudig herstelbaar. Dus 99% dataherstel van 50% capaciteit met de huidige hardware is best goed terwijl de vervangingskosten veel lager liggen. Enkel rugged zou het smelten kunnen vertragen of wellicht zelfs voorkomen, maar de behuizing wordt dan denk ik te zwaar omdat het extreme temperaturen moet aankunnen.
Het zou me weinig verbazen als dit spul al niet gewoon rugged was :P. En ik weet niet of een SSD ideaal was geweest, dat spul smelt helemaal weg, volgens mij kun je er dan helemaal niets meer vanaf halen.
Dat lijkt voor de hand te liggen, maar ik heb nog nooit ergens een vergelijking gelezen over de betrouwbaarheid van SSD's in sterke stralings-omgevingen zoals de ruimte.
Neemt teveel plaats en gewicht in voor in een space shuttle. 340 MB aan ponskaarten?
Gewicht zegt niet zoveel in de ruimte :p Het zorgt ervoor dat de shuttle wat harder naar beneden komt en wat meer moeite heeft om op te stijgen, maar eenmaal in de ruimte mag het gewicht geen probleem meer zijn.

Ruimte is een ander iets. Ik las laatst een berekening van hoeveel pagina's je nodig had voor een mp3-tje van 3mb. Dat liep tot ergens in de miljoenen dacht ik :D
Gewicht is alles in de ruimte. Voor een shuttle launch betaal je $10.000 per pond, oftewel $100 per gram. Dat betekent dat gewichtsbesparing veel belangrijker is dan bijv bij superlichte racefietsen.
Euh, dat gewicht merk je dus alleen binnen de aantrekkingskracht van de aarde(of enig ander ruimte object met aantrekkingskracht). Ben je daar buiten (in de ruimte) dan wordt de massa niet meer aangetrokken en weegt het niets meer. Ga maar eens in een spaceshuttle op een weegschaal staan.

Uiteraard begrijp ik best wat je bedoeld en heb je op jouw manier ook helemaal gelijk. Ik liet kosten even buiten beschouwing.
Jammer dat er geen merk genoemd wordt, was leuke reclame geweest.
Dat deze harddisk het overleeft heeft, is meer toeval dan dat het iets te maken heeft met de fantastische kwaliteit van dit merk. Harddisks worden niet ontworpen om een explosie van raketbrandstof de wrijvingshitte van de aardatmosfeer te overleven. Anders zouden die twee andere harddisk ook nog wel leesbaar zijn.

Het is wel reclame voor Ontrack die het toch maar voor elkaar heeft gekregen om de data van deze verbrande, gedeukte en vervuilde harddisk te herstellen.

[Reactie gewijzigd door Atomsk op 12 mei 2008 13:00]

Dat deze harddisk het overleeft heeft, is meer toeval dan dat het iets te maken heeft met de fantastische kwaliteit van dit merk. Harddisks worden niet ontworpen om een explosie van raketbrandstof te overleven.
Een spaceshuttle heeft zelf geen raketbrandstof aan boord, daarvoor zijn de 2 externe herbruikbare boosters, en de niet herbruikbare vaste-brandstof tank (waar zoveel om te doen is bij iedere lancering wegens loskomende brokstukken die het hitteschild van de shuttle kunnen beschadigen) bevat de brandstof van de shuttle's eigen motoren.

Zodra de shuttle los is van de zwaartekracht (buiten de damprking dus) gebruiken ze stuwraketten (gas) om te maneuvreren. De motoren worden verder niet meer gebruikt. (daarom moet een landing ook zo precies gebeuren, je kan het geen tweede keer proberen).
Een shuttle heeft wel degelijk zelf raketbrandstof aan boord, maar wel veel minder dan in de externe brandstof tank. Tegen de tijd dat je in het missieprofiel zit waar Colombia verging is dat wel grotendeels verbrnad, maar okok dan nog is er reserve hooeveelheden, vooral ook voor de maneuvering thrusters (hydrazine, gemeen goedje).
Ik vergiste me met de ramp met de Challenger, jaren daarvoor. Daarbij ging het wel om explosie van de raketboosters tijdens de lancering. Hier bij de Columbia ging het om beschadigingen aan het hittewerende schild die ertoe leiden dat de Columbia tijdens terugkeer in de atmosfeer verbrande door oververhitting.

Maar goed, het argument blijft nog steeds overeind dat je het overleven van de harddisk niet kan toeschrijven aan de fabrikant. Net zo goed als je bijv. Gazelle niet hoeft te bedanken als een paar fietsen daarvan een brand in een fietsenstalling overleven.
dat doen ze extra... de vlag die op de maan is gepland... zijn geleverd door 1 van de zoveel vlaggemakers... die zelf niet wisten welke nou de vlag heeft gemaakt...

puur om reclame te voorkomen
Nou is het hier meer een soort van inferieure hardware discussie geworden, maar ik vraag mij af hoe het kan dat die schijf zo warm is geworden, en de platters niet totaal gedemagnetiseerd zijn daardoor.
Stook maar eens een magneet goed heet, dan is het daarna een blok materiaal dat weer gemagnetiseerd zou kunnen worden, maar echt niet meer magnetisch is.

Zijn die platters zo goed dat ze tegen temperaturen tegen het smeltpunt van aluminium kunnen en dan nog steeds magnetische data vasthouden?! Dat had ik echt niet verwacht.
Je hebt duidelijk de algemene boodschap van het artikel niet door, het is uitermate opmerkelijk dat men nog data van die disk heeft kunnen halen. Bij andere gevonden schijven was er geen beginnen meer aan.

Dus je conclusie geldt ook voor de NASA, ze hadden het ook nooit verwacht ;)
Blijkbaar zijn die stukken van de schijf nooit boven het Curie-punt van de coating gekomen, is een kwestie van geluk hebben.
Hoe kan een HD nu in de ruimte niet werken?
Ik heb wellis waar een beperkte kennis van computermechanica, maar ik dacht altijd dat gewichtloosheid toch niet van invloed is op een HD?
De (schrijf)arm kan toch gewoon bewegen? De platters ronddraaien?
Ik denk dat het probleem eerder de hoge aanwezigheid van allerhande straling een probleem vormt, niet de gewichtloosheid.
Dat HD's niet werken in gewichtloosheid lijkt mij broodje aap. Ten eerste worden de platters aangedreven door een electromotortje. Ten tweede worden de actuator arms electro-magnetisch gestuurd doormiddel van een spoel. Allebei de bewegingen zijn onafhankelijk van zwaartekracht, zeker wat schaal betreft. Aangezien dit topic gaat over een harddisk die gebruikt is in de ruimte kan ik niet anders concluderen dat dit broodje aap is :)

Misschien een idee voor Mythbusters :*)

[Reactie gewijzigd door BLRacing op 11 mei 2008 22:24]

Als je een hd op aarde in elke positie kan gebruiken moet gewichtsloosheid idd geen probleem zijn.
lol. Ik heb wel eens zwevende bestanden op mijn schijf gehad, tenminste als ik windows XP moet geloven.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True