Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties

De ruimtesonde New Horizons die onderweg is naar Pluto bevat dezelfde MIPS-processor als de cpu die in de eerste PlayStation van Sony was te vinden. Het gaat om een voor ruimtevaart geschikt gemaakte MIPS R3000-processor.

De MIPS R3000-cpu, een 32bits risc-processor, kwam in 1988 op de markt en is breed toegepast in allerhande elektronica. De cpu is onder andere verwerkt in de eerste PlayStation-console van Sony. Daar draaide de processor op een kloksnelheid van 33MHz. Een van de kenmerken is de beperkte instructieset, een feature die door sommige programmeurs als 'elegant' wordt omschreven.

Het processordesign van de R3000 is ook in de smaak gevallen bij NASA. De processor is in een speciaal voor ruimtevaart geschikt gemaakte uitvoering in de ruimtesonde New Horizons geplaatst. De sonde staat op het punt om bij de planeet Pluto aan te komen.

De aangepaste processor heet Mongoose-V en is gebouwd door de firma Synova. De kloksnelheid is verlaagd naar 12MHz en een speciale afdeklaag moet de cpu beschermen tegen kosmische straling.

Mongoose V

Moderatie-faq Wijzig weergave

Reacties (55)

Wel gaaf. Maar is ie al een tijdje onderweg dat er zo'n oud lijk in zit?
In sondes zitten eigenlijk altijd wat wij hier als oude hardware zien. Niet alleen is het oudere lithografische proces minder gevoelig voor ruimtestraling en de fouten die dat veroorzaakt (o.a. bit flipping), maar is de hardware ook tot en met doorgetest. Veel bekende missies delen dezelfde, in onze ogen verouderde hardware, juist omdat deze betrouwbaar is gebleken en getest en men er erg veel ervaring mee heeft. Zo draai(d)en Deep Impact, Curiosity/MSL en Kepler allemaal op dezelfde RAD750 PowerPC afgeleide computer. Waarom zou je dat veranderen als je je ermee redt? Daar komt nog bij dat nieuwe hardware radiation hardened maken en op alle mogelijke scenario's testen erg veel tijd en geld kost.

Je kunt de hardware en microcode van je ruimtesonde niet zomaar even resetten, dus ultieme betrouwbaarheid en voorspelbaarheid is veel belangrijker dan het nieuwste van het nieuwste spul met veel MHz'en de ruimte in schieten.

[Reactie gewijzigd door Camacha op 15 januari 2015 18:02]

How does space radiation affect electronics?
Radiation effects in the interior of satellites are often grouped into three categories: total ionizing dose, displacement damage and single event effects. Total ionizing dose effects in electronics are the result of damage that usually builds up over a long period of time in an insulating region of an electronic device. This changes the device properties, which results in performance degradation and eventually can cause the device to fail completely. Displacement damage is also a cumulative effect but this occurs in the electronic device’s semiconductor material. These effects also cause the device to deteriorate at first and possibly fail if it is exposed to enough radiation. Single event effects are caused by the passage of a single particle through a sensitive region in an electronic device. There are many types of single event effects, which can be either non-destructive or destructive to the device. The severity of the effect can be so small that it can go unnoticed. At the other extreme it could cause a system in a satellite to shut down.

Space radiation can create other kinds of damage in satellites as well. For example, it can cause electric charge to build up in an insulating material to the point where a discharge can occur that damages something. This discharge is the same type of thing that would happen if you walked across a carpet, touched an object and were shocked by a static discharge.
Bron: NASA: Space Radiation

Er zijn inderdaad behoorlijk wat factoren die invloed hebben om zo'n beetje alle materialen die je in de ruimte gebruikt, ogenschijnlijk veilige materialen (isolatoren) kunnen door de overdosis straling alsnog averechts gaan functioneren.
Je kunt je ruimtesonde niet zomaar even resetten, dus ultieme betrouwbaarheid en voorspelbaarheid is veel belangrijker dan het nieuwste van het nieuwste spul met veel MHz'en de ruimte in schieten.
Het is volgens mij juist de bedoeling dat een ruimtesonde wel makkelijk gereset kan worden en opverschillende manieren, als er een of ander probleem optreedt (wat meestal wel gebeurd). Het belangrijkste is dat het reset "commando" doorkomt (na enige minuten/uren reistijd door de ruimte) en dat de sonde daar altijd op kan reageren. Vaak wordt het een sonde gereset naar een zogenaamde "Safe Mode" van waaruit problemen opgelost kunnen worden.

[Reactie gewijzigd door geometry45nm op 15 januari 2015 18:00]

Ik denk dat hij niet resetten bedoelt zoals we op hardware niveau kennen, maar 'herinstalleren' wat in de volksmond ook als 'resetten' beschouwd wordt.

Het is natuurlijk logisch dat er remote failsafe systemen ingebouwd zijn in miljoenenprojecten die de ruimte in gaan, maar het probleem dat je er niet 'even bij' kan als je iets moet fixen is de reden dat alles extra hardened, berkenbaar, betrouwbaar, redundant en beschermd moet zijn.
Ik gok erop dat de cpu op een nog vrij grote nm schaal geproduceert kan worden met een productieprocess wat men nagenoeg 100% onder de knie heeft. Tel daarbij op dat de cpu "een beperkte instructieset" heeft, voor de ruimtevaart moet je dan lezen: iets waar je maar weinig verschillende dingen mee kan daar kan ook niet veel mis mee gaan.

Dat is iig wat ik er dan van maak.
Elke "general-purpose" CPU kan in principe van alles. Het is niet zo dat je met een RISC (Reduced Instruction Set Computer)-CPU zoals MIPS3000 minder kunt doen, vergelijkbare processors zaten vroeger in workstations, supercomputers, game consoles, (en tot recent) apparaten als routers en DVD spelers.

Het enige waar RISC betrekking op heeft is dat de codering van de machinetaal van de processor minder verschillende instructies heeft, waardoor je soms meerdere instructies nodig hebt om te bereiken wat met een meer complexer instructiest (zoals Intel x86) in een enkele instructie uitgevoerd te worden. Beide hebben voor- en nadelen wat hardware-implementatie betreft, maar voor het programmeren in een hogere programmeertaal maakt het niet veel uit.

Ik denk wel, zoals al gezegd, dat een RISC-CPU, vanwege de minder grote complexiteit, minder vatbaar kan zijn voor (onvoorziene) hardware problemen zoals een lock-up of fout door een of andere obscuur timing probleem dat zelden optreedt. Zo'n CPU kan ook makkelijker en completer getest worden (wat bij zo'n hardened type ook zeker uitvoerig gebeurd).
Bijkomend voordeel van RISC processoren is dat veelal elke instructie in één klokcyclus uitgevoerd kan worden. Een andere populaire processor uit die tijd is de Intel i960. Veel toegepast in laserprinters en RAID controllers uit die tijd. En grappig genoeg wordt die nog steeds gemaakt (alleen ietsje sneller en uktra low power).
"Bijkomend voordeel van RISC processoren is dat veelal elke instructie in één klokcyclus uitgevoerd kan worden."

Waarom is dat een voordeel?
Doordat instructies in één klokcyclus worden uitgevoerd is relatief meer coe nodig. De benodigde tijd om code uit te voeren is per saldo ongeveer gelijk aan de benodigde tijd voor een processor met complexe architectuur. Een RISC processor werkt echter alleen met registers en niet met tijdelijk geheugenopslag voor bewerkingen. Hierdoor heeft een RISC processor veel minder transistoren op de chip nodig waardoor warmteontwikkeling en stroomverbruik beperkter zijn. Iets dat bij dit soort specifieke toepassingen een vereiste is, elke milli-Ampère die bespaart kan worden, is er een.

Door het minder complexe ontwerp en de beperktere warmteontwikkeling, is een processor betrouwbaarder voor gebruik in extreme omstandigheden (temperatuur/straling).
Ik gok erop dat de cpu op een nog vrij grote nm schaal geproduceert kan worden met een productieprocess wat men nagenoeg 100% onder de knie heeft. Tel daarbij op dat de cpu "een beperkte instructieset" heeft, voor de ruimtevaart moet je dan lezen: iets waar je maar weinig verschillende dingen mee kan daar kan ook niet veel mis mee gaan.

Dat is iig wat ik er dan van maak.
Het is vrij normaal in de ruimtevaart dat men een oude CPU pakt. Zie ook: nieuws: Philae-lander verstuurt eerste foto's vanaf komeet naar ESA waar een http://en.wikipedia.org/wiki/RTX2010 in zit en mogelijk nieuwer is dan dat apparaat. Uit de reacties van dat artikel werden een paar nuttige opmerkingen gedaan:
  • De ontwikkeling van een ruimtesonde begint al ruim 10 jaar voor de lancering en ze beginnen met het kiezen van de basisonderdelen (zoals de CPU)
  • NASA kiest hardware op betrouwbaarheid een CPU moet zich al bewezen hebben
  • Er zijn maar een handjevol CPU's die het keurmerk: spaceproof hebben, veroorzaakt door de hoge testkosten. Hierdoor is het niet rendabel om elk jaar een nieuwe CPU te gaan selecteren

[Reactie gewijzigd door Bliksem B op 15 januari 2015 19:13]

Vergeet niet dat ook de aanpassing op de ruimte de nodige eisen stelt. Sowieso is de straling daar veel intenser, dus je wilt een groot procede gebruiken (lees: niks geen 28 nm, dat wordt ouderwets 350 nm op z'n best) omdat je dan meer straling kunt hebben, zonder dat je chip kapotgaat. Dat betekent ook dat je geen nieuwe grote architectuur kunt gebruiken, want dat past dan nooit op je oppervlak. Daarna begint het test-traject, waar je ook rustig een jaar of wat mee bezig bent dus zodra zo'n chip gelanceerd wordt is ie al zwaar verouderd. Tegen de tijd dat hij aankomt ( 9 jaar later) zit je dus echt met iets heel ouds. Prima, uiteraard, als het dan nog maar werkt.
Pluto ligt niet naast de deur volgens mij
Voor het licht is het een tripje van 5 en een half uur... voor een satelliet blijkbaar 9 jaar ongeveer. Dat valt nog te doen.
Daarbij wel gezegd dat een ruimte sonde om er negen jaar over te doen wel een zet nodig heeft van de zwaartekracht van Jupiter en dat gebeurd iedere 12 -13 jaar. Anders zijn ze nog een jaar of 5 extra onderweg geloof ik. Bizare afstanden allemaal. Blijft ongelovelijk knap dat ze dit kunnen.
Het gaat er volgens mij vooral om dat ze de techniek die deze processor heeft compleet onder de knie hebben, zodat je alles kunt benutten wat mogelijk is, en het meest betrouwbaar is. Het is natuurlijk doodzonde als je 9 jaar onderweg bent, en je er zit een fout in de processor.... Mission Failed....
Niet alleen techniek, maar ook betrouwbaarheid. Ze klokken het niet voor niets met 50% terug en schilden 'm af voor kosmische straling.

Op ebay vind je wel eens military hardware, dat is totaal ander spul dan dat je in een X86 PC bent gewend. Veel dikker, robuuster en meer richting old-skool 286 hardware. Maar wel spul dat in bijna elke omstandigheid z'n tikken kan doen.
ik denk dat er niet meer nodig is, en dat het vooral om betrouwbaarheid gaat. Die beperkte instructieset zal ook wel veiligheid mee brengen
Gelanceerd in 2006, project is gestart in 2001.

http://en.wikipedia.org/wiki/New_Horizons
Hoeft niet persé zo te zijn. Vaak kiezen ze processoren als deze vanwege de minimale instructiesets. Hierdoor komen bugs minder vaak voor, wat meer stabiliteit garandeert. Iets wat binnen de ruimtevaart gewenst is.
Ja een Over The Air update is nou niet 1.2.3. gedaan als je systeem een flink aantal km's verder op zit.. Dan kies je voor stabiliteit ipv een PowerHouse
Het lijkt me eerder dat ie een tijdje onderweg is geweest in het certificatie traject :P . Nadat zo'n chip dan is goedgekeurd wordt ie vaak al redelijk vroeg in het ontwikkeltraject van zo'n sonde uitgekozen. En ook daar mag je dan wel weer rekenen op een decennium.
Ach ja, 10 jaar geleden waren de 8086's bij NASA niet aan te slepen omdat ze nog veel in oude systemen zaten die nog niet vernieuwd waren. Maar die dingen kunnen wel eens stuk gaan en vervangen was toen al lastig. Als iets stabiel werkt en betrouwbaar is gebleken dan verander je daar niet zo gauw iets aan als het niet nodig is.
Om dezelfde reden dat er nog MC68000's en Z80's gebruikt worden. Beproefd ontwerp waarvan je de specificaties kent en je zeker weet dat het niet raar gaat gedragen. Mochten er fouten in zitten, dan zijn ze bekend omdat je nu al zolang met dat ding draait. Daardoor kan je ook daarmee rekening houden.
Op zich niet vreemd.
De eerste maanlander had minder rekencapaciteit dan een standaard rekenmachientje.
Het gaat er met name om dat het systeem stabiel is.
De processor in de Hubble-telescoop is bijvoorbeeld eind 1993 geüpgrade(!) met een 386 co-processor.
Een oud lijk is relatief. Waarom zou je er meer in stoppen dan wat nodig is? Als hij precies up to spec is, waarom zou je dan miljoenen of miljarden in andere space-ready hardware gaan stoppen? Het is niet alsof een snellere computer andere resultaten op gaat leveren of sneller is in doen wat er gedaan moet worden.
Ja, hij is al even onderweg: 9 jaar.
New Horizons werd bijna negen jaar geleden gelanceerd.
nieuws: NASA maakt New Horizons-verkenner 'wakker' voor reis naar Pluto
Wat me opvalt is dat Sony echt van die hardware gebruikte wat zoals ook in het ''leger'' nu ook wordt gebruikt zoals die vanuit de PS3 enz en die ook nog voor andere doeleindes gebruikt wordt.

Wat is de keuze die Sony daarvoor koos altijd? De cell-processor was dan wel van Sony maar die heeft volgens mij er niks meer mee gedaan??? Wat wel jammer is want 1st party ontwikkelaars kwamen altijd met een stukje kwaliteit op de console. Jammer dat dit niet doorgezet was naar de PS4 misschien als ze meer gingen investeren in hun ''eigen cell-processor'' uit eindelijk de processor een succes zou worden voor de gaming industrie...

[Reactie gewijzigd door theduke1989 op 15 januari 2015 17:37]

De cell in de PS3 was van IBM. En belachelijk lastig om voor te programmeren
Valt op zich ook wel mee. Het was in het begin alleen een heel apart ontwerp waarbij je met de traditionele manier van programmeren niet ver kwam, waardoor ontwikkelaars eigenlijk gedwongen werden om eens op een andere manier te werken, met voor games een beperkte impact, maar voor de wetenschap een gigantische impact.

Naar mijn mening was de PS3 dankzij de CELL processor de meest invloedrijke console van die generatie. Het is mede door de CELL processor dat werken met massa's "simpele" cores populair is geworden zoals we nu zien met CUDA en openCL en dergelijke. CELL heeft een hele nieuwe manier van programmeren en hardware benutten weten populair te maken en de techniek een flinke stap vooruit geholpen.
uhh, nee de Cell was van Sony IBM en Toshiba, die laatste heeft deze ook nog eens in wat tv's geplaatst gehad, en IBM heeft toch nog een zwik bladeservers ermee uitgerust.. En juist dat laatste is de werkelijke reden waarom Sony OtherOS geschrapt had, NIET omdat men zogenaamd via OtherOS de PS3 zouden hebben gehackt (dat kwam pas NA de bekendmaking dat OtherOS geschrapt werd), maar omdat IBM het niet leuk vond (en Sony ook niet) dat universiteiten en zelfs het leger PS3's aanschafte om deze rekentaken te laten uitvoeren, IBM niet omdat ze dan geen bladeservers meer verkochten, en Sony omdat ze de PS3 met verlies (toen in iedergeval nog) verkochten en deze onderzoekers zeker geen games zouden kopen... En de aankondiging dat OtherOS op de slim geschrapt zou worden omdat het technisch niet mogelijk was, is natuurlijk achteraf ook gebleken dat het complete onzin was, OtherOS draait perfect op een slim (nadat je er een Custom firmware op geladen hebt)..
De Cell kon Sony zeer goedkoop verkrijgen. Het zijn eigenlijk octacore CPU's die door IBM gemaakt werden voor servers waar hoge performance noodzakelijk was. Het bleek echter dat een groot deel van de CPU's 1 core had die niet werkte. Die werden overgekocht door Sony, omdat IBM CPU's met 1 core minder dan bedoeld toch moeilijk kwijt zou kunnen, dus waarom zou je ze niet verkopen voor gebruik in een console? Daarom was de PS3 ook best krachtig voor zijn tijd, en werd hij gebruikt voor parallel computing (omdat het oorspronkelijke model van de CPU daar ook voor bedoeld was). Grappige is ook dat PS3's die een custom firmware draaien en dus een Linux bootloader geïnstalleerd kunnen krijgen, ook getest kunnen worden op de cores.

Zo zijn er mensen die een PS3 voorzien van een afgeleide van Debian voor de PS3, en met een tooltje in de terminal zien ze dan dat die achtste core ook doodleuk blijkt te werken.
uhh,, nee dus... De Cell was oa specifiek ook ontworpen met de PS3 in het achterhoofd, origineel was ook de bedoeling dat er meerdere cell procs gebruikt zouden worden ipv een GPU, maar door de lage yields en daardoor hoge kosten was dat niet haalbaar en is op het allerlaatste moment toch nog een GPU van nvidia er bij betrokken (wat ook de reden is dat niet alles zo lekker op elkaar afgestemd is)..
Enuh, de Cell is helemaal geen Octacore CPU, deze heeft maar 1 CPU en 8 SPU's waarvan er dus 1 uitgeschakeld is, dat gedeelte klopte wel van je verhaal, en de reden klopt ook, die 1ne was uitgeschakeld omdat niet bij alle CELL procs deze goed werkte..
En in theorie zou een developer die 8ste SPU dus ook kunnen gebruiken indien deze zou werken..
My bad, tijdje geleden dat ik nog actief was met de hardware van de PS3 :) (in de tijd van 3.55 en toen het doel nog echt Linux was, vaak genoeg in kernels gedoken om het werkend te krijgen etc. :))
Waarom Sony daarvoor koos weet ik niet, maar Cell heeft wel een aantal unieke eigenschappen die ook zijn ingezet in andere projecten als de PS3. Wat goed is om te onthouden is dat we destijds aan de vooravond stonden van een media revolutie waarbij alles 'data' werd en fysieke media hun uittrede doen. De PS3 werd dan ook gezien en neergezet als het multimedia powerhouse van de toekomst en daarvoor was iets met veel cores en threads nodig. Het idee was om Cell ook te gebruiken in bijvoorbeeld HDTV's en toekomstige 'smart' TV's en andere media platformen.

"On June 28, 2005, IBM and Mercury Computer Systems announced a partnership agreement to build Cell-based computer systems for embedded applications such as medical imaging, industrial inspection, aerospace and defense, seismic processing, and telecommunications.[21] Mercury has since then released blades, conventional rack servers and PCI Express accelerator boards with Cell processors.[21]

In the fall of 2006, IBM released the QS20 blade module using double Cell BE processors for tremendous performance in certain applications, reaching a peak of 410 gigaFLOPS per module. The QS22 based on the PowerXCell 8i processor is used for the IBM Roadrunner supercomputer. Mercury and IBM uses the fully utilized Cell processor with eight active SPEs. On April 8, 2008, Fixstars Corporation released a PCI Express accelerator board based on the PowerXCell 8i processor.[22]"


bron: http://en.wikipedia.org/wiki/Cell_%28microprocessor%29

[Reactie gewijzigd door Vayra op 15 januari 2015 17:43]

De reden dat de ps4 geen "eigen" ontwikkelde CPU heeft is door 2 dingen, ten eerste programmeren ervoor (doelt op de ps3) was een stuk moeilijker, nu de ps4 een x86 processor heeft gaat dat een stuk makkelijker (en de poets naar PC's zullen ook beter worden erdoor, minder gedoe voor ontwikkelaars.

Ten tweede, eigen CPU ontwikkelen kost geld, ook een reden dat de ps3 ver onder de kostprijs werd verkocht door Sony in het begin.
Deze chip is zeven jaar na de PS1 release gekozen en toen was hij al zes jaar oud.
Dat is alsof ze nu een Pentium4 of Athlon XP selecteren om over vijf jaar de ruimte in te schieten :)
Jep, omdat die onderdelen hun degelijkheid al bewezen hebben. Het is zelden zo dat je supernieuwe technologie installeert in ruimtesondes. Als er ergens een bugje zit kan je het heel moeilijk nog corrigeren..
Hoe koelen ze een cpu in de ruimte? Misschien klokken ze hem daarom ook nog langzamer.
Zover van de zon in de ruimte is het nogal koud... Denk niet dat ze veel aan actieve koeling hoeven te doen daar.
Hmm ja misschien is het helemaal niet nodig. Maar de enige manier om warmte kwijt te raken is straling.
Grappig, de laatste episode van The Big Bang Theorie (S08 E12 - The Space Probe Disintegration) ging over deze sonde. Ik neem aan dat die sonde recentelijk terug uit slaapstand gekomen is?

Edit: linkje toegevoegd

[Reactie gewijzigd door 24shure op 15 januari 2015 18:06]

De wondere wereld van de ruimtevaart. Er is wat mij betreft niets wat wonderlijker is.
Beetje een misleidende titel :)

'De processor is in een speciaal voor ruimtevaart geschikt gemaakte uitvoering in de ruimtesonde New Horizons geplaatst. De aangepaste processor heet Mongoose-V en is gebouwd door de firma Synova. De kloksnelheid is verlaagd naar 12MHz en een speciale afdeklaag moet de cpu beschermen tegen kosmische straling.'

Da's nou niet echt hetzelfde als de 'Processor uit de eerste PlayStation' 8)7
Even iets rechtzetten, Pluto is geen planeet maar een dwergplaneet.

http://en.m.wikipedia.org/wiki/Pluto
De Curiosity rover heeft een RAD750, wat een PowerPC G3 cpu is die veel gebruikt werd door Apple.
Knap dat nasa haar taak kan uitvoeren met zo'n oude processor. Ook toen de sonde gelanceerd werd was de processor al oud.

so....when will NASA start probing Uranus? :+
Als je ziet wat ze met de appolo missies hebben gedaan en welke hardware.. Een 'simpele' berekening lijkt mij ook minder te vragen dan iets te renderen op je scherm.
There's no point. Uranus is filled with dark matter.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True