Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 34 reacties

De Deense ESA-astronaut Andreas Mogensen gaat maandagmiddag vanaf 14 uur Nederlandse tijd experimenten vanuit het International Space Station uitvoeren met de Interact Centaur-rover, een robotwagentje dat zich op aarde bevindt in een ruimte van ESTEC in Noordwijk.

Mogensen zal de robot besturen met een joystick met haptische feedback, waardoor hij beter precisietaken op afstand moet kunnen uitvoeren. Het gaat dan vooral om taken die een mens normaal heel makkelijk zou doen door te vertrouwen op gevoel. ESA heeft het systeem 'Interact' genoemd. Het systeem is van het ESA Telerobotics and Haptics Laboratory en het Robotics Institute van de TU Delft.

In het eerste experiment zal Mogensen de robot naar een bedieningspaneel sturen. Op dit 'operations task board' moet hij via de robot dan een metalen pin uit het paneel halen en de pin terugstoppen. De pin past heel precies en heeft slechts een speling van 150 micrometer. Via de haptische feedback kan de astronaut voelen of de pin correct in het gat gestopt wordt en of de insteekhoek aangepast moet worden.

De hele operatie wordt uitgevoerd vanuit het ISS, wat zich op zo'n 400 kilometer boven de aarde bevindt. Er zijn drie dataverbindingen via udp, die gaan via een constellatie van geogesynchroniseerde satellieten op een hoogte van 36.000 kilometer. De communicatie tussen de haptische joystick en de robotwagen is heel gevoelig voor vertraging. De grootste vertraging via de satellietverbinding is 0,8 seconden. Speciale algoritmes en een augmented grafische gebruikersinterface moeten de operator het gevoel geven dat zijn handelingen realtime effect hebben.

Een normale ruimterobot wordt bediend door een actie in te voeren, waarna deze actie later wordt uitgevoerd, vaak met grote vertraging. De Mars Rover krijgt een opdracht, bijvoorbeeld een stukje naar voren rijden en vervolgens een monster nemen, en kan deze pas een kwartier later uitvoeren. In dit geval is het doel te simuleren hoe het is als een mens een robot op het oppervlak bedient vanuit een ruimtevaartuig dat zich in de buurt van een planeet bevindt.

Afgelopen jaar testte ESA al mens-machine-interactie met het ISS in de Haptics 1- en Haptics 2-experimenten. Het Haptics 2-experiment was het eerste experiment waar ook echt haptische feedback terugkwam naar de joystick.

Het experiment is live te volgen via een YouTube-uitzending op ESA's blog. De eerste experimenten zullen vanaf 14 uur maandagmiddag uitgevoerd worden.

esa estec haptische feedback robot interactesa estec haptische feedback robot interactesa estec haptische feedback robot interactesa estec haptische feedback robot interact

Moderatie-faq Wijzig weergave

Reacties (34)

Ik vraag me alleen af waarom ze dit vanuit het ISS moeten testen. Volgens mij kan je dit prima op aarde doen. Manuren in het ISS zijn nogal kostbaar lijkt me.
Omdat je op deze manier ook gelijk test hoe dergelijke interacties in zero-G omgeving werken, wellicht? De feedback van een dergelijk systeem zal heel anders ervaren worden als er geen noemenswaardige zwaartekracht op de onderdelen en degene die het bedient werkt.

Gezien de beoogde toepassing van dergelijke technologie - zo te zien besturen van landers/rovers vanuit orbit - op zich wel prettig om de uiteindelijke omstandigheden zo goed mogelijk te simuleren. Ik reken erop dat ze het al ruimschoots op aarde getest zullen hebben, overigens, voor er ISS-manuren in gestoken werden :)
In dit geval is het doel te simuleren hoe het is als een mens een robot op het oppervlak bedient vanuit een ruimtevaartuig dat zich in de buurt van een planeet bevindt.
Wat mij betreft is er in dit geval zelfs geen sprake van simuleren; er is een mens in een ruimtevaartuig dat zich in de buurt van een planeet bevindt en daar een robot bedient. Dit is geen simulatie, dit is The Real Thing. (Maar dan met de luxe van extra handjes op de planeet voor als er iets fout gaat en de test anders afgebroken zou moeten worden.)
Dat vroeg ik me ook al af. Qua afstand was Moskou bijna spannender geweest dan het ISS op 400 km. Voor de PR doet dit het natuurlijk veel beter, want het ziet er al veel bruikbaarder uit.

En misschien kunnen ze het ooit omdraaien: geen astronouten permanent in de ruimte, maar een paar van dit soort robots. Dan kan je zero-G experimenten doen tegen lagere kosten en zonder dat je astronouten aan de gevaren van de ruimte blootstelt. Of een combo: naast de astronouten een aantal experimenten vanaf aarde doen. Dan kan je meer doen in dezelfde tijd en dat helpt vast om de prijs te drukken.
Ja maar het ISS is wel 400 km draadloos :)
Dat is intussen niet meer hip. Als je ziet dat er communicatie plaats vind met satellieten op miljoenen kilometers van de aarde, dan is 400 km een lachertje.

En zelfs het ISS is alleen 400km als je er recht onder staat. Dat zal ook doorgaans in de duizenden kilometers zitten.
Dat is intussen niet meer hip. Als je ziet dat er communicatie plaats vind met satellieten op miljoenen kilometers van de aarde, dan is 400 km een lachertje.
Sondes. Satellieten zitten over 't algemeen wat dichterbij.

En die communicatie met ruimtesondes gaat met een kilobyte of wat per seconde…
OK, OK, sondes. Pietje precies ;) En die gaan niet van de vlotte, qua bandbreedte

Communicatiesattelieten halen throughputs van meer dan 100 Gbit.

https://en.wikipedia.org/wiki/High_throughput_satellite

En dat gaat over honderden tot duizenden kilometers :-)

[Reactie gewijzigd door hooibergje op 7 september 2015 15:28]

Dat weet ik ook, wilde alleen de vergelijking moskou en ISS teniet doen.
Volgende missie de andere kant uit?
Robot de ruimte in en vanuit de aarde bedienen.
Zoiets deed NASA al meest recentelijk met Curiosity op Mars, op een afstand van 563,000,000km.
Het ISS draait op 400 km hoogte en stuurt het signaal van de force-feedback joystick naar een TDRSS satelliet in een geostationaire baan op 36.000 km hoogte. Die stuurt het naar een grondstation in New Mexico, vervolgens naar de NASA in Houston en dan via een trans-Atlantische glasvezelkabel naar ESTEC in Noordwijk waar het eindigt in de rover.

Het signaal heeft dan bijna 90.000 km afgelegd. Als astronaut Andreas Mogensen de video-feed en de force feedback terugkrijgt is er bijna 180.000 km afgelegd. Dit resulteert in een vertraging van ongeveer 3/4 seconde.
Toch mooi als je een voertuig op een ander hemellichaam dan de aarde laat landen en van te voren weet dat het werkt.
Dat is waar, echter zit de bestuurder dan op aarde met zwaartekracht en de robot zonder. De voorbeelden uit de media waren juist van toepassing op Aardse toepassingen, bijv. inzet van robots bij kernrampen etc.

Echter, uiteindelijk wil je bijv. een maan- of Marsrobot ook zo kunnen besturen. Op dat punt heb je gelijk, dat het dan wel handig als je weet dat het door de ruimte werkt.
Het is niet alleen daarom. Wellicht dat ze bij de bemande missie naar Mars eerst een rover willen uitzetten om grondwerk te verrichten en deze willen uitsturen vanuit een baan rondom Mars.

Natuurlijk is dat maar een hypothetisch scenario maar het is zeker mogelijk dat ze zoiets overwegen. Een dergelijke robot kan door zijn directere besturing veelzijdiger gebruikt worden dan de robots wat er momenteel zijn. Mogelijk dat ze gebruikt worden om een locatie geschikt te maken voor de landing of voor verdere bewerking.

/edit; Lijkt mij fijna als astronaut in een baan rondom Mars om te weten dat je een robotvriendje hebt op de grond die zonder zuurstof zijn werk kan doen. Als er dan wat mis gaat met je collega's op de grond hebben ze iig een goede back-up die geen zuurstof nodig heeft.

[Reactie gewijzigd door Auredium op 7 september 2015 12:34]

Ik vroeg me hetzelfde af. Ik heb me er verder niet in verdiept, maar ik kreeg het idee a.d.h.v. de nieuwsberichten van afgelopen week hierover dat ze dit doen, omdat er dan een zo'n direct mogelijke draadloze verbinding tot stand kan komen. Over aarde moet je via lange afstanden glas/koper/whatever of alsnog via satellieten communiceren. Vanuit de ruimte gaat dit naar een station op aarde (vermoedelijk de instelling met de robot zelf) en zo zijn er zo min mogelijk schakels die de vertraging vergroten.

Anders gezegd: het gaat hen om de prestige van het kunnen zeggen dat ze zoiets geavanceerds over zo'n grote afstand (enkel hemelsbreed) met zo'n kleine vertraging hebben weten te bewerkstelligen.
Met de feedback van de astronaut nav deze proef, kan je het wellicht gaan toepassen op andere planeten, zoals bijvoorbeeld Mars. Dan wordt het bijvoorbeeld ook mogelijk, om Rovers met dergelijke instrumenten uit te rusten zodat je veel gerichter onderzoek kan doen vanuit de ruimte.
Awesome!

Het zou een stuk fijner zijn als er directe communicatie tussen mens en robot mogelijk is maar de afstanden en de tijd die het duurt voor het signaal zijn altijd een probleem geweest. Directe interactie zou veel dingen mogelijk maken in de ruimtevaart.

Verder is het natuurlijk geweldig om te zien dat Nederland als kleine kikkerlandje toch veel kunnen betekenen in de wetenschap. Wagens op zonne-energie, quantum computers en nu dit. Prachtig toch? :)
Het probleem met dit soort dingen is dat het om two way interactie gaat. One way is geen probleem, dan vertraagd de boel een beetje, maar de handelingen zijn hetzelfde. Op het moment dat er dus iets teruggestuurd moet worden waar een mens dan weer op moet reageren moet je dit dus feitelijk compleet gaan simuleren. Dit betekent dus dat je de complete omgeving op de micrometer nauwkeurig mag gaan nabouwen. Heel vervelend dus als er iets net niet klopt.
Ik vraag me af in hoeverre quantum entanglement ons hierbij kan helpen. Voor zover ik begrijp is de latency 0 bij dit soort comminucatie, als we hiervan gebruik kunnen maken om over verre afstanden te comminuceren zou het zomaar kunnen werken :)

@Vastloper, dank. Heeft mij weer inzicht gegeven :)

[Reactie gewijzigd door HesRuud op 7 september 2015 15:37]

Ik vraag me alleen af waarom er zo'n nadruk wordt gelegd op directe feedback - de afstanden waar dit soort toepassingen geschikt voor zouden zijn (Denk aan het besturen van een rover op een andere planeet) zijn gewoon té groot om te kunnen compenseren. Een bestuurder zou er van uit moeten gaan dat als hij een handeling uitvoert, deze ook daadwerkelijk uitgevoerd gaat worden zonder minuten (uren, dagen, whatever) te hoeven wachten op response.
Het idee hiermee is juist dat de astronaut die de robot bediend in een baan om de planeet hangt waar de robot op rond rijd. Het zijn dus geen grote afstanden maar "slechts" een paar honderd kilometer.
Ben ik de enige, die bij het zien van de foto's van de robot stiekem aan Wall-E moet denken? O+ De 'kop' heeft er veel van weg iig. ;)
meer op de zoon van Wall-E en EVE , want hij heeft wat rondere en afgewerkte vormen :)
Ik zie heel wat reacties dat er "slechts" 400 KM zit tussen robot en astronaut.
Die 400 KM is de afstand tussen aarde en ISS. Maar de ISS is niet geo stationair. ISS draait een rondje om de aarde. En elk rondje is net weer anders dan het rondje er voor.
Daarom zijn er ook zogenaamde relay satelieten die de communicatie verzorgen. Op die manier is de afstand niet 400 KM maar duizenden KM.
Klopt. Namelijk ongeveer 180.000 km:

Het ISS draait op 400 km hoogte en stuurt het signaal van de force-feedback joystick naar een TDRSS satelliet in een geostationaire baan op 36.000 km hoogte. Die stuurt het naar een grondstation in New Mexico, vervolgens naar de NASA in Houston en dan via een trans-Atlantische glasvezelkabel naar ESTEC in Noordwijk waar het eindigt in de rover.

Het signaal heeft dan zo'n 90.000 km afgelegd. Als astronaut Andreas Mogensen de video-feed en de force feedback terugkrijgt is er bijna 180.000 km afgelegd. Dit resulteert in een vertraging van ongeveer 3/4 seconde.
Latency van 800 ms is eigenlijks te doen voor de meeste dingen, hoe zit het eigenlijks met data snelheid?
Augmented reality om handelingen die nog niet uitgevoerd zijn al even te simuleren om het gevoel te geven dat er geen vertraging is. Prachtig dat dit mogelijk is! Maar ik denk dat dit niet zonder haken en ogen zal gaan wanneer dit werkelijk uitgevoerd wordt op een andere planeet. Het bekende terrein in een test situatie en het onbekende terrein op een planeet geven toch wel andere effecten. Een corrigerende handeling op een verkeerde inschatting gaat lastig als je simulatie zegt dat alles nog goed gaat. De robot moet goed geprogrammeerd zijn om bepaalde handelingen te negeren. Misschien moeten van beide kanten exact dezelfde simulatie uitgevoerd worden op het zelfde moment. Waarbij de meetsystemen van de robot moet controleren of de werkelijke handelingen gelijk aan de simulatie loopt en moet corrigeren of stoppen wanneer dit niet het geval is.
Zo te zien is de test voorbij. Het duurt wel even voordat eerste stick poging erin gaat, maar tweede poging verloopt nog sneller en stick zit alweer in de gat.

Was de eerste meer een oefening / inschatting en tweede een soort praktijk test of het sneller kan?
Gisteren de stream gekeken, was leuk en intressant, jammer genoeg liep op een gegeven moment de chat een beetje in het honderd waarna ze de chat sloten en niet veel later de video.

Video stond inderdaad een tijdje op prive, maar ondertussen niet meer. Mogelijk was dat omdat niet alles even geweldig ging, en de baas van esa ergens heel duidelijk 'scheisse' over riep waarna prompt de audio werd afgekapt.

@TeleroboticsLab: Als jullie dit lezen, al met al vond ik het wel top geregeld, stream was leuk en informatief, Q&A was heel intressant, en heb smakelijk gelachen dat jullie zelfs al mijn "grap vragen" op hadden gepakt (dingen als "spelen jullie KSP" en "hoeveel raspberry pi's zitten in die robot")
Het lijkt een beetje op een Tachikoma zo met die kleuren. Wellicht een kruizing tussen die en een Wall-E :P

[Reactie gewijzigd door Sir_Hendro op 7 september 2015 12:34]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True