Onderzoekers ontwikkelen algoritme voor besturing robotarmen

Onderzoekers van een onderzoekscentrum van het Duitse Fraunhofer-instituut hebben een methode ontwikkeld om robotarmen op een natuurlijke manier te besturen en programmeren. Kern van de methode is een speciaal sensorsysteem.

Dankzij een verzameling micro-elektromechanische sensoren, ofwel mems-sensoren, hebben onderzoekers van het Fraunhofer Institute for Manufacturing Engineering and Automation IPA in Stuttgart een inputmethode voor robots ontwikkeld. Het draagbare apparaat kan in de hand worden gehouden, waarbij bewegingen van de gebruiker door bewegingssensoren worden geregistreerd en kunnen worden doorgegeven aan een robotarm.

Bij wijze van demonstratie zullen de Duitse onderzoekers tijdens de Sensor+ Test-beurs een robotarm aan de inputsensor koppelen en bezoekers de robot laten besturen om een bal te vangen. De onderzoekers ontwikkelden speciale algoritmes om de input van de verschillende sensoren te verwerken tot een model van de beweging. Dat moet het programmeren van industriële robots eenvoudiger maken.

Tot dusver moesten dergelijke robots worden geprogrammeerd door een analyse te maken van een beweging die met behulp van laser-tracking en camera's werd vastgelegd. Het nieuwe sensor-inputsysteem moet die stap overbodig maken en de gewenste beweging direct vastleggen en doorgeven aan de computer. Tevens zou de techniek in de geneeskunde gebruikt kunnen worden om looppatronen bij revalidatie te analyseren. De wetenschappers werken ook aan een sensor die elektrische activiteit van spieren kan meten. Met het systeem zouden dan protheses aangestuurd kunnen worden.

Robotarm bestuurd met Fraunhofer-sensortechniek

Door Willem de Moor

Redacteur

16-05-2011 • 17:02

34

Lees meer

Robot leert autonoom op TU/e
Robot leert autonoom op TU/e Nieuws van 3 februari 2011
Onderwaterrobot krijgt tastzin
Onderwaterrobot krijgt tastzin Nieuws van 10 mei 2009

Reacties (34)

34
34
22
6
0
6
Wijzig sortering
Er zijn al hele mooie robots gemaakt hoor, inderdaad de hier boven genoemde ballenvang robot, maar wat dacht je van:

Robot Violinist

Catwalk Robot

Table tennis Robot

En natuurlijk Marvin ;)

Maar beter anticiperende robots is een flinke uitdaging denk ik!

[Reactie gewijzigd door scorpionv op 26 juli 2024 07:33]

Ik vind zelf de Rubik cube solver het leukst.
Zo een zou ik best zelf ooit nog willen maken.
Mooie ontwikkeling, ergens lijkt het wel een beetje op wat de Nao robots ook kunnen: je laat ze een sequentie bewegingen uitvoeren, en dit wordt direct vertaald naar een lap code in python, zodat je dit later weer precies zo kunt aanroepen. Alleen hoef je nu niet de hele robot(arm) te besturen voordat de sequentie wordt opgeslagen, maar slechts met een soort sensor rond te lopen.
Natuurlijk zijn de toepassingen ook van een ander kaliber. Maar nogmaals: leuke uitvinding :)
Voor zover ik kan opmaken uit de berichtgeving is het hiermee een stuk simpeler om bepaalde handelingen te imiteren. Maar om iets 'intelligent' aan te leren is nog wat meer nodig. Een bal vangen lukt volgens mij met het voorbeeld alleen als de bal steeds op een identieke manier wordt aangegooid.
http://www.youtube.com/watch?v=R6pPwP3s7s4

Ik zag het toevallig vorige week langskomen. Was erg onder de indruk... Zeker als je kijkt hoeveel moeite sommige mensen hebben met het vangen van een bal... (waaronder ondergetekende...)
OF wanneer jij als mens de bal vangt.

Dat is nogal een moeilijke inschatting als de robot verderop staat maargoed, dat is volgens mij wat ze bedoelen.
De titel van dit stuk is nogal nietszeggend, aangezien algorithmes voor de beweging van robotarmen natuurlijk allang bestonden.
Nee, tot dusver waren robots afhankelijk van hun input. Dus eerst input, dan pas reactie.

Nu er algoritmen gevonden zijn betekend het dat je de kortbij toekomst met een redelijke kleine foutmarge kan berekenen. Met andere woorden, een robot kan voorspellen waar een bal of object zich gaat bevinden in de aankomende seconde. En daar kan hij alvast op inspelen.

Bij mensen noemen we dat anticiperen. Iemand gooit een bal naar mij, door visuele input (kijken) kan voorspellen waar de bal terecht gaat komen. Ik loop iets naar voren, en buk me om mijn hand goed te positioneren. Heel eenvoudig. Maar zolang je als robot die gave niet hebt is het een onmogelijke opgave...
Anoniem: 282252 @shakedown16 mei 2011 19:38
Echter,

ronduit de meeste robots vangen geen ballen maar moet heel precies bepaalde handelingen uitvoeren.

En las-robot wordt vaak geprogrammeerd door de robot in control mode te zetten en deze met de hand vast te pakken, en dan de las bewegingen uitvoeren.
De lasser beweegt dan de kop van de robot met de hand. Later kan de robot deze acties dus precies uitvoeren, en herhaaldelijk.

Als je kijkt daar robots voor het betere freeswerk, dan worden deze bijna altijd via G-Code geprogrammeerd.

het Fraunhofer-instituut heeft wat moois gemaakt, maar in de praktijk kun je er weinig robots mee programmeren.
Je hebt gelijk voor robots die in een fabriek staan en reperteerbaar werk doen.

Denk echter aan een robot die autonoom door het verkeer rijd, of een op twee benen lopende robot. Die moeten continu op veranderende omstandigheden zich kunnen redden. En daarvoor zijn dit soort algoritmen onontbeerlijk.
volgens mij heb je het artikel niet helemaal gelezen, juist wat jij beschrijft (kijken naar een bal en dergelijke) is nu net hetgene wat overbodig gemaakt wordt (volgens het artikel) door deze nieuwe uitvindingen. Overigens heeft @hoeksmarp wel degelijk een punt, want de essentie van het artikel lijkt te gaan over een apparaat met bewegings sensoren.
Wat jij beschrijft is allang mogelijk. Wat hier nu is uitgevonden is het besturen van een robot op basis van simpele bewegingen, wat een hele ander doel heeft.
Als ik een bal moet vangen die naar mij wordt gegooid, gaat dat prima dankzij allerlei reflexen. Maar op afstand een robotarm een bal laten vangen lijkt me heel iets anders en daarom veel moeilijker, zelfs als die arm mijn bewegingen perfect kopieert.
Waarschijnlijk een wireless sensor met een accelerometer, gyroscope, magnetometer + Kalman filter?
zou geweldig zijn als dit verder word uitgewerkt, ik heb zelf een handprothese voor mijn linkerarm die MYO electrisch is, maar de heeft ook zijn limieten.
Anoniem: 328461 16 mei 2011 23:51
Nog een fantastisch filmpje over hoe ver de robot ontwikkeling is:
http://www.youtube.com/wa...k&feature=player_embedded
Wauw, da's toch wel erg indrukwekkend.
Bij het lezen van dit artikel had ik niet zo bepaald een indruk dat dit een enorme vooruitgang is, maar als je ziet hoe dat ding dribbelt en dingen opvangt _o_
Misschien mist wel het állerbelangrijkste in de lijst.. Militaire robots. Big dog anyone?
Zie 0.40, 1.26.

edit; dit was als reactie op scorpionv bedoeld.

[Reactie gewijzigd door Hawleri op 26 juli 2024 07:33]

fckn creepy voor hoe dat instaat is om overeind te blijven. Ik sta van te kijken. Net als bij de vorige video met de drie vingers,,,,
ik zie bij ons in de fabriek anders geen enkele lasertechniek bestaan hoor, overal servo aandrijvingen zodat we precies weten waar de robot staat, en hoe deze precies beweegt....

ik heb dan ook geen enkel idee waar ze in het artikel vanuit gaan....
.oisyn Moderator Devschuur® @mesm9016 mei 2011 17:36
Ze hebben het over de tracking van een menselijke arm (die de robot bestuurt), niet die van de robot zelf. Dat laatste is idd een stuk makkelijker en precieser met servo's.

[Reactie gewijzigd door .oisyn op 26 juli 2024 07:33]

ik heb dan ook geen enkel idee waar ze in het artikel vanuit gaan....
Dus: (als ik het goed heb...)
Eerst moeten ze normaal de beweging (van bijvoorbeeld die bal) gaan analyseren dmv laser-tracking om zo tot de beweging te komen die moet gebeuren.

En nu gebeurd dit aan de hand van dat apparaatje (dat die persoon op de foto in zijn hand heeft).

Ik denk dat je het kan vergelijken moet die Mechs van Avatar. Daar konden de armen ook bewogen worden dmv de bewegingen te kopieren die de piloot maakt met die mechanische armen in de cockpit, dus niet adhv lasertracking technieken.
edit: (pak de scene waar die commandant zijn eigen opdrachten geeft aan jake sully en dan een paar test-boksen uitdeelt)

Op het einde van het artikel hebben ze het dan over een ANDERE (nogmaals: als ik het goed voor heb :P) sensor die signalen van een menselijk zenuwstelsen kan opvangen en kan omzetten naar mechanische bewegingen voor bv een prothese.
edit: Biosensors

[Reactie gewijzigd door Rinzler op 26 juli 2024 07:33]

ik zie bij ons in de fabriek anders geen enkele lasertechniek bestaan hoor, overal servo aandrijvingen zodat we precies weten waar de robot staat, en hoe deze precies beweegt....

ik heb dan ook geen enkel idee waar ze in het artikel vanuit gaan....
Het gaat niet om de aandrijving, maar om het meten van de bewegingen die door de robotarm gemaakt moeten gaan worden en dit omzetten naar programmacode. Als deze bewegingen bij een robotarm in een productielijn steeds hetzelfde zijn, zijn die metingen maar eenmaal gebeurd, waarschijnlijk m.b.v. lasers.

Op dit item kan niet meer gereageerd worden.