Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 108 reacties

Duitse onderzoekers hebben een robotcamera ontwikkeld die de bewegingen van de oogbol kan simuleren. Het robotoog heeft een maximale draaisnelheid van 2500 graden per seconde en is daarmee 2,5 keer zo snel als de menselijke variant.

Een onderzoeksteam van de Institute of Applied Mechanics-afdeling van de technische universiteit van München, onder leiding van professor Heinz Ulbrich, is erin geslaagd om een robotcamera te ontwikkelen die snel en precies de oogbolbewegingen van een mens kan kopiëren, zo is te lezen bij Ieee Spectrum. Huidige systemen op basis van eyetracking-software en headmounted-camera's zijn vaak niet snel genoeg om de bewegingen van het oog bij te houden. De Duitse robotcamera is met een draaisnelheid van 2500 graden per seconde beduidend sneller dan het menselijke oog, dat maximaal 1000 graden per seconde haalt. Het camera-oriëntatiesysteem kan onder meer worden gebruikt om de ogen van autonome, bewegende robots een menselijker gezicht te geven.

Bij de robotcamera van de Duitse onderzoekers wordt nog steeds gebruikgemaakt van eyetracking-software om de bewegingen van de oogbol te registreren, maar is het draaimechanisme van de cameramodule een geheel nieuw ontwerp. Het systeem bestaat uit een klein platform, met printplaat en cameramodule, dat op een scharnier is bevestigd. Aan het cameraplatform zijn drie stangen bevestigd die via zogeheten prismatic joints zijn verbonden met metalen schuifjes die heen en weer kunnen bewegen.

Deze constructie levert drie vrijheidsgraden op, waardoor de camera in alle richtingen kan kantelen en om zijn as kan roteren. Het onderzoeksteam ontwikkelde eerder een soortgelijk camerasysteem, maar dat had slechts twee vrijheidsgraden. Hetzelfde principe wordt gebruikt bij robotplatforms voor commerciële flightsimulators, maar die laatste worden pneumatisch aangedreven en hebben meestal zes vrijheidsgraden. Het huidige prototype van de robotcamera weegt slechts 100 gram.

Moderatie-faq Wijzig weergave

Reacties (108)

NU nog in nano-technologie en de toekomst voor zien voor blinden is wellicht in zicht :)
Het probleem zit 'm bij blinden niet in het draaien van het oog, maar in het netvlies. Voor blinden lijkt me deze uitvinden dus niet nuttig.
Dat ben ik totaal niet met je eens. Het probleem zit ook vaak niet in het netvlies. Als je door een ongeluk je hele oog kwijt bent heb je ook geen netvlies. Als je een ziekte krijgt aan je netvlies. etc. Deze snelle camera kan bewegingen goed aan. Als hij klein genoeg is kan hij mogelijk in je oogkas verwerkt worden.

Het gaat om de interface tussen beeld (camera of oog) en hersenen. Hier kun je lezen dat er in 2013 een tweede fase prototype wordt verwacht waarbij er met 1000 pixels een beeld naar de hersenen wordt gestuurd. Dit is al een hele grote stap vooruit.

Daarnaast begrijpen we steeds meer over hoe het brein is opgebouwd en hoe het ongeveer werkt. Het zijn immers niet alleen stroompjes maar ook allerlei hormonen die als een soort weerstanden de stroming beinvloeden. Je kan op ontdekkingsreis naar Mars. Maar ook hersenonderzoek bevindt zicht in een ontzettend interessante fase. Er komt een tijd dat psychiaters misschien niet meer nodig zijn maar dat er gewoon een firmware update of een onderhoudsbeurt nodig is om je te helpen.
vond de bewegingsafstand nogal groot om al oogvervanger te dienen.
Dat kan misschien wel opgelost worden door de scharnierpunten te veranderen van plaats.

En het gehele "achterwerk" zal ook nog wat moeten verkleinen vrees ik.
maar kunnen al goed al ogen voor R2 dienen. http://cdn.slashgear.com/.../2010/02/robonaut2-sg.jpg

[Reactie gewijzigd door bigbadbull op 2 november 2010 18:27]

Als er geen oog meer aanwezig is dan denk ik niet dat het aan het netvlies ligt :)
Dat de camera nog 100 gram weegt (wat op zich niet veel is, maar in vergelijking met een echt oog wél) suggereert dat ook aan het formaat nog wat moet gebeuren.

Nog afgezien van het feit dat ook de accu's waarschijnlijk niet bij die 100 gram gerekend zijn.

Maar je hebt gelijk het is een stap in de goede richting.

Maar behalve als "oogvervanger" zie ik ook meer toepassingen. Denk b.v. eens aan een intelligente bewakingscamera die zelf het (snelle) object in beeld neemt en vervolgens op gevaar kan beoordelen. Of wat dacht je van toepassingen op ruimte sondes. Het meest ideale moment van een close encounter is vaak erg kort. Met dit soort snelle bewegingen kun je snel de interessante stukken in beeld nemen en een foto maken.
Ik dacht dat ze wel zo ver waren dat ze op het netvlies weer electronica kunnen aansluiten om deze te voeden met beelddata.

Als de camera daarvoor nog niet in het oog kan, dan is het wel prettig dat deze camera de bewegingen van het blinde oog wel na kan doen.
Klopt alleen het probleem is ze kunnen maar een aantal pixels doorsturen naar de hersens( 10 tal pixels ) dus zien ze eigenlijk alleen maar donker en licht. Is natuurlijk beter dan helemaal niets..
Dat is op dit moment het geval inderdaad, Besef wel dat de techniek op dat gebied natuurlijk ook niet stil staat. dit zal naderhand ook steeds beter worden, totdat we gewoon kunnen zien met camera's.
Er is toch al techniek om beelden via de hersenen toch zichtbaar te maken ?

Lijkt me toch wel een stap in de goede richting.
vaak hebben blinden het leren accepteren dat ze blind zijn.
Ik denk persoonlijk dat het een hele schok is als ze 25 jaar blind zijn geweest .. en dan naar 25 jaar weer kunnen kijken dat ze niet snappen wat er met de wereld gebeurt is.

Ik heb een keer met een man gesproken en we hadden het er toevallig over.
Ik zeg wat als je de techniek komt dat je weer kan zien :
Waarbij meneer antwoorde : Ik zou het denk het niet willen zien, er is zoveel gebeurt waarschijnlijk in en op deze wereld ik vind het wel best zo.

En natuurlijk zouden er ook mensen rondlopen die graag weer willen zien, mja om nu als half robot half mens te lopen... zou ik niet willen...

The time of the robots has begun :P
Wel cool. Als dit samen met eye-tracking ingezet wordt kan men in een simulator zijn ogen bewegen waarna de robot (bijvoorbeeld op een slagveld) dit kan nadoen.

Ik zie niet in dat dit ooit nuttig wordt voor persoonlijk gebruik. Wel beter mens-robot interactie bij bijvoorbeeld pijplijn inspecties of ruimte missies.
mja, heb je alleen wel een 2500 fps camera nodig ;)
Ik denk dat een hoge fps helemaal niet noodzakelijk. 'Gelijk aan het oog' zou voldoende zijn ;) als jij snel je oog beweegt, dan zie je tijdens de beweging het beeld ook niet scherp :)
En daarnaast: als je naar een live beeld kijkt met een hoge fps of een lagere fps zou je het verschil niet zien. Ze gebruiken hoge fps immers toch vooral voor slowmotion opnames? :9

edit: volgende keer refresh ik de page wel even 8)7

[Reactie gewijzigd door JoostyBoy op 2 november 2010 16:56]

Nog sterker, je neemt de beweging van je oog niet waar. Je oog springt van punt naar punt in sprongen genaamd saccades. Tijdens deze saccade wordt de visuele stimuli niet verwerkt. Een "screenshot" net voordat je oogbal draait dus in feite.
Dat dit kunstmatige oog dat wel kan is daarom een voordeel bovenop het al sneller kunnen bewegen.
@Firestone Bedank voor je reactie! Toch wil ik er graag nog even op ingaan, want als je je probeert te focussen op je eigen snelle oogbewegingen en de omgeving om je heen lijkt het toch dat je het kunt volgen. :/
Inderdaad, het lijkt zo te zijn! Ik heb saccades even op Wikipedia opgezocht: http://nl.wikipedia.org/wiki/Saccade. Een interessant artikel en mooi uitgelegd :)
denk niet dat dit een nadeel is van het menselijk oog, maar eerder een aanpassing van de hersenen omdat die oogbeweging niet goed te interpreteren is.
Door die beelden niet te verwerken kunnen de hersenen zich beter oriënteren.
Is dat wel voor iedereen hetzelfde? Zie ook mijn reactie op YopY
Was ik ook aan het denken, lijkt me nutteloos om zo snel te bewegen... de beelden zullen niet echt schitterend zijn...
70fps is voldoende, je oog is ook niet echt sneller dan dat, maar ze kunnen wel even snel bewegen.
nee.... maar een mens kan zijn hele gezichtsveld supersnel scannen doordat je Iris overal heen schiet. Nu is het ook niet echt nuttig om dit door een robot te laten doen, (Het beeld is zo uitgesmeerd dat je niets kunt zien) terwijl dit mogelijk wel handig is.

@ Johnkeates.
het visuele systeem kan binnen een enkel milliseconden op verandering in licht reageren.
Dit komt dus neer op een beeld van bijna 1000 FPS;
(Jeremy M. Berg, John L. Tymoczko en Lubert Stryer, [i][Bioschemistry/i] 6th edition, 2007)

[Reactie gewijzigd door Lothlorien67 op 2 november 2010 16:54]

Sinds wanneer draait een oog? Hij gaat wel naar boven en naar beneden en links en naar rechts maar om een as roteren heb ik nog nooit gezien (en net ook niet in de spiegel)
Als je je hoofd draait (scheef houdt) blijft je oog stilstaan, dus het oog kan wel draaien al heb je er zelf weinig controle over. Het is uiteraard wel zo dat ie niet 360 graden kan draaien, maar draaien kan ie zeker.

Als je bijvoorbeeld naar je scherm kijkt en je houd je hoofd scheef, dan blijven je ogen rechtstaan waardoor je het beeld nog steeds rechtop ziet.
Beetje lastig uit te leggen verder, hopelijk is het een beetje duidelijk zo ;)
Is dat zo, of roteren je hersenen het beeld? Ik ben skeptisch.
idd heet beeld word gecorigeerd door je hersens, als je je hoofd schuin houdt dan is het beeld nog recht tot je een bepaald punt berreikt en dan gaat het beeld mee draaien, kan zijn dat dit ook de roteer limiet is van het oog. Het is wel zo als je je hoofd scheeft hebt en dan naar boven en beneden kijkt (vanuit het hoofd gezien en niet de wereld) dan lijkt het wel moeilijker te gaan dan als je het hoofd recht hebt.

Maar iig als ik in de spiegel kijk en op de iris let dan zie ik het niet roteren maar gewoon meegaan met het hoofd.
Ik denk dat je hersenen het beeld meedraaien :P

*kijkt in spiegel*

edit:
ik kan het niet zien. Even wat anders proberen.

[Reactie gewijzigd door Gamebuster op 2 november 2010 16:36]

Als je je hoofd draait blijft je oog stilstaan schrijf je. Het beeld staat stil, je oog beweegt nog steeds in 2 richtingen (op/neer, en links/rechts), maar kan niet om het as draaien, we hebben daar geen spieren voor.

De functie van dit robotoog om rond het as te draaien is om de axiale beweging van het robothoofd op te vangen, hetgene wat wij met onze hersenen corrigeren lossen zij met het robotoog zelf op.
Kijk dat is een antwoord waar je iets aan hebt. Maargoed ze kunnen ook het beeld via rekenkracht analiseren en dan zo corigeren bijvoorbeeld met zon horizon meter wat vliegtuigen hebben.
Volgens mij was dit gewoon ietsjes makkelijker te bouwen oid. Softwarematig het beeld draaien is het niet zo'n probleem.
Je staat er niet bij stil, maar toen ik dat filmje bekeek dacht ik, is het menselijke oog maar 2.5x langzamer? Da's nog rete snel.

Stoppen ze zoiets nou in de gun guidance systemen van de Apache, of waarvoor gebruiken ze dit eigenlijk?
Dit doet me eigenlijk ook denken aan het snelle hoofd, als mede de snelle ogen van deze robot: http://www.youtube.com/wa...eature=youtu.be&#t=01m33s (zie vanaf 1:33)

Combineer elkaars technieken en volgens mij moet het best mogelijk zijn om voor het jaar 2030 prima robots op straat in te zetten als ME'er.

[Reactie gewijzigd door Tjeerd op 2 november 2010 15:36]

Je kunt wel een snel hoofd en snelle ogen hebben, maar je hebt natuurlijk ook nog een uitstekende software nodig om deze beelden te gebruiken (input -> output)
Kan een robot de aangeleverde beelden ook net zo snel verwerken of sneller verwerken dan een mens? Denk het (nog) niet!
Ligt er aan wat je verstaat onder 'verwerken', registreren en opslaan natuurlijk wel. Maar objecten en e.d. in de plaatjes herkennen niet, als de camera een hoge resolutie heeft.

Maar voor een tele operator systeem is dit super handig ( voor zover de datalink de boel niet vertraagd...)
De geringe sensorgrootte en relatief lange belichtingstijden gaan een probleem vormen om bij snelle bewegingen ook daadwerkelijk nuttige beelden op te nemen.
Zo lang er niets over de gevoeligheid van de sensor bekend is weet je dat niet. Met de ontwikkelkosten van dit project, die ongetwijfeld behoorlijk hoog (relatief natuurlijk) zullen zijn, zal een hele gevoelige sensor ook niet meer veel uitmaken wat kosten betreft.

Een voordeel bij een geringe sensorgrootte is dat je makkelijker met een fixed focus objectief kunt werken door de grote scherptediepte.

Want het focussen van de ogen nadoen is even wat anders dan de bewegingen nadoen.
Dit is natuurlijk een prachtige ontwikkeling, en ik snap de gedachtegang naar de cyborg. Maar een robot arm is natuurlijk veel makkelijk dan een oog zoals deze. Een robotarm kan aan de hand van spier samentrekkingen, pezen en zenuwen een juiste beweging maken.

Ik zie alleen echt nooit gebeuren, dat er een manier ontwikkeld word om de dingen die zo'n robotcamera/oog "ziet" om te zetten in een signaal dat onze hersennen kan interpreteren. Het moet van iets mechanisch naar iets biologisch. Misschien ben ik niet goed op de hoogte of wat naief, maar ik zie het niet gebeuren dat een dergelijk oog als vervangen kan (gaan) dienen.
Eventuele biologische electrische impulsen zijn met de huidige ontwikkelingen volgens mij niet eens zo heel ver weg.. En dan gaat de 'echte' revolutie pas van start.

[Reactie gewijzigd door KirovAir op 2 november 2010 15:30]

Wow, dit is indrukwekkend... Soms heb ik het gevoel dat de voorspellingen van Arthur C. Clarke echt dichtbij komen.

(hij voorspelde dat huidige generatie de laatste is die de opstapplank zal vormen voor de machines, waarin de mens zal verder leven, met gedachte op een chip en in een ander... mechanisch lichaam. )

[Reactie gewijzigd door 108886 op 2 november 2010 15:25]

Om heel eerlijk te zijn, zou ik er persoonlijk helemaal geen problemen mee hebben :)

De techniek staat tegenwoordig niet voor niets, en ik zou graag hiermee willen experimenteren binnen de robot-/nanotechniek. Als zijnde menselijkheid met gedachten enzo op een chip, Met het voordeel om oneindig te kunnen leven, tegenoverdoodgaan... niet dat ik bang ben voor de dood, maar ik zou graag veel langer op de aardbol willen rondrennen dan dat nu het geval zou kunnen zijn.

dat is natuurlijk mijn eigen mening. ;)

natuurlijk is dit een mooi staaltje van tchniek van de mens. Dit zie ik in de toekomst toch echt wel als een vorm van een cyber-oog, zoals in terminator.
Goede ontwikkeling nu nog verder door ontwikkelen zodat je er in reallife ook wat mee kan. Ik kan op dit moment nog geen nuttige toepassing hiervoor bedenken.

Zoals hierboven ook al gezegd is het mogelijk wel een goede ontwikkeling voor blinde of slechtziende mensen. Het probleem is alleen hoe er gecommuniceerd moet worden met het menselijke lichaam.
Creepy beveiligingscamera's op Times Square? :D
2400 graden per seconden? Dus als je de beweging omzet als een cirkel (om een begrip te krijgen hoe snel dit wel niet is), 2400/360=3,6 omw/sec, kan zo'n camera in deze tijd dan wel scherpstellen?
En hij hoeft maximaal alleen maar 180 graden te bewegen, dus van links naar rechts in 180/2400 = 0,075 sec.

Scherpstellen kan daarna, want het oog registreert ook niet constant een scherp beeld.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True