Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 35 reacties, 9.473 views •

Fujitsu heeft een tablet aan het publiek getoond waarop enkele Android-applicaties met behulp van oogbewegingen zijn aan te sturen. Ook zou de fabrikant werken aan een uitvoering voor desktop-pc's. Concrete producten zijn er nog niet.

Fujitsu werkt bij de ontwikkeling van eye-trackingtechnologie samen met de Japanse provider NTT Docomo. In een artikel op The Verge wordt beschreven dat Fujitsu op de Ceatec-beurs een experimentele tablet heeft getoond waarin een infrarode led en een camera in de behuizing zijn verwerkt. Deze worden gebruikt om via driehoeksmeting de afstand tot de ogen te meten, terwijl de camera de pupillen volgt.

Na calibratie van het eye-trackingsysteem, wat ongeveer 30 seconden zou duren, zou de aansturing door middel van een cursor vrij accuraat aanvoelen. Om de oogaansturing te kunnen testen konden onder andere een browser, een eenvoudige game, een image gallery en een e-readerapplicatie geprobeerd worden. Als de gebruiker ergens langer naar kijkt, wordt dit item geselecteerd. Volgens de redacteur van The Verge was de grootste uitdaging om de ogen te blijven focussen. Verder zou de aansturing vooral prettig functioneren bij het uitvoeren van eenvoudige taken in de gallery-toepassing.

Fujitsu zou ook experimenteren met het eye-trackingsysteem op een desktop-pc. Daarbij kon op Google Maps rondgekeken worden. In beide gevallen is onduidelijk of het bedrijf het aanstuursysteem gaat opnemen in toekomstige producten; volgens Fujitsu zijn de huidige toepassingen nog demo's. Daarnaast is de doelgroep nog niet geheel duidelijk. Er wordt onder andere gedacht aan personen die in bed een tablet willen bedienen of aan wie in een drukke trein zijn tablet met beide handen stevig moet vasthouden. Overigens wordt eye-trackingtechnologie al langer gebruikt, vooral door gehandicapten, maar daarbij gaat het veelal om losse randapparatuur.

Fujitsu eye-tracking-technologie

Reacties (35)

Het lijkt me behoorlijk foutgevoelig, tenzij je heel erg bewust kijkt...
Als dit echt zou werken zou het een mooie oplossing zijn.. Het gebeurt mij nog wel eens dat ik echt geen zin heb om weer mijn hand aan de andere kant van het tablet te plaatsen als ik net relaxt achterover zit..

De mens wordt wel lui maar voor mensen die zeg maar een arm moeten missen kan dit wel een hele mooie oplossing zijn..

[Reactie gewijzigd door Patrick89 op 2 oktober 2012 15:15]

straks krijg je oogkramp :+

het lijkt me idd wel handig maar of het echt de handen gaat vervangen denk ik nee.
Daar zat ik nu net serieus over na te denken.. Stel je moet een bepaalde actie invoeren door naar beneden te kijken.. Ik kan me voorstellen dat herhaaldelijk strak en geforceerd naar beneden kijken niet als aangenaam kan worden ervaren..
zal wss hetzelfde zijn als de wii als het in een product wordt gestopt.
Heel overdreven in de promofilmpjes maar zeer relaxed in het daadwerkelijke gebruik (zeker als ze 2 camera's gebruiken voor naukeurigere metingen).
Inderdaad, Patrick, ik denk ook dat er mensen zullen zijn die een tick ontwikkelen door het gebruik van zulke aanstuurmogelijkheden.

Als ze het nou maar gelijk goed implementeren en een mogelijkheid open houden om met bijvoorbeeld je duim op een bepaalde positie op het scherm te houden zodat de ogen worden genegeerd.
Dan kan men namelijk rustig lezen en hoet niemand te twijfelen of de aandachtspanning het wel toestaat weg te kijken of na te denken.

Mijn ogen staan niet stil tijdens gebruik, zou dit dus betekenen dat ik een uitgebreid calibratie-routine moet doorgaan voordat hij de false positives gaat negeren?
het lijkt me idd wel handig maar of het echt de handen gaat vervangen denk ik nee.
ik kan me wel voorstellen dat dit voor mensen zonder handen of met verlammingen een fantastische uitkomst is. Maar het blijft een niche.
Ik zit hier dus wel op te wachten hoor ...

hoe vaak ik het niet lastig vindt wanneer ik in de quick (of mc donalds) aan het hamburgeren ben en ondertussen tweakers aan't lezen ben op m'n smartphone oid... dan zou ik maar al te graag kunnen scrollen/klikken met m'n ogen.. nu moet ik elke keer met 1 hand eten om de boel proper te houden...

(ik zou met twee handen kunnen eten, maar dan moet ik elke keer m'n handen zuiver maken als ik wil scrollen, klikken, ... dat begrijp je wel; ik hou m'n laptop/smartphone/... graag een beetje zuiver en ben ook neit zo iemand die graag veel servetten verspilt omdat hij wat wil surfen)
Ik heb een jaar of vijf geleden op CeBIT met een aantal eye tracking oplossingen kunnen spelen. Ik moet zeggen dat het toen al bijzonder goed werkte:
  • navigatie gaat vele malen sneller dan met bijvoorbeeld een muis
  • er is geen enkele co÷rdinatie van handen en ogen nodig
  • iets selecteren werkte doorgaans door het dubbel knipperen van je ogen.
Ik kan me wel voorstellen dat het niet in alle situaties even gemakkelijk is. Maar dat geldt voor zo'n beetje alle invoermogelijkheden.

[Reactie gewijzigd door Whatevar op 2 oktober 2012 16:37]

Je zou denken dat voor een driehoeksmeting drie camera's nodig zijn. Of kan dit met een trucje wel goed gaan (doordat je onbewust de tablet toch enigszins beweegt of iets dergelijks)?
Voor een driehoeksmeting volstaan 2 vaste referentiepunten, in dit geval de led en de camera. Het 3e punt is een oog.
Op basis van de gemeten gegevens, en de bekende gegevens (afstand tussen referentiepunten), kun je de afstand en de positie van het oog uitrekenen.
Thanx, ik heb even lopen zoeken; hier wordt het in meer detail uitgelegd:

http://phys.org/news/2012...-tracking-technology.html
Mooie ontwikkeling, combineer dit nou met de invoer van tekst via de hersenen en je hebt een complete nieuwe manier van invoer..
Volgens de redacteur van The Verge was de grootste uitdaging om de ogen te blijven focussen.
Er wordt onder andere gedacht aan personen die in bed een tablet willen bedienen of aan wie in een drukke trein zijn tablet met beide handen stevig moet vasthouden
Right....??

[Reactie gewijzigd door Bartjezz op 2 oktober 2012 15:18]

Het klopt echt.. Ik zat laatst in de trein en er komt serieus een brede vent naast me zitten.. En die hield zijn arm precies voor de mijne waardoor het gebruiksgemak van zo'n ipad toch achteruit gaat..
Dit wordt gemaakt door een Japans bedrijf. Heb je nog nooit de filmpjes gezien hoe het er aan toe gaat in Japanse treinen. Daar staan gewoon "duwers" op het perron om mensen aan te duwen. De mensen zitten letterlijk op elkaar gepropt in de trein.
Denk je dat dat in heel Japan is? Dat is alleen in de drukste gebieden van steden en alleen wanneer iedereen van of naar het werk gaat.
In Japan hebben ze hele mooie rustige (en vooral hele snelle!) treinen waar je normaal je krantje tablet kunt lezen.
Lees de quote het gaat over "een drukke trein" we hebben het dus niet over een rustige trein waar je rustig je krantje/tablet kunt lezen.
nee, het gaat erom dat je goed moet focussen o je tablet, maar dat kan toch niet in een drukke trein die schuddelt en rammelt??
Ik kan me voor bepaalde toepassingen wel voorstellen dat dit handig is. Zoals in de tekst al wordt genoemd, bijvoorbeeld voor een e-reader. Niet meer zelf de pagina's omslaan, maar een reader die zelf ziet hoe ver je bent op de pagina en dan naar behoefte de pagina omhoogscrollt of omslaat. Wat langer turen naar een bepaald woord en het wordt opgezocht of vertaald.

Voor het bedienen van applicaties op een pc gaat er een nieuwe wereld aan mogelijkheden open, al zullen veel toepassingen vooral handig zijn voor mensen met een lastig lichaam. Vaak gaat een bediening een stuk sneller met toetsaanslagen of een muis. Als je je browser terug moet bladeren door anderhalve seconde naar de back-knop te turen dan word je daar denk ik al gauw flauw van.

Tenzij je natuurlijk eye-gestures kan gebruiken, even vanuit het midden van de pagina naar links loeren en hoppa, een pagina terug. Distraction-free werken kan zo ook heel makkelijk; maak alle vensters een beetje wazig, tot je er langer dan een halve seconde naar kijkt....

Over eye-gestures gesproken; erg leuke vraag in een van de reacties op The Verge:
Do you cross your eyes to zoom in on google maps ?
edit: typo

[Reactie gewijzigd door P_Tingen op 2 oktober 2012 15:27]

Do you cross your eyes to zoom in on google maps ?
Gewoon je ogen wat kneipen voor uitzoomen en ogen vergroten voor inzoomen. 1:1 overnemen van vingergestures is nogal kansloos...

[Reactie gewijzigd door watercoolertje op 2 oktober 2012 15:55]

Ik kan me herinneren dat er een Israelisch programma was voor op de PC die dat ook deed. The Owl ofzo?
Werkte op zich vrij aardig, mits je een goede camera had.

In ieder geval: leuke gimmick.
Voor minder valide mensen is dit een goede uitkomst. Voor mensen die hun handen kunnen gebruiken lijkt mij dit voor nu een overbodige functionaliteit. Als ik me eerst moet focussen om een actie uit te voeren ben ik met mijn handen al klaar.

Wel denk ik dat als ze dit verder uitwerken dat het ook voor valide mensen een waardevolle aanvulling kan zijn. Ik zie in mijn werk af en toe zeker toegevoegde waarde. Kan ik mijn muisarm vervangen voor een muisoog ;)
Als ik naar sommige games op een tablet kijk, dan kom ik daar met mijn vingers helaas niet altijd mee uit. Als een gedeelte van de controls kan worden overgenomen door mijn ogen, hoef ik minder met mijn vingers/handen te doen. Lijkt me toch een prettige ontwikkeling.
Leuke techniek, maar tenzij je gehandicapped bent moet je dit soort oplossingen niet willen. Voor je het weet zit het in elke tv ingebouwd...
Misschien moeten ze je mond gebruiker als alternatief voor extra instructies..
Bijvoorbeeld dat je mond 'open en dicht' een muisklik is..
Als je dan ook nog "klik" zegt, wanneer je je mond opendoet, kan je beter gebruik maken van stemherkenningssoftware. Verder vind ik jouw idee, het beste dat ik vandaag al heb gehoord.
Mond open of dicht kan voor heel veel mensen al een opgave zijn.
en dan met name dat laatste ;)
Mijn tante had ALS en gebruikte in 2007 al eyetracking software op haar pc om te kunnen communiceren. Zo nieuw is dit toch helemaal niet of is er iets fundamenteels anders en lees ik daar overheen?
mijn nonkel had 10 jaar terug ook al een tablet met zo een stylus etc. echter duurde het nog eindeloos lang tot een of ander fruitbedrijfje de markt met tablets kon aanboren.

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBWebsites en communities

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True