Stephen Vickers, van de Britse De Montfort University, is samen met een team medeonderzoekers bezig met de ontwikkeling van eye-tracking-technologie om motorisch gehandicapten te kunnen laten gamen.
Sinds de jaren negentig van de vorige eeuw wordt er door verschillende bedrijven gewerkt aan technologie waarmee motorisch gehandicapten 2d-desktopomgevingen kunnen besturen en via on-screen toetsenborden kunnen communiceren. De muiscursor wordt met de ogen bestuurd en wanneer iemand een bepaalde tijdsperiode naar een object op het scherm kijkt wordt een muisklik gesimuleerd. Voor 3d-omgevingen en met name spellen werkt dit echter niet snel genoeg, schrijft New Scientist.
Gewone eye-tracking apparatuur zendt infrarood licht de wereld in via een aantal led'jes onderaan een monitor. Door middel van enkele in stereo geplaatst infraroodcamera's wordt bijgehouden in welke richting de ogen van de computergebruiker bewegen. Het systeem kan zo met een nauwkeurigheid van 5 millimeter bepalen waar iemand naar kijkt op het scherm. De apparatuur van Vickers doet dit alles ook, maar bevat een aantal extra mogelijkheden.
Door de ogen gedurende een kort ogenblik in een bepaalde richting buiten het beeldscherm te laten kijken kan de computergebruiker wisselen tussen bepaalde functies. In een game kan zo bijvoorbeeld de viewpoint aangepast worden of een opdracht gegeven worden aan de spelfiguur. Om de gebruiker ook enige rust te geven kan de eye-trackingfunctionaliteit ook helemaal uitgeschakeld worden door middel van een blik in een bepaalde richting.
Vickers hoopt binnen een jaar te beginnen met het uitproberen van de software in samenwerking met enkele motorisch gehandicapte gebruikers. Verwacht wordt, onder meer door Mick Donegan - die werkzaam is bij een partnerorganisatie van de Britse universiteit - dat deze software het aanzienlijk makkelijker maakt voor gehandicapten om zichzelf in 3d-werelden te uiten zodat anderen niet hoeven te merken dat ze in de 'echte' wereld een handicap hebben.