Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 66, views: 25.714 •

Microsoft heeft tijdens een college tour een computer getoond met een transparant beeldscherm. De interface van deze computer kan onder meer bestuurd worden door bij de gebruiker de beweging van de ogen te volgen.

Hoofd research Craig Mundie van Microsoft toonde hoe de computer bestuurd kon worden met onder meer input via een pen of met de vingers, maar ook via oogbesturing en 'gestures' van de handen die kunnen worden gemaakt zonder het scherm aan te raken.

Mundie legde niet uit hoe de techniek werkt, maar uit een afbeelding valt op te maken dat twee camera's vastleggen welke gebaren de gebruiker maakt en waarnaar hij kijkt. De ene camera staat aan de voorkant van het display, de andere aan de achterkant.

De ideeën komen van Microsoft Research en zijn bedoeld om te tonen hoe computers in de toekomst bestuurd kunnen worden. Volgens Mundie is het een kwestie van tijd voordat iedereen een glazen display op zijn bureau heeft staan. Het is onbekend of de demo die Mundie gaf echt de techniek toonde.

Afbeelding van werking interface gestures en eyetracking

Reacties (66)

Lijkt me ook goed nieuws voor mensen met spierziekten als bijvoorbeeld ALS, zoals Stephen Hawking.

Kunnen ze toch nog een beetje functioneren als ze via een computer allerlei taken kunnen doen, zodra hun handen het laten afweten.

Hang er dan nog een speech-synthesizer aan, en ze kunnen weer communiceren.

[Reactie gewijzigd door wildhagen op 7 november 2009 15:42]

vind het grappig dat je stephen hawking zegt.. en vervolgens je zin begint met : ''kunnen ze toch nog EEN BEETJE functioneren''
Dat terwijl die man waarschijnlijk in zijn leven belangrijker is geweest als jou..

Dit soort dingen bestaan al veel langer met spierziekten, zodat mensen kunnen communiceren door naar letters te kijken
Het was een voorbeeld. En je hoeft echt niet op de man te gaan spelen, dat doe ik ook niet.

En niet iedereen zit in dezelfde fase van een ziekte, de een kan beter functioneren dan de ander. Dat Hawking nog perfect kan communiceren, wil nog niet zeggen dat elke ALS-patiŽnt dat kan...
Hawking zit in een vergevordert stadium, hij kan al tijden alleen maar zijn lippen bewegen om het een en ander te communiceren. Overigens bestaan systemen waarbij met de ogen wordt gewerkt ook al, alleen niet in deze mate van ontwikkeling.
Canon EOS 5 (met filrolletjes, op een digitale camera heeft Canon het nooit uitgebracht, helaas) uit 1992, EOS 50E uit 1995, EOS 3 uit 1998.
Detecteerde waar je naar keek en activeerde daarmee het juiste autofocus veld.
Geheel correct gezien, inderdaad: dan jij.

Verder: het gaat niet om het kijken naar letters, maar om een optische bediening. Dat is iets geheel anders dan dat waar Microsoft nu mee komt.
Blijft staan dat het inderdaad een enorm mooie doorbraak is.
Feit blijft alleen dat computeraanpassingen vaak niet goed werken. Zelfs bestaande technieken laten het te vaak afweten. Reden: te weinig research, te weinig vervolgresearch an constant veranderende standaards, waardoor bepaalde technieken niet meer werken kunnen.

[Reactie gewijzigd door Ui30 op 8 november 2009 13:10]

ik kijk meer dan voldoende rond, en een muis werkt degelijk als aanwijsapp.
dikwijls dat ik kijk naar een map (of ander item) zonder de intentie te hebben dat dit geopend wordt.

als, zoals in het filmpje, alles waar je naar kijkt vergroot wordt, zal ik het document ernaast (hetgeen dat ik mss zoek...) niet meer zien, want dit onnodige document waar ik per ongeluk eve naar keek komt over heel men scherm.

dit ziet er zoiets uit als de woordenboek op je gsm.
lijkt handig, maar in de praktijk is het trager, meer moeite en dikwijls gewoon verkeerd.

mensen hebben al genoeg problemen met te weten te komen wat welke knop doet, als alles waar je naar kijkt vervolgens in beeld wordt gebracht zien mensen helemaal niet meer wat ze doen.
Bedoel je nou T9? Ik denk dat jij dan niet zo vaak een sms stuurt want dit is de meest gebruikte vorm van tekstinvoer op een mobieltje (smartphones uitgesloten natuurlijk).
En bij mij staat T9 uit want ik vind het niet handig werken. 60% van de tijd werkt het goed, en 40% van de tijd krijg je het juiste woord (vooral namen) niet ingevoerd, ook niet als je het tijdelijk uit zet, dat zijn nl zoveel extra handelingen dat je het net zo goed helemaal uit kan laten staan. Daarom moet mijn volgende telefoon of een fysiek qwerty tb hebben of een goede touchscreen.
eermz... het woordenboek op de gsm vind ik net superhandig...

hierdoor kan ik zo'n 3x sneller typen op m'n gsm. Ook emails worden daardoord aangenamer om te versturen met de gsm...

in de praktijk is het zeker niet trager, misschien met de goedkoopste gsm's die een trage chip hebben wel, maar met mid-range toestellen (~150 euro) werkt het zeker snel genoeg is het dus helemaal niet moeilijk.

Uiteraard is het woordenboek beperkt; nieuwe woorden staan er niet in (swaffelen bijvoorbeeld), maar je kan het woordenboek zeer snel nieuwe woorden laten aanleren, die dan achteraf wel gewoon met T9 kunnen worden aangeroepen.

Uiteraard is oogbesturing vandaag nog niet zover als T9, maar ik zou niet zomaar oordelen op het filmpje alleen... JIJ ziet in het filmpje misschien niet wat er in het document ernaast staat, maar als je op een HD scherm kijkt zal je dat waarschijnlijk wel kunnen doen...

oordeel niet voordat je iets ook echt hebt kunnen gebruiken op de manier 'zoals het bedoeld is'...
dit ziet er zoiets uit als de woordenboek op je gsm.
lijkt handig, maar in de praktijk is het trager, meer moeite en dikwijls gewoon verkeerd.
De meeste mensen die ik ken die zoiets zeggen, hebben T9 niet de kans gegeven die het verdient. Het is inderdaad even wennen, maar het is in veel gevallen sneller. Het wordt niet zomaar het meest gebruikt om tekst in te voeren op een mobiel..
[...]


De meeste mensen die ik ken die zoiets zeggen, hebben T9 niet de kans gegeven die het verdient. Het is inderdaad even wennen, maar het is in veel gevallen sneller. Het wordt niet zomaar het meest gebruikt om tekst in te voeren op een mobiel..
Inderdaad, sinds ik het gebruik (een jaar of 2) kan ik echt niet meer zonder. Het is gewoon even aanpassen en er zijn nou eenmaal een hoop koppige ouderwetse mensen die vooruitgang tegen houden...
Ja, ik vind het grappig dat jij een voorbeeld zo slecht kan interpreteren. Sjonge jonge, wat maakt het uit wie hij zegt en wat die man wel heeft bereikt. Het komt erop neer dat het gewoon erg fijn is om zo een computer te kunnen besturen voor mensen met een bepaalde afwijking. Dat hij het mischien naar jou mening niet helemaal goed formuleerd, hoef je niet te laten blijken door hem persoonlijk aan te vallen.

Ik zie de voordelen van deze technieken wel. Misschien heeft het voor mij persoonlijk niet veel nut, er valt altijd wel een situatie te bedenken waarin je het liever hebt. Er is bijna niets op aarde dat totaal zinloos is. Ik juich deze innovatie toe.
Dat terwijl die man waarschijnlijk in zijn leven belangrijker is geweest als jou..
Ik ontken niet dat die man veel bereikt heeft maar niemand is belangrijker in zijn eigen leven dan zichzelf, vergeet dat niet...
Zoiets bestaat al maar dan niet van Microsoft ;)
Er bestaat een stukje hardware dat je via usb kan aansluiten en waarmee je de muis kan bewegen door middel van je oog (je moet dit stukje hardware dan op je hoofd zetten)
en hoe is dat in hemelsnaam hetzelfde..?
Ja, de vader van een tante van mij heeft een tijd terug zijn nek gebroken - hij kan alleen de spieren in zijn gezicht nog bewegen. Ze hebben voor hem nu een superduur systeem opgezet wat reageert op het knipperen met je ogen, maar dat is natuurlijk niet optimaal. Een systeem als dit, of die Neural Impulse Actuator van OCZ zou beter zijn, ik moet de mijne eens afstoffen en kijken of ik hem kan gebruiken (hij heeft last van achtergrondstraling, die in mijn kamer blijkbaar vrij sterk is). Als ik hem kan gebruiken, ga ik het product aan mijn tante laten zien.. dan kan die man wat meer doen. (hij kan zijn lippen nog bewegen, maar niet zelf ademen, dus kan hij niet meer praten. Het beste communiceren kan hij door met iemand te praten die kan liplezen, maar dat kunnen natuurlijk maar weinig)
Nogal vreemde demo, en eyetracking lijkt me omslachtig.

Gestures tot daar aan toe, maar de precisie van een muis of vingertop valt toch niet te benaderen door een camera die je oog volgt... Zaken als klikken , dubbelklikken enz..

En de twee combineren is ook niet ideaal voor alledaagse taken.
Ik denk dat je sneller efficienter en preciezer met je ogen bent dan met een hand en een muis. of een camera dat nauwkeurig zou kunnen vastleggen of niet is niet aan de orde, die technologie is er waarschijnlijk al en als dat niet het geval is zal hij zeker komen. net als toen ze in het paard en wagen tijdperk niet geloofden dat je binnen een week van groningen naar barcelona kon komen.
Je ogen zijn niet zo precies als je denkt. Standaard zitten er verschillende 'trillingen' in. We hebben van moeder natuur een prima ontstoorder in onze hersenen gekregen. Vrij vergelijkbaar met een digitale beeldstabilisatie trouwens.

Maar als je datgene waar je naar kijkt zou aanduiden met een pen op een foto, dan zou je een rare bibberlijn krijgen die alle kanten opschiet. Wat je ziet is een stuk stabieler...
die trillingen zijn er om te zorgen dat je netvlies niet gewend geraakt aan wat je ziet... anders zou je na enkele seconden al niets meer zien, totdat je je ogen weer beweegt. Door die trillingen verandert het beelt telkens een klein beetje waardoor het netvlies geprikkeld blijft.

Dit kan je vergelijken met gewenning van druk, warmte, smaak, geur en geluid. Na een tijdje wen je aan die constante impuls, een tijdje geleden bleek dus dat die ook voor het oog zo was.
dan zou een camera hiero dus ook voor kunnen compenseren. via software of hardware...

Ik denk wel dat er in de toekomst minder hardware zal zijn voor aansturen en dit meer maar aparaatlooze interfaces (spraak, eyetacking, (hand)gesures enz) probleem daarmee is dat het wel GOED uitgevoerd moet worden anders zal het niet (snel) aanslaan. want als zo'n systeem ook maar iets slecht werkt.. werkt het niet.
bedoel spraak besturing is leuk.. maar als het niet werkt tijdens een presentatie (kuch die van vista was t toen toch? :P) heb je er gewoonweg niets aan.

De eye tracking lijkt redelijk te werken overgens (vloeiend) echter weet ik niet echt of dit wel een echte LIVE demo was, gezien je ogen niet vloeiend van a > b gaan maar nogal snel..(je kan het niet echt vloeiend doen,zelfs als je het probeerd, behalve als je aan de rand van je ook zit, maar als je naar iets kijkt, kijk je naar punten en kan je dat niet vloeiend doen) dus of de hardware interpreteert het gewoon als punten (a, b) en beweegt tussen deze punten zelf de muis of dit was een niet zo'n live demo?
ag, die dingen zullen ook wel met de tijd meegaan hoor. binnekort kunnen we rechts knippen en dubbel knipperen met de ogen :P komt wle weer goed.

tog denk ik dat dit soort dingen pas echt leuk zijn zodra je omgeven bent door monitoren, om nou beetje raar zitte te doen voor je eigen monitor :P.

kijk je perongeluk net naar kruisje, geef je iemand een knipoog op bijv msn, sluit ie je chat af :P
voor de mensen met aandoeningen is dit een mooie ontwikkeling.

voor de reguliere sector zie ik meer heil in iets tastbaars:

http://www.perceptivepixel.com/
Dat ziet er leuk uit :)

vraag me bij sommige voorbeelden wel af wat ze draaien daar. Waarschijnlijk trekt de pc die ik straks kopen ga dat alsnog niet bijv (niet dat ik verwacht dat deze research voor de huiskamer is, kwil alleen zeggen dat ik echt best nieuwsgierig ben naar hun specs)
Apple had een paar jaar geleden ook al eens een patent aangevraagd op een beeldscherm dat ook als camera werkt, in combinatie met de eye-tracking die Microsoft hier heeft is het een winner, maar er moet nog wel wat werk verzet worden, want in eerste instantie wordt je er natuurlijk helemaal gek van.
Kon project Natal van MS voor de xbox 360 dat niet ook al? Ook met 2 camera's? Is dit gewoon de pc variant ervan dan?
Ja maar dit is het begin omdat ze nu gaan ontdekken dat je dit systeem in meerdere situaties kan toepassen.
Dat zal eerder andersom zijn ;) Ze zijn al lang met dit soort dingen bezig, en Natal is juist zoiets waarvan ze opeens dachten: He, dat kan er ook mee :)
ms kennende faseren ze een goed/leuk idee in de komende 20 jaar in zeer kleine stapjes in, zodat je minimaal 10x moet upgraden eer je iets echt nuttigs hebt :D
Was er niet zo'n soort van brainhelmet die gemaakt was om games te besturen die ook kleine oogbewegingen meteen al op je hoofd kon detecteren? Dat lijkt me net wat preciezer dan zo met die camera's.

Het idee van eyetracking is wel leuk, als het tenminste goed werkt. Dat was hetzelfde 10 jaar geleden met spraakherkenning, en tegenwoordig gebruikt nog steeds de gewone mens dat niet omdat het niet goed werkt.
ja dat bestaat inderdaad, het ding is van OCZ.

Het duurt alleen een hele tijd voor je er daadwerkelijk wat aan hebt, het ding moet jou leren kennen en andersom.....

de eerste weken moet je gewoon nog werken/spelen zoals gewoonlijk
en daarna instellen wat je deed, dan en dan.

daarna zul je alsnog de beweging moeten makken om te klikken, of die spieren aanspannen....

Er wordt beweerd door enkele partijen dat na een langere tijd je het ook kan doen door er aan te denken o.i.d. maar echt bewijs kan er niet zijn na pas een jaar lijkt me.
en mensen die scheel kijken dan ?
Mensen die scheel kijken bewegen ook met hun ogen. Ik denk dat de apparatuur anders gecallibreerd zal moeten worden in zulke gevallen.
Kan erg gemakkelijk werken..

Het programmatje Camera Mouse trackt bewegingen van een punt die je kiest op je Webcam weergave. Is nog niet heel nauwkeurig, maar geeft een leuk idee.

Maar eyetracking moet toch een heel stuk nauwkeuriger zijn.
Dit verhaal doet me erg denken aan Dasher. Dasher is ook een techniek die gebruik maakt van eye tracking. Dasher is vooral voor het invoeren van tekst en niet voor andere toepassingen. Ik geloof dat er op die site ook een demoprogramma staat om goed te zien hoe het werkt.

Het idee is dat alle letters aan de rechterzijde van het scherm in blokken staan. Door met je oog op een bepaalde letter te richten, groeit die rechthoek en komt binnen die rechthoek een nieuwe groep letters tevoorschijn. Misschien een beetje een vage uitleg maar de demo maakt veel duidelijk
Het idee is dat alle letters aan de rechterzijde van het scherm in blokken staan. Door met je oog op een bepaalde letter te richten, groeit die rechthoek en komt binnen die rechthoek een nieuwe groep letters tevoorschijn. Misschien een beetje een vage uitleg maar de demo maakt veel duidelijk
Daarvoor moet je nog altijd een invoer hebben voor de muis. Ik heb het programma ook al getest.

Op dit item kan niet meer gereageerd worden.



Populair: Samsung Gamecontrollers Smartphones Processors Sony Microsoft Games Apple Consoles Politiek en recht

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013