Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 54 reacties
Bron: CNN

dezero wijst ons op een doorbraak in het hands-free typen. Het gebruik van camera's die bewegingen van het oog registreren, is een nuttig hulpmiddel geworden voor mensen die verlamd zijn of helemaal geen ledematen hebben. Sinds kort zijn onderzoekers aan de universiteit van Cambridge er in geslaagd om software te ontwikkelen die het standaard QWERTY toetsenbord vervangt en tevens preciezer te werk gaat dan voorgaande programma's. Elke willekeurige camera die bewegingen van het oog kan waarnemen is geschikt om gebruik te maken van het stukje software, dat de naam Dasher heeft gekregen. De software die niet alleen veel sneller is dan zijn voorgangers, zou eventueel ook kunnen worden gebruikt om andere onderdelen van de PC te besturen, bijvoorbeeld de muis of de stylus van een PDA, aldus de projectcoŲrdinator David MacKay.

Eye-scan typing!Researchers say people will be able to write up to 25 words per minute with Dasher compared to on-screen keyboards, which they say average about 15 words per minute. With a bit of practice, MacKay said, Dasher offers an easier and more satisfying way for disabled people to communicate, providing them with better tools to write e-mail or create word processor files.

Om zelf met Dasher aan de slag te gaan kun je hier terecht.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (54)

Erg mooi! Zat ff te denken, een tijdje geleden was er een bericht over spelletjes voor blinden.
http://www.tweakers.net/nieuws/22467?highlight=blinden Als deze techniek geavanceerder wordt zou je dus zowel door blinden als verlamden ingemaakt kunnen worden met een spelletje weet-ik-veel-wat. Nu gaat het natuurlijk vooral ook om andere applicaties. Als het zo doorgaat hebben gehandicapten totaal geen hinder meer van hun handicap bij het werken achter de pc. Dit soort technieken zouden uiteindelijk wel eens zo goed kunnen gaan werken dat het toetsenbord en muis overbodig worden. Zal wel verre toekomst zijn, maar de start is er!
Euh, ja wel geinig, maar met een top van 25 woorden per minuut denk ik niet dat het echt veel zin heeft voor de gewone computergebruiker.. Ik zou zelf denk ik gek worden van het getuur.. Ik kijk ook niet de hele tijd naar het scherm..

Maar kun je je een FPS voorstellen? Dat word makkelijk mikken.. :+

Voor gehandicapten lijkt het me echter een mooie doorbraak. Nu heb je dingen die je met je tong moet bewegen enzo.. Ook wel geinig, maar ik kan me voorstellen dat je daar ook kramp van in je kaken krijgt na een tijdje.. :)

Het heeft echter nog maar weinig met het 'denken' van woorden te maken.. dat gaat toch echt ietwat anders... Hier registreren cameras wat je ogen doen.. om text op het scherm te 'denken' moeten je hersengolven gemeten worden.. Aan die techniek wordt ook wel hard gewerkt, dat zou natuurlijk ideal zijn, en ze hebben al wat resultaten, maar dat is wel een andere tak van research die volgens mij nog lang zo ver niet is..
Ik snap het voordeel hier niet zo van, als je constant je oog moet bewegen? dan kun je je toch niet meer concentreren op je monitor?
Je snap het voordeel hier niet van?? Kijk dat wat dit doet voor mensen die verlamd zijn of helemaal geen ledematen hebben, dit iz toch een ideale oplossing voor hun?
Hohoo, zo positief is dit allemaal niet hoor.
Nog even, en dan worden al die mensen 'slechts gedeeltelijk arbeidsongeschikt' verklaard, en worden ze gekort op hun uitkering, met de huidige politieke toestanden....
;)
Net wat Luxx al zegt. Dit is juist wťl positief. Met dit soort technieken kunnen mensen met verlammingen e.d. later gewoon goed functioneren binnen een bedrijf. Dat zou toch geweldig zijn, of niet soms?
Het is echt geen pretje om arbeidsongeschikt te zijn hoor. Je schildert nu gehandicapte mensen af als lui en profiteurs.
Wat overigens misschien niet eens helemaal onterecht zou zijn, angezien er best mensen zijn, die nu 100% uitkering ontvangen, terwijl ze best nog nuttig kunnen zijn voor sommige bedrijven. Als dat met technologische gadgets nog beter wordt is dat alleen maar goed.
Als je aan het typen bent hoef je toch ook helemaal niet naar het scherm te kijken. Ik bedoel ik kan ook blind typen zonder dat ik naar het scherm moet kijken.
<mierenliefdemodus>
Euuuh, bij blind typen kijk je toch juist niet naar het toetsenbord en wel naar het scherm?
</mierenliefdemodus>
Dat kan inderdaad wel ja. Maar het kan ook dat je met blind typen op een blaadje aan het lezen bent terwijl je aan het typen bent. Dan kijk je dus ook niet naar het scherm.
Je concentreert je juist op dat gedeelte van de monitor waar je meer mee wilt doen. Je kijkt dus naar bijvoorbeeld een letter op het scherm en het programma ziet dat en de muis beweegt bijvoorbeeld mee. Hartstikke handig dus
Zoals veel van deze technologiŽn is ook deze ontwikkeling slechts een opstapje naar de toekomstige interfaces. Er zijn verschillende universiteiten bezig met de implementatie van dit soort oog-beweging-registratie in combinatie met het meten van hersen-pulsen. Muishandelingen als klikken en scrollen kunnen steeds gemakkelijker met hersengolfen (gedachten) aangestuurd worden. Een soordt schilderen met de hersenen dus! Het klinkt als toekomstmuziek, maar zowel Franse als Engelse onderzoekers hebben de laatste jaren veel progressie geboekt!
mensen die verlamd zijn of helemaal geen ledematen hebben.
dan moet je wel!
En hoe kom je dan bij de powerknop als je verlamd bent en geen ledematen meer hebt ????
Neus?

ff serieus... welk voordeel heeft dit boven een spraakgestuurd programma?
Nou, misschien het feit dat er geen software is die zo brak werkt als spraakherkenning. Als ik iets tegen een spraakprogramma moet zeggen, ga ik echt niet extra duidelijk praten, want das alleen maar vermoeiend. Bovendien, jij kan me verstaan, dus zou een PC dat ook moeten kunnen.

Reactie op het artikel:
Ik ben benieuwd hoe ze dit klaargespeeld hebben, als ik me voortel om met m'n ogen te typen, verspringen m'n ogen heel snel van toets naar toets. Het kan dus veel sneller, maar kunnen de camera en de PC dat wel bijhouden?

BTW, wanneer kunnen we gaan computeren met alleen gedachten? 8-)
ff serieus... welk voordeel heeft dit boven een spraakgestuurd programma?
...dat Stephen Hawkin het ook kan gebruiken
een nuttig hulpmiddel geworden voor mensen die verlamd zijn of helemaal geen ledematen hebben

Deze mensen kunnen dus alleen hun ogen bewegen
En hoe druk je dan met twee ogen op Ctrl+Alt+Del? Dan moet je wel heel erg scheel zijn.
k'heb nu al een bril nodig...
Dom kortzichtig.. Bah...
Ik verwacht dat uit zoiets nieuwe vormen van RSI ontstaan. Je moet constant je ogen controleren. Je mag niet teveel bewegen met je hoofd.

Allemaal speculaties, maar op de een of andere manier zie ik dit niet juichend tegemoet.
Lijkt me stug. In het verkeer wisselt je oog ook gemiddeld iedere 0,3 seconden van positie, en toch heb ik nog nooit van een taxichauffeur met oog-RSI gehoord :P. Bovendien, als ik nu m'n muis beweeg volg ik het pijltje ook met m'n ogen, dus er zou weinig veranderen als ik het direct met m'n ogen aan zou sturen.
Dat heet dan RSeYe. :-)
Mensen hebben niet voor niks de REM fase in hun slaap, en da's gewoon oog-gymnastiek. Jaja, onze schepper heeft overal rekening mee gehouden :7
waarom niet.. ik bedoel als we strakjes gewoon denken en het komt op het beeldscherm wat wil je nog meer?
Dit kan ook echt hoor (zei het in testfase ;)), kzal het ff uitleggen:

Je hebt een verlamde (moet ni, maar die mensen kunnen het tenminste gebruiken)
je hebt een machine om hersengolven te meten.
Je hebt een computer
Je laat die mens denken aan rood, dat machien meet dat en de computer slaagt dat op
Dan groen, die pc slaagt dat op
Als hij ja wil zeggen denkt hij aan groen, dat machien meet dat en de computer ziet waarop het lijkt zijn hersengolven.

Zo kan je het omschrijven.
De US airforce had al iets in de testbanken (was op Discovery Channel) waarbij mensen als ze op een bepaalde manier dachten ze het vliegtuig simulator apparaat van richting konden laten veranderen...
Dan moet je wel in de goede taal denken, right? (Firefox met Clint Eastwood)
Zo ingewikkeld hoeft het niet eens, ik heb op Discovery gezien dat een man die onder z'n nek verlamd was een cursor kon bewegen door te denken aan het bewegen van z'n armen. Kun je nagaan hoe ze dat later kunnen uitbreiden naar robotarmen die gewoon reageren op gedachten zoals natuurlijke ledematen :).
Is mijnen uitleg ni simpel?
Maar ze zitten al wel veel verder als mijn rood/groen uitleg hoor, nogal evident. Alleen, de mens waar ze de tests is pas overleden, dus moeten ze helemaal opnieuw beginnen :'(, naja, ze zitten gewoon veel verder als rood/groen (en dat was zelfs een verzonnen manier, tkan ookg ewoon zijn dat hij aan ja/nee moest denken)

Kom, ni zagen over dit en antwoorden op nuttige dingen ;)
het gaat toch over eye-scanning..?!!

niet het meten van hersengolven...

eye scanning leest de stand van de ogen uit, niet de hersenactiviteit
waarom niet.. ik bedoel als we strakjes gewoon denken en het komt op het beeldscherm wat wil je nog meer?
Ik moet er niet aan denken dat ik een pr0n-site zit te kijken ( }> ), me moeder komt binnen, maar omdat ik er nog aan denk er spontaan 30 naakte dames op het scherm verschijnen ;) :+
Wel handig met gamen. Kijken naar je tegenstander is al voldoende om hem om te leggen. }>


ff serieus, dit is een unieke oplossing voor vele mensen. Tussen deze mensen zitten wellicht goeie IT'ers (over voor ander werk) en die kunnen nu dus ook doen wat anderen ook kunnen. Moet gewoon zwaar gesubsidieerd worden.
Lekker voor first-person shooters: wat nou "als blikken konden doden" ;)
Kunnnen ze niet beter aan spraak herkenning doen?
Dat is toch makkelijker voor gehandicapten!
heb je wel eens spraak herkening uit geprobeerd???

Nou ik als dislect moest eerst een uur gaan lopen voor lezen! nou je wel wel hoe dat gaat .. een hakkeltje daar en hier .. als of ik zo spreek??? nee daar ben ik niet voor!
Dit lijkt me toch wel een vooruitstrevende techniek , ik had er nog niet eerder over gehoord ..
Mocht het inderdaad goed werken , kunnen we hier in Nederland mischien een hoop mensen die ondanks hun arbeidsongeschiktheid wel graag zouden willen werken aan een baan helpen !
Mischien een verre toekomst , maar toch wel een heel aardig hulpmiddel !
wordt het dan morsecode met je ogen...!?

of wordt er iedere keer het alfabet op het scherm getoond, en moet je dan naar de letter kijken en knipogen om te selecteren....
Wou kijk hier heb je wat aan ik weet niet precies hoe het werkt maar 't is te hopen dat het stukken beter werkt dan die spraak herkenning dingen.

misschien ook nog qwat voor mijn vader die maar met 2 vingers typed :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True