Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties

Philips experimenteert met een technologie, waardoor verlamde mensen apparaten kunnen bedienen via hun gedachten en eventueel gezichtsbewegingen. Het experiment resulteerde in een hoofdtelefoon voor patiŽnten met de aandoening ALS.

Voorlopig leidt het experiment nog niet tot verkrijgbare producten, zo waarschuwt Philips. De bedoeling is op termijn dat patiënten die kampen met verlammingen meer acties zelfstandig kunnen uitvoeren, zoals het in- en uitschakelen van verlichting, zappen op tv of bedienen van een smartphone of tablet.

De Braincommand-technologie werkt via een headset van Emotiv, die patronen in hersenactiviteit als commando kan herkennen. Daarvoor moeten gebruikers denken aan sterke zaken, zoals het opstijgen van een raket, schrijft Bright. Die werken als commando in een menu van een tablet-app. De tablet op zijn beurt kan vervolgens apparaten in huis bedienen als verlichting of de tv. Ook kan de app gebruikt worden om berichten te versturen naar een noodlijn of naar medewerkers van een zorginstelling.

Het gaat vooralsnog om een proof-of-concept. De bijbehorende site van Philips lijkt nog niet online. Wat de plannen van het Nederlandse bedrijf zijn met deze technologie, is vooralsnog onbekend.

Moderatie-faq Wijzig weergave

Reacties (50)

Ben benieuwd hoe het werkt, als dit werkt is het erg functioneel voor de mensen die niet meer kunnen lopen en hun armen bewegen.

[Reactie gewijzigd door icter-tje op 5 augustus 2014 11:41]

Ben benieuwd hoe het werkt,
De uitleg is simpel: hersenen genereren signalen bij bepaalde acties die bewust uitgevoerd kunnen worden. Een voorbeeld is zoals de tekst noemt het denken aan 'sterke gedachten', zoals het opstijgen van een raket. Er is een significant verschil tussen sterke gedachten en gewone gedachten dat aan de buitenkant van de schedel gemeten kan worden. Door dit te meten, kan een gebruiker een knop bedienen met alleen diens gedachten. Eťn knop is natuurlijk niet veel, en daarom dat ook andere soorten hersenactiviteiten gemeten moeten worden om dit te kunnen. En daar zit de complexiteit in. ;)

Er zijn al demo's waarmee je bijvoorbeeld een balletje kan besturen met hersenactiviteit. Dat houdt in dat je (weliswaar nog wat inaccuraat) bijvoorbeeld al een aanwijscursor en een knop of twee zou kunnen bedienen. En dat opent mogelijkheden voor mensen die deels of volledig verlamd zijn. Naar mijn mening zijn dit samen met het zorgen dat blinden en slechtzienden (goed) kunnen zien zeer belangrijke ontwikkelingen waar veel mensen profijt van kunnen hebben. :)

[Reactie gewijzigd door The Zep Man op 5 augustus 2014 11:51]

Tja, het is maar net wat je belangrijk vind. (blinden en doven is weer iets anders).

1. Je kan het leven dragelijker maken (nuttig, maar in mijn ogen geen prioriteit)
2. Je kan het voorkomen/genezen (veel handiger).

Momenteel is de techniek zo veel verder dan de medische wereld lijkt het wel.
Punt 1 is blijkbaar makkelijker te bereiken dan punt 2. Naar beide word namelijk onderzoek gedaan.

Het dragelijker maken kan op relatief korte termijn al.
Ja echt totaal iets anders. Iets bots en onnauwkeurigs als dit zet je pas in als als iemand niks kan bewegen en met name niet meer kan spreken.

De telegraaf heeft 't over ALS patienten, maar meestal praten we dus over personen waar deze fysieke problemen optreden, een paar dagen voor de dood.

Kernprobleem van apparaat als dit is dat het ontzettend lastig is om er mee te leren werken, dus een paar dagen voor de dood intreedt lukt dat hoegenaamd niet meer.
Iemand met ALS gaat niet dood.
Mensen ALS kiezen er zelf voor om te sterven omdat ze niets meer kunnen.

Het is dus zeker niet zo dat ze niet kunnen praten vlak voor dat ze dood gaan. Bij sommige patiŽnten zijn dat juist eerste klachten.

Dit is zeker een heel goed hulp middel voor ALS patiŽnten.
Iemand met ALS kiest er niet voor om te sterven.
"De meeste mensen overlijden uiteindelijk doordat de ademhalingsspieren zo verzwakt zijn dat deze ook uitvallen"
https://nl.wikipedia.org/wiki/Amyotrofe_laterale_sclerose
Dan kunnen ze beademt worden net zo als Stefan hawkins

Het uitvallen van de longspier gaat heel geleidelijk waardoor ze al lang beademt worden voordat deze helemaal stopt.

En dan is het de keus van de patiŽnten om de beademing stop te zetten.

[Reactie gewijzigd door xbeam op 18 augustus 2014 22:35]

Nu ik heb al jaren geleden software voor zo'n product gebouwd en dat was technisch niet veel beter dan dit frutsel van Philips.

Het is ontzettend moeilijk om met gedachtegolven iets aan te sturen. Dat vereist jarenlange oefening van de gebruiker. Het gaat ook niet erg accuraat en tergend langzaam.

Dus een vervanger voor spraak is het zeker niet.

Een apparaat als dit is dus pas interessant om neer te zetten als een gebruiker geen spraak heeft. An sich kost productie van zo'n apparaatje maar paar tientjes. Manier waarop Philips het presenteert zullen ze wel weer miljoenen willen roven :)
Op tedX pasgeleden nog een demo gezien van iemand die nog nooit met een "mindreader" apparaat verbonden was geweest.

Door te denken aan "verdwijnen" kon hij een element laten verdwijnen van een computerscherm. Door te denken aan "Tonen", werd dit element weer getoond.

Het aanleren duurde een aantal minuten.
Voor complexe taken zal dit ongetwijfeld langer duren, maar jarenlang?
Je praat hier over 0 of 1 doorgeven, dat is niet zo indrukwekkend en enige wat met dit soort goedkope junk ook lukt.

Op het moment dat je wilt gaan communiceren heb je geen 0 of 1 keuzes meer maar dien je hele zinnen te vormen.

Probeer dat maar eens binnen en paar minuten aan te leren. Dat lukt dus totaal niet. Verder is de foutmarge ook enorm hoog.

De snelste methode, niet de default code, die wij vonden was via morse code te werken. Dus de meeste demonstraties op de grote wereldwijde beurzen verliep via morse code. De gebruikers - die zagen gewoon de tekst die gecommuniceerd werd, maar de signalen vanaf de hoofdband verliepen dus heel anders :)

Zo werd er op een paar grote beurzen gedemonstreerd wereldwijd.

Die CTO had echter jarenlange ervaring met zijn eigen product :)
/funmode
Man en vrouw liggen in bed:
Vrouw: Schat waar denk je nu aan?
Man: .... Uh, niets.
*TV gaat aan, pr0n kanaal*
Vrouw: Duidelijk..

Er zijn al aardig wat projecten geweest die op basis van 'hersenactiviteit' iets kunnen activeren, maar zijn ze nu al zover dat ze gericht signalen kunnen oppakken voor bepaalde 'acties'?

Edit, lees dat het gaat om 'gedachtes' die dus goed zijn op te pikken en niet direct gerelateerd aan de actie, zal mijn /funmode ook wel een goede voor zijn :P

[Reactie gewijzigd door SinergyX op 5 augustus 2014 11:54]

Als je gecontreerd aan iets denkt, dan worden bepaalde delen in je hersenen actief, dit patroon kan worden opgeslagen. Als je een volgende keer aan het zelfde denkt, dan kan er een match worden gemaakt tegen de opgeslagen patronen. Zo'n match wordt gemaakt met een fout marge. Hoe groter de marge, hoe vaker er een false positive op zou treden. Je denkt aan iets anders. Hoe kleiner de marge, hoe vaker er een false negative op zou treden. Je probeert aan hetzelfde te denken maar niet hard genoeg of een verandering in je hersenen zorgen voor een ander patroon.

Het komt veel overeen met spraak "herkenning". Of liever, stem commando's. Daar maak je ook een patroon op het moment dat je het systeem traint en vervolgens worden nieuwe geluiden gematched tegen de opgeslagen patronenen. Maar deze vorm van spraak herkenning begrijpt niets van wat je zegt, het probeert alleen het patroon te matchen.

Het is bij deze systemen niet zo dat je gedachten worden gelezen. Je traint alleen het systeem om bepaalde patronen die voorkomen als je op iets specifieks concentreert te kunnen matchen.

Een heel simpele form was een lijn die omhoog of omlaag laagt als je concentreert of ontspant. Handig voor iemand die totaal verlamd is om JA/NEE te kunnen antwoorden. Maar je zou het zelfde kunnen bereiken door een sensor in je reet te stoppen. Of gewoon op een knopje te drukken als niet gehandicapt persoon.

Echt met je gedachten een cursor sturen (links, rechts, shuin omhoog, iets sneller langzamer), laat staan iets typen is er nog lang niet bij.

Denk aan heel vroege stem controle systemen, waar je eindeloos moest herhalen voor het systeem door had dat JOUW stem op dat moment overeen kwam met een opgeslagen patroon. Je hersenen zijn nog veel moeilijker uit te lezen. Het gaat op dit moment eigenlijk niet veel verder dan je concentreren op iets en dan genoeg hersen activiteit generenen omgezien te worden als JA of dat niet te doen en dat wordt gezien als NEE.

Dus je kunt voorlopig gewoon aan porno denken zonder dat je vrouw. dit weet.
nieuws: OCZ NIA-breininterface voor gamers getest en dat was in 2008.

[Reactie gewijzigd door GewoonWatSpulle op 5 augustus 2014 11:50]

Da's bijna identiek apparaat als deze. Werkt net zo primitief natuurlijk.
Iets met breingolven aansturen is simpelweg erg lastig.

Verschil is wel de prijs. Die van OCZ is stuk goedkoper :)
Ja, en er wordt al fors aan allerlei projecten gewerkt, ook door Valve, Dell en Microsoft. Zie deze link: http://www.bbc.com/news/technology-28642935
Maar het mooiste voorbeeld van hulp bij handicaps is natuurlijk Stephen Hawking.
Voor Stephen maken ze natuurlijk iets speciaals. dat is iets wat tonnen gekost heeft. dit tientjesontwerp van philips kun je daarmee niet vergelijken.
Zou dan niet altijd en overal de tv/tablet/laptop e.d. op een pornokanaal springen? :+
Dat wordt dan meteen gelogd en naar de AIVD gestuurd. Komt mooi in je dossier te staan:D
Toffe techniek, mijn vader heeft ALS en dit zou hem behoorlijk helpen.
Er is al wel een computer met oogbesturing, maar dat is echt lang niet alles.
dit is ontzettend primitief apparaatje van paar tientjes.
dit apparaat aansturen is ontzettend lastig en kost jaren oefening. Ook dan gaat het tergend langzaam.

Met je ogen kun je veel sneller bewegen en veel nauwkeuriger iets voor elkaar krijgen. Vaak is dat wel factoren duurder dan dit apparaat.

Weet niet of ik fabrikant naam mag noemen (hele grote, Amerikaans bedrijf) waar ik software gebouwd heb voor iets wat enorm lijkt op dit - bedoeling was ontwikkelen van dat apparaat voor de gaming wereld - dat kostte 50 dollar ofzo. In de winkel dus. Kortom productieprijs was rondom de 10 dollar.
Bij veel ALS patiŽnten beginnen de ogen op een gegeven moment te trillen waardoor de nauwkeurigheid van de besturing nogal afneemt.

Als dat andere jaren oefening nodig heeft is het voor ALS patiŽnten al snel niet interessant meer, de meeste overlijden binnen 1 tot 5 jaar na diagnose.
Dat is waarom dit soort producten nog tientjesproducten zijn, waar Phlips kennelijk heel wat meer aan verdienen wil nu (de geciteerde prijzen liggen echt te hoog).

Op moment dat iemand nog een heel behoorlijke levensverwachting heeft kun je veel simpeler een duurder product uitbrengen en aanschaffen.
Als het gaat om de medische conditie van patienten dan zal dat simpelweg van patient tot patient verschillen. Bij het gros zal aanvankelijk werken met de ogen het beste zijn en bij een kleine groep via spieren op het hoofd en het allerlaatste resort is natuurlijk puur met breingolven aansturen - want dat is het meest foutgevoelig van alles.
Mijn ervaring is dat oog besturing echt heel slecht is.

En wat dan nog een een ALS patiŽnt heeft tijd zat om er te leren en als het minder vermoeiend is dan oog besturing hebben ze dat er echt wel voor over
Kernprobleem is dat deze electronica alles bij elkaar maar paar dollar kost.
Productieprijzen van tientje praat je over.

Realiseer je je goed dat iets wat zo stront goedkoop is, terwijl goede sensoren juist stinkend duur zijn, dat dat van geen meter gaat werken.
Alles wat een toevoeging is op de huidige middelen is mee genomen.

De huidige medische hardware is ook heel slecht en heel erg over priced
Als je ziet wat we als patiente krijgen van de wmo of verzekering dan schrik ook je rot. Oude zooi waar ze dan een paar duizend euro voor vragen.

Een computer met Oog besturing maar ze mogen niet facebooken want dat gebruikt te veel geheugen en hier door loopt Windows vast.
Een als patiŽnt heeft vaak alleen facebook voor het contact met vrienden en de buitenwereld
Echt diep triest en geld klopperrij.
Herkenbaar. Mijn vader had ook ALS en die oogbesturing werkt inderdaad niet geweldig. Hoop ook voor jullie dat deze veelbelovende techniek in de toekomst meer kan betekenen.
Geloof niet dat we dat nog gaan meemaken; inmiddels bijna 3,5 jaar en het loopt aardig riching het einde nu :'(
Mijn condolences. :(
Ai, heel veel sterkte!
Het is goed dat men hier mee bezig is. Toch wel knap wat er tegenwoordig allemaal kan.

Mijn baas heeft vorig jaar zelf veel in elkaar geknutseld voor zijn schoonmoeder, heeft toen allemaal technieken aan elkaar gekoppeld. Ze kon uiteindelijk via een camera de computer bedienen met haar ogen. Maar ook andere dingen doen en duidelijk maken. Hij doet er nu echter niets meer mee. Dat is best wel jammer eigenlijk, want hij was best wel ver.
iets custom in elkaar zetten en al helemaal iets wat je met je ogen kunt aansturen is 100x beter dan dit natuurlijk, maar ook 100x duurder.
Oog besturingssysteem werken echt bagger en de reactie tijd is veelste traag.

Een berichtje van 160 tekens typen kost 2 minute
Dat gaat hiermee nog veel langer kosten hoor.
80 tekens per minuut is megaveel overigens.

Hoevelen halen er 80 tekens per minuut met het toetsenbord?

We praten hier over een CTO die heel snel is en vroeger bij de militaire inlichtingendienst zat, die dus echt steengoed is in dit soort zaken die dus een berichtje in Morse code voor elkaar krijgt. Maar ook die redt dus dit soort aantallen tekens per minuut niet.

80 BEWUSTE tekens per minuut waar jij 't over hebt met zo'n hoofdtelefoon op, dat kun je op je buik schrijven. 80 random tekens - daar koopt niemand iets voor natuurlijk.

[Reactie gewijzigd door hardwareaddict op 7 augustus 2014 16:51]

Jij hebt het over woorden
Een sms is 160 tekens dat type je in een paar seconde vol.
De vraag die bij mij meteen opkomt is over welk onderdeel van de gedachten het precies gaat.
Een enorm groot gedeelte van je gedachten komen onbewust op en heb je geen controle over.
Gaat het dan alleen over bewust opgeroepen gedachten en hoe filtert dit systeem tussen verschillende gedachten?

Iedereen heeft bijvoorbeeld ook weleens dat er een rare gedachte omhoog komt, dat je op een hoge berg staat en dat heel kort in je hoofd schiet, wat als ik eraf spring, dat zet je vervolgens meteen uit je hoofd en denkt wat een gekke gedachte. Maar als ik bijvoorbeeld robot benen heb die aangestuurd worden door gedachten, hoe reageren die dan op zo'n gedachte?

Edit: Ik lees net dat mensen het systeem activeren door te denken aan 'sterke zaken' , dat beantwoordt al een deel van mijn vraag, maar ik vraag me af wat er dan gebeurt als iemand bijvoorbeeld een sterke emotionele reactie ergens op heeft.

[Reactie gewijzigd door Rixos op 5 augustus 2014 11:50]

Het gaat volgens mij meer over het aansturende gedeelte van je hersenen. Bv de gedachte van stuur hand aan om op het toetsenbord te typen.
De prefrontale cortex?
Edit: Ik lees net dat mensen het systeem activeren door te denken aan 'sterke zaken' , dat beantwoordt al een deel van mijn vraag, maar ik vraag me af wat er dan gebeurt als iemand bijvoorbeeld een sterke emotionele reactie ergens op heeft.
"OH GOD EEN SPIN"
-> je telefoon zoekt automatisch een resem foto's van spinnen op :9
Interessant, het apparaat in de video is kennelijk al te bestellen vanaf 400 dollar op de emotiv site (inc software wordt het flink meer):
http://emotiv.com/store/

[Reactie gewijzigd door arendvw op 5 augustus 2014 11:50]

SDK LICENSE TYPE: Individual License $ 0

Valt toch wel mee ? Tenzij je RAW data wilt, dan ben je $ 300 meer kwijt.
Bij mij crasht die app - of slaat de cloud tilt - wie het ook verwerkt - zal in de problemen geraken. Kan ik niks aan doen - dat is zo genetisch bepaald.
2024: je denkt aan chocolade. Opeens staat er reclame voor chocolade op je smartwatch......
Smartwatch, dat is wel heel erg 2014 ;) Ik denk dat je die reclame eerder op je digitale contactlens ziet.
of nog sterker, je kan gelijk een chocolade bar bestellen in je gedachten. die binnen 15 min met een automatische drone op jouw locatie afgeleverd word. doormiddel van je gps localisatie chip onder je huid. (het is immers 2024, wat nou privacy...)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True