Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 98 reacties, 22.463 views •

Onderzoekers hebben een methode ontwikkeld waarmee patiŽnten met het zogeheten locked-in syndroom toch kunnen communiceren met de buitenwereld. Een in de hersenen geÔmplanteerde elektrode geeft spraaksignalen door aan een computer.

Na een herseninfarct kan een patiënt in een pseudocomateuze toestand raken, waarbij deze nog wel bij bewustzijn is, maar niet kan spreken of bewegen. Hoewel mensen vaak nog met oogbewegingen kunnen communiceren, zijn de patiënten vrijwel volledig van de buitenwereld afgesloten. Een groep onderzoekers van de Boston-universiteit en het MIT heeft echter een hersenimplantaat ontwikkeld dat elektrische signalen uit de spraakmotorcortex oppikt en deze via een fm-signaal naar een ontvanger stuurt.

De medewerkers van de onderzoeksinstituten implanteerden de elektrode vijf jaar geleden bij een toen 21-jarige patient met het locked-in syndroom. Uitlopers van hersencellen groeiden langzaam de elektrode in en produceerden daar elektrische signalen. Die signalen worden omgezet in een fm-signaal dat naar twee antenne-spoelen op het hoofd wordt gestuurd. Een derde spoel voorziet het implantaat via inductie van stroom. Daarmee is de brein-computer-interface geschikt voor langdurig gebruik en wordt de gebruiker niet gehinderd door bovenmatig veel externe hardware.

Drie elektrodes vangen de signalen van de neuronen op: deze zogenoemde formanten-frequenties, die coderen voor klinkers, worden door software geïnterpreteerd. Gedurende enkele maanden leerde de patiënt op basis van audio-feedback het systeem te gebruiken en hij haalt inmiddels een accuratesse van bijna negentig procent. Bovendien heeft het systeem slechts 50 milliseconde nodig om de signalen van de neuronen op te pikken, te versturen en te vertalen in spraak. Daarmee is het systeem ongeveer even snel als een persoon met intacte neurale paden.

Met meer elektrode-implantaten op meer dan één plaats in de motor-cortex zou het systeem ook in staat moeten zijn medeklinkers op te vangen en te synthetiseren. De onderzoekers denken met een volgende versie van het Neuralynx System, zoals het geheel van implantaat en externe hardware genoemd wordt, tenminste tien maal zoveel neuronen uit te kunnen lezen, wat het klankbereik moet verbeteren. Bovendien biedt het direct relateren van neuronale impulsen aan spraak mogelijkheden voor toekomstig onderzoek.

Brein-computerinterface voor spraakherkenning en -synthese

Reacties (98)

Reactiefilter:-198096+154+29+30
Moderatie-faq Wijzig weergave
Voor mensen die het stukje niet hebben gelezen: het gaat dus niet over wat je denkt maar over wat je wil zeggen. Dus je kan blijven denken aan wat je wil, hij gaat enkel vertellen wat je hersenen normaal naar je strottenhoofd zou sturen.
Nu dus enkel klinkers. In de toekomst ook medeklinkers en het zou mij helemaal niet gek lijken als ze die mensen ook terug kunnen laten zingen.
Het gaat over wat je effectief zegt.
Het is niet omdat iemand iets wil zeggen, dat ie dat ook zegt. (uitspraken kan je immers inslikken)

[Reactie gewijzigd door Psychnosiz op 23 december 2009 12:03]

Dan wil je het ook niet. Jij hebt het over een heel ander soort willen, in de vorm van: ik *wil* het wel, maar... Je kunt redeneren dat je het niet zegt om bepaalde redenen, en dus wil je het gewoon niet zeggen. De mensen met locked-in syndroom willen het gewoon zeggen, alleen worden de impulsen niet omgezet in daadwerkelijke spraak door een defect in de hersenen.
Dat dacht ik ook al. Als je nadenkt wordt namelijk niet je spraak cortex gebruikt (lijkt mij).
Prachtig verhaal, het zat er natuurlijk aan te komen. Toen de eerste berichten van koppelingen tussen individuele hersen cellen (neuronen) en een elektrisch circuit boven kwamen, en later insecten telematisch bestuurbaar bleken (nieuws: Wetenschappers bouwen kever om tot cyborg) dacht ik nog, het is niet of maar wanneer iets dergelijks geprobeerd wordt. De telematica die met de kever werden uitgehaald vond ik trouwens toen hoorlijk immoreel. Dit is natuurlijk een heel ander verhaal. Iemand weer in staat kunnen stellen om te kunnen communiceren is iets heel moois.

Indrukwekkend is dat niet de eerste de beste functie wordt aangepakt. Spraak als motoriek is complex. Ik vermoed (kan iemand dit verifieren?) dat het om die reden ook een van de eerste functies is die averij oploopt bij een hersen-attack, het is het eerste wat dan omvalt.

Naast spraak regelt de motorcortex, naar ik weet, veel (bewuste) signalen die de hersens als output naar de rest van ons lichaam sturen. Dit zou volgens mij, naast spraak ook een mooie bypass kunnen vormen voor de aansturing van protheses die bij invaliden ledematen vervangen in de gevallen waarbij de zenuwen teveel zijn vernield om fatsoenlijk op aan te sluiten.

Dit is echt SF coming true. Al kan het vergezicht ook beklemmen:

Letterlijk in de computer inpluggen (geen rsi meer :P) via glasvezel aansluiting in hals

Eewig leven..... stop hersens in lifesupport unit ........motorcortex telematisch verbonden met 8 potige carrier (kan meer als ons originele lichaam) ..... en uhhh .....een array aan sensoren voor zicht, reuk, geluid en gevoel maakt het plaatje compleet.

Hmmm, is dit leuk? Wie gaat het trouwens betalen? Hoe dan ook, voor de invaliden van nu is dit goed nieuws.

[Reactie gewijzigd door teacup op 23 december 2009 12:49]

De telematica die met de kever werden uitgehaald vond ik trouwens toen hoorlijk immoreel. Dit is natuurlijk een heel ander verhaal. Iemand weer in staat kunnen stellen om te kunnen communiceren is iets heel moois.
Wellicht immoreel, maar je moet er ook even bij stilstaan dat het experiment met de kever ook heeft bijgedragen aan het onderzoek waar het hier over gaat. Zonder dat experiment was het wellicht nog niet eens mogelijk geweest.
Mooi systeem!!! Erg mooi. Ik las in de huidige National Geographics http://magazine.nationalgeographic.nl/2009/12/21/de-bionische-mens/
een erg interesant artikel over de bionische mens. Daar werd een lichtgewicht kunstarm met 22 bewegingsmogelijkheden (uiterst geavanceerd) vanaf de elleboog aangestuurd door de zenuwuiteinden die nog in de stomp zaten. De patient kon vervolgens weer zo goed als alles qua beweging. Tevens ging het over een kunstoog, een soort lichtsensor die signalen kon doorgeven aan de oogzenuw waardoor de patient in kwestie weer een boom kon "zien" met de afzondelijke takken.

Men is zelfs bezig met kunstmatige huid (met nanotechnologie) Die kunstmatige huid zou warmte en druk moeten kunnen waarnemen en doorgeven aan de verantwoordelijke zenuwen.
Het meest bizare vond ik nog wel het ontwikkelen van een hypocampus. Het gebied in de hersenen die nieuwe herinnering vastlegt.

[Reactie gewijzigd door Berimbau op 23 december 2009 14:17]

De spraak-computer zegt niet wat je denkt. Hij zegt zelfs niet wat je wilt zeggen als je als locked-in patient "gewoon" een zin poogt te zeggen of aan die zin denkt.
Wat er gebeurt is dat die electrodes bepaalde signalen oppikken en die doorsturen naar de spraak-computer, die deze signalen omzet naar basale klanken (klinkers). Zelfs als de patiŽnt denkt aan een "e", zegt de computer dat nog niet direct. Er gaat een proces van leren aan vooraf. De patiŽnt moet het betreffende hersengebied eerst "trainen".

Hersenprocessen moeten gekoppeld worden aan die klanken, dus de patiŽnt moet leren welke denkprocessen welke klanken teweeg brengen. Na een tijd oefenen kan de patiŽnt dan door aan het wat de computer interpreteert als een "e" te denken, die letter produceren.
Doordat ze de electrodes in het gebied van klinker productie hebben geplaatst zal dit proces van leren vrij snel gaan en zal het vrij natuurlijk zijn (je hoeft bijvoorbeeld niet aan het schoppen van een bal met je linkervoet te denken om een "e" te produceren), maar het heeft met gedachten lezen vrij weinig te maken, omdat het een erg bewust proces is.

Op het gebied van neurale activiteit "uitlezen" is de wetenschap op dit moment nog beperkt tot ťrg basale visuele informatie. Men kan uit de hersenactiviteit in de visuele gebieden een plaatje reproduceren die op een heel basaal niveau overeenkomt met wat een proefpersoon ziet (grote contrast verschillen bijvoorbeeld, of horizontale tegenover verticale oriŽntatie van een stimulus).

Aan alle jubilanten ("Joepie! Pizza bestellen zonder telefoon!") en doemdenkers ("Ze weten wat ik denk!") hier: het loopt nog niet zo'n vaart. Het zal nog niet zo snel gebeuren dat je dieper in het brein (bijvoorbeeld waar je geheugen en emoties voornamelijk verwerkt worden) direct neurale informatie kan uitlezen zonder diepe electrodes te implanteren, die ook nog eens voor littekenweefselvorming zorgen. Zelfs voor processen die zich aan het oppervlakte van het brein manifesteren heb je het liefst invasieve electrodes; oppervlaktemetingen zijn qua spatiŽle resolutie verre van optimaal (je kan dan enkel grote groepsprocessen meten).

Voordat men op een afstand neuronen van elkaar kan onderscheiden, zeker důůr de schedel heen, heb je dus eerst een fikse operatie en training nodig voordat je ook maar hťle simpele dingen (bewegen van een cursor, "uitspreken" van klinkers) van je brein-computer-interface kan verwachten. Daarnaast zal de wetenschap dan ook nog eens de neurale code voor gedachten moeten ontcijferen. Dit is al zeer lastig voor directe visuele informatie, laat staan voor complexe gedachten.
Erg goed nieuws. Op New Scientist staat ook een uitgebreid artikel waar ook een audio file bij staat.
hmm interessant! Maar zoals ik het lees moet je voor het infarct al hebben kunnen praten.

Anders zou dit natuurlijk een prachtige applicatie zijn voor bijv dove mensen die niet duidelijk kunnen praten, maar nu letterlijk hun gedachten onder (duidelijke) woorden kunnen brengen!

Vind het maar prachtig hoor! De medische ontwikkelingen gaan maar door.
Bij dove mensen werkt het sowieso niet, vanwege de "auditory feedback" die nodig is tijdens het trainen.

Het enige dat dit apparaat doet is geluiden produceren. Dat kunnen dove mensen natuurlijk sowieso al. Ze weten alleen niet hoe die geluiden dan zouden moeten klinken omdat ze het simpelweg nog nooit gehoord hebben.
Das ook totaal geen probleem voor dove mensen. Je toont een blad met die bepaalde klinkers en dan moeten zij er enkel aan denken hoe ze die klinker willen uitspreken. Moet niet overeen komen met iemand anders maar het moet wel consistent zijn.
Vervolgens programmeer je de spreekcomputer dat ze op een *iets* moeten reageren ipv iemand die een a of een e of ... wil zeggen.
Het is gewoon makkelijker als mensen gewoon zijn om te spreken. Zolang er fysisch niets fout is met de spraakcortex kan je hersenen aanleren om het te gebruiken. Maakt niet uit of ze het ooit al gedaan hebben, zijn enorm flexibel en de reden waarom we ons kunnen aanpassen.
Ik denk niet dat je uit moet gaan van een systeem waarbij alle gedachten letterlijk uitgesproken worden. Meer een training waarbij je aan een bepaald iets moet denken; dat dan een X reactie op roept; zoals de basic "ja" en "nee" commando's.
Lees ik dit dan verkeerd?

“The results of our study show that a brain-machine interface (BMI) user can control sound output directly, rather than having to use a (relatively slow) typing process,” Guenther told PhysOrg.com
Ik denk dat je het meer moet zien als het laten bewegen van je oor of je kleine teen. Iets dat je normaal gesproken niet doet, maar als je je goed genoeg concentreert en veel oefent kan je na een tijdje makkelijker op commando die spiertjes commanderen. Zo is het met deze electroden ook. Na een tijdje oefenen kom je erachter wat je moet doen/denken om een bepaald geluid te produceren.

Dat typ proces is volgens mij een systeem waarbij mensen met hun ogen letters moeten aanwijzen op een virtueel toetsenbord.
Ik denk dat je het meer moet zien als het laten bewegen van je oor of je kleine teen. Iets dat je normaal gesproken niet doet, maar als je je goed genoeg concentreert en veel oefent kan je na een tijdje makkelijker op commando die spiertjes commanderen. Zo is het met deze electroden ook. Na een tijdje oefenen kom je erachter wat je moet doen/denken om een bepaald geluid te produceren.
Dit systeem hangt rechtstreeks aan het spraakcentrum. Waar jij je stembanden hebt zitten, zitten bij dit systeem de elektroden, dus als de patiŽnt gewoon iets zegt, dan wordt dat op een normale manier verwerkt. Vooral met mensen die een acute variant hiervan hebben (en dus vůůr verlamming nog vrolijk spraakzaam waren) is dit een prima oplossing.

Bovendien, als we hiermee de motor-cortex kunnen begrijpen, zal het niet lang meer duren voordat ook andere lichaamsdelen (armen, benen) zo weer functioneel gemaakt kunnen worden.
> Damn dat zijn een paar mooie tieten *zucht* :9
< *bam* }:O
< wat zei jij daar?
> niets, ik dacht hardop :Y)
Dat wordt dus een filter installeren ;-)
Nee, dergelijke gedachten worden niet doorgegeven:
geeft spraaksignalen door aan een computer.
Het gaat hier enkel dus om spraaksignalen, de signalen die je ook verstuurd wanneer je praat.
Dan is JUIST een filter nodig ;)
V-chip, anyone? :+

[Reactie gewijzigd door HotFix op 23 december 2009 14:10]

WIN!

ja sorry voor de downmodbaarheid maar hotfix zijn comment is echt te goed!

[Reactie gewijzigd door freaq op 24 december 2009 10:42]

Dat wordt dus een filter installeren ;-)
dat filtertje zit al in je hersenen, alleen dan op een andere plek.

zo is er het geval, dat er iemand is die na een beroerte, dat 'filtertje' niet meer heeft.

conversatie van moeder ( na beroerte) tegen dochter die binnen komt met haar nieuwe vriend. (vriend was al op de hoogte van de situatie).

"hallo ma, dit is mijn nieuwe vriend"

"Oh oke, leuk. En heb je hem al geneukt?...... Oh jeej ik zei dat hardop, noujazeg!"

Dat over het filtertje.

maar ik neem aan dat het tourette een soort missfire is van stroompjes in de hersenen inplaats van klakkeloos zeggen wat er in je opkomt.
Bij intacte hersenen zijn er (ook) twee verschillende 'processen' voor denken en voor spreken. Dat geldt hier natuurlijk ook. Dus, als je "wilt" spreken dan pakt dit apparaat het op (aangezien het een bepaald gebied in je hersenen betreft). Als je "wilt" denken, dan betreft het een ander gebied en zal het dus ook niet tot spraak leiden.
Precies, mensen hier vinden het blijkbaar moeilijk om te lezen, en denken gelijk het ergste (lees meerdere reacties in de trant van: "lekker kunnen ze zo je gedachten lezen/horen").
Hmm erg handig bij verdachten verhoor en getuige verklaringen.. Je moet erg goed kunnen liegen wil je je echte gedachten onderdrukken... Ook echt ideaal bij verkiezingen... Geen leugens meer en loze beloftes waarvan ze bij voorbaat al weten dat ze het niet kunnen waar kunnen maken (willen maken) Of geloof in je eigen leugens.. zit je altijd goed.. ;)
daar is deze techniek niet erg geschikt voor nog, omdat het alleen spraak commandos omzet in spraak, geen gedachte. normale mensen gaan dan gewoon praten, maar deze mensen kunnen dat niet.

maar er zijn wel technieken die al met een grote mate van zekerheid kunnen zeggen of je liegt of niet. voornamelijk door te kijken hoe hard je hersenen werken, want liegen kost veel meer hersenkracht...

maar het enige wat we dan krijgen is meer mensen zoals W.Bush in de politiek, gewone sokpoppen voor andere mensen die veel meer achter de schermen zijn.
want als jij geloof wat je zegt, ook al is het niet waar, dan is het geen leugen voor je hersenen.

Op dit item kan niet meer gereageerd worden.



HTC One (M9) Samsung Galaxy S6 Grand Theft Auto V Microsoft Windows 10 Apple iPad Air 2 FIFA 15 Motorola Nexus 6 Apple iPhone 6

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True