Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Wetenschappers leren robots menselijk gedrag door het lezen van fictie

Een groep wetenschappers is bezig om een systeem voor kunstmatige intelligentie te leren hoe mensen op verschillende situaties zullen reageren. Dat doen zij door het systeem te laten lezen in een groot aantal fictieverhalen.

De onderzoekers zijn werkzaam aan Stanford University in de Verenigde Staten en hebben een systeem voor kunstmatige intelligentie ontwikkeld met de naam Augur, zo meldt The Stack. Met slimme algoritmes willen zij menselijk gedrag kunnen inschatten, zodat hierop kan worden geanticipeerd. Dat doen zij met behulp van de database van Wattpad, een schrijverscommunity waarin 600.000 verhalen zijn opgeslagen. Die kunnen gebruikt worden door de ai om een inkijkje te krijgen in menselijk gedrag. Alhoewel het om fictie gaat, stellen de wetenschappers dat ook in dergelijke werken 'normaal' menselijk gedrag veel meer voorkomt dan gedramatiseerd gedrag, waardoor het een goed beeld zou geven van hoe mensen daadwerkelijk zijn.

Om te testen of het idee werkt, hebben de onderzoekers een camerasysteem ingezet dat wordt aangedreven door Augur. Volgens Stanford University kon het systeem in 91 procent van de gevallen correct onderscheid maken tussen objecten en mensen. Daarnaast kon in 71 procent van de gevallen het gedrag van een persoon correct worden geclassificeerd. Dat doet Augur door koppelingen te leggen tussen verschillende handelingen. Zo wordt het voorbeeld gegeven van een automobilist, die bijvoorbeeld kan gaan toeteren, het raam open of dicht doen, de radio kan aanzetten of zijn gordel om kan doen.

In het paper dat de wetenschappers online hebben gezet, zijn nog een groot aantal andere voorbeelden te vinden van hoe Augur menselijk gedrag inschat. Volgens de onderzoekers is de volgende stap implementatie in een groot aantal andere toepassingen, waaronder machine learning-systemen, al hebben zij daar nog geen gedetailleerde informatie over gegeven.

Door Bauke Schievink

Admin Mobile / Nieuwsposter

28-02-2016 • 11:13

71 Linkedin Google+

Reacties (71)

Wijzig sortering
Ben me sinds kort ook een beetje gaan verdiepen in machine learning, en ik ben geschrokken hoeveel we een machine al kunnen aanleren. Pas deze week kwam ik op een pagina terecht waar iemand een computerprogramma geschreven had dat naar een mp3'tje klassieke muziek kan luisteren, en aan de hand daarvan het muzikale talent van bijvoorbeeld Mozart kan overnemen. (Om het heel simplistisch te verwoorden)
Het computerprogramma genereerde op zijn beurt een stukje muziek van zichzelf, en tegen alle verwachtingen in: die muziek was prachtig! Niet te geloven dat dat mogelijk was...

Voor de geïnteresseerden: http://www.hexahedria.com...ecurrent-neural-networks/ (onderaan de pagina zijn de resultaten)

Nu, als je weet dat we een computer het brein van Vivaldi kunnen geven om een 5de seizoen te schrijven aan de 4 seizoenen, dan zijn de grapjes die iedereen hier in de comments plaatst nog niet zo heel science fiction als je wel denkt...
Een scenario zoals in de film Stealth van een kleine 10 jaar geleden is echt niet zo onwaarschijnlijk. In die film hadden ze de piloot in een straaljager vervangen door een AI, die door een defect op het internet een computerspelletje had gedownload waarin hij doelwitten had gevonden om aan te vallen...

Machine learning is dus een zeer interessante technologie, met enorm veel toepassingen, maar tegelijkertijd is het toch ook maar iets griezeligs...

[Reactie gewijzigd door azziplekkus op 28 februari 2016 12:56]

Het voorbeeld dat je aanhaalt is een mooi gegeven. Als je kijkt naar de verschillende layers en de verbindingen die daartussen zijn ontstaan, kun je je voorstellen dat het voor de makers lastig is om te oordelen hoe een computer aan een bepaalde muzieknoot komt. We weten welke input de computer heeft en we weten dat de output goed is, maar we weten niet wat er tussenin gebeurt (de 'hidden layers').

Die hidden layers zijn de kern van het toekomstige probleem dat AI-wetenschappers schetsen. Hoe weten we dat computers ons niet bedonderen? We kunnen het niet altijd checken; we weten vaak namelijk niet hóe het precies werkt, alleen dát het werkt. Voor nu is het gelukkig nog nagenoeg onmogelijk dat computers ons bedonderen, omdat de programma's nog relatief prematuur zijn.

Momenteel weten we dat computers nog niet in staat zijn om 'slimme' biologische wezens, zoals muizen en apen, te evenaren. Desalniettemin denken ze dat de technologische singulariteit binnen tientallen jaren bereikbaar zou kunnen zijn, mede door de kracht van neurale netwerken. Dáárom moeten we er nú al over nadenken hoe we dit probleem gaan tackelen, want ooit zijn machines slimmer dan wij - en hebben we dat misschien niet eens door (Bekijk deze TED-talk maar eens. Heb heb al eens gepost, maar Bostrom legt het probleem naar mijn idee goed uit.)

[Reactie gewijzigd door Ossebol op 28 februari 2016 12:27]

Er zijn veel papers die zonder redelijke twijfel aantonen dat kwantummechanische processen absoluut geen rol spelen in het menselijk brein. Zie bijvoorbeeld:

http://arxiv.org/abs/quant-ph/9907009

Dus om dat als argument aan te kaarten is een beetje ver gezocht. Daarnaast is het macroscopisch effect van kwantummechanische processen in biologie prima te modelleren op een klassieke computer omdat het uiteindelijk op kansverdelingen uit komt.

Om een interferentiepatroon te modelleren hoef je ook niet een foton te simuleren die alle mogelijke paden tegelijk neemt, maar kan je prima gewoon de wiskundige beschrijving van het uiteindelijke interferentiepatroon nemen. Of simpelweg het foton als een golf simuleren en niet als een deeltje.

Natuurlijk zijn er kwantumprocessen die je niet kan simuleren op een klassieke computer, maar het lijkt er dus sterk op dat die geen belangrijke rol spelen in het brein of de functionele beschrijving van het lichaam op macroscopische schaal.

[Reactie gewijzigd door onionchopper op 28 februari 2016 14:25]

Hij extrapoleert waar je niet extrapoleren kan. Hij doet alsof er een glijdende schaal is in de intelligentie van veldmuis tot aap tot mens en hij doet alsof er alleen rekenkracht nodig is om van dom tot slim te komen. In werkelijkheid is er ergens in die schaal een plotselinge omslag gekomen naar zelfbewustzijn. Het is heel waarschijnlijk dat een machine die omslag nooit zal maken. Zo ook het verhaal van de traagheid van de neuronen vergeleken met electronica. Onze waarneming is onmiddelijk, zoals je oog ook onmiddelijk "aan" is zodra je het open doet. De traagheid van onze neuronen en vooral de synapsen is expres om het brein tijd te geven andere reacties te maken dan de reflex.
Dat is denk ik niet zijn punt. Rekensnelheid is wel degelijk relevant, omdat daarmee sneller verbanden kunnen worden gelegd. Hoe sneller en meer verbanden een computer kan leggen, hoe slimmer die wordt.

Ik vind het gevaarlijk om te stellen dat een machine waarschijnlijk nooit zelfbewust kan worden. Waar baseer je dit op? En wat is zelfbewustzijn? Heeft dat ook niet deels te maken met hoe anderen het apparaat zien? Kinderen bijvoorbeeld zien robots al als zelfbewuste wezens, die een plek naast mensen en dieren hebben gekregen.

Facetten van zelfbewustzijn, zoals bewustwording van de omgeving, het kiezen van de juiste weg, het leren van een taal, zijn al door computers te simuleren. Het is dus heel aannemelijk dat het complete menselijke gedrag ooit zal worden evenaart. Laat ik het zo zeggen: ik zie geen reden waarom robots niet zelfbewust kunnen worden.
Nee, dit is niet mogelijk. Zoals je kan lezen in het artikel dat je vermeldt, gaat het om een gesimplificeerde weergave van het muizenbrein (200.000 neuronen). En dat terwijl een muizenbrein 75.000.000 neuronen heeft (zie ook het filmpje). Een mens heeft er naar schatting 100.000.000.000. Om het even in perspectief te zetten.

En dat is wel een belangrijke kanttekening van de huidige AI-modellen. Het gaat om modellen, oftewel simulaties. Dat zijn altijd vereenvoudigde weergaven van de werkelijkheid.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True