Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties
Bron: BBC

Een team onderzoekers van de universiteit van Hertfordshire in Groot-BrittanniŽ is bezig met het ontwikkelen van sociale omgangsregels voor robots, zo meldt de BBC. Deze zogenoemde 'robotiquette' is bedoeld om de interactie tussen mens en machine in de toekomst zo soepel mogelijk te laten verlopen; geen overbodige luxe als je je realiseert dat het aantal huishoudrobots de komende paar jaar bijvoorbeeld sterk zal stijgen. Hoewel het daar nog niet gaat om C3PO-achtige wezens, is dat wel de situatie waar de onderzoekers van uitgaan. Het team wil dat toekomstige 'sociale robots' weten hoe ze mensen en hun leefruimte moeten respecteren: "Ik wil dat een robot mensen behandelt als mensen, niet als andere robots".C3PO, C-3PO

Hiertoe moeten de machines begrijpen dat mensen individuŽn zijn met verschillende overtuigingen en culturele achtergronden. Tegelijkertijd moeten de machines echter ook in staat zijn met groepen te communiceren. Om dit te bereiken probeert het team onder meer om robots de mogelijkheid te geven (sociale) vaardigheden van mensen te leren.

Moderatie-faq Wijzig weergave

Reacties (53)

Sociale vaardigheden...
Toch is emotionele intelligentie iets wat altijd menselijks zal blijven...(Dat heb je ook nodig wil je sociaal blijven)
Da's een emotioneel argument, niet echt een rationele uitspraak :)

Want hoe is jouw definitie van emotionele intelligentie? Als een robot straks dermate empatisch is dat deze begrip kan tonen voor anderen, zelf adequaat met (uiterlijke) emoties kan reageren op situaties en tot andere dingen in staat is die geassocieerd worden met emotionele intelligentie, wie ben jij dan om te zeggen dat een robot geen emotionele intelligentie bezit?
Da's een emotioneel argument, niet echt een rationele uitspraak
Jij hebt geen argument maar wel een hoop fantasie. Persoonlijkheid, motivatie en sociale vaardigheden zijn tegenwoordig aangeduid als 'emotionele intelligentie' [emotional intelligence, D. Goleman 1995] Hoog IQ en sociale vaardigheden staan los van elkaar. Laten rationeel blijven :) want dat emotionele bij robots is nog heel erg ver van huis....
Laten rationeel blijven want dat emotionele bij robots is nog heel erg ver van huis....
In die 132 minuten is het blijkbaar wel een stuk dichter bij gekomen. :)
vrijdag 29 oktober 2004 - 23:23: Toch is emotionele intelligentie iets wat altijd menselijks zal blijven...(
zaterdag 30 oktober 2004 - 01:35: want dat emotionele bij robots is nog heel erg ver van huis....

Statements met altijd en nooit zijn bijna nooit waar. :)
In die 132 minuten is het blijkbaar wel een stuk dichter bij gekomen.

Statements met altijd en nooit zijn bijna nooit waar.
Grappig, er is echt niets dichterbij gekomen in mijn verhaal hoor :) Statements met altijd en nooit gelden inderdaad niet altijd, maar als je wetenschappelijk gezien in de eerste plaats al niet weet 'wat' inhoudelijk emotionele intelligentie is, hoe het komt (omdat het gerelateerd is aan vage menselijke trekjes) en 'als' je het al weet, 'hoe' het dan geimplimenteerd zou moeten worden is een gigantisch grote stap in de toekomst. Vooral omdat het totaal niets te maken heeft met hogere cognitieve functies waarbij je hoog IQ mee kunt scoren. Dus hele slimme robots zullen er vast zijn, maar "persoonlijkheid, motivatie en sociale vaardigheden" dat is een 'great unknown' en wordt vaak verward met 'G' intelligentie/IQ . Die dingen zijn nog steeds vaag en niet duidelijk omschreven. Als die robots nou eerst bewust vanzichzelf zouden worden, dan is dat een grote stap voorwaarts (maar nog steeds ver van huis :) ) en dan praten we verder over 'emotionele intelligentie' (en dat is nog verder van huis ! :) ). Het blijft dus bij speculatie eigenlijk, volgens mij.
Hoe weet je of een robot bewust van zichzelf is?
Besides, op het moment dat het zo ver is zullen ze ook al emotionele intelligentie bezitten want bewustzijn zonder emoties is onmogelijk. Probeer maar eens 'emotieloos' iets te doen, gaat je niet lukken. Overal heb je wel associaties en gevoelens bij, bij sommige dingen wat sterker dan bij anderen, maar toch.
misschien moeten we het begrip robot niet alleen hardware-technisch zien, maar zou een robot ook (deels) biologisch ontwikkeld kunnen worden,
momenteel is dit nog compleet taboe, maar wie weet stappen we ooit van de huidige etische principes af.

onlangs kwam er op tweakers een artikel langs dat ging over wetenschappers die een neuraal netwerk wisten te creeeren met hersencellen van een muis, hieruit kan ik ongeveer stellen dat het vele malen makkelijker is om een bestaande biologische structuur te gaan gebruiken dan zelf een uiterst complex neuraalnetwerk te gaan ontwikkelen.
Wanneer we dus bio-technologie zouden gaan toepassen in robots, dan lijkt de stap naar emotionele intelligentie zeer klein
cookie_mayhem: lees deze pagina eens, en kijk dan of je de redenering van Rigoris nog steeds als incorrect kan classificeren. Volgens mij snap je zijn punt niet helemaal: wij weten niet wat de oorsprong is van menselijke/emotionele intelligentie, noch hoe we het zouden kunnen "namaken". Wel is het mogelijk, en slechts een kwestie van tijd, dat het nagebootst wordt.

Als je die nabootsing zo levensecht maakt dat voor een mens het onderscheid tussen een mens en een kunstmatig intelligent wezen niet te maken is, hoe ga je dan bewijzen dat dat kunstmatig intelligente wezen niet gewoon (emotioneel)intelligent is? Leg me dat eens uit. En leg me dan vervolgens eens uit waarom "emotionele intelligentie" altijd menselijk zal blijven.
@Madegg
Bewustzijn staat echt los van emotionele intelligentie, sterker nog, het staat los van intelligentie. Bewustzijn is (zo'n beetje grof gezegd) een illusie waarbij je beseft dat je (je 'ik') bestaat en dat je 'weet' dat je in een omgeving zit die 'echt' is, en dat je zelf een 'vrije wil' hebt en dat je kan erover kan 'denken' , maar wil natuurlijk niet zeggen dat je perse emoties hoeft te hebben of intelligent hoeft te zijn :)
Als je evolutionair bekijkt hoe mensen er aan zijn gekomen en hoe robots er nu aan gaan komen begrijp ik dat je zegt dat ze het niet moeten krijgen. maar het lijkt mij juist geweldig als wij een nieuwe levenssoort gaan neerzetten die waarschijnlijk vriendelijker gaat zijn dan welke diersoort dan ook. het enige wat deze machines nodig hebben is stroom en die kunnen wij nu al voorzien zonder daarbij andere dierensoorten te vermoorden. ik vind het aan de ene kant wel een mooie ontwikkeling. aan de andere kant weten we niet wat er echt mis kan gaan. maar dat weten we van zoveel dingen nog niet.
...begrijp ik dat je zegt dat ze het niet moeten krijgen
Nee, ik zeg dat ze het niet kunnen krijgen -als in: not possible, niet mogelijk. Niet dat ze het niet mogen ofzoiets onzinnigs :)
Waarom zou dat niet kunnen, wij mensen gebruiken ook de regels die door onze ouders zijn opgelegd. om heel platonisch te bekijken wat je daarvoor nodig hebt is: audio,visueel, opslagcapaciteit en de mogelijkheid om je opslagcapaciteit te analyseren en dit vervolgens toe te passen. ik zou niet weten waarom het niet mogelijk is.
Het meest wrange hiervan zal zijn dat een robot straks socialer omgaat met mensen dan medemensen dit met mensen doen. Natuurlijk is het respecteren van culturele verschillen een mooi idee, maar als je al een volledig stupide rechtszaak krijgt over "Slave" en "Master"-benamingen voor harde schijven verdrinkt zo'n protocol in politiek correct geneuzel, en is het hoogstwaarschijnlijk weer volkomen achterhaald eerdat het geÔmplementeerd kan worden.

Laat ze eerst maar eens leren lopen, rennen, springen en frietjes in een McDonaldszakje schuiven (vergis je niet, dit is een heel groot probleem en de reden dat McDonalds nog steeds mensen aanneemt ipv er een veel goedkopere machine neerzet). Daarna mogen we eens gaan kijken naar gezichtsvermogen. Pas -dan- zou ik me eens druk gaan maken hoe beleefd 'ie is.
Inderdaad. En niet te vergeten spraakherkenning. Zie ik de komende tig jaar ook nog niet gebeuren. Je kunt nog geen stukje tekst van 2 regels fatsoenlijk automatisch vertalen. Laat staan dat een computer "begrijpt" wat je schrijft of zegt.
Moeilijk doen om niks. Isaac Asimov had het al lang geleden door met zijn 3 robot wetten (of 4, eigenlijk). :P
Das wel erg kort door de bocht Pom.
Dit gaat wel even verder als , een robot mag een mens niet schaden .
Dit gaat over gedragsregels die iets meer dan die drie regels zijn .
je moet je voorstellen dat een robot stofzuiger niet gaat zuigen omdat zijn baas tv zit te kijken .
:)
Hm, je hebt gelijk.
Nou okee. Voor het basisgedrag doen we dan de 3 (of 4, wat je wilt) wetten van Asimov, en dan voor het "sociale" gedrag, bouwen we Douglas Adam's "desire for 'happiness' " erin.
Dan gaat alles vanzelf, toch? :+
En dan kunnen we allemaal gaan klagen bij de Sirius Cybernetics Cooperation, waarvan de klachtenafdeling de volledige landmassa van de vijf grootste planeten in dat zonnenstelsel beslaat... :+ "Share and Enjoy!"
Ah, de beroemde nulde wet....
Lol, volgens mij snappen robots die dan niet helemaal...
The 3 Laws of Robotics:
1. A robot may not injure a human being, or through inaction, allow a human being to to harm.
2. A robot must obey the orders given to it by human beings except where such orders would conflict with the First Law.
3. A robot must protect it's own existence as long as such protection does not conflict with the First or Second Law

Hier zitten natuurlijk gaten in, en daar gaan veel van Asimovs (geweldige) Robot-verhalen over. For the record, door deze wetten begrijpt een robot wel dat hij niet moet stofzuigen als een mens tv kijkt, want het is de robot duidelijk dat psychische schade ook bestaat. Uncomfort.
computers beginnen anders altijd met tellen bij 0 ;)

moet zeggen dat ik dit trouwens grote onzin vind, ten eerste is het de komende decennia nog helemaal niet aan de orde, en kun je beter beslissen als je wat meer weet over de richting waar het zich in ontwikkelt, en ten tweede zal het vanzelf wel goed komen, omdat mensen nu eenmaal zelf zullen willen dat ze prettig met robots om kunnen gaan, en de fabrikanten zullen door marktwerking deze wens ook in vervulling laten gaan.
Nou Muad Dib

Als jij denk dat hij niet gaat stofzuigen Omdat hij aan die drie wetten moet voldoen dan ben je vast geen Coder .
Hij zal dan toch echt moeten leren dat stofzuigen terwijl de baas dingen aan het doen is waar geluid hinderlijk bij is , hij dat niet moet doen .
die redenering kan hij echt niet maken met die 3 wetten.
Het zal hem echt DUIDELIJK gemaakt moeten worden door het ontwikkelen van sociale omgangsregels !
;)
Daar dient de 2de wet toch voor?

Ten eerste gaan robots in de toekomst (ook gewone stofzuigers) minder geluid maken. Ooit een zuigrobot gezien? Mijn collega heeft er een en die maakt echt niet veel lawaai, redelijk acceptabel in dezelfde ruimte en bijna onhoorbaar in vb. de slaapkamer. Hij gaat je ook uit de weg als je rondloopt of terug naar zijn plaats als er meerdere/teveel mensen in de ruimte zijn (IR-sensors).

Dus als je hem zegt dat niet te doen als je TV zit te kijken gaat hij volgens de 2de wet dat niet doen.
Hij gaat ook niet tegen je aanbotsen of stoppen als het hem te moeilijk wordt je uit de weg te gaan (wet 1 en 3)

Asimov's wetten zijn de basics van robot-achtigen en ik vind het redelijk waterdicht. De rest (AI) is extra en comfortabel.
Het team wil dat toekomstige 'sociale robots' weten hoe ze mensen en hun leefruimte moeten respecteren
Wat ik me afvraag: Hoe kunnen robots dit leren van mensen die deze vaardigheden zelf nog niet eens beheersen???

Mocht het dan ooit lukken, dan kan de mens misschien les krijgen van die "verlichtte" robots... 8-)
Tja...dan krijgen we de onvermijdelijke Tokkie-Bots... :+
t is wel leuk als een huishoud bot later niet bruut reageert of jou in de wegloopt.. maar een beetje aardig reageert.. een stofzuiger robot van nu struikel je over als ie niet vergenoeg vooruit kan kijken...

wat een beetje sociaal zou zijn is dat hij stopt, een geluidje maakt, of zelfs keurig aan de kant gaat :)

t zijn geen mensen met emoties die robots... en dat zegt niemand ook zover ik zie.. al kunnen ze wel sociaal doen.. of in computer termen.. user friendly :Y) zijn
Zodra een robot kan leren en zelf een interpretatie maken van wat hij moet doen kunnen we zeggen "dit is het einde".

Verder sociaal gedrag aanleren betekent ook dat een robot asociaal gedrag kan aanleren, omdat dit gewoon het tegenovergestelde is en dus niet iets volledig anders.

Ben benieuwd of dit wat word en hoe lang ze hier wel niet aan moeten gaan werken. Jaren zou waarschijnlijk te kort zijn.
10 jaar geleden heeft een britse KI wetenschapper al een betoog geschreven dat er gedragsregels en afspraken moeten komen om te beschrijven wat robots wel en niet kunnen/mogen. Dit simpelweg vanwege het doemdenken over wat robots in een vergevorderd evolutie-stadium kunnen betekenen voor de mensheid en de aarde.

Echter, hoe kan je nou gedragsregels opstellen als je niet bekend met hoe de ontwikkeling van robots precies zal gaan? Het is net zoiets als gedragsregels schrijven voor buitenaardse wezens: je weet niet of ze ooit in de vorm zoals wij ze kunnen voorstellen, zullen bestaan (en langskomen, in het geval van de buitenaardse wezens), en je weet niet op wat voor manier ze ontwikkeld zijn, dus het is totaal onvoorspelbaar hoe, zeker als ze een mate van intelligentie gaan vergaren, ze op bepaalde situaties zullen reageren, en wat voor effecten dat weer op hun eigen gedrag zal hebben.

Het lijkt me prachtig om daar regels voor te maken. En het lijkt me ook onmogelijk. En nutteloos. Maar goed, veel plezier.
Je kan ook niet echt spreken van een persoonlijkheid, aangezien de chips gewoon met de massa uit de fabriek komen :)

*krijgt I,Robot flashbacks*
Mensen komen toch ook met massa's uit de baarmoeder?

Het is de ontwikkeling en opvoeding die de persoonlijkheid vormt, niet de productie zelf.
Das bullshit, elke mens uit die 'massa's' is uniek, met dus allemaal afwijkend DNA(hardware). Al die chips die met massa's worden geproduceerd, zijn hetzelfde...Dan kan zo'n robot alleen verschillen door wat hem aangeleerd word(software).
Bij een mens is dit dus software EN hardware.
Ik vind het eigenlijk niet zo'n bullshit. Er zijn inderdaad dingen die ons uniek maken maar hoe komt dat? Omdat bepaalde verschillen mixen en zo iets nieuw (een mix) ontstaat. Zo krijg je dus vanaf het begin van de mensheid meer en meer mix en dus 'unieke' wezens (hardware). Veel van die uniekheid in onze 'software' is door onze opvoeding etc.

Bouw eens 2 robots met verschillende eigenschappen. En je programmeert ze dat ze zelf robots laten maken en ze moeten daarvoor quasi-random hun eigen eigenschappen gebruiken + enkele basics (de robot-wetten, de zin om zich te reproduceren zoals hun 'ouders' en de zin om alles te leren en 'ervaring' op te doen). Wat ga je krijgen? Theoretisch hetzelfde als met mensen: een eindeloze mix van ervaringen en eigenschappen die ze doorgeven aan hun volgende generatie.
Waarom theoretisch? Omdat in de praktijk de programmeurs menselijk zullen zijn, er fouten in de programma's gaan zitten en daar wij onze eigen werking nog niet en ook nooit gaan kennen is het ook moeilijk om robots te maken die onze eigen "evolutie" gaan reproduceren.
'sociale robots'
Ik zie het al voor me, nerd plaatst een order van 15 robots omdat hij zijn vrienden of sociale leven uit wil breiden. Komt de rasnerd echt niet meer buiten }>
Grappig dat dit soort berichten er komt nadat ik het boek gelezen heb van Ray Kurzweil: "Als computers slimmer worden dan mensen". Waarin beschreven wordt dat in 2019 al, mensen "relaties" aangaan met een computer, of dit nu iemand is die je iets leert, een soort van partner, maakt niet uit. Blijkbaar komt het allemaal korterbij en is dat geen SF boek, maar lijkt het echt werkelijkheid te worden. En dat gaan echt niet alleen nerds zijn zoals jij dat noemt, maar alle soorten mensen die daar gebruik van zouden maken.
Ach als je ziet wat voor relaties en gevoelens mensen al kunnen ontwikkelen bij huisdieren of, nog erger, levenloze voorwerpen als auto's, dan hoeft een relatierobot niet heel veel kunstjes te kennen om zover te komen.

Als je dat als een probleem ziet, moet je volgens mij eerder de oplossing aan de menselijke kant dan aan de technologische kant zoeken.
"Hello, i'm C3PO, Human-cyborg relations, i speak 3.000.000 different languages....."

*Star Wars. 1976
All your base belong to us !

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True