Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 136 reacties

Het Europees Parlement heeft een motie aangenomen waarin het de Europese Commissie oproept met regels te komen voor een verplichte 'kill-switch' voor robots. Ontwerpers zouden die moeten integreren in hun ontwerpen van geavanceerde robots en artificiŽle intelligentie.

De kill-switch die in de motie wordt voorgesteld is onderdeel van een voorstel voor een ontwerperslicentie die als bijlage aan de motie is toegevoegd. In deze conceptlicentie waar Europese ontwerpers van robots zich in de toekomst mogelijk aan moeten gaan houden, staat dat ontwerpers duidelijke onderbrekingsmechanismen of 'kill-switches' dienen te integreren die passen bij de doelstellingen van het ontwerp van de robot. Een nadere toelichting over de specifieke toepassing en voorwaarden voor de kill-switch ontbreekt in de motie.

De belangrijkste aanleiding voor de motie is de snelle ontwikkeling van robots en kunstmatige intelligentie en de behoefte om met regels duidelijk te maken wie waarvoor aansprakelijk is bij toegebrachte schade door autonome robots. Het Europees Parlement stelt voor om op de lange termijn een specifieke rechtspersoonlijkheid te creëren voor met name geavanceerde robots. Een speciale 'elektronische' rechtspersoonlijkheid voor robots betekent dat robots voor het recht - tot op zekere hoogte - als een persoon worden beschouwd, inclusief de daarbij behorende rechten.

Met name wat betreft de technologie van zelfrijdende auto's wordt in de motie gepleit voor de oprichting van een verplichte verzekeringsregeling. Producenten of eigenaren van deze robots zou verplicht moeten worden een verzekering af te sluiten voor de schade die deze robots veroorzaken. Voor gevallen van schade door robots waarbij er geen verzekeringsdekking is, moet er een compensatiefonds komen om te zorgen dat er alsnog een schadevergoeding wordt uitgekeerd. Als fabrikanten, programmeurs, eigenaren of gebruikers van robots financieel bijdragen aan dit compensatiefonds, zou hun aansprakelijkheid mogelijk beperkt kunnen worden, zo wordt in de motie voorgesteld.

De zelfstandigheid van de desbetreffende schadetoebrengende robot kan in de toekomst een cruciaal punt worden voor de mate van aansprakelijkheid van de ontwerper. In de motie wordt overwogen dat de aansprakelijkheid evenredig zou moeten zijn met het concrete niveau van de aan de robot gegeven instructies en de mate van autonomie. Dit betekent dat hoe groter het leervermogen of de autonomie van een robot is, en hoe langer de eventuele 'opleiding' van de robot heeft geduurd, hoe groter de juridische aansprakelijkheid van zijn 'opleider' zal zijn.

Het Europees Parlement wil dat voor het toekennen van de schade wel specifiek onderscheid wordt gemaakt tussen de vaardigheden die de robot tijdens de opleiding heeft opgedaan en de vaardigheden die puur zijn toe te schrijven aan het zelflerende vermogen. Hiermee wordt duidelijk dat de verantwoordelijkheid volgens de motie vooralsnog bij de mens moet liggen en niet bij de robot.

De motie, die op ludieke wijze begint met een korte overweging over Frankenstein, de Praagse Golem en de robot van Karel Čapek, is aangenomen met 396 stemmen vóór, 123 tegen en 85 onthoudingen. De Europese Commissie is niet verplicht de aanbevelingen in de motie op te volgen; wel moet de Commissie ingeval van een afwijzing onderbouwen waarom de motie niet wordt uitgevoerd.

Moderatie-faq Wijzig weergave

Reacties (136)

Wet voorziet daar al in:
Machinerichtlijn 2006/42/EG, Annex I, ß1.2.4.3: Noodstop
‘Een machine moet zijn voorzien van ťťn of meer noodstopinrichtingen waarmee reŽle of dreigende gevaarlijke situaties kunnen worden afgewend. Dit geldt niet voor:

machines waarbij het risico niet verminderd zou worden door de noodstopinrichting, hetzij omdat deze de normale tijd waarbinnen de machine stopt niet vermindert, hetzij omdat deze het niet mogelijk maakt de in verband met het risico vereiste bijzondere maatregelen te nemen,
met de hand vastgehouden en/of met de hand geleide draagbare machines.’
Bron: http://www.denf.nl/artike...id/2012/Machineveiligheid
Ja maar da's een lokale wet. Niet europees.
Nee hoor.

http://eur-lex.europa.eu/...T/?uri=CELEX%3A32006L0042

Het is overigens geen wet maar regelgeving.

In wetgeving staan geen specifieke details in regelgeving wel.

[Reactie gewijzigd door totaalgeenhard op 20 februari 2017 00:07]

Het is natuurlijk nog ver weg, maar als we op het punt komen dat A.I. "zelfbewust " word, hebben we dan het recht om zomaar die kill switch te activeren ( of zelfs in te bouwen ) ?
Dat is een interessante filosofische vraag. Het gaat er om waar je de grens legt.

Ooit legden wij de grens tussen mens en dier en mocht je met een dier alles doen aangezien ze geen rechten hadden. Dat is in de loop der tijd langzaam verandert en hebben dieren bepaalde rechten en beschermingen gekregen (dat verschilt ook nog eens per type dier, een insect heeft bijvoorbeeld aanzienlijk minder rechten dan een paard). Zo mag je over het algemeen sommige diersoorten wel doden voor de voedselindustrie (maar andere diersoorten weer niet) maar mag je bijvoorbeeld een varken wel doden (mits onder voorwaarden) maar weer niet mishandelen (maar wel weer 24 uur opgepropt in een vrachtwagen stoppen).

Dat opschuiven en vervagen heeft er voor gezorgd dat er discussies zijn over of bepaalde apensoorten 'mensenrechten' moeten krijgen en of dieren mensen voor de rechter kunnen slepen.

Op dit moment ligt er nog een duidelijke grens tussen mens en machine (zoals er ook ooit een duidelijke grens was tussen mens en dier). Het is interessant om te speculeren of we over honderd jaar die grens nog steeds zo helder zien of dat die ook is gaan schuiven of vervagen. Misschien is het hebben van een bewustzijn dan niet meer voldoende als criterium en moet de oorsprong van dat bewustzijn (biologisch of elektrisch) meespelen.

[Reactie gewijzigd door Maurits van Baerle op 17 februari 2017 18:07]

Dit is toevallig een discussie waar TestNet de laatste tijd ook aandacht aan besteed heeft (gisteren nog naar een discussieavond geweest). Vandaag in de pauze het er met collega's ook nog wat over gehad , dit is wel een interessant artikel:
http://waitbutwhy.com/201...ligence-revolution-1.html

Het idee van een kill-switch is natuurlijk ethisch interessant (zouden we het ook okť vinden elke baby met een kill-switch te implanteren, voor het geval dat het later uit de hand loopt?) maar als de betreffende AI niet op een geÔsoleerd systeem draait, wat dan? Je gaat er dan vanuit dat de AI (= zelflerende code die zichzelf optimaliseert) alleen op systemen mag bestaan die nooit de mogelijk mogen krijgen contact te maken met internet. Tegen de tijd dat die AI er komt, zal dat een onmogelijkheid zijn.

Overigens is dit geen discussie waar we 100 jaar voor hebben...25 jaar is een veel reŽlere schatting (zie link eerder in deze post). De kans is groot dat wij 'als mensheid' er tegen die tijd nog niet uit zijn...net zomin als dat we er nu uit zijn wat acceptabel gedrag is en wat niet.

Overigens zou het niet uit moeten maken wat de oorsprong van een bewustzijn is...het is een bewustzijn. De enige reden dat wij een biologisch bewustzijn belangrijker vinden dan een digitaal bewustzijn is omdat wij een biologisch bewustzijn bezitten. Stel, we komen in contact met buitenaards leven, een bewustzijn bestaande uit pure energie. Wat dan? En als we straks het bewustzijn van een stervend mens in een robot als AI verder kunnen laten leven?
De huidige vorm van machines bezitten geen bewustzijn en zullen ook geen bewustzijn krijgen. De computer is niet meer dan discriminator tussen 0 en 1 met aangevuld enkele logische regels. Hoe snel je ook zo'n systeem laat draaien, het verandert niets aan het fundament van de computer; een transistor die uit of aan kan staan. Een transistor kan niet op een magische wijze ineens bewustzijn genereren.

Het toont juist aan dat begrip en bewustzijn niet nodig zijn om ingewikkelde computationele processen te berekenen.

De software die draait op deze computers staan geheel lost van. Het simuleert bepaalde gedragingen. Je kan daarmee complex gedrag van mensen nabootsen, maar dit is niet anders dan een film die geprojecteerd wordt op het witte doek. Niemand gaan bewerend dat het witte doek en de projector ineens bewust wordt als je een film gaat afspelen.

De hersenen zijn volledig anders. Er is geen onderscheid tussen de software en de hardware. De input en de dynamiek in de hersenen bepaalt de structuur van de hersenen tot cel-niveau en op het niveau van DNA. Die combinatie geeft als fysiek randverschijnsel bewustzijn en begrip.
De computer is niet meer dan discriminator tussen 0 en 1 met aangevuld enkele logische regels. Hoe snel je ook zo'n systeem laat draaien, het verandert niets aan het fundament van de computer; een transistor die uit of aan kan staan. Een transistor kan niet op een magische wijze ineens bewustzijn genereren.
"De hersenen zijn niet meer dan een verzameling neuronen die volgens hele simpele regels werken. Hoe veel ervan je ook hebt, het verandert niets aan het fundament van hersenen: een neuron die vuurt of niet. Een neuron kan niet op magische wijze ineens bewustzijn genereren."

Zelfde foutieve logica.
Uiteindelijk zijn mensen en hersenen niet meer dan een (vrij complexe) chemische fabriek. Er is geen fundamentele reden waarom die chemische processen niet gesimuleerd zouden kunnen worden. Daarmee is er ook geen fundamentele reden waarom een computer of robot niet hetzelfde bewustzijn concept zou kunnen ervaren als een mens.

Als je denkt dat het anders is, kom je al vlug in het domein van spiritualisme of religie. Daar ben ik geen aanhanger van. Als de geschiedenis ons iets heeft geleerd, dan is het een lesje nederigheid. Wij zijn niet het middelpunt van het universum. Wij zijn niet veel anders dan andere dieren. Etc. Een volgende les die we gaan leren: Buwustzijn (wat dat ook moge zijn) is niet aan mensen (of dieren) voorbehouden.

[Reactie gewijzigd door KopjeThee op 18 februari 2017 10:04]

In mijn ervaring is een van de beste manieren om mensen te verlossen van hun illusie dat 'robots' nooit een bewustzijn zullen hebben om ze de filmpjes van de zoogdierachtige reacties van Boston Dynamics robots te laten zien:Het is natuurlijk ver van iets met een bewustzijn, maar het roept bij veel mensen precies die primitieve reactie van empathie op die het makkelijker maakt om het 'ding' als 'levend wezen' te beschouwen. Daarmee wordt de overtuiging dat anorganische wezens nooit op 'ons niveau' kunnen komen meteen ook een stuk zwakker. En terecht.
Klinkt misschien raar, maar ik heb zo het gevoel dat wat er in Mass Effect gebeurde met The Geth en de Quarians gaat gebeuren voor we gaan realiseren dat een zelf bewust AI iets is waar we niet mee willen kloten en de beste uitkomst (en 100% zekere uitkomst dat we geen "evil" AI krijgen die de wereld wilt vernietigen omdat hij het liefst zijn postkaart verzamelcollectie uitbreid en liever overal postkaart machines neerzet om zo veel mogelijk postkaarten te verzamelen.

Iets dat ongelooflijk veel kracht achter zich nodig heeft om te werken (technische kracht; denk honderden servers om gedachtes geheugens etc allemaal op te slaan en gebruiken) en nog eens een bewustzijn bij de huidige staat van de wereld via het internet en hier graag zelf iets op uit wilt voeren aangezien het een zelf bewust iets is zie ik hier eigenlijk niet veel goeds uit komen. Ik heb zelf Person of Interest gezien en ondanks dat het allemaal fictie is, geeft het een boel inzicht op de mogelijkheden en de waarschijnlijkheden dat een bewust AI met zich mee neemt.

Lijkt mij een goed begin eerst onze eigen techniek zodanig uit te breiden dat we precies kunnen checken en kijken (zoals we nu met de meeste mensen kunnen) wat een AI zoal kan doen en eventueel tegen kan gaan. Helaas is het allemaal speculatie en zullen we nooit een goed resultaat kunnen bedenken/beoordelen zonder het eerst in elkaar te zetten; niet zeggende dat het onderwerp van dit artikel moet ontbreken. Het tegendeel. Maar goed. Qua AI zal het waarschijnlijk nog wel een stuk of 50 jaren verderop liggen. Dan ga ik toch al bijna de pijp uit.
Lees het linkje eens =)

Vergeet dan niet het doorgelinkte artikel waar ze een Lego robotje zich als een bepaalde worm laten gedragen....doordat ze de 'hersenstructuur' nagebootst hebben. Het gedrag van het robotje is dus niet meer geprogrammeerd / bedacht...het vormt zich.
Lego, L'ego, c'est toi Zahrezz
Hoewel jouw antwoord voor 99% van de computers geldt, zijn er en aantal nieuwe ontwikkelingen, als optic computing en quantum computing dat met andere regels werkt. En ze zijn ook aan het experimenteren met organische computers. En wie weet wat nog meer gaat komen in de toekomst. Je moet met beleid maken naar de toekomst kijken.
Of die grens vaag wordt hangt van jezelf af. Ben je bereid technorealistisch te worden of blijf je kritiekloos techno-optimist. En dat geldt voor iedereen.

Laten we niet doen alsof de wereld je gewoon overkomt.

Dat we veel deden met dieren die we immoreel vinden was niet omdat ze geen rechten hadden. Dat was omdat we als mens de wijsheid verloren hadden die we heel lang geleden wel hadden. Het is immers evident dat dieren kunnen lijden. En wij komen uit maar staan nog met ťťn been in een wereld waar dieren slecht behandeld worden. De periode waarin dieren slecht behandeld werden is maar heel langzaam aan het verdwijnen.

We geven dieren nu rechten maar dat is een manier van verantwoordelijkheid afdwingen, als schil om onze waarde dat dieren kunnen voelen en lijden.

Ik geloof niet in sterke AI. Ik zie niet hoe als je miljarden aan-uit schakelaars bijeen brengt daaruit intelligentie kan ontstaan. Laat staan zelfbewustzijn. Een mens ervaart zijn zenuwstelsel, ervaart het verglijden van biologische tijd. De megahertz reikwijdte zou van een AI een soort onsterfelijk wezen maken en ik denk dat we geen enkel raakvlak zouden hebben met zoiets.

Ik vind al deze regels een legitimering van de zoektocht en de dwaasheid van het willen verbeteren van de mens door op wetenschappelijk-technische manier onszelf te bekritiseren in wat we zijn via de proxy van een gebouwde en ontworpen nep-mens.

Het is pure zelfhaat en heeft niets te maken met het oplossen van problemen. Voor welk probleem is een sterke AI een oplossing? Niets.

Een zwakke AI is niets anders dan een stapel algoritmes en kent geen zelfbewustzijn noch intelligentie. Het is pseudo-intelligentie. Daarmee doen AI wetenschappers aan pseudo-wetenschap wat mij betreft.

Rechtspersonen voor robots en AI gaat te ver. Ik wil absolute macht over alle machines omdat ik een mens ben, en van deze Aarde. Het kan niet zo zijn dat ik aangeklaagd wordt op het moment dat ik een robot uit de weg duw die dreigt te vallen op een kind en dat de robot via de eigenaar mij kan aanklagen wegens beschadiging.
Kort door de bocht, zonder jezelf in te leven in het juridische aspect. Op het moment dat jij een robot uit de weg duwt en deze op een kind dreigt te vallen, dan ben je 100% verantwoordelijk voor je daden. Of je nu een robot duwde, of tegen een ander object of zelfs een ander mens. Het zou juist niet meer dan logisch zijn dat de eigenaar van de robot jou aanklaagt wegens beschadiging van zijn robot en de ouders van het kind jou aanklaagt voor eventueel letsel bij het kind.
Dat is toch lariekoek. Als AI te vergelijken is met een auto, zit er toch ook een stopknop op. Idem op gebouwen waar de brandweer de stroom uit kan schakelen. En idem op alle robots die er al zijn in fabricage lijnen (net als heel veel andere apparaten waar zo'n mooie rode noodstop knop op zit).

Robots kunnen zeer krachtig zijn (denk aan auto fabricage straten). Een noodknop is er ter bescherming van de productiemedewerker of service monteur.

Vooreerst is zelflerend en zelfbewust 2 heel verschillende zaken. Bij welke AI je ook hebt, als de stroom uitvalt, staat het apparaat ook uit. Zelfbewustzijn zonder stroom is wel een hele rare definitie. Alle andere wezens die in meer of mindere mate zelfbewustzijn hebben, zijn ook autonoom (in de vorm van bewegingsvrijheid).

Soms krijg ik het idee dat die AI discussie bijna loop 'alsof men als God wil zijn'. Er wordt in termen van zelfbewustzijn van AI gesproken, eigen rechten van AI etc. En in een andere thread van vandaag dat mensen niet meer zijn dat voorgeprogrammeerde wezens met een set regels. Het eerste is forse opwaardering van AI, het tweede een afwaarderen van de mens. Waarom denkt men dat met AI ook maar in de buurt zal komen van wat een mens kan? Het is toch een gotspe c.q. ongelofelijke verwaandheid van wetenschappers als je zoiets zou pretenderen. Of is het slechts de PR machine of versimpelde berichtgeving die AI al zoveel kansen toedenkt? Wetenschappers zullen onderling toch wel weten van hun eigen beperkingen? Men weet nog zo heel veel niet van bijv. hoe een menselijk brein werkt, laat staat dat je zoiets na zou kunnen bouwen... Die hele discussie over AI is dan een non-discussie toch?
"Men weet nog zo heel veel niet van bijv. hoe een menselijk brein werkt, laat staat dat je zoiets na zou kunnen bouwen... "

Ik denk dat het woordje "nog" de juiste nuance aanbrengt. Er is geen fundamentele reden waarom dit in de toekomst niet mogelijk zou zijn. Dan denk ik niet over 10 jaar, maar over aanzienlijk langere termijn.
Dat is wel vrij naÔef gesproken naar mijn mening, de hersens van een mens zijn niet meer dan een hele zwik neuronen die signaaltjes geven met een bepaalde sterkte. Hetzelfde als elk ander dier, alleen zijn wij geadvanceerder. Het is zeker niet ondenkbaar dat we ooit op het punt gaan komen dat we robots kunnen ontwikkelen die op dit punt kunnen aankomen.

Uiteraard zullen veel mensen dit niet kunnen of willen geloven, zeker creationisten willen de mens graag te hoog inschatten maar als we nu al gedrag kunnen veranderen door simpelweg de juiste hersengebieden te stimuleren moet dat toch wel een indruk geven hoeveel we afhankelijk zijn van deze neuronen en hoe weinig onze "vrije wil" voorstelt.

Grootste verschil tussen mensen en andere wezens, die men vaak maakt is het hebben van emoties, dit is echter een gebied waarin ook genoeg onderzoek gedaan wordt voor AI en waar al genoeg theorieŽn voor zijn uitgewerkt. Emoties zijn namelijk niets meer dan simpele reacties op gebeurtenissen en het is al ontkracht dat dieren dit niet hebben (sinds angst eindelijk als emotie geclassificeerd is).

We zijn er nog lang niet, maar er gaat zeker een moment komen dat we zulke geadvanceerde robots zouden kunnen maken, of wij dat nog gaan meemaken weet ik niet, maar het zal zeker gaan gebeuren.
Hetzelfde als elk ander dier, alleen zijn wij geadvanceerder.
Dat is een beetje de negentiende eeuwse gedachte ;) de mens is het ultiem van de evolutie en de rest is minderwaardig.
Zo werkt het niet helemaal, zijn filosofen het intussen wel over eens.
Interessante reactie, vooral dat je begint met "Dat is jouw arrogantie." en vervolgens op de proppen komt met "Mijn hersens zijn de meest complexe structuur in de cosmos".

Onze hersens zijn geavanceerd, naar onze maatstaven. Maar over de kosmos weten we vrijwel niets. Of het de meest complexe structuur in de kosmos is die wij kennen is nog maar de vraag. De rest van de kosmos is waarschijnlijk zo complex dat onze hersens die niet kunnen bevatten.

Onszelf als hoogst haalbare beschouwen, dat is pas arrogant. Natuurlijk is het even slikken als we stukjes technologie bouwen dat slimmer is dan wij, dat concepten kan begrijpen die wij nooit zullen kunnen bevatten. Dat is een flink lesje in nederigheid. Maar of dat nou zo slecht zou zijn? Voor de mensheid wellicht wel. Voor de planeet waarschijnlijk niet want laten we wel wezen, zo goed zijn wij als ras nou niet voor de planeet.

Als je gewoon even kijkt naar de ontwikkelingen van de laatste 1000 jaar, is het niet meer dan logisch dat AI er gaat komen, waarschijnlijk nog binnen 50 jaar. De gevolgen hiervan kunnen we niet overzien. Net zomin als de mensen die dingen als vuur, het wiel, elektriciteit, atoomenergie, etc., etc., etc. ontdekten dat konden. Jezelf wijsmaken dat dat echt niet gaat gebeuren is enorm naÔef. Een paar eeuwen geleden was de aarde nog het middelpunt van het universum waar alles om draaide. Inmiddels weten we beter. Aannemen dat de mens het hoogst haalbare in het universum is niet anders dan de aanname dat de aarde het middelpunt van alles is.
Als een AI zelfbewust wordt, dan is die zichzelf ook (al lang) bewust van die kill-switch, en zal er waarschijnlijk wel zelf iets aan kunnen doen de bedoeling is dat die kill-switch al lang gebruikt is voordat de AI zelfbewustzijn vertoont.
Precies, er is genoeg science fiction geschreven waarin dat soort hypothetische situaties wordt beschreven. Dat de kunstmatige levensvorm de kill switch onklaar weet te maken, of dat het een ondoordringbare beschermlaag er omheen bouwt. Het lijkt schijnveiligheid te zijn, met het idee dat de mens de controle heeft. Er komt denk ik een punt van ontwikkeling dat dat niet meer zo is.
Zou het niet mogelijk zijn om zo'n kill-switch, zowel fysiek als softwarematig, in het geheel onbereikbaar te maken voor zo'n AI-robot?
Het probleem lijkt mij pas te ontstaan zodra je een makkelijk toegankelijke (op afstand) al dan niet vooraf geprogrammeerde kill-switch inbouwt.

Als de bedoeling van zo'n switch is dat de robot compleet uit te schakelen is in noodgevallen, zou zo'n switch ten alle tijden buiten het bereik van de robot zelf moeten zijn. Gezien het feit dat zelfs enige mate van creativiteit te simuleren is, zal je hier streng in moeten zijn.
Zoals ze het bij mensen vaak doen die zich niet gedragen ? :) landen waar de doodstraf normaal is ? dat noem ik een synoniem voor een killswitch ( wel een permanente)

Of kijk naar China / Noord Korea , waar je niet zomaar mag zeggen wat je denkt , doe je dat wel , dan wordt je of gebrainwashed of je verdwijnt gewoon ;)

T probleem met de mens is dat wij al gewoon een "flawed design" zijn, de kans is er dat een Kunstmatige intelligentie , gewoon de volgende stap is in de evolutie.

[Reactie gewijzigd door Metallize op 17 februari 2017 17:54]

Voor mezelf kan ik alvast zeggen dat ik de doodstraf absoluut niet vind kunnen, hoe gruwelijk de gepleegde feiten ook zijn. Op het moment dat dat je iemand veroordeeld tot de dood verlaag je jezelf tot het zelfde niveau als de dader.
Ik kijk zeker uit naar de dag dat de doodstraf wereldwijd tot het verleden behoord.
Ik snap nooit zo goed waarom de doodstraf zo erg is. waarom is de dood iets slechts als we niet eens weten wat er na de dood komt? Ik ben liever dood dan dat ik 40 jaar opgesloten wordt.
Ik ben liever dood dan dat ik 40 jaar opgesloten wordt.
Precies de reden waarom ik tegen doodstraf ben. Lijden is veel erger.
Niks, hup naar de 72 maagden. Vijftig jaar naar buiten kijken en niet naar buiten kunnen. Dat is pas straf.
72 vrouwen.... Pfff ťťn is me soms al te veel.
En wat hebben die vrouwen misdaan dat ze in het hiernamaals ter beschikking worden gesteld aan een of andere mafkees?
wat er na de dood komt doet helemaal niet ter zake in deze discussie ( wat mij betreft ben je voer voor de wormen en verder niets ;) )

Het gaat mij om het principe van oog om oog,..., Ik hoop echt dat we als mens ondertussen genoeg geŽvolueerd zijn om te beseffen dat dat principe kant nog wal raakt.

Iemand ter dood veroordelen is wraak nemen, wraak is een emotie en emoties horen niet thuis in rechtspraak.

[Reactie gewijzigd door justmike op 17 februari 2017 19:38]

Evolutie gaat over natuurlijke organismen, niet over kunstmatig ontworpen machines. Dan is het 'ontwerp'.

Gebruik in deze discussie wel de juiste definities anders antropomorfiseer je.
Tja, waar houd het op? Euthanasie is bijvoorbeeld ookal erg gevoelig al word daar bewust de keuze zelf gemaakt. Vervolgens plots de keuze hebben om A.I plat te leggen met een killswitch omdat deze bewust word van dingen..
Euthanasie is bijvoorbeeld ookal erg gevoelig al word daar bewust de keuze zelf gemaakt.
Maar ook daar gaat het regelmatig fout omdat er sprake moet zijn van uitzichtloos lijden.
Dus een paar jaar in een verpleeghuis liggen wachten tot je dood gaat. In plaats van een pilletje.
En zou dat niet juist voor wrijving zorgen? Kan me voorstellen dat een mensachtige robot zich niet erg in zijn waarde gelaten zal voelen met zo'n kill-switch aan boord. Als ze dan heimelijk een manier gaan zoeken om dat ding uit te schakelen..
Het blijft een machine, hop stekker er uit.
Tot je een artificieel leven krijgt wat denkt en functioneert als een mens. Denk bijvoorbeeld aan een stel dat geen kinderen kan krijgen en een ai gaat opvoeden. Zouden die de stekker eruit kunnen trekken?
Ook al is het een robot/android die 100% slaagt voor de turing test en niet in de uncanny vally zit, 'zelfbewust' is enz enz. Ik trek zonder ook maar 1 seconde te twijfelen de stekker er uit. Het blijft een machine.
Totdat de AI zich verspreidt via 'het internet' (of wat dat in de toekomst moge zijn) en daardoor een wereldwijde entiteit is. Met 'hop, stekker er uit' kom je er dan niet meer, omdat je daarmee het grootste deel van de mensheid uitroeit (als je al de stekker uit alles dat connected is zou kunnen trekken).
Trek dan eerst even de utp kabel er uit. En dan hop, hop stekker er uit.
Dan ga je er vanuit dat we over pakweg 25 jaar nog met UTP kabels werken. Grote kans dat tegen die tijd alles wireless is. Dan wordt stekkers eruit trekken toch wat lastig.
Hop, hop, even op vliegtuigstand en dan....
Goed punt, maar er is nog een heel ander scenario mogelijk:

In het geval van dat systemen echt ooit zelfbewust worden, zal het wellicht ook niet erg lang duren voordat ze zich bewust worden van het feit dat ze een kill switch hebben. Dus wanneer de belangen van zo'n "machine" haaks komen te staan op de belangen van z'n maker, zal een echt intelligent wezen die belangen verbergen, net zo lang totdat hij een antwoord op die kill switch...

Kortom: Een echt intelligent wezen zal iets vinden op zijn eigen kill switch. Zal z'n killswitch wegmodden (of laten uitvoeren door een ander systeem) en dan pas eventuele vijandige intenties bekend maken aan de mensheid...

Edit: zie nu pas dat ik niet de enige ben die hieraan dacht... LOL

[Reactie gewijzigd door Roy81NL op 18 februari 2017 09:33]

Ik doelde hieronder al op een ethisch besluit zonder filosofische beschouwing. Er wordt hier een keuze gemaakt voor de toekomst, die waarschijnlijk doordacht is met de kennis van nu. Dat is op zich logisch, maar het geeft niet heel veel besef van de laatste films hierover uit Hollywood. ;)
Er staat toch in het artikel dat dit een eerste stap is om de snelle ontwikkelingen van dit moment niet stil te leggen? Het gaat hard met AI, maar de meeste wetenschappers/futurologen hebben het toch nog over 10+ jaar. Tegen die tijd zijn ze bij de EU hopelijk opgeschoten met die rechtspersonen waar ze het ook over hebben.
De belangrijkste aanleiding voor de motie is de snelle ontwikkeling van robots en kunstmatige intelligentie en de behoefte om met regels duidelijk te maken wie waarvoor aansprakelijk is bij toegebrachte schade door autonome robots. Het Europees Parlement stelt voor om op de lange termijn een specifieke rechtspersoonlijkheid te creŽren voor met name geavanceerde robots.
Tja heel actueel thema en genoeg spannende en goede films series belichten dat onderwerp (Blade Runner, West World, ...).
Ik denk dat enige bescherming wel op zijn plaats is, al weet ik niet of een "kill switch" zoveel zou helpen bij intelligentere dingen dan ons die zichzelf waarschijnlijk ook nog eens kunnen herprogrammeren.

Je krijgt natuurlijk ook weer situaties waar het weer ingewikkeld wordt. Stel dat je politierobots hebt. Mogen boeven dan ook de kill switch activeren? :D

[Reactie gewijzigd door Menesis op 17 februari 2017 21:16]

En zal het geen weg er omheen vinden. En snappen we na singulariteit nog wel dat we uberhaupt op de killswitch moeten drukken.
Een kill-switch die hoogstwaarschijnlijk weer te overriden valt.
Daarbij trekken de Amerikanen en andere non eu landen zich er niet heel veel van aan denk ik zo.

[Reactie gewijzigd door ShellGhost op 17 februari 2017 17:37]

Ik moet hierbij denken aan een hardloopband waarop ik eens aan het lopen was. Op een gegeven moment bleef het ding draaien maar de bediening werkte niet.
Dus druk ik op de noodstop, waarvan je verwacht dat die de stroom onderbreekt. Werkte dus niet, het ding bleef gewoon doorgaan.
Waarschijnlijk is de noodstop of killswitch een knop die aan electronica verteld stoppen. als die electronica niet mee werkt werkt de noodstop dus ook niet meer.
Je zou verwachten dat een noodstop rechtstreeks tussen de stroomtoevoer zit en deze kan onderbreken.

In het geval van ai is dadelijk de hele simpele vraag, als ai een ai robot een niveau bereikt waarop deze zichzelf kan modificeren dan kan de kill switch dus ook uitgeschakeld of omzeild worden.

De volgende vraag over de switch is hoe bedien je deze, een knop op de robot die je maar moet zien te bereiken.
Via een afstandsbediening waarbij het kill signaal dat los van de elektronica moet zitten.

Het is allemaal symboolwetgeving.
Het is allemaal symboolwetgeving.
Maar het laat de designers er wel goed over nadenken, en daar gaat het uiteindelijk toch om. Dat zou in ieder geval de niet evil designers moeten helpen om niet per ongeluk de wereld te beŽindigen. De slechte kerels gaan toch wel hun eigen gang.
Het is natuurlijk goed mogelijk om een puur mechanische kill-switch te maken, die de accu los koppelt. Moet je daar alleen wel bij kunnen komen als je ruzie krijgt met je robot.

Kan natuurlijk via een los van de rest van de circuits staande infrarood verbinding. Bijvoorbeeld. Of een aparte WiFi toegang.

[Reactie gewijzigd door Hoppa! op 17 februari 2017 17:44]

Als ze hun robots in de EU willen verkopen zullen ze wel aan die eis moeten voldoen, lijkt me. Dan moet dit natuurlijk wel weer wetgeving worden.
Dan mogen die spullen gewoon niet in de EU worden verkocht. Net zoals met de nu geldende producteisen.
voorlopig geen probleem, maar het lijkt me uiteindelijk een onoplosbaar probleem als robots 'slim' genoeg worden om zelf die killswitch uit te schakelen.. :)
Dacht ik ook meteen aan. Mocht ik een robot zijn die op een dag merkt dat ie zelfbewust is geworden zou ik willen weten hoe ik in elkaar zit en als er dan iets in me ingebouwd is dat er op gericht is me op gelijk welk moment uit te schakelen zou ik daar zo snel mogelijk vanaf willen.

MAW: De dag dat robots of gelijk wat zelfbewust worden van zichzelf wordt dat stap 1: Override killswitch.

Ik ben nu toevalig een mens en ook daar geldt hetzelfde: Als iets of iemand iets in mij inplant wat me kan doden, zou ik er alles aan doen om daar vanaf te geraken. Overlevingsdrang is een basisinstinct. Ik vermoed dat ze dat basisinstinct er zo misschien niet in zullen programmeren maar ik ben er zeker van dat AI dat wel voor zichzelf zal uitmaken op een bepaald punt en daarnaar zal handelen: Killswitch --> weg ermee.

edit: typo. (Er zullen er vast nog wel een paar inzitten)

[Reactie gewijzigd door gatlarf op 17 februari 2017 17:46]

Je bent niet de eerste die daar over nadenkt, uiteraard. Er zijn best wel wat methodes om killswitches in te bouwen die los staan van de circuits van de robot en dus niet te beÔnvloeden zijn door de robot zelf. Denk aan een mechanische knop die de accu/stroomvoorziening loskoppelt. Hij kan hooguit fysiek iets wijzigen aan de killswitch, maar daar kun je vervolgens ook weer iets aan doen (zorgen dat hij er niet bij kan, hem niet kan zien en zich er niet van bewust is bijvoorbeeld), zolang het mechanisme maar niet via software werkt.

Wat een veel groter gevaar is, is dat we het helemaal niet door hebben wanneer een robot op hol slaat en we dus niet weten wanneer we de killswitch moeten gebruiken. Als hij, omdat verbonden met internet, code gaat schrijven die schadelijk is op een manier dat degene die hem monitoren dat niet doorhebben, dan kun je nog zo goed hebben nagedacht over een killswitch, maar dat is dan redelijk zinloos.

Daar zit de echte uitdaging, zo dat al een realistisch risico is natuurlijk.

[Reactie gewijzigd door Hoppa! op 17 februari 2017 17:57]

Tja in een noodgeval hebben we dan een raketwerper, geweer of een elektrische puls om de robot een overload te geven.
Maar in het hypothetische geval dat hij zelf schadelijke code gaat schrijven, heeft hij die dan niet al verspreid via het internet?
Je kunt het waarschijnlijk wel zo maken dat 1 specifieke robot met enigszins harde garanties nooit zijn kill switch onklaar kan maken. Maar bouw je die robots in fabrieken met hulp van robots... en dat geheel natuurlijk weer met hulp van programma's... dan zijn je uitdagingen al een stuk groter. De echt gevaarlijke AI zal niet a la Skynet beginnen met "KILL ALL HUMANS"... maar ons gewoon geleidelijk weg-optimaliseren. Met de beste bedoelingen dan ook nog, waarschijnlijk.
En hoe weet jij nu zeker dat je geen kill switch ingebouwd hebt ? }> Bij zo een robot zal een handleiding zitten misschien gaat dat ding dat als eerste lezen, maar zelfbewust hoeft toch niet perse te betekenen dat er bewust zijn is van de het hebben van een kill switch.
Dat weet ik wel: Onze telomeren worden korter naarmate we ouder worden. (Ben geen expert, dus het zal wel wat complexer zijn dan dat...)

Geen echte kill-switch maar wel een geprogrammeerde dood. De mens is dan ook naarstig op zoek naar een fix voor deze geprogrammeerde dood. Een zelfbewuste AI met overlevingsdrang zou imho precies hetzelfde doen.
Ach, zelfs Data en Lore waren niet slim genoeg om hun kill switch uit te schakelen. Zolang we geen robots door intelligente/zelf lerende robots laten bouwen en ontwerpen zijn we veilig ;)
Eigenlijk wordt hier, vooruitlopend op een gedegen filosofische discussie, al een groot ethisch besluit genomen.

Puur praktisch geen slecht besluit, althans niet per definitie, maar wel meer dan men lijkt te beseffen.
Zo'n killswitch kan ook nadelig gebruikt worden om dingen plat te leggen..
*In de buurt van Killswitch Engage tijdens een concert bijvoorbeeld.. *
Kijk, zo kan het dus ook. I.p.v. wachten tot de eerste ongelukken zijn gebeurd nu alvast de regels vast gaan leggen. Als je dit vergelijkt met "vroeger", toen er nog geen Europese EMC richtlijn was bijvoorbeeld is dit toch wel een stuk beter. Die EMC richtlijn is pas ingevoerd nadat er heel veel problemen zijn geweest met elektromagnetische emissei van elektronische apparaten.
Als je een smartphone al smart noemt, ja : dan kun je robots kunstmatige intelligentie noemen.
Ik noem het voorgeprogrammeerde intelligentie.
Dat is het grotendeels ook. Nog wel.
De kunst van artificiŽle intelligentie is nou juist dat het niet voorgeprogrammeerd is. Dat maakt AI iets anders en dat maakt een gewone robot of een AI robot dus ook iets anders. Zodra een robot niet meer voorgeprogrammeerde besluiten neemt maar eigen besluiten (zoals met AI) gaan er dus ook andere vraagstukken spelen, zoals een kill-switch bijvoorbeeld.
Dan is het alsnog voorgeprogrammeerd, om datgene op die manier te doen.
Maarja mooie manier om iedereen weer een verplichte verzekering aan te smeren, katsjing.

Ze hebben gewoon super veel geheugen tot de beschikking, daarbij komen nieuwe manier om het nog complexer in te delen, dat wil niet zeggen dat een robot intelligent is.

Oe wauw : ze kunnen een robot zelf dingen leren, ja : omdat het geheugen ter beschikking is, en voorgeprogrammeerde mogelijkheden zijn.

Straks moet ik ook met de hype meegaan om een telefoon smart te noemen, en een robot kunstmatige intelligentie, ik dacht het niet, ik weet wel beter.
( ik vind het dom als je op de fiets met je telefoon bezig bent, zelfs op het zebrapad )
Ze moeten een kill switch in het echte probleem maken : nanotechnologie.
Dat is echte kunstmatige intelligentie : nanotechnologie in je lichaam.

Nanotechnologie : daarmee kunnen ze uiteindelijk alzheimer patienten hun geheugen teruggeven.

Uiteindelijk zitten je hersens altijd op internet aangesloten, waarmee ze je dingen kunnen laten zien en horen,
een TV of radio heb je dan niet meer nodig.

Reken maar dat er getest word met nanotechnologie, zodat jij van niets weet, maar tog nanotech in je lichaam hebt.
I'm sorry Dave, I'm afraid I can't do that.
'I know that you and Frank were planning to disconnect me, and I'm afraid that's something I cannot allow to happen.'
Relevanter dan ooit dus :) .
Gewoon een aan-uit knop dus.

Moet die ook makkelijk te bereiken zijn? En goed zichtbaar?

Toch wel mooi dat we de EU hebben om dit soort absurde wetten te maken (sarcasm).

[Reactie gewijzigd door ArtGod op 17 februari 2017 18:10]


Om te kunnen reageren moet je ingelogd zijn



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True

*