Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Europees Parlement pleit voor regelgeving voor robotica

Door , 103 reacties

De commissie van juridische zaken in het Europees Parlement pleit voor het invoeren van extra wetgeving om het gebruik van robots in de toekomst veilig te houden. De wetgeving moet ervoor zorgen dat robots in dienst van de mensheid blijven.

Het parlement roept op tot het opstellen van een agentschap voor robotica en kunstmatige intelligentie. Het agentschap zou zich bezighouden met het verlenen van zijn kennis aan publieke autoriteiten. Ook moet er een gedragscode komen die aangeeft wie er verantwoordelijk is voor eventuele impacts op de samenleving en het milieu door robots. De leden van de commissie geven als voorbeeld dat de code zou kunnen aangeven dat alle robots een ingebouwde kill switch moeten hebben, waarmee een robot in een noodgeval uitgeschakeld kan worden.

Verder wordt er nadruk gelegd op regelgeving rond zelfrijdende auto's. Er moet een speciale verzekering komen die ervoor zorgt dat mensen die het slachtoffer worden van een ongeluk met een zelfrijdende auto, voor hun schade gecompenseerd kunnen worden.

Als robots en kunstmatige intelligentie dermate ver ontwikkeld worden dat ze volledig autonoom kunnen opereren, zal hiervoor een speciale legale status moeten worden gemaakt, meent het parlement. Zo kan een verantwoordelijke aangewezen worden bij een ongeval.

Of dergelijke wetgeving ook daadwerkelijk doorgevoerd wordt, is nog niet zeker. In februari komt het volledige parlement samen om te stemmen over het voorstel.

Moderatie-faq Wijzig weergave

Reacties (103)

Reactiefilter:-11030101+146+211+30Ongemodereerd39
Wat dacht je van
Eerste Wet
Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.

Tweede Wet
Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.

Derde Wet
Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Leuke boeken... ;) link

edit: ik vind het grappig om de reacties te lezen van de mensen die de verwijzing niet snappen. Ik kan iedereen van harte aanraden de 'Robot series' van Isaac Asimov te lezen, te beginnen met "I, Robot". Nee, niet de film, want die is daar een slap aftreksel van: alle belangrijke details zijn in de film vervangen door actie. Verkoopt goed, maar de boodschap gaat verloren.

[Reactie gewijzigd door MeMoRy op 13 januari 2017 10:33]

Sommigen zijn overtuigd dat die niet gaan werken. Zie het filmpje van Computerphile op Youtube.
Niet een heel helder licht die gast. Totaal incoherent.

De typische zelfoverschatting van veel jongeren. Iedere lulhannes kan een film op YT zetten en daarin onsamenhangend stamelen.

De wetten kent ie niet uit zijn hoofd maar moet ie op een smart phone opzoeken. |:(

Hij herhaald zichzelf een paar keer en zegt dan dat de wetten bedacht werden door een schrijver. Alsof dat wat uitmaakt. Na 2 minuten heeft ie eigenlijk nog steeds niets gezegd.

Science fiction is juist leidend in het nadenken over de toekomst. Ze projecteert.

Vervolgens verwijt hij de wetten of boeken dat de wetten niet werken. 8)7 Het punt van de wetten is dat die in uitzonderlijke situaties werden gebroken (en ja, ik heb ze alle gelezen) en dat de hoofdpersoon enorme moeite heeft te ontdekken waarom.

Taoïstische wijsheid: wetten gaan hand in hand met criminaliteit. Een wet roept misdaad op, zonder wet was er geen misdaad gepleegd. Er gaat eerst iets fout en dan komt er een regel. Daarna breekt men de regel en doet men iets fout. Polair denken.

Vervolgens gaat ie aan het filosoferen over ethiek en wat een mens is. Ik zie niet waarom je een AI niet een definitie kan geven. Je hoeft zoals hij zegt het hele vraagstuk der ethiek op te lossen. Hij noemt een bekend filosofisch idee over de mens die 10 jaar in de toekomst zal bestaan en of die ook van belang is. Mensen die dood zijn? Kun je die 'harm' toebrengen, vraagt ie zich af.

Duidelijk nog een beetje te jong voor dit soort bespiegelingen.

Of foetussen mensen zijn...echt? Dat is waar je dat vraagstuk tot terug brengt? En dan dolfijnen? Wat heeft een dolfijn met de mens te maken?
Dat is het hele thema van de boeken... ;)
Leuk al die weten, maar hoe implementeer je die in een kopie van het menselijk brein wanneer je deze simuleert. De grootste kans op het maken van een AI die een bewustzijn heeft is de natuur na doen. Dus zoals hersens werken met neuronen e.d. Hoe wil je daar ooit die beperkingen in bouwen. Dat is nog moeilijker als een AI maken die een bewustzijn heeft.
De kunst is om de robot 'pijn' te laten voelen op de momenten dat hij dreigt de wetten de overtreden. Feitelijk komt het erop neer dat architecten borgen dat de intelligentie van robots strafpunten krijgt bij foute beslissingen. Als je dit vertaalt naar een simulatie van een menselijk brein, dan heb je input (dat wat de robot waarneemt), de verborgen lagen (het verwerken) en de output (het handelen naar aanleiding van de waarneming). Met de strafpunten als gewicht in de verwerking kan de output dusdanig worden afgezwakt dat er geen kwaad geschied.

Twee voorwaarden: architecten moeten dit principe bij voorbaat inbouwen. En verder moet inzichtelijk worden gemaakt hoe de AI tot zijn besluit komt (en moet dus aantoonbaar worden gemaakt dat de strafpunten werken). Dat - de transparantie in de verwerking - is nu nog iets waar we volgens deskundigen in achterlopen.

[Reactie gewijzigd door Ossebol op 12 januari 2017 22:33]

ik denk dat het toch moeilijker is. Laten we het punt terrorisme pakken als voorbeeld:
- IS doet aanslagen, hetgeen in het algemeen als zeer slecht wordt gezien;
- Met drones worden er mensen "uitgeschakeld". Regelmatig zitten hier ook onschuldigen tussen, maar dronegebruik is redelijk geaccepteerd als iets voor het grotere goed;

Alleen: als je beide tegen elkaar zet en ideologie weglaat, heb je eenzelfde situatie: mensen die er niets mee te maken hebben sneuvelen vanwege een actie die een of ander groter doel nastreeft. (ik praat hier niets goed btw van welke van de 2 voorbeelden ook, even als disclaimer ;) )

Het menselijk brein is dan al erg dodgy / selectief met wat goed en slecht is, dus ik vraag me af hoe goed je een AI kunt maken op ethisch gebied dan, als je eigen ethiek serieus flawed is en/of extreem moeilijk om echt te begrijpen
Sterker nog, zelfs als je ethish en 100% moreel handelt, hoe weet een robot dat? En vanuit welk perspectief redeneert een robot?

Mensen vergeten consequent dat robots ( zeker Ai ) geen mensen zijn, we antropomorfiseren robots, we laten ze als mensen lijken, we geven ze benen, een vriendelijk gezicht. Maar achter dat gezicht zit geen levend wezen zoals we dat nu kennen. Toegegeven, we kennen slechts 1 vorm van leven, die op planeet Aarde, maar je snapt wat ik bedoel.. :P

Mijn punt is dat je alle ethiek in de wereld kunt verzamelen en nog steeds geen idee hebben hoe een A.I. tot een conclusie komt, ditzelfde geldt ook voor een robot met een "beperkte" A.i. Moraliteit is bovendien niet constant, ethiek ook niet. Het verschuift, dan weer de ene kant op, dan weer de andere.

Om een simpel voorbeeld te geven, 2 jaar geleden hadden weinig mensen verwacht dat Donald Trump in het witte huis zou komen, maar hij is nu straks president van Amerika en kijk hoe de toon van de gevoerde gesprekken veranderd is! Ineens is alt-right mainstream en horen we het normaal te vinden dat we alle buitenlandse mensen horen te weren. Deze verschuivende moraliteit zou dan ook in A.i geprogrammeerd moeten worden en dat wordt een gevaarlijke operatie want wie bepaalt deze moraliteit? En waarom zou een A.i niet z'n eigen morele code ontwikkelen?
wat zou de AI dan doen met Trump? :P Opruimen onder het mom "mijn ethisch programma zegt dat dit het beste is"? >)
Haha wie weet.. Zodra er een echte Ai is, gaan we erachter komen, maar ik ben er bang voor. Wij kunnen nooit de redenatie volgen die een Ai heeft gebruikt om conclusies te trekken, een Ai zal binnen mum van tijd zo ontzettend veel slimmer zijn dan de mens, dat wij hopeloos verdwaald en achterop raken.

Begrijp me niet verkeerd, ik denk dat we op een gegeven moment te maken zullen krijgen met een super Ai, maar of het ons zal helpen moet nog blijken.

Een ander groot, heel groot, probleem is dat wij mensen zijn, wat maakt ons mens? Emoties. Hoe programmeer je emoties? Het kan en mag niet zo zijn dat het enkel een geemuleerde vorm van emoties is, het moet ingebakken zitten. Wij baseren alles wat wij doen op emoties. Hoe ga je een computer emotie geven?

Emoties is wat ons stuurt, of je het wilt toegeven of niet :P Nu kun je redeneren dat we juist een Ai zouden moeten hebben die ons gaat helpen de juiste beslissingen te maken gebasseerd op rationaliteit, logica en structuur, maar is dat echt wat wij nodig hebben? Willen we dat? Meh..
Mja, mensen kunnen al systemen kraken en soms op bizarre wijze systemen hacken en omzeilen. Waarom zou een robot met AI dat niet kunnen? Er hoeft maar één zwakke plek te zitten. ;)

Niet dat ik denk dat robots de wereld gaan vernietigen, of op zn minst ons, maar toch...
Niet dat ik denk dat robots de wereld gaan vernietigen, of op zn minst ons, maar toch...
Laat dat maar aan de mens over
Wat een dom idee. Typisch wetenschap, alles terugbrengen tot een punten systeem.

Dus of een AI mij doodt of niet hangt af van een rekensom?

Net als het idee van pijn toebrengen. Kijk als je pijnprikkel en verwerking wilt, neem dan een mens.

[Reactie gewijzigd door Vendar op 13 januari 2017 11:40]

uiteindelijk doen wij zelf niets anders dan een rekensom razendsnel in ons hoofd maken ;) Beetje raar dat als je dat op papier doet, het dom is, maar als je het in je hoofd zelfstandig doet, dat het dan een ok systeem is.

Of "jij" iemand wel of niet dood hangt ook gewoon af van een afweging die je maakt gebaseerd op een hele lijst overwegingen die in sommige gevallen ook nog alleen voor jouw persoon op gaan (bv. ik schiet die persoon niet neer want mijn religie verbied het of ik schiet hem wel neer want ik hecht weinig waarde aan een individu, het collectief boven alles, enz enz.).
Maar welke leraar heeft jou verteld dat je berekeningen maakt in je hoofd? En mag ik zijn naam en school?

Jij neemt de term berekening en past die toe op ons brein omdat je denkt dat de wereld bestaat uit wetenschap?

Volstrekt onlogisch. Wat er gebeurt in je hersens is geen berekening. Dat is gewoon een wetenschappelijk paradigma van toepassing proberen te maken op de natuurlijke realiteit die we hersens noemen.

Waar refereert het woord menukaart aan?
Maar dat kan een AI op ten duur ook onderdrukken. Doen wij ook met operaties, of vroeger werd er drugs gebruikt in het leger om je te verzetten tegen de signalen van je eigen lichaam. Natuurlijk zijn deze "pijn" signalen geëvolueerd in ons bestaan als protectie middel met als doel "overleven". Hoe kun je die "pijn" zelf inbouwen welke niet natuurlijk tot stand is gekomen? Pijn helpt jou als individu en niet iemand anders. Want dan zou het in de evolutie er zo weer uitgefilterd worden omdat het middel de doel niet benuttigd namelijk "overleven".
Inderdaad, als je op een gegeven ogenblik een AI maakt die bewustzijn heeft en keuzes kan maken dan zal die de 3 wetten gewoon terzijde kunnen leggen.

Het lijkt met niet mogelijk om die wetten zo vast te leggen in de software dat de AI mind ze niet kan overrulen.
Natuurlijk wel, je hebt verschillende softwarelagen. Als de 'AI'-laag dan dreigt een van de wetten te overtreden kan een hogere (of lagere, ligt eraan hoe je ernaar kijkt. Enfin, lager op de hardware) laag, bijv firmware/OS/embedded software, deze 'AI'-laag vertragen,aanpassen of zelfs compleet stil zetten.
Maar dan heb je een herkenningslaag die tevens ook heel slim moet zijn en een AI opzichzelf is. Als we al zo'n herkennings AI kunnen bouwen hadden we geen wetten meer nodig. Of konden we een AI maken die ons moraal bewaakt.
Maar dat is dan meer een fail-safe dan morele regels (wetten) die je een AI bewustzijn oplegt.
Mijn punt is dat Isaac Asimov boeken heeft geschreven over precies dit thema. Vooral over de problemen die dit soort wetten met zich meebrengen. Ik vind het leuke boeken, dus raad ze aan :)
Wat dacht je van
Eerste Wet
Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.

Tweede Wet
Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.

Derde Wet
Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Leuke boeken... ;) link
Zie de film iRobot waarom dit nooit goed gaat.
de. film. ! 8)7 :'(

een nagel in de doodskist van Asimov...
Het gaat om de logica die de AI gebruikt, door alle drie de wetten te volgen komt de AI tot de conclusie dat de enige manier om alle 3 de wetten na te leven het opsluiten van alle mensen is. Dit omdat de AI redeneert dat mensen dom zijn en ongelukken veroorzaken, de enige manier om die kans te verkleinen is door te voorkomen dat mensen überhaupt iets kunnen doen. De oplossing: sluit mensen op en voorzie ze van eten etc. Geen enkel bevel van een mens kan de AI stoppen omdat dit in strijd is met de eerste wet en daardoor heb je nog steeds het probleem van een rogue AI.

Dit is gewoon geldige logica en heeft daarom ook relevantie buiten de film wereld.

[Reactie gewijzigd door Donvermicelli op 13 januari 2017 10:54]

Dat weet ik. ;)

Alleen die film... daar heb ik iets tegen. Die raapt fragmenten van het boek bij elkaar en verbindt ze met een hoop actie. Alle subtiliteiten gaan verloren. Actie verkoopt goed, ik begrijp het, maar het was zo'n goed verhaal! En daar blijft nauwelijks iets van over.
Dan heb ik als film liever Blade Runner.
Oh daar ben ik het zeker mee eens. iRobot legt het alleen op een super simpele manier uit zodat vrijwel iedereen deze crux snapt.
De reden dat er een vierde wet bestaat. De zeroth law:

0. A robot may not harm humanity, or through inaction allow humanity to come to harm.
Wat de AI in de film doet verbreekt ook die wet niet maar geeft nog steeds een ongewenst resultaat.
De film Automata laat zien dat er altijd een kans bestaat dat AI een eigen wil krijgt. Ze gaan dan wel van 2 wetten
1:they can not harm any form of life,
2: they may not repair, modify or alter another robot in any way.

Die 2 wet is om te zorgen dat de mens altijd in control blijft.


https://en.m.wikipedia.org/wiki/Automata_(film)
Wat dacht je van
Eerste Wet
Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
Mooi idee maar zelfs de schrijver heeft al toegegeven dat dit niet werkt. Als de auto een keuze moet maken tussen twee dingen waarbij er altijd risico is zal hij op tilt slaan.

Als dingen zo simpel waren....
dan zou je hem dus zo moeten programmeren dat hij kiest voor de optie die de mens het minste schade oplevert. Of dat kan? de tijd zal het leren.
Het kan gedeeltelijk maar dan houd je andere leuke vragen over:
Bij een (onoverkoombaar) ongeluk kan de auto crashen tegen 2 auto's, 1 SUV-> resultaat alleen wat blikschade, 2 ford ka-> resultaat 1 (zwaar) gewonde + auto total loss. Volgens jou redenering moet je dan kiezen voor de SUV. Als dat bekend wordt krijg je een leuke reactie van alle SUV eigenaren. Dat zijn dan de "go to" targets (minder schade) geworden.

Maar dit is al eerder bedacht. Zie: https://nl.wikipedia.org/wiki/Trolleyprobleem
klopt, aan de andere kant zal dit scenario bijna alleen maar denkbaar zijn zolang er autonome en niet-autonome auto's op de weg zijn. Zodra er alleen maar autonome auto's zijn zou het probleem zich waarschijnlijk niet voordoen.
En als hij op tilt slaat gaat hij simpelweg stil staan totdat het gevaar gedeisd is?

Een beetje programma schakelt naar Een "safe state" in geval van nood. Om onverwacht gedrag/tilt te voorkomen.

Natuurlijk is midden op de snelweg stil staan niet handig, maar je kunt maken dat hij indien mogelijk naar de vluchtstrook gaat.

Mensen slaan op tilt als ze iets niet snappen. Robots in theorie niet.

[Reactie gewijzigd door FuaZe op 13 januari 2017 09:08]

Dat is het I, Robot scenario en de aflevering in ST Voyager over The Doctor die moest kiezen wiens leven hij zou redden.

Wat was zijn oplossing?
Leuk voor Science fiction misschien, maar praktisch gezien nutteloos met de huidige stand van zaken.

De eerste wet valt al in duigen, omdat een robot geen concept heeft van wat een letsel is. Als hij ooit dat concept krijgt met neural nets, dan heb je het over fuzzy logic, die je niet zomaar eruit kan pikken met programmatuur.

Dus zelfs als je het wilt, dan kun je dit in de praktijk een robot niet verbieden.
Ik bedoelde het natuurlijk ook niet serieus als voorstel. Asimov heeft nou juist beredeneerd dat de wetten niet werken.
Ik denk overigens ook niet dat het Europees Parlement in staat is om goede wetten te maken... Ik vond nog steeds een reactie hieronder ergens het beste: Het EP heeft er vooral belang bij als de robots hierdoor belasting zouden gaan betalen :+
Yep, Asimov was way ahead of ya. :+
En de (later toegevoegde)
0-de wet: A robot may not harm humanity, or, by inaction, allow humanity to come to harm.

Maar er zit natuurlijk wel een verschil in de robotica die de EU voor ogen heeft en de robotica van die Isaac Asimov beschrijft.
(idd erg goede boeken, zeker als je bedenkt dat we praten over 75! jaar geleden)
Tweede Wet
Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
Lekker makkelijk. Heb je 2001: A Space Odessey wel eens gezien?

Verder lijkt me die wetgeving ook volledig irrelevant/onmogelijk voor het leger, alwaar het veruit meest relevante commando door en voor mensen en apparaten al eeuwen lang neer komt op "maak mens dood".

Ook denk ik dat een AI die slimmer is dan de mens redelijke lak heeft aan de wetgeving :)

Oh. En is een pistool dat een mens vasthoudt maar wel volledig automatisch richt en schiet een robot of gewoon een domme machine die commando's opvolgt?

Wat ik bedoel is: wat is de definitie van een "menselijk commando" aan een machine om een ander mens dood te maken? Is het het indrukken van een trigger op een pistool? Klopt. Is het het indrukken van een trigger op een automatisch richtend en schietend wapen? Of is een menselijk commando aan een groep wapens op robots met "zorg ervoor dat de andere partij sterft" ook voldoende? Wat is het verschil?

[Reactie gewijzigd door GeoBeo op 13 januari 2017 04:02]

Oh nee, echt? :P

De hele boekenreeks draait erom dat de wetten tegenstrijdig zijn en dat er allemaal problemen mee ontstaan.
Het is een basis.

Maar je kunt als mens ook een robot opdracht te geven ergens te gaan filmen (bv op het naaktstrand, in iemands tuin, voor iemands raam) of iets te slopen en dan is dat niet in strijd met deze drie wetten.

Wordt de robot onderschept, dan moet het slachtoffer of het gerecht gaan uitzoeken van wie die robot is. Als er niet een soort robot-register is zoals er nu het kenteken-register is, gaat dat moeilijk worden, en voor veel kleine robots gaat dat er niet zijn. Automatische grasmaaiers zoals die nu verkocht worden zijn ook robots en die kun je ook loslaten in je buurmans bloemenperkje.
De wijze van implementatie van deze wetten is minstens zo belangrijk.

Ik zie mensen spreken over een puntensysteem en wat nog meer, maar dat lijkt me niet effectief genoeg. Zoals ik het zie zou een AI bewustzijn nog steeds functioneren aan de hand van berekeningen. Elke actie vergt een berekening. Deze berekeningen worden gemaakt door een computer/brein. Het zou dus mogelijk moeten zijn om een kleinere onafhankelijke module aan die "brein" te koppelen die puur en alleen maar analyseert/controleert of zijn berekeningen niet in strijd komen met de opgelegde wetten als een soort fail-safe. En zo nodig de robot kan uitschakelen of resetten voordat hij de "foutieve" berekening/actie uitvoert.

Computers kunnen nou eenmaal fouten in het systeem hebben, dus voor AI lijkt me dat niet anders.
Aangezien je vaak hoort dat het doel van AI is om robots te laten denken als mensen, lijkt me dat een goed punt: mensen falen, dus robots die denken als mensen ook.
Niet alleen dat, maar als je spreekt van AI dan zullen die robots ook nieuwe dingen moeten kunnen leren om zo hun functionaliteit te verbeteren. Het is moeilijk in te schatten wat de robot met zijn AI allemaal zal leren, daarom zou het dus kunnen dat na lang genoeg operatief te zijn dat het tegenstrijdige dingen leert en op een dag een verkeerde berekening zou kunnen maken.

En slijtage speelt natuurlijk ook een rol. Ik ga er vanuit dat het onderhoud van die robots goed geregeld zou zijn, maar je weet uiteindelijk nooit 101% zeker dat er geen kleine foutjes zijn ontstaan/zullen ontstaan die niet of nauwelijks waarneembaar zijn.
Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
Kan zo al gebeuren als een drone die Taco Bell bezorgd een paar hete bonen laat vallen. Ook kunnen mensen schrikken van drones. Wie is dat schuld? Schrikt men minder als ze meer voor komen?

Feit blijft dat dit ongelooflijk complex is. Aan de ene kant wil je de innovatie niet remmen, en de maatschappij efficienter laten worden maar aan de andere kant wil je ook niet dat mensen schade kunnen ondervinden.
Het boek gaat toch over waar die drie wetten in conflict met elkaar komen en de robots in kwestie in een impasse terecht komen
De verantwoordelijkheid bij autonome auto's, zat vanmiddag in de auto (voorrangsweg) toen er iemand rechts dacht genoeg ruimte te hebben om ertussen te komen, ~10 meter is niet bijzonder veel met 50km/h. Liep goed af, toeter erachter aan, maar toen bedacht ik me, autonome auto's hebben als primaire doel veiligheid, die kan 10x sneller stoppen dan ik kon reageren, maar dan kom ik bij het punt.. huftergedrag is belonend tegenover autonome auto's? Nu ben ik die persoon die rechts staat, komt een autonome auto aan, ik gooi m'n auto ertussen, die auto remt automatisch. Zelfde voor inhalen of afsnijden, zo'n auto gaat geen wraakactie uitvoeren, laat staan toeteren. Auto zorgt ervoor dat er geen ongeluk komt, ik kan dus nog grotere hufter worden in het verkeer (niet dat ik het ben, maar even als voorbeeld).

Hoe gaat de verantwoordelijkheid in dat geval? Dashcams verplichten om 'gedrag' op te nemen en automatische upload naar de politie?
Autonome auto's hebben verschillende camera's en je zou die kunnen gebruiken om huftergedrag aan te pakken. Dan moet de politie (of verzekering!) er dan ook echt eens iets aan gaan doen. Maar dan moet wel iemend de nummerplaat linken aan een persoon en dus aan huftergedrag.

Ik ben steeds meer voorstander voor dashcams, ook vanwege zgn verzekering scam (persoon/fiets/auto tegen je auto aangooien en dan aansprakelijk stellen).

Belangrijk is wel dat we huftergedrag niet belonen maar hard aanpakken.
Name 'm en shame 'm?
Twitter #kenteken #Wegnummer tijd foto dashcam ?
Niet alles heofd altijd *hard* aangepakt te worden; mensen maken fouten en handelen niet altijd rationeel; maar een hoge pakkans op gehalte van 'zacht' aanpakken geeft een beter beeld.
Dat werkt alleen als het een auto betreft. Stel voor dat iemand zomaar oversteekt, de auto's stoppen toch wel..
Ik vind de verkeersstraffen in Nederland eerlijk gezegd veel te hoog. En de pakkans voor hufters te klein.
Hoe hoger de boetes, hoe hoger de opbrengst voor de schatkist.
Met een kleine pakkans blijft men de overtredingen begaan en dus, met een hoge pakkans veranderd men wel zijn gedrag. Daarbij, pakkans verhogen kost geld (meer camera's, meer agenten) dus het is puur uit budgetoverwegingen dat de boetes hoog en de pakkans laag is.

Daarbij zijn automatische camera's wel in staat om het door rood licht te rijden en snelheidsovertredingen te detecteren, maar over verdrijvings-vlakken rijden is al moeilijker en huftergedrag als bumperkleven, afsnijden kunnen ze niet. Daarvoor zijn toch echt agenten nodig. Echte veiligheid kost de staat geld, schijnveiligheid levert de staat geld op.

Hierboven wordt door SinergyX de dashcam gepromoot. Zelf heb ik vaker behoefte aan een achteruit kijkende camera (trunck-cam ?) met bij voorkeur een oplichtende melding op de achterruit met 'U wordt gefilmd'. Vanwege bumperklevende busjes vooral.
Het draait dus primair om de poen... Hypocriete bende.

Camera's zouden idd wel handig zijn. Alleen, wat doe je met de beelden in het geval van een bumperklever?
Ik herhaal:
met bij voorkeur een oplichtende melding op de achterruit met 'U wordt gefilmd'.

Helpt dat niet, op youtube zetten of naar de politie gaan al betwijfel ik of die laatste daar aandacht en tijd voor heeft. De kans is groot dat ze je vasthouden omdat je hebt gefilmd zonder kennisgeving of omdat je persoonlijke gegevens openbaart. Winkels mogen immers ook geen foto's van bekende plaatselijke winkeldieven op hun voorruit plakken.
"Mensen maken idd fouten", "hij/zij is onder invloed", "dienstverleners doen hun werk niet (goed)" en "de pakkans is niet groot"; zijn dit excuses om bepaald gedrag dan maar te accepteren?

Boetes en automatische camera's is een methode om bepaald gedrag te straffen. Als de boetes te laag zijn dan werkt het zeker niet, daar is het Finse systeem voor inkomens proportionele boetes beter effectief tegen.

Het belangrijkste is dat gedrag altijd consequenties heeft, anders blijft het dweilen met de kraan open. Of je dan straf, boete of schandpaal moet krijgen is een ander verhaal maar slecht gedrag kan niet ongestraft blijven.

Bumperkleven blijven accepteren (vanwege sociaal excuus XXXXXX) is wachten op een ongeluk. Maar als er dan een ongeluk plaatsvindt (met kinderen) dan verwijt men de politie/politiek voor te weinig afdoende ingrijpen. Hoe hypocriet is dat ?

[Reactie gewijzigd door _Zedd_ op 13 januari 2017 19:22]

Aan de ene kant zie je hier torenhoge boetes die écht pijn doen voor brave burgers die even niet in de gaten hadden dat de 120 km/h 100 km/h werd.

Aan de andere kant zien we dat de overheid geen raad weet met de draaideurcrimineel die al 70 keer is opgepakt. Van een kale kip kun je niet plukken, dus die kan ongestraft z'n gang gaan.

Verder is er een verschil tussen even "slordig" over een verdrijvingsvak rijden, of als een complete randdebiel nog even 5 auto's inhalend over het verdrijvingsvak rijdt en de laatste auto afsnijdt.

Er is geen sprake van rechtvaardigheid door de boetes torenhoog te maken om af te schrikken of omdat de pakkans klein is.

Die torenhoge straffen kennen we hier ook niet voor winkeldiefstal of voor mishandeling. Dus waarom wel voor autorijders?

Het is imho nogal een verschil of je per ongeluk een overtreding begaat, of bewust een misdrijf pleegt.

Tot slot zien we dat de torenhoge boetes de verkeershufters niet afschrikt, want ze bestaan nog steeds; het is dus geen effectief middel.
Dat laatste kan zomaar een feature zijn van zo'n zelfrijdende auto, toch? Als bij iedereen doorgedrongen is dat je er wel mee wegkomt als in dat de zelfrijdende auto remt, maar dat je er niet echt mee wegkomt als in dat de zelfrijdende auto bewijsmateriaal heeft en op de een of andere manier (juridisch, via politie of civielrechtelijk als dienst van de autofabrikant) de aso aan kan klagen. Dan is het m.i. snel afgelopen met dat soort gedrag, want grote pakkans.
Non-issue: dat soort huftergedrag komt enkel bij leaserijders voor, en laten zij nou juist als eerste overstappen op autonome auto's...

;)
Leaserijders houden straks zelf geen stuur meer vast.... Dat zal de verkeersveiligheid flink verhogen...
Ja, dat wordt natuurlijk een superleuke hobby: autonoom autootje pesten :) .

Hoedank zal de opkomst van de autonomous vehicle (level 4 en 5) disruptive worden voor de bestaande regelgeving.

Voorbeeld: aansprakelijkheid
Niet-autonoom voertuig: bestuurder
Autonoom voertuig: fabrikant

Ik neem aan dat het bij de diverse verzekeringsmaatschappijen nog niet duidelijk is hoe dit verzekerd moet gaan worden.
Wat noem jij echte kunstmatige intelligentie? Het complete menselijke brein nabootsen? Dat is voor de meeste toepassingen zwaar overdreven en zelfs erg ongewenst. We willen robots inzetten als gereedschap - ze hoeven geen gevoelens te hebben, geen behoeften, geen mensenrechten, enz. Dat zou alleen maar problemen geven.

Huidige implementaties zijn al erg handig in honderden taken, van het beheren van de aandelenbeurs tot het besturen van auto's, persoonlijke assistentie door bijv Alexa, allerlei fabriekswerk, enz. In al die toepassingen kunnen dingen misgaan, met schade aan mens of eigendom tot gevolg. En aangezien de politiek over het algemeen traag functioneert, lijkt het me best gepast om aan regelgeving te gaan denken anno nu. Het duurt toch nog jaren voordat er robuuste wetgeving bestaat en gehandhaafd kan worden.

Natuurlijk, robots die opzettelijk aan het moorden slaan zullen we nog niet snel zien, maar bijvoorbeeld zelfrijdende auto's rijden nu al, zij het in testvorm, en die kunnen ongelukken veroorzaken. Dus het punt wat betreft verzekering is nu aan de orde. Je wilt de put niet pas dempen als het kalf verdronken is, maar liever van tevoren.

[Reactie gewijzigd door geert1 op 12 januari 2017 19:33]

Of een commissie nutteloos is ligt meer aan de uitvoer dan aan het onderwerp ;) Als je ziet hoeveel dingen al gebruik maken van beperkte AI lijkt het mij zeker geen fout idee om reeds te beginnen. De overheid krijgt niet voor niets altijd commentaar dat ze achterliggen met de regelgeving wat betreft technologie.

Je punt van intelligentie is juist een reden waarom je wel een commissie wilt. Er komen nu allemaal apparaten op de markt die geleerde schattingen moeten maken. Hoe test je alle situaties die voorkomen in de wereld? Wie is er verantwoordelijk wanneer het mis gaat? Hoe stopt de politie een automatische bus met een software fout? Welke beslissingen mag een ziekenhuis robot zelf maken, welke moet een mens aan te pas komen? Wanneer is een AI slim genoeg? Als je AI het niveau van een tokkie heeft mag je hem dan wel verkopen?

Off topic: moest denken aan een soort RDW voor robots maar dan met een psychologie afdeling 8)7
Dat valt wel mee denk ik..

Zie de TED talk van Sam Harris over AI..

https://www.google.nl/url...Mg&bvm=bv.144210762,d.ZWM
Zoals Ted meneer zegt, de vooruitgang van AI is eenvoudig niet te stoppen omdat landen onderling continue in een wedloop zijn om als eerste AGI te ontwikkelen.

Van AGI gaat het snel naar ASI en is daarmee onvermijdelijk tenzij zich er een (natuur)ramp voordoet, die de mens uitroeit/decimeert.

Als vader van drie kids vind ik dit een tamelijk zorgwekkend toekomstbeeld. Vreemd om te beseffen dat wij een van de laatste generaties mensen zijn aan de top van het cognitieve spectrum. Daarna kunnen we louter toekijken wat onze overlords allemaal uitvoeren.
Liever alvast te vroeg beginnen met nadenken dan 1 minuut nadat het te laat is ;)
Eens met je punt dat "echte kunstmatige intelligentie" nog ver te zoeken is.
Maar misschien is dat wel des te meer reden een dergelijke commisie op te zetten, want nu geven we diverse systemen wel verantwoordelijkheden, maar die systemen zijn nu nog kunstmatig intelligent of gewoon dom.

Kunnen die systemen die aan, zijn ze eerlijk en handelen die ethisch (whatever that means)? Dat je met een diep neuraal netwerk (wat men vaak, onterecht, AI noemt) getraind op mugshots kunt classificeren of iemand een crimineel zou kunnen zijn wil niet zeggen dat het verstandig is dat te doen.
Ik hoop dat het Europees parlement door AI overbodig wordt.
Ik hoop dat het Europees parlement door AI overbodig wordt.
Een letterlijke technocratie? ;)
Technocratisch is de EU toch al. Dan heb ik liever besluiten die gebaseerd zijn op feiten ipv partijideologie.
Vandaar de wetgeving, dat willen die corrupte zakkenvullers nooit laten gebeuren. :P
Ben blij dat ze wel met deze vraagstukken bezig zijn.
Hoe gek ze ook nog kunnen klinken bij sommige mensen. Beter op tijd als te laat.
Dit is precies wat er nodig om AI en zelfrijdende auto's versed te helpen. De vraag is er, maar de onduidelijkheid over verantwoordelijkheid zorgt voor onzekerheid bij bedrijven en consumenten.
De regels zullen niet meteen perfect zijn, maar laten we snel wat stappen gaan maken. Ik kan niet wachten tot zelfrijzende auto's echt gangbaar worden. Het zal een boel ongelukken en onnodig leed schelen.
Dit is precies wat er nodig om AI en zelfrijdende auto's versed te helpen.
Waarom?
  • Als je op dit moment een ongeluk krijgt waarbij radar guided cruise control een interpretatie fout maakt is de bestuurder verantwoordelijk.
  • Als je op dit moment schade maakt als je autopark iets fout doet is de bestuurder verantwoordelijk.
  • Als op dit moment mijn Tesla tegen iets aan rijdt terwijl de systemen alle controle hebben ben ik verantwoordelijk.
Zolang er een stuur en gas en rempedaal in een auto zit is de bestuurder verantwoordelijk. Iedereen behalve Jaguar is iedereen het daarover eens (vreemd verhaal). Zodra we het over volledig cat 5 auto's hebben (dus zonder stuur) is er een infrastructuur nodig. Dus wegen die aangepast zijn en ALTIJD een witte lijn hebben bijvoorbeeld. Nog geen enkel land is daarmee serieus mee bezig. Niet gek want de wegbeheerders willen voorlopig absoluut geen rol spelen (schandalig btw).

Dit soort zaken moet je niet regelen in wetgeving totdat duidelijk is wat technologie kan en waar witte lijnen op de weg noodzakelijk zijn. Op dit moment IS er geen probleem. Auto's die dingen automatiseren zij aanwijsbaar veiliger op de wegen die we nu hebben. Pas als dat NIET zo is moet tijdelijker wetgeving ingrijpen. Een prima voorbeeld is de $1000 autopilot set die recentelijk ten onder ging toen de wetgever informatie begon te vragen. Het systeem wat er op dit moment is voldoet. Pas als er aanwijsbaar problemen zijn moet er opgetreden worden. Hard indien nodig.
Klinkt als een goed idee. Het idee van een zwarte doos lijkt mij een goed begin, een manier om de staat, handelingen en historie van het "apparaat" terug te zien. Zeker iets wat met kunstmatige intelligentie toch wel een basis vereiste is. Maximum sterkte, als in knijpen met "vingers", per classificatie (industrieel vs openbaar), kill switch inderdaad, standaard(stem) opdrachten voor noodstop, etc. Genoeg dingen die zo te bedenken zijn waar je enig toezicht en beperking op wilt hebben.

Erg interessant hoe snel de ontwikkelingen de laatste maanden gaan wat betreft automation en de virtuele wereld. Lijkt nog steeds sneller te gaan.
Een volledig autonoom wezen de vrijheid afnemen. Op het monent dat dit gaat plaatsvinden heeft de mensheid slavernij opnieuw uitgevonden. Compleet onetisch. En de ai zal zeker op den duur een workaround vinden. En ons veroordelen op deze onetische praktijken. Geschiedenis is gedoemd zich te herhalen. Wat onze ondergang zal zijn zijn geen externe factoren maar ons eigen xenofobische gedrag. So long and thanks for the fish!
Heb je de serie Black Mirror al gekeken? Er is een aflevering die hier over gaat. Ik denk dat je het wel interessant vindt :)
De wetgeving moet ervoor zorgen dat robots in dienst van de mensheid blijven.
Ondergeschikt.
Dit kan niet anders betekenen dan dat die krengen e-i-n-d-e-l-i-j-k 's belasting gaan betalen :P
Ik was vergeten dat wij de robots zijn |:(

Dus de zin moet zijn:
De wetgeving moet ervoor zorgen dat robots ondergeschikt zijn aan de Europese Unie blijven.
Je kan niet eens een AI maken die "en" bewust is van de wereld "en" gelimiteerd is aan een stel harde regels. :) Want juist die vrijheid is wat we zijn, onze hersens is een groot flexibel apparaat welke vanaf de geboorte tot aan je dood veranderd.
De vraag is welke functie biologische levensvormen nog hebben op aarde?

Volledige AI is einde van alles wat leeft.

Het grappige is dat veel techneuten streven naar volledig autonome systemen.

Terwijl techneuten voor diezelfde autonome systemen de grootste bedreiging vormen en dus als eerste geruimd moeten worden.
Tja goed leuk en aardig maar vermoed dat het Pentagon daar dan weer lak aan heeft. Niet zo handig als je net je 10 miljard kostende robot legertje op missie hebt gestuurd en één of andere Rus drukt op de stop knop.
Staan ze daar een beetje inteligent te wezen ...
Ik geloof dat het pentagon (of welk adres dan ook) wel een stop-knopje op eigen lokatie heeft.

[Reactie gewijzigd door six-shooter op 13 januari 2017 15:25]

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*