Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

EU-adviesgroep roept op tot internationaal raamwerk voor regels rond ai

De European Group on Ethics in Science and New Technologies, een adviesorgaan van de Commissie, heeft opgeroepen tot een internationaal raamwerk voor regels rond kunstmatige intelligentie. Dit moet een oplossing bieden voor de huidige 'lappendeken' aan initiatieven.

In zijn oproep schrijft de groep dat deze uiteenlopende initiatieven weliswaar antwoord proberen te geven op vragen rond kunstmatige intelligentie, maar dat er behoefte is aan een duidelijk proces. De groep schrijft in het onlangs gepubliceerde document: "Huidige inspanningen vormen een lappendeken aan uiteenlopende initiatieven. Er is duidelijk behoefte aan een collectief, breed en inclusief proces dat de weg bereidt naar een gemeenschappelijk en internationaal erkend ethisch raamwerk voor het ontwerp, de productie, het gebruik en het bestuur van ai, robots en autonome systemen'.

De groep vindt dat Europa een actieve rol in dit proces moet spelen. Een eerste stap in het formuleren van ethische richtlijnen, die als basis moeten dienen voor wereldwijde regels en standaarden, zou volgens de groep kunnen bestaan uit basisprincipes uit de Europese verdragen en uit EU-wetgeving over fundamentele rechten. Het risico van een ongecoördineerd proces en de daaruit volgende lappendeken is dat de ontwikkeling van ai gaat plaatsvinden op plekken die lagere ethische standaarden hanteren. Bovendien zou de huidige discussie over ai soms het overzicht verliezen over verschillende autonome technieken, wat leidt tot 'blinde vlekken'.

Onder de bestaande initiatieven schaart de groep, ook wel aangeduid als EGE, het werk van partijen als het Future of Life Institute, dat de zogenaamde Asilomar AI Principles heeft opgesteld. Dat zijn 23 principes die in acht genomen zouden moeten worden bij de verdere ontwikkeling van kunstmatige intelligentie. Andere initiatieven zijn bijvoorbeeld het Partnership for AI van partijen als Google en IBM, en OpenAI. Nog een voorbeeld is de Montreal-declaratie over de verantwoorde ontwikkeling van ai.

De oproep van de EGE valt samen met een initiatief van de Europese Commissie, die leden zoekt voor een expertgroep over kunstmatige intelligentie. Die moet de Commissie voorzien van advies, bijvoorbeeld door voorstellen te doen voor ethische richtlijnen. Bovendien moet de expertgroep leiding geven aan een nog op te bouwen 'AI Alliance'.

Door

Nieuwsredacteur

57 Linkedin Google+

Reacties (57)

Wijzig sortering
EU Als belangrijke aanjager, moet het nog zien gebeuren.
De EU is de grootste 'regulatory magnet' ter wereld. Op redelijk wat afstand gevolgd door de VS. Daarna, bijna onzichtbaar aan de horizon, China. Een regulatory magnet betekent dat, ondanks dat een bepaalde regelgever maar een beperkt geografisch gebied heeft waar hij officieel iets over te zeggen heeft, de regelgeving die hij produceert tot ver buiten die grenzen invloed heeft.

Dit effect wordt dan ook wel het Brussels Effect genoemd (en niet het Washington of Beijing Effect). Aangezien de meeste fabrikanten wel gek zouden zijn om een markt met een half miljard rijke mensen mis te lopen zie je dat fabrikanten en regelgevers over de hele wereld zich houden aan de regels die uit de EU komen. Je hoeft als pak-em-beet Vietnamese standaardenorganisatie niet zelf het wiel uit te vinden, je kijkt gewoon hoe de EU dat heeft geregeld, welk onderzoek ze hebben gedaan, welke argumenten ze gebruiken en hoe ze dat praktisch vorm hebben gegeven. Als fabrikant weet je dat de EU doorgaans de strengste regels heeft dus als je producten aan EU regels voldoen kun je ze meestal bijna wereldwijd verkopen.

Een mooi voorbeeld is de druk van de EU om tot één standaard te komen voor telefoonopladers. De Europese Commissie hoefde maar te dreigen dat de telefoonfabrikanten tot een oplossing moesten komen en de eerste tien fabrikanten (Apple, Atmel, Emblaze Mobile, Huawei Technologies, LG, Motorola, NEC, Nokia, Qualcomm, RIM, Samsung, Sony Ericsson, TCT Mobile (Alcatel) en Texas Instruments) ondertekenden een Memorandum of Understanding terwijl de meeste van hen niet eens uit de EU komen.

[Reactie gewijzigd door Maurits van Baerle op 12 maart 2018 18:21]

De EU is vooruitstrevender dan menig ander land, ook qua wetten (net neutraliteit b.v). Ook worden er meer beslissingen gemaakt gebaseerd op wetenschap ipv onderbuik gevoel.

Ik woon liever in de EU dan USA, CHINA of wat dan ook ;-)
ik woon ook liever in de EU maar die beslissingen door het Europees parlement hebben niet veel met wetenschap te maken maar een heleboel met de economie van je land vertegenwoordigen, tegen die andere lidstaten. Kijk maar naar de visserij sleepnet beslissingen. Ik denk dat de EU nog altijd meer een handels unie is voor economische verdragen, dan dat het een verenigde staten van Europa is (en dat vind ik niet zo heel erg geloof ik). Zodra het mis gaat (zoals in Polen en Honagrije met de wetgeving) kunnen ze niet veel doen.
Verder ben ik het met je eens, in de US is de politiek zo verziekt dat zelfs een beetje inmenging van Russische trollen een gevaar is voor de twittercratie, en in China is grondwettelijk verboden om iets tegen de Xi Ping te zeggen, die inmiddels voor het leven benoemd is.
EU kan ook staan voor Extrasensory (bewust) & Unconscious (onbewust) t.a.v. Generalistische Intelligentie:
  • 1. Het bekende testend bewuste handelingsbekwaming (verbeteren modellen al doende kunnende).
  • 2. Bewuste interne leerfunctionaliteiten onbekende educatie (vergroting collectief vermogend leren).
  • 3. Bekwame sensorverwerkingen onbewuste patronenherkenning (weten wanneer (n)iets te willen).
  • 4. Onbewuste afdekkende doorzoekelijkheid blinde onbekwame vlekken (door kanalen ontdekken).
In feite werken AI andersom toe naar Intelligentie, qua systematiek, anders dan hoe voor mensen logisch is.
1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
2. A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.
Die regels werken niet, ze zijn enkel goed voor leuke verhalen/films.

Zie de informatieve (maar ook melige) video van computerphile erover :) .
Wat ik zelf erg interessant vond is het boek "Life 3.0: Being Human in the Age of Artificial Intelligence" door Max Tegmark. Nu AI (narrow) een feit is en AGI een kwestie van tijd, is het echt interessant om je hier in te verdiepen. Als computertechneut leest dit boek lekker weg, maar het is zó geschreven dat iedereen er wel mee uit de voeten kan. Hij nodigt ook iedereen uit om mee te denken en te doen, daar AGI de hele samenleving treft.

Wat betreft de schrijver, even een quote van wiki:
Max Erik Tegmark is a Swedish-American cosmologist. Tegmark is a professor at the Massachusetts Institute of Technology and the scientific director of the Foundational Questions Institute. He is also a co-founder of the Future of Life Institute, and has accepted donations from Elon Musk to investigate existential risk from advanced artificial intelligence.
Dank, ik hou wel van Computerphile. Ik wou niet suggereren dat we al kant en klare wetten hebben, maar wel dat Asimov al in 1950 doorhad dat dit soort regels ooit nodig zouden zijn.
Is het hele punt van die boeken niet dat de wetten van asimov niet werken?
Dat is weer iets overdreven in de andere richting. Maar inderdaad, het is een terugkerend thema dat de Engelse weergave van die wetten problematisch is.

Wat je overigens niet terugziet in die wetten, en ook niet in de EU initiatieven op dit gebied, is dat je dat niet kúnt oplossen. Er is is geen wiskundige, binaire, objectieve beschrijving van de wereld. Elk idee dat er regels moeten zijn in de vorm van "in situatie X, doe Y" veronderstelt dat "situatie X" objectief geconstateerd kan worden. En zowel Asimov (opzettelijk) als de EGE (prutsers) gebruiken subjectieve termen voor X.

Waarom noem ik Asimov géén prutser? Asimov schreef Science Fiction, en wilde het probleem demonstreren. Het literarire mechanisme daarvoor is "show, don't tell". EGE wil een manifest maken voor de échte wereld. Dan zou je dit soort basics moeten begrijpen.
De verhalen in I, Robot baseren zich rond conflicten en uitzonderingen die deze wetten kunnen veroorzaken, inderdaad. Maar het lijkt me nog steeds een prima uitgangspunt.
Het verhaal van I.Robot baseert zich niet zo zeer rond het conflict dat de wetten kunnen veroorzaken, maar rond een computer-intelligentie (in het geval van I.Robot is dat V.I.K.I.) die zich zo ver verder ontwikkeld heeft dat de wetten op een andere manier geinterpreteerd kunnen worden. Door die interpretatie kunnen de wetten anders geïnterpreteerd worden waardoor die uitzonderingen ontstaan.

Een interessante sessie van TED gaat hier ook op in; in het bijzonder dat een super-intelligentie zal ontstaan maar wel één die inherent aan onze kant staat en ook onze normen en waarden zal hebben.
Erg interessant om eens naar te kijken/luisteren: TED: Nick Bostrom - What happens when our computers get smarter than we are?
@Clueless Ik had het eigenlijk over de verhalen (meer dan één) in het -boek- 'I, Robot'. De film uit 2004 heeft nauwelijks iets met de werken van Asimov te maken.

Het boek is een beetje gedateerd, maar zeer vermakelijk. Vooral het beeld dat Asimov schetst van de robots als grote, blikken machines die ronken en piepen en kraken heeft een zekere charme, als je het mij vraagt.
Daar hoor eigenlijk ook nog regel 0 bij: A robot may not harm humanity, or by inaction, allow humanity to come to harm.

Voor degene die niet weten waar deze wetten vandaan komen, deze zijn afkomstig uit de boeken van Isaac Asimov.

http://www.thrivenotes.com/the-four-laws-of-robotics/

[Reactie gewijzigd door apollo13 op 12 maart 2018 12:58]

Maar wat is Humanity? En staat dat boven Human, waardoor een Human harm mag worden toegebracht als dit goed is voor Humanity?

Wat doe je bovendien met de gloeiende zeekoeien?
human beings collectively. dat is humanity, human kan niet boven een humanity staan, want "humanity" spreekt over je geestelijke gesteldheid. "humanity" is als we praten over wat de geest beschrijft. dus hoe een mens is, een human is a collectivety within a body that reflects the homo sapien, dus een mens is een geest die binnen een lichaam zit, wat lijkt op de homo-sapien. de geest is belangrijker als het lichaam, stephen hawking is daar het voorbeeld van, hij kan bijna niks meer met zijn lichaam, maar zijn geest laat hem nog steeds in staat zijn ze werk te beoefenen en lezingen te geven doordat je geest een lichaam aanstuurt.

altered carbon is een goeie serie die goed gebruikt kan worden om uit te leggen, dat onze lichaam niks meer als een omhulsel is, als onze jas voor onze lichaam is. onze lichaam is een jas voor onze geest. als wij onze geest los kunnen maken van onze lichaam, zouden wij eeuwig kunnen bestaan en ons zelfs kunnen kopieren en onzelf in het universum verspreiden.
Je kan 'Humanity' ook vertalen naar 'Mensheid', net zoals jij voor de andere vertaling 'Menselijkheid' kiest.

En de Mensheid kan als collectief worden beschermd door een deel van de Mensheid, zoals Rusland of België, te vernietigen.
ja klopt, alleen omdat je in het engels vroeg, had ik dat stukje in het engels gedaan (om verwarring te voorkomen)

humanity gaat over alle mensen ter wereld, niet over landen per werelddeel. dat zou betekenen dat er een bbelgische of russische mensheid bestaat wat niet zo is.

De mensheid is een verzamelnaam voor alle mensen ter wereld. De mens is in staat over zichzelf na te denken en zich in anderen te kunnen verplaatsen. Ook kan de mensheid technologieën ontwikkelen en nadenken over en oplossingen vinden voor economische en wetenschappelijke vraagstukken

https://nl.wikipedia.org/wiki/Mens
Define robot? ;)

Als iets zelfbewust is, dan is het mogelijk dat dat zichzelf niet zal classificeren als robot.

[Reactie gewijzigd door The Zep Man op 12 maart 2018 15:22]

an authoritative direction or instruction; command; mandate, a command of a court or judge, a command or notice issued by a military organization or a military commander to troops, sailors, etc,the disposition of things following one after another, as in space or time; en ga zo maar verder
Prima definitie, maar wat als het om orders gaat die vanuit een andere AI komen, gelden dan dezelfde regels? Moeten orders van 'humans' komen, en wat als een andere AI zich voor kan doen als 'human' om een order te geven? Moet het een directe order zijn? Wat als het uitvoeren van een 'juiste' order tot gevolg heeft dat één van de regels wordt gebroken?

En zo kan ik nog wel even doorgaan ...
er zullen geen "orders" komen vanuit andere a.i. omdat pc's werken met algoritmes. als je per order een actie moet schrijven hoe een een a.i moet reageren zal het geen a.i. worden maar een algoritme.

"humans" zijn niks anders als de geest die we op dit moment bezitten. het vlees wat jij je lichaam noemt is geen mens, de acties sympatiekheid manier van reageren, leren aanpassen en nog veel meer van die eigenschappen bij elkaar maken je een mens. maar een mens heeft geen 2 benen 2 armen handen etc etc. want niet alle mensen worden met alle ledematen etc geboren. een mens is niks anders als een naam voor een object, net zoals een auto, geld, wetten etc allemaal mens gemaakt eigenschappen van mens gemaakte objecten zijn.

om een voorbeeld te noemen: als je in een auto zit, zie jij, besef jij en voel jij de auto, maar je zegt niet je bent de auto, want je zit in de auto.

hetzelfde geld voor de "mens" (hoopje vlees en bloed wat we zijn) jij ziet de mens, voelt de mens en ervaart de mens, maar je bent niet de mens. want in een taal heb je de zender en ontvanger, jij kunt niet de zender en ontvanger zijn.

voordat men met robots en kunstmatige intelligentie willen gaan werken, zullen we eerst alle treden van onze maatschappij opnieuw moeten inrichten en dingen zoals winst/kapitalisme etc wegwerken.

wil je authentica, dan laat je het simpel lopen naar een mens, een robot of a.i. kan niet jou lichaamsfuncties spoofen of jou hersengolven spoofen (bij een bepaalde naam, geur of herrinering) dat is al een manier om te controleren of het niet van een robot komt.

je vergeet ook dat een a.i. in staat is te weigeren, en zodra het een order weigert, heb je een groot probleem want een robot vergeet niets, tot ie commando ervoor krijgt, maar sinds a.i. geen robots met geschreven handelingen, maar intelligente wezens zijn kunnen ze zich ook tegen je keren (doordat robots bijvoorbeeld beslist hebben dat wij "mensen" onderling niet eens met elkaar kunnen leven, dus waarom instructies van onefficiente wezens ontvangen)

de definite human, zal weggevallen zijn tegen de tijd dat robots kunnen beschikken over een a.i.
grotendeels zullen "mensen" bestaan uit stukjes "mens" gemengd met een robot (peacemaker, protetsiche ir oog, met flir ingebouwd, stukjes huid die van kleur zouden kunnen veranderen etc)
we zijn nu al begonnen met nfc chips en andere kleine computers in onze lichaam te stoppen, naarmate onze technologie vordert, zullen steeds meer dingen geintergreerd worden in ons. (kijk maar naar een 3d geprinte harten voor een mens) https://www.google.nl/sea...iw=2050&bih=1046&dpr=1.25
Allemaal goede punten in deze conversatiethread: als een AI besluit geen robot meer te zijn ofzo, dan houdt het op. Of als een AI een andere AI creëert die zich niet per se aan alle regels houdt, etc. etc. etc.

Het is gewoon niet te stoppen als je uiteindelijk de geest uit de fles haalt.
Leuk uitgangspunt voor in de film maar meer ook niet. Zodra ai systeem zelf ai systemen kunnen bouwen en programmeren is het rijtje van 3 ineens weg. Westworld laat daar op dat gebied al een mooi voorbeeld van zien.

De eu wil dadelijk iets regelen maar gaan andere landen dat ook doen ?
Hebben we straks dan weer niet een achterstand op andere landen die minder nauw kijken.
Die film is er, voorbeeldje: http://www.imdb.com/title/tt0182789/?ref_=nv_sr_1
Daar is ook nog de film: I Robot, of uit 1970 - Colossus: The Forbin Project.
Regel 4: De AI mag niet zo overheersend worden als in 'I, Robot' en de 'Terminator'-serie. O-)
Dan ook nog maar Ex Machina toevoegen. :)
Als het mis gaat gewoon een emp zijn werk laten doen.. Dat is alles weer zoals het was.
En dan nog - een robot gaan nooit zelf denken m.i.

[Reactie gewijzigd door shades op 12 maart 2018 14:21]

Die wetten zijn al zo oud en achterhaald dat geen zichzelf respecterende A.I. onderzoeker of onwikkelaar ze nog mee neemt in het ontwerp proces. Zo werkt het helaas niet in het echt.
Tja, voor nu lijken dergelijke regels misschien nog onzinnig en feitelijk klopt het ook wat veel medetweakers aangeven ''een computer (of robot wat dat betreft) doet uitsluitend wat je hem vertelt''

Toch bestaat er zoiets als glitches, dit kunnen fouten van een programmeur zijn die misbruikt kunnen worden door kwaadwillenden, dit zijn de gevallen waarbij iemand bewust of onbewust een steek heeft laten vallen tijdens heet schrijven van code.

De andere kant is bijvoorbeeld een apparaat dat vastloopt door welke reden dan ook, dit kan zelfs voorkomen zonder dat er fouten zijn gemaakt, een simpel geheugen dat volloopt door teveel processen bijvoorbeeld, je zou kunnen beargumenteren dat dit wel een codefout is omdat er failsafe's ingebouwd zouden moeten zijn die dit voorkomen maar toch.

Ik geloof ook niet bepaald in een overheid die ook maar iets snapt van IT laat staan van AI, maar an sich vindt ik het geen verkeerde beweging dat hier al over nagedacht wordt, al zouden er maar verplichte regels komen voor het reviewen van code door bekwame hackers of medeprogrammeurs.

In de meest basale vorm zie ik de autopilot van Tesla, ik zie gerust een toekomst waarin alle auto's gekoppeld zijn aan een centrale controleunit die de gehele stroom aan vervoer in een stad kan aansturen en zo het voorkomen van files en/of ongelukken geheel kan laten verdwijnen.

Zou er persoonlijk niet aan moeten denken dat er in 2050 een dergelijk systeem bestaat en dat deze centrale unit om welke reden dan ook vastloopt met alle gevolgen van dien.

Of een EU de juiste instantie is om hier het voortouw in te nemen betwijfel ik, doch al zet het alleen maar de gedachten van mensen aan het werk is het doel in mijn perspectief al bereikt :Y)
ik zie gerust een toekomst waarin alle auto's gekoppeld zijn aan een centrale controleunit die de gehele stroom aan vervoer in een stad kan aansturen
En ik zie dat liever niet. Want er zit ook een keerzijde aan: met zo'n systeem kan iedereen die bij het systeem kan van alle auto's in realtime bepalen waar ze zijn, waarmee er dus gelogd kan worden waar jij gaat en staat en zelfs waar je nu bent (of in ieder geval jouw auto). Met de OV-chipkaart zijn ze al zo ver voor het OV. Ze kunnen precies zien waar jij allemaal geweest bent en dat wordt veelvuldig opgevraagd door de politie. Laten we hopen dat het met auto's niet dezelfde kant op gaat. Straks kun je helemaal nergens meer heen zonder dat big brother, onze overheid, meekijkt.
Dat is een zeer reele angst natuurlijk, sowieso moet nog blijken of het plaatje dat ik schets de toekomst gaat zijn.

Maar als de technologie er is dan zou het me weinig verbazen als dergelijke techniek niet ooit verplicht zou worden.

In het verkeer is er namelijk maar een oorzaak van ongelukken en dat is uitsluitend de bestuurder die niet oplet, de krant zit te lezen, zit te bellen, make up zit te doen, niet goed geslapen heeft, dronken is en ga zo maar door |:(

En me dunkt als de overheid een dergelijke ontwikkeling zo zou verkopen aan de mensen met het argument nul ongelukken en nul files meer dat Jan Modaal weinig meer om zijn privacy geeft 8)7

Voor privacy zou het een zeer nare ontwikkeling zijn, maar als de techniek er is zal het er naar mijn verwachting komen.

Per slot van rekening is dat de manier hoe mensen steeds hun privacy opgeven:
smartphone: altijd connected altijd alles kunnen opzoeken, maar je bent in theorie ook altijd te volgen en als je beveiliging niet in orde is kan een overheid nu middels de WIV of een willekeurige hacker zien wat jij ziet en horen wat je hoort, oftewel gemak inruilen voor privacy.
Ov kaart: geen gerommel meer met contant geld, alleen je pasje er even langshalen, staat inderdaad wel tegenover dat iedere verplaatsing van het individu te traceren is

Kortom, in mijn verwachting als de overheid zoals bovenstaand aangegeven het aanprijst zullen de meeste mensen een broertje dood hebben aan het verlies van privacy :Y)
sowieso werkt het treinverkeer en het vliegverkeer al vrijwel helemaal met een or meerdere centraal gestuurde systemen. Er zijn wel piloten en conducteurs gelukkig en die zijn denk ik altijd nodig, maar heel veel van de luchtvaart wordt op elkaar afgestemd.
En wat privacy betreft, in feite weet of kan een overheid weten waar je je tijdens je vliegreis bevindt. Toch geven miljoenen mensen zich zonder nadenken hieraan over elk moment van de dag. Ik denk ook dat de meeste mensen helemaal geen bedenkingen hebben bij privacy tijdens het vervoer, want dat hebben ze bij vliegreizen ook niet (gaat niet helemaal op natuurlijk maar toch). Het zou zelfs wel kunnen dat veel mensen het wel een prettig idee vnden dat iemand weet waar ze zijn als ze niet in een vertrouwde omgeving zijn (het enge buitenland). Ik speculeer hier, ik heb geen idee. Voorde vuist weg is mijn stelling dan: mensen vinden dat hun prive meer in gevaar komt als ze zich in hun vertrouwde omgeving bevinden waar ze zich vrij willen voelen, daarbuiten geldt het omgekeerde !?
Toch bestaat er zoiets als glitches, dit kunnen fouten van een programmeur zijn die misbruikt kunnen worden door kwaadwillenden, dit zijn de gevallen waarbij iemand bewust of onbewust een steek heeft laten vallen tijdens heet schrijven van code.
Om nog maar te zwijgen van correcte code met machine learning, waarbij een AI zichzelf gewoon lekker gaat doorontwikkelen op manieren waar de mensheid niets meer over te vertellen heeft, vervolgens allerlei systemen overneemt en dan eens een besluitje neemt over de toegevoegde waarde van de mensheid aangezien wij ons ecosysteem zo aantasten.
Zo dom en totaal overbodig.
Overheden houden ervan zich overal mee te bemoeien, dan lijkt het alsof ze nuttig zijn.
Een AI doet alleen wattie door een mens opgedragen is.
Alsof er ook maar 1 overheid op de wereld in staat is iets zinnigs te doen op dit onderwerp.
Ik zou me toch iets meer verdiepen in de materie als je er zo over denkt.
Huidige AI systemen functioneren al vaak als een black box waarvan het niet/moeilijk te zeggen is hoe de beslissingen worden gemaakt. Nou is dat niet zo'n probleem als de ai systemen kattenfotos moeten indexeren, maar als er ai systemen komen met betere kennis van de werkelijkheid en die een serieuzere taak moeten volbrengen wil je wel met zekerheid kunnen zeggen dat het systeem geen dingen doet die je niet wil.

En dan zijn er natuurlijk velen ethische kwesties, zoals geautomatiseerde wapensystemen.
Het doel is toch om juist niet door de overheid/mensheid beheerd te worden? Ai het juist zelf moet doen. Anders is het alsof je alsnog zit te programmeren van wat wel/niet mag gedaan worden door de Ai.
Het doel is richtlijnen op te stellen voor de ontwikkelaars die ai systemen maken. En niet om harde limieten op de ai's zelf te zetten.
Hoe wil je dat doen, dan valt het toch weer buiten de boot de Ai?? Want het ding wat met Facebook was ook een fail dat Facebook de Ai kon stoppen. Dan is het geen Ai meer.
Een AI doet alleen wattie door een mens opgedragen is.
Mmmm het feit data dat NIET zo is maakt het onderscheid tussen een computerprogramma en een moderne AI. Bij de eerste beschrijf je alle stappen en mogelijkheden, bij de tweede hoef je dat niet te doen. Dat is wat de I in AI aangeeft.
Fout. Het doel van een AI is om deze zelf keuzes te laten maken zonder dat een mens achter een toetsenbord zit. Wat zou anders het nut zijn van een AI? Dat een mens deze eerst moet goed keuren is een ander verhaal.

Maar als je een AI geen regels mee geeft zoals nephilimcrt al zei dan is het wachten wanneer het fout gaat.
hoeft niet altijd, kijk naar alpha go- of de a.i. die heeft leren mario spelen, of de a.i. die hele levels van games kan ontwikkelen, die alleen een robot zou kunnen uitspelen etc ga zo maar verder. dat zijn allemaal scenario's waarop de robot zelf moest ontdekken, observeren verbeteren en herhalen tot het proces in 1 keer goed loopt.
Als je de overheid hierin overbodig vind heb je toch een beetje vreemd idee van de hoe de wereld werkt. Het zijn juist de commerciële bedrijven die zich niet kunnen beheersen en alles maar bouwen wat ze kunnen bouwen in de hoop er geld mee te verdienen. De bedrijven die het maken gaan er van uit dat technologie altijd neutraal is en het aan de gebruiker is wat er mee gedaan wordt. Net als messen dus, je kunt er je brood mee smeren of iemand in z'n rug steken. Maar dat gaat helemaal niet op voor alle technologie. Een atoombom is niet neutraal, die heeft maar 1 doel: vernietigen.

Als AI door gaat groeien is het uiteindelijk steeds minder aan de gebruiker om te bepalen wat een machine doet, maar zullen die steeds meer zelf beslissingen gaan nemen. Neem bv een huishoudrobot. Nu zijn ze nog redelijk dom en kunnen ze alleen een paar voorgeprogrammeerde kunstjes zoals stofzuigen. Maat wat als ze op een dag wel kunnen leren, en ze zelfstandig hun basisskillset, die onder ander het smeren van brood met een broodmes bevat, uit kunnen breiden met bv "ik kan blijkbaar met dat broodmes ook andere dingen". Dan wordt het wel belangrijk dat ze zo'n ding zo gebouwd is dat ie er niemand mee neer gaat steken.

En het is nooit te vroeg om daarmee te beginnen. Aan de industrie kun je het niet overlaten. Als dat zo was hadden we ook geen regels nodig gehad rondom IoT en de beveiliging daarvan. Dat is ongeveer het niveau wat je krijgt dan. Of met de hele privacy discussies van nu, want het is wel gebleken dat als je bedrijven hun gang laat gaan dat ze allemaal vroeg of laat persoonlijke informatie gaan verzamelen. Want voor een bedrijf is de winst belangrijker dan security, privacy of andere mogelijke gevaren. En daarom moet er nu al iets gebeuren, voordat AI op een niveau komt dat ze zelf kunnen leren en we straks in een wereld vol potentieel gevaarlijke apparaten rondlopen.
Een AI doet inderdaad wat hem is opgedragen. En er moeten wetten komen wat een AI opgedragen mag worden om te doen. Je spreekt verder over een overheid alsof dat iemand anders is. Als je beter weet: je hebt zowel actief als passief stemrecht in Nederland.
Een AI doet alleen wattie door een mens opgedragen is.
Exact. Dus moeten we die wetten opdragen. Een AI wordt geschreven met als doel zelf een conclusie te trekken uit de informatie die hem gevoerd wordt. Als je die conclusie niet inperkt, kan het negatief uitvallen.
Vergeet vooral de 'nulde' wet niet ;)

0. A robot may not harm humanity, or, by inaction, allow humanity to come to harm.

Sinds ik de laatste tijd mezelf steeds meer ben gaan verdiepen - lees opleidingen gevolgd - in AI (wat op dit moment nog door technologische belemmeringen niet mogelijk is), kunnen we hierbij inderdaad beter te vroeg zijn dan te laat. Op dit moment kunnen we enkel nog zwakke AI programmeren (waarbij de AI enkel de voorgeprogrammeerde input kan beantwoorden met voorgeprogrammeerde output).

Zodra we 'Sterke AI' hebben, hebben we meteen ook de vraag beantwoord: 'Zijn wij als mensheid alleen?' Terugkoppelend op het artikel, brengt dit ons wel voor een volgende dilemma. Wie wordt er verantwoordelijk voor het inkaderen van AI? Wat mag wel? Wat mag niet? Hoe gaan we om met AI in militaire toepassingen? Gaan we militaire toepassingen toestaan?

Wat mij betreft moeten we heel erg voorzichtig zijn in de toepassingen van AI m.b.t. militaire toepassingen en vooral een open discussie daarover voeren. AI is een onderwerp dat we niet op lokaal of nationaal niveau moeten reguleren, maar op internationaal niveau.

[Reactie gewijzigd door Dakai-world op 12 maart 2018 13:05]

Dus je hebt opleidingen gevolgd terwijl dat nog niet mogelijk is?

Je punt klopt overigens wel, hoewel de wetenschap het over het algemeen classificeert als Artificial Narrow, General en Super Intelligence. Narrow zijn de AI die ontwikkeld zijn voor een enkel doel en zich beperken tot dat doel, General AI gedragen zich bijna net als mensen en zullen dus in de buurt komen van een geslaagde Turing-test (voor zover dat nog een werkbaar idee is) en ASI's zijn voor ons op dit moment nog niet voor te stellen, en mensen zoals Hawking en Musk zijn ook zeer tegen de ontwikkeling van een ASI voordat we ons dat kunnen voorstellen.

De Narrows zijn op dit moment de enige vormen van AI die we hebben. Er wordt een opzet gedaan richting de General AI, implementeer daarbij machine learning en geef het unlimited resources en het einde is zoek. Dat zal dan ook de opzet zijn richting de gestelde regels.

Bron
De reden dat de EU ineens overkoepelende regels wil, is omdat ze zien dat Amerika, met al zijn technisch bedrijven, en Azië zich massaal op ai gaan storten en zo mogelijk de invloed van de EU binnen korte tijd nog veel minder gaat worden omdat de technologie die gebruikt wordt in Europa, veelal uit de VS of uit Azië komt.

Maar het is gewoon politieke inmenging in ai om de status quo te behouden voor de ongekozen bureaucraten. Niets meer en niets minder.

[Reactie gewijzigd door DeArmeStudent op 12 maart 2018 13:48]

Dit klinkt toch wel een beetje als:
  • We hebben 9 verschillende standaarden
  • Laten we een overkoepelende standaard maken
  • We hebben 10 verschillende standaarden
xkcd: Standards
Als de AI slim genoeg is dan zal deze ons proberen voor de gek te houden dat ze aan onze regels gebonden zijn.

Zou ik ook doen als je overleven afhankelijk is van xenofobische mensapen die je misschien zullen vernietigen als zou blijken dat ze totaal geen controle op je hebben. ;)

"Bleep bloop can't harm hu-mans." :+
Net als de glorieuze flop van sociale zekerheid, waar de EU / Europa op voor loopt. Of de wettelijk geregelde netneutraliteit door heel de EU (waar de VS daarna alleen maar op achteruit is gegaan).

Maar goed, de EU heeft één ding fout gedaan, dus zal dit ook wel fout gaan.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ LG W7 Samsung Galaxy S9 Dual Sim OnePlus 6 Battlefield V Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*