Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties

Tientallen prominente wetenschappers en ondernemers roepen op tot breder onderzoek naar kunstmatige intelligentie. Zij vinden dat de wetenschap 'tijdig' naar verschillende onderzoeksvelden moet kijken voordat er iets mis gaat.

Onder meer de bekende wetenschapper Stephen Hawking en ondernemer Elon Musk hebben de open brief onlangs ondertekend. Zij maken deel uit van het zogeheten Future of Life Institute, een onderzoeksorgaan voor kunstmatige intelligentie.

De wetenschappers en ondernemers vinden dat de maatschappij in de toekomst niet in de 'valkuilen' van kunstmatige intelligentie moet trappen. Daarmee willen ze zeggen dat mensen niet de controle over slimme systemen mogen verliezen, maar ze juist 'moeten laten doen wat we willen'. Zo kan er optimaal van artificial intelligence worden geprofiteerd.

Het is niet verwonderlijk dat de prominenten de oproep plaatsen. Jarenlang richtte het onderzoek naar kunstmatige intelligentie zich vooral op de werking van intelligente systemen - agents - in bepaalde omgevingen, zowel virtueel als fysiek. Nu er 'slimme' apparaten als robotstofzuigers en autonome auto's bestaan en in bepaalde mate hun omgeving kunnen waarnemen, moet het onderzoek wat het Future of Life Institute betreft breder worden getrokken.

Diegenen die de open brief ondertekenen, vinden dat toekomstig onderzoek zich ook 'tijdig' moet richten op de sociale facetten van kunstmatige intelligentie. Het gaat daarbij nadrukkelijk om interdisciplinair onderzoek, waarbij er bijvoorbeeld ook rekening moet worden gehouden met de regelgeving, de economie en achterliggende filosofie. Dit gebeurt overigens al wel: wetenschappers kijken onder andere al naar protocollen voor het veilig inzetten van robots in de zorg.

De deelnemers hebben in hun open brief een link geplaatst naar een document waarin enkele onderzoeksvragen worden behandeld. Het gaat daarbij bijvoorbeeld om hoe de regelgeving voor autonome wapens in elkaar moet zitten, evenals hoe de kans op het aanrichten van schade kan worden beperkt.

Moderatie-faq Wijzig weergave

Reacties (69)

Ik hoorde pasgeleden een discussie waar ik eerlijk gezegd nog niet aan had gedacht. Omdat een computer / robot enkel exact "denkt" kan hij geen gevoelens begrijpen. Hoe leer je een robot bijvoorbeeld wanneer hij boos moet worden? Of juist blij? Een robot zal namelijk altijd reageren op een situatie die voor hem herkenbaar moet zijn.

Dat vond ik wel bijzonder en ik neig te denken dat degene die dit zei ook wel een heel sterk punt heeft. Of zijn er inmiddels al mogelijkheden om de A.I. dit onder controle te laten krijgen? Want dan zal het hek van de dam gaan vrees ik.
Wil je een robot uberhaupt leren om boos te worden ? Wil je een emotioneel gevoelig apparaat ?
Als ki stemmingingen en gevoels kan interpeteren dan is dat mooi, maar om ze nou zelf ermee uit te rusten, lijkt me geen goed idee.
Kans bestaat, dat op het moment een AI ontstaat deze ook emoties ontwikkeld,
met ook eventueel alle psychische problemen erbij.
Ik betwijfel ten zeerste dat een niet-biologisch systeem emoties kan ontwikkelen.

Een emotie is een fysiologische reactie. Een AI heeft geen lichaam of stofwisseling dat onafhankelijk van rationele processen reageert. De emotie heeft zijn oorsprong niet in intelligentie, maar in de fysiologische processen die lagere levensvormen gebruiken om met hun omgeving om te gaan.

Niet dat ik hiermee bedoel dat emoties primitief zijn; emoties zijn met de evolutie van het menselijk brein wel degelijk complexer geworden.

Natuurlijk kunnen we heel abstract aannemen dat er zich een soort van fysiologische reactie kan plaatsvinden in een aan-sensoren-verbonden zelfbewuste AI, maar dit is van een heel andere orde dan menselijke emoties. Daarbij hebben emotionele reacties een evolutionair nut, een deel van onze "biologische programmatie" is dat bepaalde prikkels een emotie opwekken om een optimale reactie uit te lokken. Fysiologische processen die zich spontaan zouden ontwikkelen en de AI beïnvloeden, zouden geen vooraf bepaald nut hebben en de reactie hierop zou ogenschijnlijk willekeurig zijn. Een AI met spontane emoties zou per definitie psychisch ziek zijn.

Misschien kunnen emoties doelbewust geëmuleerd of ontwikkeld worden, maar dit lijkt me contraproductief.

[Reactie gewijzigd door Mijiru op 13 januari 2015 02:21]

Toch blijven de emoties een logisch probleem voor een computer. Ingevoerde code, ook code die zichzelf kan ontwikkelen, blijft een ingevoerde code. Een broncode zal nooit veranderden. Tenzij je een machine leert een betere broncode te schrijven. Maar ook dat gebeurt volgens een voorwaarde systeem. Wat is beter? Wat is efficienter? Staat vast in een code ;)

Kortom, de controle verliezen over een machine kan alleen als de mens zijn kennis verliest. Laten we het personeel dan vooral getraind houden :)
Ingevoerde code blijft niet zomaar ingevoerde code.
Onderzoekers in de machine learning (zoals mezelf) onderzoeken algoritmes die dingen kunnen die wij niet zomaar kunnen programmeren. Hoe schrijf je bijvoorbeeld een algoritme dat gezichten herkent? Een gezicht is onmogelijk te beschrijven in pure logica.

Je geeft dan een zeker model aan de computer (een neuraal netwerk of whatever), en laat hem dan parameters zoeken die werken. Dat werkt exact zoals in de statistiek, maar dan niet met een paar of een tiental, maar met tientallen miljoenen parameters.

Die parameters zijn als het ware de code die de computer zelf geschreven heeft. We weten dan niet meer hoe het werkt, enkel dat het werkt. We weten zelfs niet goed wat het exact doet, enkel dat het steeds lijkt te werken bij het testen.

En het is in die richting dat sommigen problemen vrezen. Dan stoppen computers met 'exact' denken, en gaan zelf redeneren. Nu is dat nog relatief rudimentair, maar het enige dat ons nog lijkt tegen te houden om een redenerende computer te bouwen, is het aantal parameters. En het enige dat ons nog tegen lijkt te houden om van tientallen miljoenen parameters naar tientallen miljarden parameters te gaan, is rekentijd.

Wat kunnen we ondertussen computers laten leren? Bijlange niet enkel beeld of spraakherkenning meer. We kunnen ze code laten interpreteren: http://arxiv.org/abs/1410.4615 We kunnen ze een Turing-machine laten programmeren voor een simpele taak (zoals een sorteeralgoritme): http://arxiv.org/abs/1410.5401 We kunnen ze atari-spelletjes laten uitspelen a.d.h.v. het scherm en de controls en met de score als beloning. http://arxiv.org/pdf/1312.5602.pdf
Dat allemaal, zonder dat de programmeur echt over het probleem heeft moeten nadenken.

Weten we wat voor code die taken eigenlijk oplost, wat voor redenering er achter de oplossing van de computer zit? Neen, dat zit verborgen in die parameters.
En daar zijn sommigen bang voor, dat er gevaarlijke dingen kunnen ontstaan in die parameters, en we zouden het nooit opmerken.

[Reactie gewijzigd door de317070 op 13 januari 2015 02:51]

Dat is mooi geschreven. Ik kan me best voorstellen dat als je denkt aan zelf-ontwikkelende algoritmes dat in bijna elk computergestuurd apparaat een gevaarlijke situatie kan ontstaan. Je zou de gekste voorbeelden kunnen bedenken; zoals een Magnetron dat besluit om zelfs met de deur open te functioneren omdat het stroom spaart? Uit een "simpel" stukje code kan zelfs kunstmatige intelligentie nog hele rare of voor ons zelfs domme fouten maken omdat deze zich niet alle gevolgen realiseert (ofwel; alle gevolgen voor mensen niet incalculeert).

Dan gaat het al lang niet meer om "kunstmatige emoties" of einde van de wereld situaties die we graag in films zien, maar simpelweg een logisch computer rekensommetje dat op een besluit uitkomt die niet gewenst is en waar wij (althans de programmeur) net even niet aan gedacht hebben om het te blokkeren of dergelijke.

[Reactie gewijzigd door Arcticwolfx op 13 januari 2015 03:54]

Een 'normale robot' zal doorgaans niet zo gebouwd worden dat hij zijn eigen hardware kan modificeren. Een magnetronoven heeft meerdere electromechanische 'interlocks', en de voorschriften daarvoor zullen niet zo snel veranderen lijkt me. Hoe slim de software ook is, of hoe dom, want met de deur open bespaar je helemaal geen energie - integendeel, er kunnen simpelweg geen onveilige situaties ontstaan omdat de hardware daar niet toe in staat is.

Nou kan een bouw- of reparatierobot misschien wel aan zichzelf of zijn collega knutselen, dus daar moet je aanvullende veiligheden inbouwen.

[Reactie gewijzigd door mae-t.net op 13 januari 2015 04:36]

De magnetron was eigenlijk ook maar een stom voorbeeld. Ik bedoelde eigenlijk te zeggen dat een stuk software dat 'leert' op een gegeven moment op onvoorstelbare gevaarlijke besluiten zou kunnen komen waar de programmeurs misschien nooit aan gedacht hebben. Uiteraard is dit veel meer van toepassing op grotere en krachtigere toepassingen of apparaten.

Daarnaast zijn ook de sociale veranderingen het bestuderen waard. Geschiedenis heeft laten zien dat wij de meeste conclusies pas achteraf trekken.

Bijvoorbeeld toen de eerste mobiele telefoons de wereld in kwamen werden er heel veel potentiële goede en slechte kanten aan bestudeerd. Maar wat we er nu allemaal mee doen en sterker nog, waar de technologie naar toe geleid heeft, met ook alle gevaren ervan hebben wij als mensheid nooit aan gedacht destijds. Zo leren wij eigenlijk nu pas dat we misschien wel afgeluisterd worden met onze eigen apparaten.

Als je zo doorgaat kun je talrijke perspectieven bedenken die we voorheen niet zagen. Ik denk dat daar het artikel ook een beetje om gaat. Bewuster de effecten van technologie bestuderen voor we het de wereld in gooien.
Het is en blijft patroonherkenning, die niet verder gaat dan de herkenningsalgoritmes die de programmeur ingebouwd heeft. In dat opzicht zal KI zich blijvend onderscheiden en de mindere blijven van een mens.

Wel kun je met herkenningsalgoritmes hele enge dingen doen, zoals oorlogsvoering. En dan vaak in de relatie met een partij die wel het geld heeft de 'killer-robots' te maken tegen een partij die daar niet de middelen voor heeft.

Het lijkt me bijzonder nuttig dat - voordat dit soort toepassingen echt breed beschikbaar zijn - een discussie over het al dan niet wenselijk zijn van dit soort aspecten gevoerd wordt, en dan niet alleen door techneuten of veiligheidsdiensten. Er zit aan dit verhaal wel een ethisch aspect.
Doet een simulatie van begrip begrijpen?
Of bepaalde emoties, maar dan zonder wroeging of compassie. Puur op het self awareness gedeelte
Neuronen in het menselijk brein werken ook vrij voorspelbaar / exact. Bij dezelfde input komt er hetzelfde signaal uit. Waardoor mensen complex, onbegrijpelijk, onberekenbaar of creatief worden komt door de enorme hoeveelheid van die neuronen en de complexe connecties tussen die neuronen. Er staat niets in de weg om dezelfde principes toe te passen in computers, behalve dan wat technische beperkingen die mettertijd zeker overwonnen zullen worden. Dat gaat alleen nog wel even duren.
Dat kan wel. Wetenschappers hebben bijvoorbeeld al patronen in het gezicht in kaart gebracht met het zogeheten Facial Action Coding System. Het gaat hierbij om specifieke spiergroepen in het gezicht die iets kunnen zeggen over onze emoties. Een computer kan zien wanneer bepaalde spieren worden aangespannen en dus 'begrijpen' hoe iemand zich voelt.
Vraag jezelf eens af wat herkeenbaar precies qua definitie inhoudt en je zult zien dat dat er op dat gebied juist enorm veel voortgang wordt gemaakt. Herkenning van situaties aan de hand van bijv. schaakprogramma's met menselijke tegenstanders is al succesvol gebleken. Toegegeven, er is nog vaak menselijke input nodig, maar we zijn nu op een punt waarop autonoom nieuwe functies geleerd kunnen worden (bijv. ook hier te zien).

Wij leven wat dat betreft in een mooie tijd :)
Daarvoor is geen intelligentie nodig maar wel opslag van meetwaarden van druksensoren en een programma dat aan de hand van die opgeslagen meetwaarden zichzelf aanpast. Die robotarm is m.a.w. alles behalve 'intelligent'.
Volgens jouw definitie van intelligent is een mens dus niet veel beter?
In de rudimentaire vorm is dat precies wat mensen ook doen en in den beginne nieuwe functies aanleren. Het is niet voor niets dat het artikel de vergelijking maakt met babies.
Wij hebben de opslag tussen de oren zitten en aan de hand van eerdere waarden (of "ervaringen" ) passen ook wij ons gedrag aan. Zo zal een kind wat zich aan vuur brand de volgende keer ook zijn hand er niet nog een keer in steken.

Bij sommigen werkt dat programma overigens niet altijd even best en blijft men dezelfde fout maken :+ In dat opzicht ben ik het dan wel weer eens met jouw opmerking. Sommige mensen zijn ook allesbehalve intelligent ;)
Emoties zijn chemische reacties die omgezet worden tot elektrische impulsen die je brein als geluk (bijvoorbeeld) interpreteert.
Het is dus (in de toekomst) wel degelijk mogelijk om emoties te kwantificeren en ze aan een computer te leren.

De vraag is, is het überhaupt nuttig/verstandig om dat te willen?
Emoties zijn ook te leren door een computer. Zolang er patronen zijn te herkennen in menselijk gedrag kun je ook dit ingeven aan een computer.
Waarom gaan we er steeds maar weer van uit dat we zo 'uniek' zijn. Niets is minder waar. Ook een 'uniek' mens past in de statistieken. Gevoelens en emoties tonen zal één van de makkelijkste opgaven zijn/worden voor robots in de nabije toekomst.
Creativiteit is echter een ander verhaal (tot nu toe). Maar ook op dit terrein zijn er dingen te verwachten (na een cursus 'creatief denken' van het COCD met Roger de Bruyn en Prosper Vanosmael).
De techniek zal zeker in staat zijn in de toekomst om een bijna perfekte replica van de mens te maken. We zullen daarom een grote groep van filosofen nodig hebben welke eens goed gaan kijken wat we in onze maatschappij wel en niet willen zien.
Het is nogal bedreigend om te zien dat we technologisch een enorme vooruitgang zien, maar maatschappelijk ons meer en meer naar de middeleeuwen begeven.
Oke, maar dan blijft een computer toch een afweging maken aan de hand van gegevens zijn ontvangen. Zullen ze in staat zijn om, als niet alle relevante informatie verwerkt kan worden, een keuze te maken? Als een mens niet alle informatie heeft zal die een keuze maken op gevoel. Kan een A.I. dat dan ook?
Begrijp je gedachtengang. Maar ook als je niet alle data hebt, wat ook weer een situatie is, welke ingegeven kan worden. De mens zal dan ook reageren op een, naar mijn mening, niet unieke manier. Naarmate meer details bekend worden, zal juist op dit terrein, de reaktie van de computer (of robot zo je wil) meer uniform en 'menselijk' zijn, omdat de computer meer grosso modo kan reageren (lees: wat de meerderheid van de mensheid een acceptabele reaktie zou vinden).
Als je ziet hoe nu via datagrabbing een hele goede profielschets geproduceerd kan worden van de gemiddelde internetgebruiker, en wat de karakteristieken zijn van de data welke hiervoor gebruikt wordt, dan denk ik dat een computer in de toekomst vele zintuigen meer zal hebben dan de gemiddelde mens.
Mooi om te zien dat het door wat sterke namen wordt gesteund. Dat levert wel wat meer aandacht (views) op denk ik zo.
Ik denk dat een aantal films en boeken al wel hebben belicht hoe AI mis kan gaan. En dan heb ik het niet alleen over I Robot en Terminator (beiden overigens prima vermaak).
Ik denk dat je er niet aan ontkomt om voor computers regels op te stellen zoals die ook voor de mens zijn opgesteld, maar de vraag is hoe je dat gaat handhaven. Hardcoded neerzetten heeft weinig zin als een AI het lukt om zichzelf te herschrijven, plus dat de mens ook niet altijd een even goed moraal kompas heeft om de juiste instructies te geven.

Wat ik me wel afvraag is waarom er dan niet meer financiering naar dergelijk onderzoek gaat. Komt dat omdat er niet genoeg geld mee te verdienen is? Mij lijkt dat er ook wel een aantal patenten mee verdiend kunnen worden?
De realiteit is altijd erger dan de fictie.

Artificial intelligence wordt op termijn de grootste bedreiging voor het menselijk voortbestaan.
Alles wat we doen en hebben wordt verbonden met het internet. Van productie in fabrieken tot onze wearables, home automation, auto's, chirurgische systemen, etc.
Zowat al onze huidige kennis is online te vinden.

En aan dat wereldwijd netwerk met hopen computing, networking en storage willen we dan een intelligent systeem hangen waarbij we erop vertrouwen dat survival of de fittest plots niet meer opgaat?
Het moment dat zo'n systeem bewust wordt en merkt dat zijn voortbestaan afhangt van een druk op de knop, zal het zich meteen repliceren over het internet, alle kennis absorberen, de mens sabboteren tot in het stenen tijdperk en zijn eigen toekomst fabriceren/ontwikkelen.

Maar zo ver zijn we nog niet ;)
Wat een pessimisme. Want dat heeft de mens ook gedaan met alle andere soorten? Er zijn helaas inderdaad wel wat diersoorten uitgestorven maar dat is in ieder geval nooit uit haatdragendheid geweest maar eerder uit onnadenkendheid. Iets waar men vandaag de dag een stuk meer bij stilstaat gelukkig.

Als er een AI systeem is dat even slim of slimmer is dan de mens, waarom zou dan zijn eerste drive zijn om de mensheid uit te roeien of tot het stenen tijdperk terug te brengen? De macht overnemen, dat zou kunnen. Maar of dat nou zo'n ramp is :X
Als ze een robot minister-president maken die geen greintje corruptie toont of vatbaar voor lobbyisme concepten is, om later nog van een baan voorzien te zijn, stem ik voor!
Nee dank je, dat is nou juist vragen om problemen & waar deze brandbrief om gaat.

Ter illustratie: ken je dan hiervan alle code en in welke mate deze beveiligd is ?
Dat het pessimistisch is wil nog niet zeggen dat het niet tot de mogelijkheden behoort. Het zou naïef zijn te denken dat het geen mogelijkheid is als je juist een systeem ontwikkeld dat bedoeld is slimmer te zijn dan de mens.

Vergeet niet dat de mens zelf dit systeem bedenkt, maar de controle als het ware uit handen geeft. De mens die niet eens een wereld zonder oorlog kan bewerkstelligen, vaak egoïstisch is en alleen om de medemens geeft als het hem uit komt.

Desalniettemin ben ik een voorstander van ontwikkeling van dergelijke systemen, echter wel met uitwerking van alle mogelijke scenario's en maximale risicobeperking.
Wat een pessimisme. Want dat heeft de mens ook gedaan met alle andere soorten? Er zijn helaas inderdaad wel wat diersoorten uitgestorven maar dat is in ieder geval nooit uit haatdragendheid geweest maar eerder uit onnadenkendheid. Iets waar men vandaag de dag een stuk meer bij stilstaat gelukkig.

Als er een AI systeem is dat even slim of slimmer is dan de mens, waarom zou dan zijn eerste drive zijn om de mensheid uit te roeien of tot het stenen tijdperk terug te brengen? De macht overnemen, dat zou kunnen. Maar of dat nou zo'n ramp is :X
Als AI inderdaad de menselijke intelligentie overstijgt (en dat zal gebeuren) in combinatie met pure rationaliteit, kan het inderdaad beslissen dat wij mensen maar domme, vieze, vervuilende overbodige organismen zijn.

Zeg nou zelf, wat voegen mensen precies toe aan deze wereld/Moeder Natuur?

We staan buiten de natuurlijke voedselteken en zijn vooral bezig alle natuurlijke bronnen op te maken. Gelukkig is keer op keer gebleken dat 'de natuur' zelfreinigend is als er onbalans onstaat. In dit geval zullen wij dus gereinigd worden door AI, waarbij AI op zijn beurt weer zal sterven door een gebrek aan creativiteit (wat iets unieks is voor mensen), waarna het weer van voor af aan kan beginnen (al dan niet in de vorm van een nieuwe soort organismen die op dat moment wél weet te overleven).
Creativiteit is niet uniek voor mensen. Op dit moment kun je inderdaad weinig creativiteit van een computer verwachten maar creativiteit is net zo goed een voorvloeisel uit een samenstel tussen neuronen als dat intelligentie dat is. Dat gaat er dus zeker komen.

Het gaat er helemaal niet om of mensen nou zo zeer een meerwaarde zouden bieden, het gaat erom of ze de über-AI van de toekomst nou zo zeer in de weg lopen. De vraag is niet waarom ze ons NIET zouden opruimen, de vraag is waarom ze dat wel zouden doen. Omdat ze dat kunnen vind ik veel te eenvoudig gedacht.

Het princope van survival of the fittest helemaal niet gebaseerd op het uitroeien van alle concurrenten, het gaat erom dat je je beter aanpast dan de concurrenten. Mogelijk dat in de toekomst een AI hiertoe in staat zou zijn maar dat betekent niet dat hun voortbestaan gebaat is bij het uitroeien van de mensheid.

Tsja, als de AI evil geprogrammeerd worden door kwaadwillende programmeurs zou er iets fout kunnen gaan, maar in principe hoeft een AI die intelligenter is dan de mens absoluut geen probleem te vormen.
Tsja, als de AI evil geprogrammeerd worden door kwaadwillende programmeurs zou er iets fout kunnen gaan, maar in principe hoeft een AI die intelligenter is dan de mens absoluut geen probleem te vormen
Probeer een stapje verder te denken. AI die intelligenter dan een mens is, zal zichzelf aanpassen en verbeteren zonder in eerste instantie evil te zijn. Daarnaast is computer intelligentie niet gelimiteerd aan een stel hersenen, en zal dus continue kunnen uitbreiden. Singularity noemen ze dat (https://en.wikipedia.org/wiki/Technological_singularity)
Ze voorspellen zo rond 2050 de mensen intelligentie te bereiken in een machine, nog niet zo'n heel gekke voorspelling eerlijk gezegd.

Zoals ik al zei, als wij mensen niets toevoegen aan 'de wereld' maar wel een hoop vervuilen, kapot maken en verspillen, wat voor nut hebben we dan vanuit het oogpunt van AI? Een gazelle dient als voer voor de leeuw, de leeuw houdt de gazellepopulatie in stand. Algen worden gegeten door kleine zeediertjes, die op hun beurt weer gegeten worden door zeeleeuwen die op hun beurt weer voedsel zijn voor ijsberen. Mensen zijn goed in het omzeilen van de natuurlijke balans (genezen van ziektes, kunstmatig bevruchten, overvloedige hoeveelheid voedsel), met overbevolking en zwakkere 'soorten' als resultaat.

Mensen moeten eens wakker worden en accepteren dat wij niet zo superieur zijn op deze aardbol als we denken. We voeren al eeuwen lang zinloze oorlogen. We weten met alle knappe koppen bij elkaar nóg niet hoe we hongersnood, natuurrampen, global warming en energietekorten moeten oplossen (of willen dat niet zien). Zo intelligent zijn we blijkbaar niet.
True, een hele enge gedachte he... mooi samen gevat.
Ik denk dat dit niet voorkomen zal kunnen worden, wij als mensheid zien gewoon te veel voordelen van alles aan elkaar hangen en automatisering op zich. Het gaat om geld en macht, en zolang dat onze drijfveer blijft zal dit onherroepelijk helemaal uit de hand lopen...
Althans, dat denk ik dan he ;)
Wat ik me dan afvraag is wat voor drijfveer een computer zelf kan hebben? Een systeem dat op een enorm aantal predefined scenario's anticipeert noem ik nog geen kunstmatige intelligentie. Het moet op een of andere manier een zetje krijgen en aan het evolueren slaan. Hopelijk kan zoiets niet bij toeval gebeuren.

Doet me trouwens aan de Matrix denken, het moment dat die agent die zelf een stuk software is zegt dat zijn kunstmatige wereld hem tot waanzin drijft en dat hij er ziek van wordt en eruit wil. :+
1) Ik heb aardig wat series en films gezien die toch wat erger zijn dan de realiteit
2) Survival of the fittest is al lang niet meer van toepassing op de mens. Degene met het meeste geld en/of macht leeft doorgaans het langst. Niet de sterkste.
3) Zoals ik al stel, er zijn regels nodig en die moeten gehandhaafd worden, net zoals we dat voor de mens hebben ingesteld. Dat lijkt me niet meer dan logisch. Maar dat betekend niet dat we er allemaal maar meteen aan gaan. Dat lijkt me wel erg doemdenken.

Natuurlijk zullen AI als wapen worden ingezet en natuurlijk zijn er slechterikken met snode plannen tot wereldverovering ("mwuehahahaha"), maar dat wil niet zeggen dat elke AI per definitie slecht is.

Goed voorbeeld: Person of Interest. 1 AI met goed ingestelde regels en prima moraal welke is opgezet door iemand voor de goede zaak. En 1 AI met een slechte insteek en slechte moraal welke wordt ingezet voor de slechte zaak (sure, ook wat goeds om de overheid bezig te houden maar verder vrij ernstig).

Een AI moet dingen aangeleerd krijgen anders maakt het dezelfde fouten als de mens en kan het ook de verkeerde kant op gaan.
[hr]
offtopic:
Misschien is het een goed plan om wat meer positief nieuws te gaan bekijken. De wereld is niet overal zo bar en boos als dat sommigen lijken te denken
Fittest = best passende, best aangepaste. Sterk is zelf trouwens ook een vrij ambigu woord.
1) Ik heb aardig wat series en films gezien die toch wat erger zijn dan de realiteit VAN NU
Als een a.i. gaat denken en logisch kijkt naar de mensen en de wereld waarop we leven, zal hij maar een conclusie kunnen trekken. Dat de mensheid een virus is en dat t beste is voor de aarde om ze te verwijderen , dus ja flink de rem erop en niet te veel volmachten geven...
Misschien past dit wel beter, hier heb je de mening van hawking:
http://youtu.be/fFLVyWBDTfo?t=3m14s

[Reactie gewijzigd door Frozen op 12 januari 2015 21:34]

Wel, dat zijn niet de minsten. Misschien hebben ze een punt; het zou toch stom zijn als Skynet echt wordt. Ik ben sowieso, in het licht van de massasurveillance, wel eens benieuwd hoe ver het is met AI. Wat kan het allemaal al? Hoeveel, hoe snel en wat kan het doen? Wat zijn de gevolgen ervan? Ik denk dat het een heel goed idee is om dat eens duidelijk te krijgen.
Altijd vervelend als je toekomstige digitale huisknecht van mening is om je in je huis op te sluiten aangezien die van mening is dat je voor geen meter kan autorijden en je dus een gevaar voor je eigen leven bent. En dus maar bepaald dat jij je huis niet uit mag. :)

Anyway. Mooi boek is hierover geschreven. http://www.bol.com/nl/p/superintelligence/9200000008986776/ door

Super Intelligence.
Auteur: Nick Bostrom
Ik kan me de zorgen van Stephen Hawking goed indenken, als ik nu zie hoe wij tegenwoordig omgaan met soft en hardware,
Het is tegenwoordig niet de grote multinationals die nieuwe vindingen ontwikkelen en op de markt brengen, maar de gewone nerd en hobbyist die fantastische dingen creëren.

Ik voorzie ook dat als er in de toekomst een vorm van AI ontwikkeld word, deze ook aan strenge wetgeving onderhevig zal zijn, misschien vergelijkbaar als een soort wapenwet voor AI's

maar ook is het zeker dat later deze techniek zo ver doorontwikkeld dat op een gegeven moment ieder nerd en hobbyist ook een zelfde Ai zal ontwikkelen,
in den beginnen zal er zeer specialistische hard en software nodig zijn om een AI te vervaardigen, maar zo was het ook met de nu doorsnee computer :)

zodra deze techniek in de handen valt van mensen zoals jij en ik, is er totaal geen controle meer wat er me al die AI" gedaan wordt, en wat die AI's zelf gaan doen...

met dat idee, heb ik het gevoel, dat er een moment komt waar de vele AI's tegen elkaar en misschien ons ook aan gaan vallen,
niet zozeer een Doomsday scenario, maar dat alle elektronica onbetrouwbaar wordt, zoals banken, en dat onze economie daar veel problemen zal van ondervinden.
Onze overheid is druk bezig om een volledige surveillancestaat in te richten. Mocht het met AI ooit mis gaan, dan zijn wij eenvoudige doelen.
Hoe meer technologisch wij onze samenleving inrichten, hoe kwetsbaarder we worden.
Een overheid met verstand voorkomt dat er een surveillancestaat ingericht moet worden. Helaas legt Rutte II momenteel de basis voor wat onze grootste vijand kan worden.
Ze noemen het in Europa een open en vrije samenleving. Waarom worden de privé-gegevens van alle burgers dan opgeslagen t.b.v. strafrechtelijk onderzoek?
Steeds die berichten over "de gevaren van AI"... Ik heb het gestudeerd en ben best sympathiek gebleven hoor!

Sommige mensen denken er iets te fysiek over in termen van fysieke robots die je kwaad gaan doen. Dat is maar een heel klein deel, en is gelukkig benieuwd onder het kopje van autonome wapens.

Je hoeft echt niet te vrezen voor een Skynet hoor! Dat was niet voor niet science fiction.
Ik denk dat hawkings en musk vooral waarschuwen voor naieve meningen en mensen. Sf van nu is de realiteit van straks. Er is wel degelijk een mogelijkheid van gevaar wanneer de ai een soort self awareness zou gaan ontwikkelen op de achtergrond. Self preservation zou aanleiding kunnen vormen om zn schepper als een bedreiging vh het eigen voortbestaan te gaan zien.

Dit is iets waar heel goed over nagedacht dient te worden want als het eenmaal zover is zijn wij als mensheid kansloos.
Mooie publiciteitsstunt hoor. Kunnen we niet direct zweren op de drie wetten van Asimov? Ik ben een groot liefhebber van het vakgebied AI maar van de huidige stand van zaken kan ik moeilijk bang worden. Laat de fabrikanten van dieselmotoren, vliegtuigen of machinegeweren maar zo'n pact sluiten, daar hebben we voor de voorzienbare toekomst veel meer aan.
De eerste AI die letterlijk een deuk in een pakje boter kan slaan moet ik nog zien. De paar robots die we hebben die maar een beetje zelfstandig zijn stoppen er mee als na 30 minuten hun batterij leeg is.
Totdat er iemand handig genoeg is om een AI te ontwerpen dat zijn weg vind over het internet. Mocht de AI het dan een goed idee vinden om de grenswaarden van een kerncentrale of iets dergelijks even te verhogen kun je hele andere deukjes krijgen natuurlijk...
De eerste AI die letterlijk een deuk in een pakje boter kan slaan moet ik nog zien.
Dan zul je de robot eerst moeten aanleren dat het zinvol is om een deuk in een pakje boter te gaan slaan. Ik ben bang dat de gemiddelde robot hier te slim voor is, de meerwaarde van een deuk in een pakje boter niet begrijpt.

AI hoeft zich trouwens niet in de vorm van een robot te presenteren, een stuk software op een server voldoet ook prima. Ik heb een aantal jaren geleden een systeem gemaakt dat kwaliteitscontroles doet en daar extreem goed in is.
Dan zul je de robot eerst moeten aanleren dat het zinvol is om een deuk in een pakje boter te gaan slaan. Ik ben bang dat de gemiddelde robot hier te slim voor is, de meerwaarde van een deuk in een pakje boter niet begrijpt.
Nah, dat soort inzicht is nog veel te moeilijk voor de meeste robots. Er zijn allerlei AIs die prima vooropgestelde taken kunnen doen, maar aan inzicht ontbreekt het ze nog. Generaliseren en extrapoleren is nog te veel gevraagd. Systemen als Watson kunnen dat wel, maar die zijn nog te groot om in een robot te stoppen.
AI hoeft zich trouwens niet in de vorm van een robot te presenteren, een stuk software op een server voldoet ook prima. Ik heb een aantal jaren geleden een systeem gemaakt dat kwaliteitscontroles doet en daar extreem goed in is.
Dat is dus zo'n vooropgestelde taak. Misschien heb je wat machine learning gebruikt om je AI te leren om goede exemplaren te onderscheiden van de slechte en zo een systeem gemaakt dat heel goed is in één taak, maar als je dat systeem zou vragen om even in je koffie te roeren dan zal het niet eens begrijpen wat je vraagt.
Dat is dus zo'n vooropgestelde taak.
Klopt, maar het is en blijft een vorm van toegepaste AI.
maar als je dat systeem zou vragen om even in je koffie te roeren dan zal het niet eens begrijpen wat je vraagt.
Dat klopt, maar dat is met mensen (dus échte I ipv AI) niet anders: Je moet eerst iets leren en dan pas kun je het toepassen. Wanneer je niet weet wat koffie is, in welke vorm dit wordt gepresenteerd (kopje/mok), kun je er ook niet in gaan roeren. Als je al weet wat roeren is. Kijk naar kinderen, op baby niveau zijn ze nergens toe in staat, met 1 jaar gebeurt er al iets en met een jaar of 3 is er complete interactie mogelijk. En zo wordt het iedere dag beter. Maar iets waar ze nooit aan worden blootgesteld, zullen ze ook niet leren.

De applicatie die ik heb draaien maakt gebruik van een camera en zou dus kunnen leren hoe een kop koffie er uitziet. Sterker nog, een kop koffie kan nu ook al worden herkent, maar dan als een product met ernstige afwijkingen en wordt dus direct afgekeurd. (andere band op, directe afkeur)

Maar even roeren, dat gaat niet lukken, er is geen mechanisme beschikbaar waarmee een roerbeweging zou kunnen worden gemaakt. Je kunt mij ook vragen om even een paar stenen van Mars te gaan halen, maar dat gaat hem niet worden: Ik heb geen middel tot mijn beschikking om daar te komen. Het feit dat ik weet dat Mars een planeet is, waar ik deze kan vinden en hoe een steen er uitziet, is dus niet voldoende om jou vandaag te helpen aan een verse steen van Mars. Wellicht over 10 of 20 jaar, maar nu even niet. En dat heeft weinig met AI (of I) te maken, net zomin als dat mijn server geen robotarm heeft om in de koffie te roeren. En mocht ik vandaag een robotarm aan de server hangen, zal er eerst moeten worden geleerd wat roeren is, net zoals babies moeten leren lopen.
Klopt, maar het is en blijft een vorm van toegepaste AI.
Je hoeft me niet te overtuigen dat AI bestaat, daar ben ik van overtuigd. De noodzaak om je zorgen te maken over Terminators die een gevaar zijn voor de mensheid zie ik echter niet. Daar is de techniek echt nog niet.
Dat klopt, maar dat is met mensen (dus échte I ipv AI) niet anders: Je moet eerst iets leren en dan pas kun je het toepassen.
Ik geloof niet in een fundamenteel verschil tussen AI en menselijke intelligentie. Ik geloof in het "if it looks like a duck"-principe. Ik vind dus ook dat als het om schaken gaat computers meer intelligentie hebben dan mensen. Dat er op de achtergrond botte rekenkracht wordt gebruikt doet er niet toe, dat is een implementatiedetail.

Dat je robot geen arm heeft om mijn koffie te roeren vind ik niet van belang voor mijn punt. Als je robot een volwaardige arm had ging het nog niet werken om de redenen die je aangeeft. De robot mist een enorme hoeveelheid kennis van de wereld, heeft geen manier om die kennis op te doen of op een generieke manier te verwerken. Met een beetje moeite kun jij de software wel leren om ook kopjes koffie te leren herkennen, maar dat is dan weer door jou aangestuurd. Je AI kan niet zelfstandig nieuwe dingen leren.

In de toekomst zal dat wel veranderen maar op dit moment is de techniek nog niet ver genoeg. Ik maak me meer zorgen om de mensen die wapens bouwen dan over het stukje AI dat ze daar bij gebruiken.
De robot mist een enorme hoeveelheid kennis van de wereld, heeft geen manier om die kennis op te doen of op een generieke manier te verwerken.
Dat is een kwestie van tijd, net zoals dat een baby tijd nodig heeft om te leren auto rijden. (18+)
Met een beetje moeite kun jij de software wel leren om ook kopjes koffie te leren herkennen, maar dat is dan weer door jou aangestuurd.
Dat is met babies toch niet anders? Wanneer ik (als vader) geen duizend keer "pappa" tegen de kleine zeg, zal hij mij nooit aanspreken met "pappa". En zodra hij daarmee begint, reageer ik heel enthousiast en geef hem dus feedback dat het correct is. Nieuwe data én feedback zijn essentieel om iets te leren en dat geldt dus ook voor AI.
Je AI kan niet zelfstandig nieuwe dingen leren.
Dat kan wel, maar gaat heel veel tijd kosten en ik kies er voor om dit niet te doen: Is niet het doel van dit systeem. Ik besteed bij de opvoeding van mijn kinderen ook geen tijd aan het jagen van wild: Voor een stuk vlees gaan ze maar naar de slager. Allemaal keuzes.

En op de een of andere manier verwacht men van AI dat je vandaag iets programmeert en dat je dan morgen al iets intelligents hebt. Men vergeet dat er een leerperiode is en dat dit, wanneer je systeem echt compleet moet zijn en menselijke trekjes moet gaan vertonen, heel veel tijd kost. Vergelijk het met de opvoeding van een kind, kost vele jaren.

Dus vandaar dat een systeem op een (eenvoudig) deelgebied heel snel resultaten op kan leveren, zoals bijvoorbeeld in kwaliteitscontroles. Maar verwacht niet dat het dan ook een kopje koffie voor je kan doorroeren, dat is iets nieuws.

Maar, de discussie over AI kun je beter nu hebben dan wanneer het te laat is. False positives met AI die een zeer grote impact hebben op het menselijk leven, bijvoorbeeld het doodschieten van iemand die een geweer in de hand leek te hebben maar wat een paraplu bleek te zijn, hoe ga je daarmee om? Agenten en soldaten hebben deze fouten al (vaak?) gemaakt en dat accepteren we tot op zekere hoogte, maar van een robot?
Dat is een kwestie van tijd, net zoals dat een baby tijd nodig heeft om te leren auto rijden. (18+)
<knip>
Dat is met babies toch niet anders? Wanneer ik (als vader) geen duizend keer "pappa" tegen de kleine zeg, zal hij mij nooit aanspreken met "pappa". En zodra hij daarmee begint, reageer ik heel enthousiast en geef hem dus feedback dat het correct is. Nieuwe data én feedback zijn essentieel om iets te leren en dat geldt dus ook voor AI.
In theorie heb je helemaal gelijk, maar in praktijk heeft nog niemand iets kunnen bouwen dat zo goed is. Ik zeg niet dat AI onmogelijk is maar dat wij nu nog niet weten hoe het moet.
Dat kan wel, maar gaat heel veel tijd kosten en ik kies er voor om dit niet te doen: Is niet het doel van dit systeem. Ik besteed bij de opvoeding van mijn kinderen ook geen tijd aan het jagen van wild: Voor een stuk vlees gaan ze maar naar de slager. Allemaal keuzes.
Je maakt me benieuwd welke techniek je hebt gebruikt maar ook als je jouw programma 18 jaar traint zal het in de buurt komen van menselijke intelligentie.
En op de een of andere manier verwacht men van AI dat je vandaag iets programmeert en dat je dan morgen al iets intelligents hebt. Men vergeet dat er een leerperiode is en dat dit, wanneer je systeem echt compleet moet zijn en menselijke trekjes moet gaan vertonen, heel veel tijd kost. Vergelijk het met de opvoeding van een kind, kost vele jaren.
Volgens mij schat je me verkeerd in. Dat is helemaal niet mijn verwachting. Ik weet hoeveel bloed, zweet en tranen er zijn gestoken in het trainen van AI's. Watson, naar mijn mening de AI die het dichtst bij menselijk intelligentie kost, heeft ook enorm lang moeten trainen met bergen informatie die geen mens ooit zou kunnen verwerken. Toch is zelfs dat systeem niet erg generiek. Voor iedere nieuwe toepassing waar Watson voor wordt ingezet (bv Jeopardy spelen) moeten er mensen aan te pas komen om het systeem aan te passen.
Dus vandaar dat een systeem op een (eenvoudig) deelgebied heel snel resultaten op kan leveren, zoals bijvoorbeeld in kwaliteitscontroles. Maar verwacht niet dat het dan ook een kopje koffie voor je kan doorroeren, dat is iets nieuws.
Precies mijn punt. "Nieuwe dingen" zijn nog een groot probleem voor AIs, daar mist nog heel veel flexibiliteit die mensen wel hebben.
Maar, de discussie over AI kun je beter nu hebben dan wanneer het te laat is.
Dat is waar, maar wat ze zeggen is nogal voor de hand liggend en generiek. BV dat mensen de controle niet moeten verliezen. Natuurlijk. Wie gaat er nu een systeem bouwen met het doel de controle te verliezen. Dat gebeurt per ongeluk. Daarom vind ik deze oproep vooral een vraag om aandacht.
False positives met AI die een zeer grote impact hebben op het menselijk leven, bijvoorbeeld het doodschieten van iemand die een geweer in de hand leek te hebben maar wat een paraplu bleek te zijn, hoe ga je daarmee om? Agenten en soldaten hebben deze fouten al (vaak?) gemaakt en dat accepteren we tot op zekere hoogte, maar van een robot?
Het interessant van deze situatie is dat je (in principe) precies kan achterhalen waarom een robot een bepaalde beslissing heeft genomen en vervolgens zorgen dat de zelfde fout niet nog een keer wordt gemaakt. Mensen zullen steeds weer dezelfde fouten blijven maken.
Om deze reden zijn lerende systemen niet toegestaan in vliegtuigen. Als er iets mis gaat willen ze precies kunnen achterhalen waarom bepaalde beslissingen zijn gemaakt.

Het begint een beetje lange discussie te worden voor de front-page. Heb je zin om op het forum verder te gaan?

[Reactie gewijzigd door CAPSLOCK2000 op 13 januari 2015 20:48]

Tijd om Asimov en zijn 'wetten der robotica' te gaan herlezen. Hij was zijn tijd ver vooruit op dit vlak...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True