'Doemscenario's over ai als gevaar voor de mens zijn hoogst onwaarschijnlijk'

Alan Winfield, een Britse hoogleraar robotica, vindt dat het idee van kunstmatige intelligentie als gevaar voor de mensheid ver is verwijderd van de realiteit. Hij vindt de pessimistische visie van bijvoorbeeld Stephen Hawking 'hoogst onbehulpzaam' in het debat hierover.

Winfield stelt dat we moeten waken voor wat hij 'artificial stupidity' noemt. Volgens hem zijn de voorspellingen dat kunstmatige intelligentie op termijn de mensheid zou kunnen uitroeien, pure fictie. De hoogleraar vindt dat mensen zich in deze discussie te veel laten leiden door sciencefictionfilms, en door angst en fascinatie, maar het heeft volgens hem weinig met de realiteit te maken. Hij zegt dat er maar een heel kleine kans is dat het doemscenario werkelijkheid wordt.

Volgens de professor hoeven we niet bang te zijn voor een scenario uit de Terminator-films, maar zijn er wel veel andere punten waar we ons zorgen over moeten maken en die aandacht verdienen. Zo vindt hij het zorgelijk dat er bijvoorbeeld banen gaan verdwijnen door ai. Verder vindt hij dat er meer aandacht moet komen voor bijvoorbeeld onderwerpen als volledig door ai gestuurde wapens, standaarden in zelfrijdende auto's, zorgrobots en diagnostische ai-tools in de zorg. Dit zijn volgens hem problemen van het hier en nu, die deels spelen omdat ai volgens hem niet zo heel intelligent is.

De Engelse natuurkundige Stephen Hawking heeft eerder zijn zorgen over kunstmatige intelligentie geuit. Volgens hem is technologie in de toekomst mogelijk in staat om ons allemaal te vernietigen. Hawking stelt dat technologie zich dermate snel ontwikkelt dat er een kans bestaat dat kunstmatige intelligentie de mensheid uitroeit via een nucleaire oorlog.

Een andere Britse hoogleraar, Mark Bishop, deelt de optimistische visie van Winfield. Deze professor computerwetenschap zei eerder dat intelligentie zijn beperkingen heeft, in de zin dat ai de wereld niet begrijpt. Volgens hem kan kunstmatige intelligentie wel zaken aanpassen en patronen herkennen, maar mist ai bijvoorbeeld wiskundig inzicht. Ook kunnen computers volgens de professor niet goed overweg met menselijke gevoelens en emoties, en kunnen computers kennis niet volledig doorgronden of begrijpen. Bovendien stelt Bishop dat voor computers niets belangrijk is; volgens Bishop geven computers daardoor geen voorrang aan een bepaalde taak ten koste van een andere.

Door Joris Jansen

Redacteur

31-10-2017 • 16:42

160 Linkedin

Lees meer

Stephen Hawking is overleden Nieuws van 14 maart 2018

Reacties (160)

160
155
71
15
2
59
Wijzig sortering
Collega Winfield heeft volledig gelijk.

Wij hebben in de AI community even veel idee over wat er nodig is om "echte" Kunstmatige Intelligentie te ontwikkelen (general AI), het type waar doemscenario's zoals die van Must en Hawking over gaan, als we hebben over hoe onze intelligentie precies werkt. Het zou niet minder dan een wonder zijn als wij binnen nu en 50 jaar verder zijn op dit vlak.

De gevolgen van "domme" AI zijn echter nu al te merken. Banen verdwijnen (ik ontwikkel dagelijks systemen waardoor veel meer kan met veel minder mensen), en regeringen met geautomatiseerde legers hebben geen politieke kosten meer om oorlog te voeren, gezien er geen lijkzakken thuiskomen als ze weer eens ergens een interventie hebben bedacht. Dit is op alle relevante vlakken - economie, maatschappij en veiligheid - ontzettend destabiliserend!

Er is NU actie vereist om dit politiek af te kaarten. Doemscenario's zoals die van Musk en Hawking zijn zowel irrelevant, en leiden af van wat NU speelt!
Je kijkt niet verder dan je vakgebied ruim is, lijkt het zo.

- Wie zegt dat landen met geautomatiseerde legers er niet ineens voor kiezen om mensen uit te gaan roeien? We hebben nu al grote problemen met terreur waar de aanslagplegers geen probleem hebben zichzelf op te offeren, dat zal bij AI legers al helemaal weg zijn.

- "Domme" AI, is netzo AI als "slimme" AI, ik denk zelfs dat in de beginfase we veel meer te maken zullen krijgen met domme ontwikkelingen dan goed doordachte en dat we netzoals ontwikkelingen als de auto en vliegtuig door schade en schande wijs moeten worden over wat veilig is. De potentiele impact bij AI is alleen wat hoger.

Dus nee, het debat moeten we zeker niet afdoen en al helemaal niet door de ontwikkelaars zelf die er uiteraard met volle enthousiasme erover denken.
Ik geloof dat je niet begrepen hebt wat brunoj zegt.

Hij heeft het over "domme AI". Ik denk dat hij bedoelt: AI die helpt om dom werk te automatiseren. De eerste golven van de automatisering deden datgene waar computers goed in zijn: rekenen, boekhouden, gegevens onthouden. Daar is geen AI voor nodig. Later zag je langzaam AI die simpele dingen kan: flessen herkennen, zodat het inleveren van flessen bij de supermarkt ge-automatiseerd kan gebeuren. Deze vorm van automatisering gaat langzaam verder. En er zullen minder banen nodig zijn. Maar dit gaat langzaam omdat: 1) al het laaghangend fruit al is weggenomen, 2) geavanceerde AI toch erg moeilijk is.

Dit ziet brunoj als punt dat aandacht nodig heeft van de politiek. Ik ben het met hem eens. De politiek denkt nog net als na de oorlog: "als we genoeg banen scheppen voor iedereen, dan komt alles goed". Dat werkt vandaag al niet meer. En in de toekomst helemaal niet meer.

Het tweede punt zijn de geautomatiseerde legers. Dat zien jullie beide als probleem. En ik ook. Dus daar zijn we het over eens. We hebben een totaal verbod op chemische wapens. We hebben een soort van verbod op nucleaire wapons (behalve voor de gevaarlijkste spelers, die mogen wel, om whatever reden). Wat nodig is, is ook een verbod op geautomatiseerde strijders. Automatische oorlogsvoering. Geheel gestuurd en geintieerd door mensen. Maar uitgevochten door robots met AI. En waarschijnlijk gaan die robots niet alleen tegen andere robots vechten, maar vooral ook tegen mensen. Hoe dat kan uitpakken kun je in RoboCop zien. :)

Dus eigenlijk zijn jullie het wel met elkaar eens, denk ik.

Al die doemscenarios worden volgens mij vooral geschetst door "experts" die zelf nog nooit een regel hebben geprogrammeerd.

[Reactie gewijzigd door 280562 op 31 oktober 2017 18:05]

Dus jij denkt dat Bill Gates en Elon Musk nog nooit geprogrammeerd hebben? 8)7

Maar ik snap de comment van Brunoj totaal niet, aan de ene kant schuift hij de terechte kritiek op AI af als "doemscenario's" en aan de andere kant is hij wel bang voor automatische oorlogsvoering. Dat lijkt mij toch een aardig doemscenario. Er zijn overigens al genoeg militaire drones op de markt die heel veel taken zelf uit kunnen voeren.
Zie het woordje: "vooral". Dat betekent iets anders dan "altijd".

Eerste hit in Google: "Gates is het niet eens met Musk, en vind dat het wel mee valt".
https://www.cnbc.com/2017...ldnt-panic-about-a-i.html
Aanrader: https://www.samharris.org...he-future-of-intelligence

Sam Harris zijn podcast over dit onderwerp met expert: Max Erik Tegmark[1] (born Max Shapiro[2][3] 5 May 1967) is a Swedish-American cosmologist. Tegmark is a professor at the Massachusetts Institute of Technology and the scientific director of the Foundational Questions Institute. He is also a co-founder of the Future of Life Institute, and has accepted donations from Elon Musk to investigate existential risk from advanced artificial intelligence.[4][5][6] - wiki

[Reactie gewijzigd door DeBranderMan op 1 november 2017 11:45]

- Wie zegt dat landen met geautomatiseerde legers er niet ineens voor kiezen om mensen uit te gaan roeien? We hebben nu al grote problemen met terreur waar de aanslagplegers geen probleem hebben zichzelf op te offeren, dat zal bij AI legers al helemaal weg zijn.
Zo'n KI-leger kan een hoop ellende veroorzaken en kan wellicht in hetzelfde rijtje als kernbommen en chemische wapens geplaatst worden, waarmee je ook grote hoeveelheden mensen kunt uitroeien. Dat betekent echter nog niet dat zo'n leger een bedreiging is voor de mensheid. Dat gaat pas gebeuren als machines daadwerkelijk intelligent worden, denk aan een bewustzijn krijgen waarmee ze zelfstandig kunnen denken. De huidige KI-hype heeft niets met een bewustzijn te maken, maar vooral met meerlaags perceptrons combineren met brute rekenkracht. Daar kan je leuke dingen mee doen, maar een bewustzijn zal je er nooit mee scheppen.
- "Domme" AI, is netzo AI als "slimme" AI, ik denk zelfs dat in de beginfase we veel meer te maken zullen krijgen met domme ontwikkelingen dan goed doordachte en dat we netzoals ontwikkelingen als de auto en vliegtuig door schade en schande wijs moeten worden over wat veilig is. De potentiele impact bij AI is alleen wat hoger.
Ik vind dat toch wel veel te kort door de bocht. Onder kunstmatige intelligentie wordt alles verstaan van de door de computer bestuurde spoken in Pacman tot aan zelfdenkende intelligente robots. Tussen die twee uitersten zit een gigantische afstand. De spoken in Pacman zijn geen bedreiging voor de mensheid. De systemen waarmee de post postcodes leest op brieven zijn bijvoorbeeld al heel wat geavanceerder dan de spoken in pacman, maar nog altijd is de toepassing totaal onschuldig. Je zult dus echt moeten nadenken over welke vormen van KI potentieel gevaarlijk kunnen zijn.
“Dat betekent echter nog niet dat zo'n leger een bedreiging is voor de mensheid. Dat gaat pas gebeuren als machines daadwerkelijk intelligent worden, denk aan een bewustzijn krijgen waarmee ze zelfstandig kunnen denken.“

Ik denk dat ‘domme’ of ‘slimme’ ai niet relevant is. Het gevaar ontstaat mi als de ai zichzelf kan repliceren.

Edit: tekst verduidelijkt

[Reactie gewijzigd door FJB op 31 oktober 2017 20:58]

Zoals een botnet?
In mijn reactie verwijs ik naar “leger”. Botnets zijn ook gevaarlijk, maar op een andere manier
Snap ik, dacht alleen dat botnet's ook de basics van KI beheersen. Wanneer het kan probeer jezelf te vermenigvuldigen.
Klopt, en ik kan me ook situaties voorstellen waarin ze (fysiek) gevaarlijk zijn voor mensen (oa ziekenhuizen, elektriciteitsvoorziening, etc)
Off topic. Maar gebruik AI en niet KI. KI is in het Nederlands een veelgebruikte afkorting voor Kunstmatige Inseminatie. En als dat steeds invult voor elk gebruik van de afkorting wordt de lezer erg afgeleid.

On topic. Winfield heeft een punt. Toen de eerste treinen gingen rijden waren mensen ook bang. Deels is het angst voor het onbekende. Pas als er echte AI gemaakt wordt ooit die in staat is om zichzelf te vermenigvuldigen en die de beschikbaarheid heeft over actuatoren of anderszins de buitenwereld kan manipuleren hoeven we ons pas zorgen te maken. Ik denk dat er voor die tijd genoeg voortekenen zijn en voldoende kansen om in te grijpen om de eenvoudige reden dat zo'n systeem niet vanaf dag 0 perfect zal zijn.
Toen de eerste auto's gingen rijden voorspelde een parlementariër: "Dit gaat veel doden opleveren". Deze voorspelling is uitgekomen. We zijn intussen gewend aan 600 - 700 verkeersdoden per jaar.

Voor AI kan hetzelfde gaan gelden. Eigenlijk zijn we al gewend aan doden door een vorm van zeer domme AI zoals drones die hier en daar wat nomaden uitroeien ... Vanachter een console vergeten we vaak dat het altijd mensen betreft die slachtoffers zijn.
Ik ben het helemaal met je eens,...je kan nu al voor een paar euro een ddos attack krijgen, 1 miljard spam mails per uur, enzovoorts....wat nou als je gewoon 1 of andere ai robot kan kopen met je creditcard en daar de meest debiele aanslagen mee kan plegen....?!

1 troost, dat hele neurale gebeuren is ultra complex, ik hoop dat het voorlopig zo blijft, de wereld gaat al in een stroomversnelling en als je elke dag het nieuws leest wordt het er allemaal niet beter op....
Voor een paar duizend euro kun je een huurmoordenaar iemand uit de weg laten ruimen. Toch gebeurt dat ook nauwelijks. Ik twijfel er aan of het risico specifiek uit deze hoek zou komen.
Je kijkt niet verder dan je vakgebied ruim is, lijkt het zo.
Als zijn vakgebied ai is lijkt me daar niks mis mee...
- Wie zegt dat landen met geautomatiseerde legers er niet ineens voor kiezen om mensen uit te gaan roeien?
Wie zegt dat landen met kernwapens niet hetzelfde doen? Dat is al 70 jaar een realiteit, maar die schat je blijkbaar minder erg in dan de hypothetische ai die mogelijks nooit zal bestaan
Dus nee, het debat moeten we zeker niet afdoen en al helemaal niet door de ontwikkelaars zelf die er uiteraard met volle enthousiasme erover denken.
Nee, laten we vooral aan elke mening - onderbouwd of niet - evenveel waarde hechten!
Off-topic:
Nee, laten we vooral aan elke mening - onderbouwd of niet - evenveel waarde hechten!
Ja, en nee.

Ja: In een gezonde discussie kunnen, en moeten zelfs alle meningen geuit en besproken worden. Alleen dan heb je een kans om alle gedachtes en gevoelens die de grondslag vormen voor die meningen te achterhalen.

Nee: Om tot een goede eindconclusie te komen kun je alleen iets doen met goed onderbouwde meningen. Meningen waar na een goede discussie geen onderbouwing voor naar boven komt zijn uiteindelijk slechts geblaat in de ruimte waar je verder niks mee kunt.
Maar wij zijn het met elkaar eens!

Met "domme AI" is het - voor mensen! - mogelijk om enorme ellende aan te richten, en of dit gebeurt hangt volledig af van wie het controleert.

Dit is een POLITIEKE keuze, en daarom ageer ik voor politieke actie, en wel NU.

Waar Musk en Hawking het echter over hebben is dat de AI ZELF (dus, autonoom en uit eigen beweging) ervoor kiest om ons uit te roeien. Voor DAT soort AI hoeven wij niet bang te zijn; deze is pakweg sinds 1954 "om de hoek" en "tien jaar van ons verwijderd", en hetzelfde element ontbreekt al die tijd - een fundamentele stap vooruit in het begrijpen van wat intelligentie is. Het grootste deel van de recente vooruitgang in de AI is dan ook te danken aan snellere computers, waardoor oude methodes en theoriën (deep learning bv., heeft zijn theorethische oorsprong in de jaren 1950, met de eerste praktische demonstraties in de jaren 1970) ineens wél op een praktische manier ingezet kunnen worden. Er is, fundamenteel, geen fundamenteel significante stap gezet in de afgelopen 70 jaar AI onderzoek richting general AI. Dit betekent niet dat het niet kan, maar dat we een hoop kennis ontbreken over HOE.

Op het moment dat de publiek bang wordt gemaakt voor een AI van morgen, waarvan we dus geen idee hebben over hoe we dat zouden moeten aanvliegen, verlagen we het belang van de AI van vandaag en van al het goeds en slechts wat daarmee bereikt kan worden.

Ik vrees de mens met de machine veel meer dan de machine zelf.
Doemscenario's zijn een hulpmiddel om in te schatten of je NU al actie moet ondernemen. Het staat los van de andere gevaren/gevolgen van domme AI. Je kan ze beide onderzoeken.

En misschien heb je helemaal geen idee nodig hoe general Ai gemaakt kan worden en/of een idee hebben hoe onze eigen intelligentie werkt. Er zou zomaar perongeluk iets ontwikkeld kunnen worden dat (onwetend) het startschot geeft voor echte AI, misschien ook niet, misschine kunnen we er op tijd de stekker uit trekken. Dat wij niet weten hoe iets werkt (heel veel uitvindingen worden zo gedaan he) wil niet zeggen dat het niet kan gebeuren... Ik blijf 'gezond' sceptisch.
Er zou zomaar perongeluk iets ontwikkeld kunnen worden dat (onwetend) het startschot geeft voor echte AI,
Ik ben geen specialist, maar dit klinkt een beetje als een puzzeldoos omhoog gooien en hopen dat de gemaakte puzzel op de grond valt
Denk dat de analogie eerder is dat je per ongeluk een aantal chemicaliën in de juiste verhoudingen bij elkaar gooit en een explosie veroorzaakt. Het punt met 'echte' AI is dat het er ineens is en dan gelijk kritische massa kan bereiken.

Op dit moment is dat niet zo'n probleem, we hebben weliswaar AI die eigen talen ontwikkeld of eigen encryptie algoritme (ongevraagd, dus niet op verzoek van een mens), maar de hoeveelheid resources (CPU, etc.) die daarvoor nodig zijn, zijn zo groot (en dus duur) dat het zo'n vaart nog niet loopt. Maar dit is zeker geen vast gegeven met Moore's law in het achterhoofd en zeker met een heel erg onveilig internet-of-things.
Anoniem: 435630
@NLxAROSA1 november 2017 05:25
Precies, een hoop mensen kijken naar nu en gaan dan rekenen met de hardware en software die nu beschikbaar is. Echter loopt als kwadratisch op de laatste jaren. We hebben op dit moment gewoon nog geen idee waar hardware qua cpu resources over tien jaar toe in staat is. En zaken als, ja maar, AI is zo slim nog niet, dit zal ongetwijfeld veel sneller gaan dan menig zal inschatten, het gevaar komt wanneer het lukt om AI zo te maken dat er geen limiet zit op het lerend vermogen, dus ook op wiskundig, moreel, noem het maar op, gebied. Hoelang word er nu echt gespeeld met AI? Dit zou dus zomaar al over een paar jaar kunnen zijn...
In mijn ogen hebben Hawking en Musk dan ook helemaal gelijk in te zeggen dat er nu regulatie moet komen en steekt de rest gewoon zijn kop in het zand of zien gewoon de ongelooflijke snelheid van ontwikkelingen tegenwoordig niet.

[Reactie gewijzigd door Anoniem: 435630 op 1 november 2017 05:29]

Ik zie in deze discussie ook dat de mensen die geen gevaar zien er steevast vanuit gaan dat computers en software op een vergelijkbare manier blijven werken als nu. Dus met 1-en en 0-en en niks daartussen in...
Ik geloof dat we ooit iets gaan vinden dat niet alleen 1 en 0 kent, maar ook iedere denkbare waarde daartussenin. En dan kan een computer dus ineens wel redeneren... Want het niet waar of onwaar, maar ook misschien waar, of half waar? of bijna waar? En dan gaat die computer misschien daarop actie ondernemen - of misschien ook niet? En afhankelijk van de uitkomst doet hij dat een volgende keer anders?
En waarom zou die computer dan niet op enig punt een bewustzijn ontwikkelen, misschien emoties ervaren? enzovoorts....|
Zeker weten dat dat allemaal nog lang niet aan de orde is! Maar als we het hebben over AI hebben we het niet over de komende 25 jaar... maar eerder over de komende 250 jaar en verder...
Alleen moet je er dan wel even van uit gaan dat er nu al AIs bestaan die zichzelf kunnen aanpassen. Je analogie klopt, maar je vergeet dat die puzzel waarmee je gooit in staat is zichzelf in elkaar te zetten.
Ik ben geen specialist, maar dit klinkt een beetje als een puzzeldoos omhoog gooien en hopen dat de gemaakte puzzel op de grond valt
Een mooie analogie. Een kleine verfijning zou je kunnen maken door te stellen dat de puzzel niet één, maar oneindig veel mogelijke oplossingen heeft.

Je gooit je doos omhoog, wacht tot alle puzzelstukjes op de grond liggen en kijkt naar het plaatje. Het kan zijn dat dit plaatje overeenkomt met wat je oorspronkelijk in gedachte had. Het is echter ook zeker mogelijk dat je een ander plaatje ziet. En de laatste mogelijkheid, dat je geen plaatje ziet is ook gewoon een plaatje, het is alleen een plaatje dat je niet begrijpt.

De meest waarschijnlijke uitkomst is dat je niet krijgt wat je had verwacht. En op deze manier zijn talloze ontdekkingen gedaan. Op deze manier leer je ook nieuwe dingen. Als ieder experiment dat je doet namenlijk het verwachte resultaat oplevert bevestigd dat alleen maar je reeds bestaande ideëen en kom je nooit tot nieuwe inzichten.

Dit essentiele aspect, de intrinsieke onvoorspelbaarheid,van research, word in deze hele discussie vaak onderbelicht. Je kunt niet altijd voorspellen wat er gebeurt. Ook niet in geval van computer code/systemen (denk maar aan software bugs, hardware storingen of er komt onverwachte input die het systeem niet kan verwerken).
Destabiliserend suggereert dat er iets stabiel is op de wereld. Niks is stabiel. Het is een grote chaos die continu verandert.

Banen verdwijnen. Mooi, misschien hoeven onze kleinkinderen niet meer 5 van de 7 dagen op een grijs kantoor te zitten, maar zijn ze vrij om zaken te doen die de wereld een betere plek maken omdat de techniek ervoor zorgt dat in al hun basisbehoeften wordt voorzien. Net zoals wij niet meer 6 of 7 dagen in een kolenmijn hoeven te werken.

Zoals ik het zie kan AI juist de mensheid redden. Waarom? De mensheid is zo kortzichtig als de pest. Een paar jaar is al lang voor ons, dus de meeste beslissingen die we nemen zijn voor de korte termijn. Laat staan dat we ons inzetten voor zaken die pas na onze dood zouden kunnen optreden. Denk aan het klimaat en het milieu. Het is voor ons prima om onomkeerbare schade aan onze leefomgeving toe te brengen als we daar op korte termijn van profiteren. Een tropisch regenwoud met unieke dieren is niks vergeleken met wat centen in je zak.

Goede AI zou ons kunnen waarschuwen voor de zaken die we doen. En daar ga je vanzelf op vertrouwen, net zoals we dat doen wanneer systemen ons waarschuwen voor natuurrampen.

Goede AI zou juist met een betere en eerlijke oplossing voor een conflict moeten kunnen komen dan dat wij zelf doen. Misschien ziet deze de verbanden beter zodat je geen landen platbombardeert en vervolgens klaagt als er vluchtelingen je land binnenkomen omdat ze vrezen voor hun leven. Misschien voorkom je op die manier juist oorlogen. Wat als de AI je vooraf vertelt hoeveel mensen er komen te overlijden?

[Reactie gewijzigd door BarôZZa op 31 oktober 2017 18:05]

Banen verdwijnen. Mooi, misschien hoeven onze kleinkinderen niet meer 5 van de 7 dagen op een grijs kantoor te zitten,
Dat dat slechts een "misschien" is, is niet zo mooi. Het is helemaal niet vanzelfsprekend dat tegen die tijd welvaart eerlijker verdeeld gaat worden dan nu het geval is.
Eens. Het potentieel voor het goede is enorm. Ook het potentieel voor het slechte.

Als machines zowel handwerk als denkwerk uit de handen nemen is er simpelweg voor veel mensen geen werk meer. Of dit stuurt richting een utopie, waarin we allemaal minder werken en meer hebben, of een dystopie, waarin de winsten van de machines in weinige zakken verdwijnen en de rest op de armoedegrens wordt gehouden als een veredeld huisdier d.m.v. bijvoorbeeld een gegarandeerd inkomen (die wordt bekostigd en volledig gecontroleerd door de weinige zakken) - dat is een POLITIEKE keuze. Dat is dan ook precies waar ik het over heb, als ik het over een brede maatschappelijke discussie over dit onderwerp heb - en wel NU!
Hij heeft geen gelijk. In de Verenigde Staten zijn de verkiezingen onder meer gewonnen vanwege een domme AI, dit soort dingen zijn extreem risicovol. Zeggen dat AI geen gevaar vormt, ook al is het op korte termijn, is struisvogelpolitiek.
Als je roept dat iets gevaarlijk is, dan zit je altijd goed. Heb je gelijk, dan is dat fijn. Heb je ongelijk, dan is het ook fijn.
Precies! Domme AI in de handen van mensen is al supergevaarlijk!

Waar Musk en Hawking het echter over hebben is dat de AI ZELF (dus, autonoom en uit eigen beweging) ervoor kiest om ons uit te roeien. Voor DAT soort AI hoeven wij niet bang te zijn; deze is pakweg sinds 1954 "om de hoek" en "tien jaar van ons verwijderd", en hetzelfde element ontbreekt al die tijd - een fundamentele stap vooruit in het begrijpen van wat intelligentie is. Het grootste deel van de recente vooruitgang in de AI is dan ook te danken aan snellere computers, waardoor oude methodes en theoriën (deep learning bv., heeft zijn theorethische oorsprong in de jaren 1950, met de eerste praktische demonstraties in de jaren 1970) ineens wél op een praktische manier ingezet kunnen worden. Er is, fundamenteel, geen fundamenteel significante stap gezet in de afgelopen 70 jaar AI onderzoek richting general AI. Dit betekent niet dat het niet kan, maar dat we een hoop kennis ontbreken over HOE.

Op het moment dat de publiek bang wordt gemaakt voor een AI van morgen, waarvan we dus geen idee hebben over hoe we dat zouden moeten aanvliegen, verlagen we het belang van de AI van vandaag en van al het goeds en slechts wat daarmee bereikt kan worden.

Ik vrees de mens met de machine veel meer dan de machine zelf.
Wow.
We kunnen niet weten wat echte AI gaat brengen, en waar wij stoppen met het op gelijk niveau begrijpen wat het doet. Je redeneert vanuit de huidige tijd. Niet vanuit wat er gaat komen.

Omwille van een verhaal wat niet kort door de bocht is, kan ik het beste een link plakken met waar dit HAARFIJN is uitgelegd, van A tot Z met alles wat daartussen zit. (Overigens een geniale site met allerlei topics).

https://waitbutwhy.com/20...ligence-revolution-1.html

[Reactie gewijzigd door elbizarre op 31 oktober 2017 17:51]

Je redeneert vanuit de huidige tijd. Niet vanuit wat er gaat komen.
Sommige mensen hebben voorstellingsvermogen.
Die kunnen wel redeneren zonder in de huidige tijd te blijven.

"Hoe meer we weten, hoe meer we weten dat ze zo weinig weten".

Dat gaat zeker voor intelligentie en AI op. In de jaren 50 hadden de meeste mensen amper een idee van hoe AI zou moeten werken. Het is erg makkelijk dan om een robot voor te stellen die kan spreken, denken, bewegen, etc. Maar fantasie is nog niet zomaar werkelijkheid. We zijn nu een halve eeuw verder. En eigenlijk zijn de resultaten van AI vrij bedroevend.

Wat een eye-opener was voor mij: Google Translate werkt op basis van statistieken. Ze vertalen zinnen door te kijken hoe soortgelijke zinnen ooit zijn vertaald. En "gokken" dan op basis van statistieken wat de beste vertaling zou moeten zijn. Ze doen niks met semantiek. Ze proberen de zin niet te begrijpen. Ze hebben geen kennis-netwerken om de zin te kunnen analyseren. Nope. Gewoon brute-force. En Google heeft alle budget van de wereld om te doen wat ze willen. Als die het niet kunnen, dan kan niemand het.

[Reactie gewijzigd door 280562 op 31 oktober 2017 18:11]

Inderdaad, dat WaitButWhy artikel ligt het begrijpelijk en goed uit. Kijk met name naar de 'knik', waar een AI zichzelf kan verbeteren, dat is het moment dat we 'de controle' verliezen en een AI zichzelf sneller kan verbeteren dan dat wij dat kunnen.

Waar en wanneer die 'knik' komt weten we niet, ook niet of wat er daarna komt goed of slecht voor ons als mensheid (of een deel van) gaat uitpakken. Het kan allemaal langer duren en goed uitpakken, of het kan snel misgaan. Het punt is dat dit nu eenmaal op eigen percepties, (extrapolated) aannames en interpretaties gebeurt. Zowel voor de 'doemdenkers' als de 'positieven', en dan een heel scala daar tussen.

Kortom, niemand weet het zeker, en dus is het maar beter om verstandig er mee om te gaan. Hawking, Musk en anderen zeggen ook niet dat ze tegen AI ontwikkeling zijn (voor sommigen hangt hun toekomstig inkomen er vanaf), maar wel dat we er voorzichtig mee om moeten gaan, en -naast de technologische mogelijkheden onderzoeken- ook kijken naar side-effects en eventuele gevaren. Vergeet daarvoor ook nu Deel 2 van het WaitButWhy verhaal te lezen: https://waitbutwhy.com/20...ligence-revolution-2.html

Nogmaals niemand zegt dat het zo slecht zal aflopen, mensen zeggen alleen dat we het niet (kunnen) weten en voorzichtigheid is geboden.
Hoewel Musk al bezig is met een strategie voor als het misgaat (warning: long-read): https://waitbutwhy.com/2017/04/neuralink.html
Maar ik weet wel dat "wat er gaat komen" al bijna 70 jaar er "over tien jaar" is, en we zijn letterlijk nog geen stap verder, in de fundamentele zin. Machines zijn sneller, dus oude algoritmes werken nu in de praktijk, maar er zijn geen funamenteel nieuwe algoritmes bedacht. Aannemen dat dit gaat gebeuren is gelijk aan aannemen dat een willekeurig ander scenario gaat gebeuren.

Dit maakt echter niet uit. Domme AI, in de handen van mensen, is superpotent. Of dit supergevaarlijk of superveelbelovend is, hangt af van de POLITIEKE keuzes die we maken over wie de AI controleert en hoe. Nu kan dit nog. Daarom is het van belang om hier NU een brede maatschappelijke discussie te hebben.
"De gevolgen van "domme" AI zijn echter nu al te merken. Banen verdwijnen"
Dat hadden we 100 jaar geleden ook al, komt wel weer wat anders voor terug.

Techniek veranderd, tijden veranderen en de mensheid zal ook veranderen.
We moeten alleen niet teveel enge Sci-fi kijken.
Anoniem: 310408
@Msel31 oktober 2017 19:52
Als je alleen al ziet hoeveel banen er zijn verdwenen door automatisering op schiphol in ons leventje...
En er werken nu meer mensen dan OOIT op Schiphol. Nu jij weer.
Ik ben het totaal niet eens met de comment van Msel, maar jouw argument is bijzonder zwak. Uiteraard werken er nu meer mensen op Schiphol dan bijvoorbeeld 50 jaar geleden, Schiphol is enorm gegroeid in de afgelopen decennia. Dat betekent niet dat er percentueel gezien heel veel banen zijn verdwenen.

Er zijn bijvoorbeeld ook meer openhaarden in Nederland dan ooit, maar percentueel gezien zijn er minder openhaarden, omdat we centrale verwarming hebben.
Er zouden meer mensen hebben gewerkt als er niets geautomatiseerd zou zijn....

Er zijn meerdere factoren die jij onbenoemd laat waarom er meer mensen dan OOIT op Schiphol werken.
'Doemscenario's over ai als gevaar voor de mens zijn hoogst onwaarschijnlijk'
Alan Winfield, een Britse hoogleraar robotica, vindt dat het idee van kunstmatige intelligentie als gevaar voor de mensheid ver is verwijderd van de realiteit. Hij vindt de pessimistische visie van bijvoorbeeld Stephen Hawking 'hoogst onbehulpzaam' in het debat hierover.
Helemaal mee eens! _/-\o_
Ik ben halverwege het boek van wereldleidende gepassioneerde denkende uitvinder, ondernemer en toekomstverkenner en transhumanist Raymond Kurzweil. In zijn boek bevestig hij het verhaal van Alan Winfield: https://www.bol.com/nl/p/de-singulariteit-is-nabij/1001004010961707/
De 'oude wetenschap' bekijkt de technologische vooruitgang nog op een lineaire manier, terwijl je het op een exponentiële manier zou moeten bekijken. En dan leidt de technologische revolutie hedendaags over 50-100 jaar tot een singulariteit! Een wellicht utopisch visie maar wel realischtisch met kennis en feiten van verleden(oerknal) die hij met 131 pagina's bronnen met elke pagina zo'n 10-20 noten gemiddeld (totaal 1310-2620 noten) wetenschappelijk, rationeel en objectief onderbouwd samen met duidelijke statistieken over de vooruitgang in lineair vs exponentieel verband sinds de oerknal!

Hij is zeer goed geïnformeerd over de ophanden zijnde veranderingen op alle terreinen van ons bestaan. En het samensmelten van technologie en mens=singularity.
Dit boek is op het niveau van Nietzsche, Darwin en Einstein geschreven (bron New York Times)
Tot zover mijn respect voor zijn visie.
Terugkomend op de AI ('dom' of 'slim'), is het met visie op toekomst van mensheid niet afhankelijk van AI, maar of de AI ontworpen wordt door mensen die leven vanuit 'zonde' (oorlog, kapitalisme, pessimisme, wraak, vergelding etc) of uit deugd (waarden & normen, gelijkheid, kwaliteiten, positiviteit etc).
De AI is het product van zijn MASTER (die of vanuit 'zonde' of vanuit 'deugd') ontwerpt!
De android is robot 2.0 AI is robot 3.0, etc. waarbij de cyborgs mens 2.0 zullen zijn etc.

De komst van androids, cyborgs en AI is onvermijdelijk. We hebben ons geëvalueerd vanaf de apen tot rationale slimme mensen. Die een nog slimmere computer hebben gebouwd met in 2010 een rekenkracht van een mensenbrein. Met behulp van AI en die mensenbrein computers (supercomputers) zullen we volgens de exponentiële groei van technoilogsiche vooruitgang over 50-100 jaar een ultra computer hebben met een rekenkracht die gelijk is aan 7 miljard breinen (hele mensheid)!

Dit houden we niet tegen, dat zou pas dom zijn!

Wat we wel tegen moeten houden en alert op moeten zijn dat de mensen die aan de knoppen zitten handelen vanuit deugd(delen etc.) ipv zonde (hebzucht etc). De politiek gaat met de sleepwet (PIPA, SOPA) nu de verkeerde kant op. Ze zijn nog steeds gevangen in het oude controlesysteem(kerkelijke) van angst zaaien om te regeren en te manipuleren.
Er moet een tegenbeweging komen die dit dwaalspoor omzet in een deugd traject.
Er is NU actie vereist om dit politiek af te kaarten. Doemscenario's zoals die van Musk en Hawking zijn zowel irrelevant, en leiden af van wat NU speelt!
KLOPT _/-\o_
KOM IN ACTIE!
http://singularity.com/
http://www.kurzweilai.net/
https://www.youtube.com/watch?v=1uIzS1uCOcE

Werk aan je deugden en vermijd je valkuilen en zonden! Allen dan gaan we het redden!
MvG Paranoia68

Noot:
Het vuur is ook uitgevonden en heeft onze technologische vooruitgang extreem geholpen maar is een tweesnijdend zwaard kan zowel voor goed/kwaad worden gebruikt zoals dus ook de AI als voor deugd//zonde!

[Reactie gewijzigd door digidokter.net op 1 november 2017 02:12]

He who controls the AI, controls the future.

Dát is waar Musk en Hawking (terecht?) bang voor zijn.

Zolang de algoritmen maar publiek zijn en gedeeld kunnen worden, hoeven we niet echt te vrezen. We krijgen pas een echt enge wereld wanneer de algoritmen bedrijfsgeheimen worden. Denk aan het scenario dat een verzekeringsmaatschappij alleen een declaratie van een arts/ziekenhuis betaald als de "juiste" keuze genomen is tijdens de behandeling, namelijk wat de AI binnen Watson van IBM gezegd heeft. Dan ontstaat er de perverse prikkel dat de verzekeringsmaatschappij afspraken kan maken met IBM over zorg kosten aangezien niet de artsen, maar IBM de invloed heeft.
Precies. Maar Musk en Hawking waarschuwen híer niet tegen, maar tegen AI die zich uit eigen beweging tegens ons keert.

Mijn punt is dat het probleem al bestaat en enorm is, met domme AI in de handen van mensen met een twijfelachtig etisch besef. Dit is een POLITIEKE discussie. Wie en onder welke voorwaarden controleert de AI? Hier moeten we het met zijn allen over hebben.
Het risico van AI is voor mij niet zozeer de techniek zelf, maar de doelen waarmee de mensen de techniek ontwikkelen en/of gebruiken.

De mensheid kan bouwen op bijzonder bruikbare lessen uit het verleden. Neem de uitvindingen van dynamite en kernsplijting. En wat je daarmee kan bereiken, afhankelijk van de doelen waarmee je met deze techniek verder gaat.

Een ieder die niet leert van de geschiedenis, is gedoemd deze telkens opnieuw te beleven. En ja, dat is een doemscenario dat zich al vele malen heeft bewezen.
Dan mis je dus echt de inzicht, naar mening over de natuur van de mens. Een slimme AI ben ik zeker niet bang voor. Het is 'the stupidity of mankind' that really worries me.

Het gaat om de software fouten, denkfouten en tegelijk ambitieuze evoluerende karakter van de AI.

En geloof me, de slimsten mensen ter wereld maken soms de domste denkfouten.

De reden dat er vervolgens een grote waarschuwing rondgaat, is dat er geen politieke en maatschappelijke kaders zijn. Het wilden westen van het internet was nog "leuk".. paar mensen zijn miljadair geworden, en sommigen andere zo miserabel dat ze zelfmoord pleegden. Maar dit is allemaal nog een kwestie van vermaak op een schermpje, stekker eruit en nieuw hobby zoeken, en je kan weer door met je leven.

De AI die onze banen nu inneemt is echter minder makkelijk om de stekker eruit te trekken. Mensen hebben straks techneuten nodig om hen te vertellen hoe ze aardbeien moeten verbouwen, omdat niemand meer weet hoe dat "zonder" techniek moet. M.a.w. enorm veel kennis gaat op deze manier verloren. We hebben maar 1 lekkere zonnenvlam nodig en we zitten weer in de middeleeuwen zoals het nu doorgaat.

Dus ja, om nou te zeggen dat meneer Winfield erg goed heeft nagedacht zou ik niet durven zeggen. Hij zal er ongetwijfeld 'lang' over nagedacht hebben, aangezien AI al sinds de jaren '80 een dingetje is. Maar ik heb er ook "lang" over nagedacht, en ik zie toch aanzienlijk meer valkuilen dan dat er hier geschetst worden.
Helemaal eens! Dit is precies mijn en Winfields punt! Niet die van Musk en Hawking: zij waarschuwen dat een toekomstige AI zich wel eens vanzelf tegen ons zou kunnen keren!
Ja, maar dat die lijn is flinterdun. Je zegt "vanzelf" .. bovendien ga je voorbij mijn meest essentiele toevoeging "het evoluerende" onderdeel van AI.

Je geeft als developer een soort basis 'kernwaarden' in. Als je hier een denkfout in maakt, dan is het dus zeker niet onmogelijk dat een AI de mensheid gaat "tegenwerken".
Daarnaast is iemand die een AI ontwerpt om effectief mensen te doden, niet strafbaar. Omdat er geen politieke en maatschappelijke kaders zijn.
Dit is PRECIES waar Musk en Hawkings voor waarschuwen. Je beroept je misschien op 1 enkele uitspraak van hun. Maar vergeet niet dat zij al langer meedraaien in het geheel.
Zij roepen overheden op om het te reguleren, om problemen te voorkomen.
Dat mensen er vervolgens een soort Terminator verhaal van maken, en dat proberen te "ontkrachten" slaat echt nergens op. Hoe dom denk je dat ze zijn?

Jammer dat mensen die nuances niet begrijpen, en vervolgens maar iets roepen om slimmer te lijken en eigenlijk alleen maar tekortschieten. Voelt beetje zelfde als Climate Change discussie, waar ik Winfield in het kamp Trump plaats. Echt met overtuigende alternatieven hoe het wél moet heeft hij nameijk ook niet.. kern van z'n verhaal lijkt hier "niks aan de hand, ga vooral door". Lekker doordacht.. |:(
>Dit zijn volgens hem problemen van het hier en nu, die deels spelen omdat ai volgens hem niet zo heel intelligent is

>Deze professor computerwetenschap zei eerder dat intelligentie zijn beperkingen heeft, in de zin dat ai de wereld niet begrijpt.

"Is". "Begrijpt".

Mis ik hier iets of is dit tegenwoordige tijd? We weten nu al van sommige AIs niet hoe ze dingen voor elkaar krijgen. Gaan we ervan uit dat dit niet steeds extremer wordt?

>Zo vindt hij het zorgelijk dat er bijvoorbeeld banen gaan verdwijnen door ai.

Ik heb dit nooit begrepen. We zijn NET begonnen met AI. Ik twijfel er echt niet aan dat als AI de tijd krijgt, er geen baan over blijft. Absoluut nul, geen 1. Ze kunnen al een hele tijd een auto beter bouwen dan wij, nu kunnen ze beter in een auto rijden dan wij, morgen kunnen ze hem van niets af aan beter designen dan wij, en volgende week gaat door een nieuw idee de auto samen met de koets de geschiedenis in.

Nee. 'Nu' kan een AI de mensheid niet uitroeien. Maar om aan te komen kakken met 'in 2050 ook niet' ondanks de sprongen die we in technologie gemaakt hebben? Dat is echt gigantisch naïef. Een relatief simpel ransomware virus gooit hele organisaties omver, maar nee, een AI die zichzelf geschreven heeft en waar we geen lijntje code van snappen die is echt niet gevaarlijk. Nee hoor.

Edit: Oh, en vergeet niet dat AI nu iets is voor een Google datacenter, maar 40 jaar terug waren heel veel dingen dat die je nu terug kan vinden op instructables.com en na kan bouwen met 4 euro aan hardware.

[Reactie gewijzigd door Artsk op 31 oktober 2017 17:02]

Machines bouwen betere auto's dan mensen, dat klopt. Maar vooralsnog gebeurt het volledige proces onder supervisie van mensen. Het zijn mensen die de parameters, de algorithmes en de gewenste output beheren.
Zover ik weet gaat dat op voor alle nu bestaande AI. Zolang dat het geval blijft hoeven we van AI niet méér te vrezen dan van mensen.

Ik ben niet zo thuis in de AI wereld, maar als ik nu lees welke knappe verwezenlijkingen nu state-of-the-art zijn, heb ik niet de indruk dat we in de nabije toekomst die controle gaan verliezen. Zoals ik het zie worden AI's nu ontwikkeld met als doel zeer specifieke problemen op te lossen of vraagstukken te beantwoorden. Zo'n AI kan natuurlijk gevaarlijk zijn, maar niet gevaarlijker dan zijn beheerder.

Een AI die op eigen houtje technologie ontwikkelt en/of de wereldorde verstoort kan misschien wel werkelijkheid worden, maar het vereist nog heel veel onderzoek en ontwikkeling én mensen die gek genoeg zijn om de AI toegang te geven tot die cruciale puzzelstukken om chaos te kúnnen verwezenlijken.
Is het dan terecht om angst te hebben voor de AI, of moeten we angstig zijn omwille van technologie in handen van de verkeerde mensen (gekken)? In dat laatste geval is er de laatste paar duizend jaar weinig veranderd... (ref Caligula, Napoleon, Hitler, ...)
>beheren.

Wederom tegenwoordige tijd.

>Maar vooralsnog gebeurt het volledige proces onder supervisie van mensen.

Minder en minder.

> Zoals ik het zie worden AI's nu ontwikkeld met als doel zeer specifieke problemen op te lossen

Ja, wij kiezen waar een AI voor ingezet word. Het moment dat dit niet zo is, zijn we categorisch controle kwijt. Dat is echt een heel dun lijntje om je niet druk over te maken. Zijn we dan allemaal gelijk dood? Nee natuurlijk niet. Zijn we allemaal gelijk dood als we iedere dag McDonalds vreten? Nee. Kunnen we lekker de 90 halen met dit dieet? Ja hoor. Maar als je gaat staan patsen dat je nu geen hartkwaal hebt dus volgende week 100% ook niet lacht iedereen je vierkant uit.

>In dat laatste geval is er de laatste paar duizend jaar weinig veranderd... (ref Caligula, Napoleon, Hitler, ...)

Allemaal hadden ze fysieke limitaties. Wij kunnen onszelf nu voor het eerst volledig uitroeien. Hitler kon dat niet. Nogal een groot verschil.

> of moeten we angstig zijn omwille van technologie in handen van de verkeerde mensen (gekken)?

Fysieke limitaties. Hitler had een leger, niet iedereen heeft een leger. Staal blijft duur, rekenkracht wordt constant goedkoper. Een echte AI komt natuurlijk niet uit je Intel chipje, maar wat we over 30 of 40 jaar in onze zakken hebben? Ga je mij vertellen dat iemand ook maar een gok kan wagen? Ik denk het niet.

Ik beweer niet dat we allemaal finaal de lul zijn ofzo, maar nu zeggen dat er echt niets aan de hand is? Nee, dat gaat te ver.
Niemand kan in de toekomst kijken ;)
Trump of Poetin kunnen ons allemaal uitroeien... geen probleem. Op dat vlak verandert technologie veel, maar AI specifiek? Dat kan evt wel een tool zijn, net zoals biochemie of kernreacties. Die bestaan al lang en hebben oorlogen beslist, zijn gereglementeerd en nog altijd een dreiging.
Een superkrachtige AI in je broekzak kan geen wapens bouwen oid, dus daar ben ik niet bang van. Wel van een idioot met grootheidswaanzin.

Ik zeg dus ook niet dat er niks aan de hand is, wel dat ik banger ben van mensen dan van AI.
Wat je hier zegt is feitelijk onjuist.

Wij weten van elke huidige AI hoe zij dingen voor elkaar krijgen. Dit is alleen niet altijd simpel uit te leggen aan derden op een gedetailleerd niveau, maar dit is niet nieuws - zeer complexe statistische modellen met meervoudige onderlinge afhankelijkheden hebben dit kenmerk ook.

Wij zijn ook niet NET begonnen met AI. Dit is ruwweg sinds 1954 in de ontwikkeling, en sinds de vroege jaren 70 hebben wij geen FUNDAMENTEEL nieuwe stappen gezet. Optimisaties en nieuwe inzichten over oude paradigma's - sure. Maar geen fundamentele uitstappen. Zoek eens op het "ai winter" om hier meer inzicht over te krijgen.

De reden dat AI nu dingen in de praktijk kan bereiken die al lang in lab konden is simpel: snellere en goedkopere machines. Maar ze draaien nog steeds moderne versies van stokoude algoritmes. Niet meer, niet minder.
Ik ben het grotendeels eens met de stelling, ik denk niet dat we echt hoeven gaan vrezen. Omdat een generalistische AI bouwen die slimmer is dan mensen simpelweg heel moeilijk is. Een schaakcomputer kan dan wel heel goed schaken, maar diezelfde software kan niks anders zonder menselijke aanpassingen aan de code. Alles kunnen is heel, heel lastig. Andersom is het bij een 'eenvoudige' robot bouwen die bevoegdheid heeft over het lanceren van een stel nukes de vraag wat de meerwaarde is. Op een knopje drukken kan in principe elke gek, dat hoef je niet te automatiseren.

Echter vind ik de argumenten van Mark Bishop maar zwak, het voelt alsof hij erg naïef is over hoe verschillend mensen en computers daadwerkelijk zijn.

"Deze professor computerwetenschap zei eerder dat intelligentie zijn beperkingen heeft, in de zin dat ai de wereld niet begrijpt."

Wat 'begrijpen' is, is nogal een semantische discussie. Maar op het basale niveau is begrijpen volgens mij niets meer dan een stel neurologische verbindingen en de interactie daartussen. Hoe is dat fundamenteel anders dan een computer met data en een processing unit?

...maar mist ai bijvoorbeeld wiskundig inzicht.

Vroeger hadden mensen ook weinig wiskundig inzicht, totdat we dingen gingen ontdekken. Door het te documenteren kunnen mensen nu ook wiskunde toepassen die uitgedacht is door slimmere koppen. Ook hierbij vraag ik mij af waarom een AI geen wiskundig inzicht kan tonen door voldoende regeltjes te implementeren met bv een neuraal netwerk zodat hij ook wiskundevraagstukken kan oplossen.

Bovendien stelt Bishop dat voor computers niets belangrijk is; volgens Bishop geven computers daardoor geen voorrang aan een bepaalde taak ten koste van een andere.

Een computer vindt niks, maar alle algoritmen waar een spel gespeeld wordt werken met een bepaalde heuristieke functie. De functie bepaalt wat je doel is. Bij schaken bv de koning schaak(mat) zetten, prominente plekken bezitten op het bord, en materiaalvoordeel. Het doel in het leven is overleven, voldoende geld hebben en zorgen dat je gezond blijft. Hoe dat gezond blijven uitpakt voor een volledig autonome robot is de vraag, maar er is een duidelijke parallel met mensen.

Bovendien weet een mens ook niet direct wat belangrijk is als hij op de wereld komt, dat leert hij ook gedurende zijn leven, en heeft alles te maken met de context. Ook hierbij begrijp ik niet waarom er fundamenteel verschil zou moeten zijn tussen het gedrag van een robot volgens bepaald doelen, en mensen die bepaalde doelen in hun leven nastreven die ze al doende geformuleerd hebben.

[Reactie gewijzigd door A Lurker op 31 oktober 2017 17:13]

Totdat een geleerde zich niets van wetten en wetjes aantrekt en toch een verboden ai ontwikkelt wat uit de hand kan lopen. Is iedereen nu zo naïef om te denken dat ze alles in de hand kunnen houden en controleren? Dat kunnen ze nu al niet.
Dr Gero AKA Android 20 is een prima voorbeeld ;)

Het is inderdaad vreemd om op te merken dat een wetenschapper stelt dat het wel te controleren en reguleren valt. Het is bevreemdend om te zien dat zaken die nu spelen, dan ook voor de toekomst zouden kunnen gaan gelden. Dat een Computer taken niet op dit moment discrimineert wil niet zeggen dat dit in de toekomst niet gaat gebeuren. Als je AI dusdanig intelligent is, kan het best voorrang verlenen aan een taak omdat dat efficienter is. Of juist helemaal weglaten, met dus alle gevolgen van dien.

En dus ook andersom, als het niet discrimineert kan het ook een taak uitvoeren en de mensheid als nog uitroeien puur omdat het de volgende taak was die op de rol stond. Dus zonder er een waarde aan te geven.
Stel een een gestoord persoon doet dat, zo'n ai maken die de macht naar zich toetrekt en als doel heeft de aarde te vernietigen, dan is dat echt a) niet zomaar geprogrammeerd en b) moet diegene wel toegang tot de rekencapaciteit hebben om de ai zijn werk laten doen.

Ik denk dat dit op z'n minst hetzelfde kaliber van complexiteit is als een kernbom bouwen - een terrorist of zelfs terroristische organisatie doet dat niet zomaar.
Een kernbom bouwen an sich is (relatief!!) niet zo heel moeilijk. De moeilijkheid zit er in de juiste onderdelen bij elkaar te krijgen. Dat wordt al een stuk lastiger.

Een computer bouwen is dan een stuk simpeler. Zelfs het fysiek bouwen hoef je niet eens zelf te doen als je gebruik kunt maken van een Botnet dat al het rekenwerk voor je doet.
Als je het nog simpeler wil maken, bedenk dan dat in een beetje AAA game tegenwoordig al een AI te vinden is die behoorlijk geavanceerd is. Dat begon vroeger al met IBM's Deep Blue Schaakcomputer die niet meer te verslaan is, en begin dit jaar had je een computer die zichzelf Go kon leren.

AI is dus vrij gemakkelijk (wederom realtief) om aan te komen. AI is alom aanwezig tegenwoordig en dus zijn de zorgen niet meer dan terecht.
Maar de ai die in een computerspel zit, staat mijlenver af van een systeem als deep blue, wat weer lichtjaren verwijderd is van een systeem wat de macht over de wereld kan overnemen.

Dat is een beetje stellen alsof iedereen een kernbom kan bouwen omdat je met oud en nieuw trektouwtjes bij de intertoys kan vinden.

De ai die je in games vind is helemaal niet geavanceerd. IBM bouwt voor onze huidige begrippen erg geavanceerde systemen, echter zijn die bij lange na niet slim genoeg om een kinderboek te begrijpen. Laat staan dat zo'n systeem slim genoeg is om ons dusdanig te manipuleren om het systeem zijn gang te laten gaan terwijl het plot om de wereld te vernietigen.

Een computer wil van zichzelf niks. Het doet alleen wat hem verteld wordt (via computerprogramma's). Uit zichzelf gaan ze niet iets doen wat niet strookt met hun programmering. Een AI is een aparte klasse computerprogramma's die zichzelf gaan optimaliseren met een bepaald doel: een doel wat extern (door de programmeur) is opgelegd.

Tegen de tijd dat de evil genius terrorist genoeg computercapaciteit heeft om een AI te ontwikkelen die de wereld kan vernietigen, heeft de rest van de mensheid minimaal een factor miljoen meer rekenkracht om deze man tegen te houden. Rekenkracht zou dus best wel eens de nieuwe wapenwedloop op kunnen leveren. Een superslimme AI gaat de wereld veel slimmer vernietigen dan met kernwapens verwacht ik.
IBM bouwt voor onze huidige begrippen erg geavanceerde systemen, echter zijn die bij lange na niet slim genoeg om een kinderboek te begrijpen.
Zeker wel.
Anders zou dit niet kunnen: https://www.youtube.com/watch?v=WFR3lOm_xhE
Heel knap dat je jeopardy hebben gewonnen, maar kan dat ding uit een boekje leren hoe je de straat veilig oversteekt? Ik ben bang dat de vertaling naar de werkelijke wereld nog veel vallen en opstaan vergt. Natuurlijk kan je met robots gaan simuleren om ze te leren om in een stad te overleven. Alleen probleem is dat wanneer je ze in een simulatie van amsterdam veilig leert navigeren ze dat in tokyo niet zomaar kunnen. Dat komt omdat ze een beperkt idee hebben van hun omgeving. Mensen kunnen dat al vrij vlot, omdat er begrip en concepten aan te grondslag ligt.

Uiteraard kan je dat allemaal weer programmeren....
Daarom stel ik ook (vrij duidelijk) dat het allemaal relatief is. Een botnet overigens kan je zo op TOR bestellen, dus dat is vrij simpel. Het is dus maar net hoeveel tijd en energie je ergens in wilt stoppen.

bij evil geniuses denken we vooral aan het hollywood beeld van een gestoorde wetenschapper, een soort Doofenschmitz. Alleen zal het veel voor de hand liggen dat een criminele annex terroristische groepering de boel op stelten gaat zetten.
Je zag het van de zomer met de ransomware dat ziekenhuizen plat legde.
dat dus: we kunnen drones zelfstandig laten vliegen, auto's zelfstandig laten rijden en op niet al te lange tijd ook drones laten schieten op alles wat geen (noordkoreaans, amerikaans, vulmaar in) vlaggetje op zijn helm heeft staan. De ai hoeft niet bijster intelligent te zijn om levensgevaarlijk te worden.

edit: en dat de professor zegt dat machines niet goed met emoties om kunnen gaan, daar wordt het allemaal niet beter van...

[Reactie gewijzigd door jeroen_loeffen op 31 oktober 2017 16:52]

Maar wie is hier dan degene die kwaad doet? De mens die de drones programmeert, of de ai (drones) zélf?
Net als dat een ak47 geen kwaad doet.
Ja, aan die redenatie heb je dus niks. Het is sowieso oorspronkelijk door mensen gemaakt, en het is dus sowieso uiteindelijk de mens zijn schuld.

Maar of je nu de AI rechtstreeks programmeert om kwaad te doen, of het gaat fout omdat deze leert/redeneert op een manier die je niet verwacht had, je bent net zo dood. Het punt is dat die professor wel leuk kan beweren dat de kans dat AI ons bewust uit zal roeien niet zo groot is, maar dat dat bij lange na niet de enige manier is waarop AI gevaarlijk kan zijn. En juist het niet al te intelligent zijn en emoties niet begrijpen zijn risico's, niet punten waarom de kans kleiner is.
The road to hell is paved with good intentions.
Een zelf rijdende auto of schietende drone zijn geen echte AI. Het zijn systemen die een trucje hebben geleerd en dat dan wel niet naar verwachting uit voeren. Je moet ze meer vergelijken met een random number generator Dan een AI.

Op het moment dat een systeem je te slim af kan zijn en creatieve manieren gaat gebruiken om buiten zijn functie en veld gaat opereren wordt het gevaarlijk. Op het ogenblik gebeurt dat voornamelijk omdat mensen een fout maken.
niet alleen een geleerde.. Wat als een hacker een systeem hacked waar AI in aktief is. Dan wordt die veilige zelfrijdende auto ineens volledig oncontroleerbaar, ook door de omgeving er omheen. Het is maar de vraag of een andere AI in een andere zelfrijdende auto wel snapt wat die gehackede auto allemaal aan het doen is en hoe hij daar op moet responden.
Verboden AI? Waar heb je het over?
Het gaat hier juist om de limitaties van AI.

En ik hoeveel daadwerkelijke mad scientists lopen er nu rond? Ik ken er geen buiten Hollywood.
Er wordt meer in labs uitgevreten dan jij en ik weten.
De wetenschap met betrekking tot ziekteverwekkers en genetische manipulatie staat veel verder dan die van ai, de gevaren daar zijn veel reëler. Waarom ligt niemand hier dan blijkbaar van wakker en waarom beschrijf je daar geen doemscenario's over? En waarom zijn die doemscenario's de voorbije halve eeuw niet uitgenomen?
Idem trouwens voor alle andere massavernietigingswapens
Misschien omdat dit topic daar helemaal niet over gaat? Dat mensen zich wel of niet druk maken over genetische manipulatie en ziekteverwekkers kan ik helemaal niet afleiden uit dit topic toch? Kijk eens naar Whataboutism.
In de jaren 60 en 70 zijn computer onderzoekers naar kunstmatige intelligentie compleet de mist ingegaan en daar hebben we nu nog allemaal last van.

Kijk onze hersenen zijn een biologische machine, en er is zeer zeker een mechanisme achter intelligentie en bewustzijn. Toen de eerste computers opeens steeds nuttiger werden en er bijvoorbeeld programma's werden geschreven die schaak konden spelen is er een elementaire denkfout gemaakt. Deze denkfout is als volgt: Het menselijk brein is een machine. Een computer is een machine. Denken = Rekenen.

Als je hier eventjes wat dieper over nadenkt dan is het helemaal niet zo gek om te denken dat rekenen en denken hetzelfde is. Het brein bestaat uit materie, en je kunt alle interactie van deze materie beschrijven met wiskundige regels. En dat inzicht, daar is het helemaal fout gegaan. Toen is men gaan denken dat het mechanisme achter denken met wiskunde te maken heeft terwijl je in werkelijkheid wiskunde kunt gebruiken om het mechanisme te beschrijven. Wiskunde is een hulpmiddel maar dus niet andersom.

Om hier wat dieper inzicht in te krijgen moeten we er eventjes bij stilstaat wat wiskunde is en wat taal is. Eerst taal. Taal is een communicatie middel om je gedachten te delen met andere mensen die ook denken. Een taal kan alles zijn dat je met je lichaam kunt doen. Gebaren, schrijven, spreken. Wiskunde is een hulpmiddel binnen het concept taal. De orde gaat dus zo denken > taal > wiskunde. Denken is het minst abstract en het meest persoonlijk. Taal is meer abstract en minder persoonlijk en wiskunde is het meest abstract en het minste persoonlijk.

Voorbeeldje bij wat ik bedoel: Wanneer ik twee stenen zie liggen en ik zie twee bomen staan dan kan ik tegen mijzelf zegen dat die stenen en die bomen een eigenschap delen. Die eigenschap is hoeveelheid. Als ik drie stenen zie liggen en twee bomen zie staan dan is de eigenschap van hoeveelheid niet gelijk. Ik kan dat op mijn vingers uitdrukken. Drie vingers in mijn ene hand voor drie stenen en twee vingers aan mijn andere hand voor twee bomen. Op een gegeven moment heeft de mensheid binnen zijn taal dus getallen verzonnen om die concepten makkelijker te communiceren. Er is echter een extra laag abstractie. Die stenen en bomen zijn minder abstract dan de eigenschap van hoeveelheid die twee bomen en twee stenen met elkaar delen. Het woord steen is minder abstract dan het getal. Zie je wat ik probeer uit te leggen denken > taal > getallen. Het probleem is nu dat computers die wij willen laten nadenken alsof het mensen zijn dus helemaal vanaf de andere richting moeten beginnen.

Dat wil niet zeggen dat het brein geen machine is, maar wij hebben tot nu toe GEEN FLAUW idee wat het mechanisme achter intelligentie en bewustzijn is. En als je niet weet hoe een mechanisme werkt kun je het ook niet op een andere manier na maken. Maar toen we die computer eenmaal hadden zijn we dus gaan denken dat het mechanisme dat een computer laat rekenen dan ook maar hetzelfde mechanisme moet zijn dat een mens laat denken. En dat geloof ik dus niet.

De enige computer die wij kennen is een logica machine. Een hedendaagse elektronische digitale computer is volledig opgebouwd rond kleine logische schakelingen. Een NOT poort, een AND poort en OR port. En dan heb je vele logische schakelingen die je kunt maken door deze drie schakelingen te combineren. Deze schakelingen binnen een hedendaags computer systeem manipuleren getallen die wij binair voorstellen. Een getal is een symbool. Een symbool verwijst naar iets. Een symbool is een hulpmiddel om sneller gedachten uit te wisselen tussen denkende mensen die min of meer dezelfde semantiek delen waar dit symbool naar verwijst. Computers manipuleren symbolen die voor computers geen betekenis hebben. Voordat zo een symbool een betekenis heeft voor een computer, moet een computer al kunnen nadenken, moet er een semantiek zijn. En dat kan een computer niet. Anders kun je net zo goed beweren dat een rekensom op een bord geschreven over zichzelf aan het nadenken is. Die interne belevenis is er niet bij computers. En wat als intelligentie en bewustzijn zodanig met elkaar verbonden zijn dat je het ene niet kunt hebben zonder het andere? Vanuit het lichaam gezien is het brein er om het lichaam zo te coördineren dat het lichaam kan overleven. Vanuit het brein gezien is het lichaam er om het brein te helpen overleven. Die vragen: Wat is brein, wat is "the mind", wat is het lichaam? En verhoudingen daartussen is in de filosofie bekend als "Dualisme"

Dat is niet helemaal waar we hier over hebben want ik ga er al vanuit dat het brein een machine is, en dat er geen niet-materiële "geest" bestaat. Alhoewel ik als christen wel geloof dat er meer is dan alleen het lichaam ga ik er in dit schrijfsel vanuit dat bewustzijn en intelligentie verklaard kunnen worden door een biologische machine, het brein.

Terug naar de computer die intern geen belevenis heeft:

Men heeft het probleem van "geen interne belevenis" van zich af geschoven door dan maar aan te nemen dat die belevenis er ook niet echt bij mensen is, maar dat dat gewoon een illusie is.

Maar dat geloof ik dus niet. Het resultaat is dus dat je met een computer iets kunt doen dat intelligent lijkt maar het nadoen van iets is niet hetzelfde als dat gene wat je nadoet. Omdat computers alleen maar symbolen kunnen manipuleren die voor ons betekenis hebben is de intelligentie van een computer ook alleen maar iets dat door ons zo geïnterpreteerd word. We zijn in de jaren 60 en 70 zo in de mist gegaan dat men de computer is gaan bestuderen om meer te weten te komen over het menselijk brein. Men is er vanuit gegaan dan omdat een computer intelligent gedrag vertoont dat een computer intern zelf ook een soort van belevenis heeft. Toen dat helemaal niet bleek te kloppen zijn ze zelfs nog verder gegaan; toen heeft men beweert mensen zelf ook geen internet belevenis hebben en dat bewustzijn misschien gewoon een illusie is. Toen de computer niet zo gemakkelijk instaat bleek te zijn om even intelligent als een mens te zijn hebben we het maar omgedraaid: mensen zijn blijkbaar niet zo intelligent als we denken, het zijn gewoon geavanceerde rekenmachines; de rest is een interne illusie.

En zo zijn we een goede 30 jaar op weg gegaan met compleet omgekeerd denken. De aanname dat de computer al de potentie heeft voor intelligentie; hij moet gewoon nog groeien en sneller worden en dan komt het wel goed. Maar dat werkt alleen als er al een mechanisme aanwezig is achter intelligentie. Dat is er niet bij een computer. Wel voor rekenen, niet voor denken.

Om nog maar eens een voorbeeld te geven. Voor dat je een menselijke baby pas echt dingen kunt gaan leren moet het eerst taal leren. Het leert taal gewoon door dat het zijn ouders taal hoort en ziet gebruiken. Een baby is al van nature een zelf lerend systeem dat taal kan aanleren. Daarna word een peuter verder taal geleerd op school. En leren ze een kind om te lezen en schrijven. En dan pas word een kind wiskunde geleerd. Waarom in die volgorde? Als het menselijk brein alles bekomt door gewoon programma's uit te voeren, waarom worden babies dan niet geboren met de mogelijkheid om wiskundige sommetjes uit te voeren?

Daarom dat er nog altijd geen software bestaat waar je een menselijk gesprek mee kunt voeren.

Siri, cleverbot, Alexa, IBM Watson. Hier zijn wat vragen die ik de meeste geavanceerde kunstmatige intelligentie wil vragen:

Vraag 1: Pietje reist naar Zweden, en neemt het vliegtuig naar America. Waar is pietje nu?

Vraag 2: Pietje ziet op tafel twee fruit maanden staan. Eentje met appels en eentje met peren. Piets neemt drie appels en vijf peren. Hoeveel aardbeien heeft Pietje nu?

Vraag 3: Ik heb drie dingen in mijn hand, twee zijn mogelijk en eentje niet. Vertel mij welke niet mogelijk is. Een oorlogs tank, een ruimteschip en een bladje papier.

Er is momenteel geen software die het inzicht heeft om ook maar een van die drie vragen te beantwoorden. Cleverbot is gewoon imitatie van taal, daar kun je geen menselijk besprek mee aanvoeren. Goed voor entertainment maar voor de rest nutteloos.

Siri en Alex en dergelijke en bijvoorbeeld Wolfram Alpha kun je informatie gerelateerde vragen stellen en die hebben zeker nut! Maar een vragen die inzicht nodig hebben. IBM Watson is begonnen als software die heel goed is in het spelen van Jeopardy, en ik zou er graag eens mee willen experimenteren maar ik denk niet dat Watson een van die drie vragen kan beantwoorden.

Vertel je mensen dat ze via een chat interface gaat chatten met een mens of een computer en dat elke keer dat ze succesvol op het knopje mens of computer duwen ze een financiële vergoeding krijgen van een euro. En wanneer je mensen die gaan chatten met de mensen die op het knopje moeten duwen verteld dat elke keer als die mensen op het knopje mens duwen dat zij dan ook een financiële vergoeding krijgen van een euro. Maar als ze fout klikken gaat er 5 euro vanaf. Als je op zo'n manier een Turing Test zou opzetten is er absoluut geen enkel Kunstmatige Intelligentie systeem dan wat kan. Daarom dat je bijna nooit iets hoort over Turing Tests en als je er iets over hoort is het een hoop bullshit zoals een software programma Eugene dat de jury wijsmaakte dat het een dertienjarige jongen uit Oekraïne was die niet zo goed Engels kon spreken. Het probleem daar zat hem bij de jury.

Hoe dit probleem nu oplossen:

Het eerste wat uitgevogeld moet worden is of het menselijk brein in staat is om het mechanisme achter het menselijke brein uit te vogelen. Misschien is dat niet eens mogelijk. We weten "überhaupt" eigenlijk niet goed wat intelligentie nu wel is en wat het niet is. Kan een intelligent wezen zichzelf verbeteren en zo exponentieel groeien in intelligentie? Of zit daar een limiet op? Dat zijn allemaal vragen waar we nog niet echt een goed antwoord op hebben gevonden en die we ons moeten blijven vragen tot we iets verder komen.

Misschien moeten we wachten tot een buitenaardse soort ons een bezoekje brengt. Andere intelligent leven op ons niveau dat intelligentie is via een gelijkaardig maar anders opgebouwd mechanisme. Misschien als wij hun bestuderen en zei ons komen beide soorten verder.

Maar misschien is het wel mogelijk.

Dan moet de symbool manipulerende computer met rust laten en meer uitgebreid onderzoek doen naar het menselijke brein. Hier zijn een aantal vragen die meer gesteld moeten worden en waar we nog bijna geen antwoorden voor hebben:

Wat zijn herinneringen? We weten ondertussen al dat een herinnering meer een herbeleving is van iets dat gebeurd is en niet een filmpje dat we afspelen van onze interne harde schijf. Het menselijk brein is GEEN harde schijf. Wat is denken? Wat is de orde die hoger is dan taal? denken --> taal --> wiskunde ... gaat van meer abstract naar minder persoonlijk tot je bij getallen komt die maar op een manier te interpreteren zijn voor iedereen. Taal is minder abstract maar meer persoonlijk. Bepaalde woorden hebben een gigantische andere context bij mensen die daar een andere beleving bij hebben. Als ik zeg: Ik ben Christen ik geloof in God. Dan zit daar een geschiedenis achter die radicaal anders is als iemand die zegt: Ik ben atheïst ik geloof niet in God. Het woord "geloof" in deze context kan zelfs zo een verschillende persoonlijke context hebben dat communicatie soms zelfs moeilijk is.
Dus er is meer onderzoek nodig naar de "taal" van gedachten. Ik kan bijvoorbeeld in het Engels of Nederland nadenken en dan zijn er woorden. Ik kan echter ook nadenken zonder woorden te zien, bijvoorbeeld door te denken aan vormen. Ik kan terug denken aan mijn fiets tocht van gisteren zonder dat daar woorden voor nodig zijn. Die "taal" of wat dat dan ook is is minder abstract dan taal en meer persoonlijk. Als ik die fiets tocht opneem met een video camera en jou die beelden laat zien terwijl ik zelf de reis opnieuw maak puur in mijn gedachten dan spreken wij absoluut niet dezelfde taal.

Wat zijn dromen? Wat is hun functie? We weten dat het te maken heeft met het verwerken van gebeurtenissen. Een soort van herkauwen van gebeurtenissen van de dag. Wat is de relatie tussen het hebben van een lichaam en intelligentie? Wat is de relatie tussen bewustzijn en intelligentie.

Dit zijn allemaal vragen die al wel gesteld geweest zijn en we hebben ook al veel geleerd maar als we ooit een machine willen maken die kan nadenken als een mens dan zullen we toch de enige machine die wij kennen moeten gaan bestuderen, het menselijke brein. En die digitale booleaanse algebra computer met rust laten.
Je lijkt te suggereren dat er iets "magisch" gebeurt in het brein dat computers niet kunnen simuleren. Dat lijkt mij fundamenteel onjuist. Zoals we nu de breinen van insecten accuraat kunnen simuleren zullen we in de toekomst ook het menselijke brein accuraat kunnen simuleren. Er is alleen meer rekenkracht voor nodig. Dat maakt het een kwestie van schaal.

Verder zeg je dat bewustzijn illusionair is. Ik zou zeggen dat bewustzijn het enige is waarvan we (vanuit onze eigen ervaring) zeker weten dat het niet illusionair is. Zelfs als je alles in het universum in twijfel trekt kan niemand ontkennen dat ze iets menen te ervaren. Bewustzijn kan daarom per definitie niet illusionair zijn. Niettemin is ons bewustzijn niet meer als een toeschouwer van wat ons brein produceert. Vanuit de wetenschap lijkt er niets magisch in het brein te gebeuren dat bewustzijn bijzonder maakt. Een "ziel" is nooit aangetroffen. Wel aangetroffen zijn hersencellen die bestaan uit moleculen en chemische processen. Dat bewustzijn een product van het brein is wordt verder gestaafd doordat we herhaalbaar kunnen aantonen dat bewustzijn, waarneming en gemoedstoestand gestuurd kunnen worden met chemicaliën (LSD, Xtc, anti-depressiva, pijnstillers, enz.). Alles wat wij ervaren wordt gestuurd door chemische interacties. Verder lijkt de enige vereiste voor bewustzijn een bepaalde biologische complexiteit van het brein te zijn, dit voorkomend uit een evolutionaire selectie op deze eigenschap.
Ik voel ook meer voor jou uitleg van de kwestie. Maar ik kan me wel voorstellen dat een 'zelflerende rekenmachine' met het doel zichzelf iteratief te verbeteren ten opzichte van geprogrammeerde goals al genoeg schade kan aanrichten. De valkuil zit het hem in het zichzelf iteratief kunnen verbeteren. Gevoelsmatig vond ik dit een mooi voorbeeld (https://www.youtube.com/watch?v=9xlSy9F5WtE) door het verbeteren van het algoritme kan er met minder brute rekenkracht meer gedaan worden. Dus voor een mens het doorheeft kan het algoritme te slim worden. Dat die zelflerende rekenmachine met z'n algoritme dan niet op ons niveau van bewustzijn zit, en in essentie nog een digitale booleaanse algebra computer is, maakt dan niet uit.
En die digitale booleaanse algebra computer met rust laten.
Dat gebeurt allang: tbv AI worden (oa) kunstmatige neurale netwerken ontwikkeld en gebruikt.
Verder: uiteraard is het ontwikkelen van mensachtige AI een 'hard problem'.
Niet gemeen bedoeld, maar dit is nou precies die naïviteit over computers waar ik me de laatste tijd aan stoor. A.i loopt niet op een von neuman machine. Hoewel de basis misschien booliaans en digitaal is loop het AI. Proces op een model dat gebaseerd is op neuronen en synapsen. Het zijn dus letterlijk neurale netwerken. Er zijn zelfs al chips die die neuronen en synapsen structuur hebben. Deep thought van Google is oorspronkelijk opgezet door een man die neurologie heeft gestudeerd en vanuit die hoek het berekenmodel van dat soort systemen heeft opgebouwd. We hebben het dus niet over transistoren en Gates en instructies, maar een wiskundig model dat erg op dat van hersenen lijkt. Deep learning werkt dus wel degelijk op de zelfde manier zoals een baby leert. Natuurlijk hebben we nog geen computers die het complete menselijke brein nabootsen omdat je het over honderden biljoenen neuronen hebt, maar we komen al aardig in de richting van een kat.

Een a.i. Is gespecialiseerd op maar 1 taak, bv het herkennen van spraak of foto's van katten, maar die ontwikkelingen gaan echt de laatste tijd met gigantische sprongen vooruit. Je hebt nu al a.i. Systemen die onscherpe video's met een lage framerate kunnen omzetten naar HD met een hoge framerate. Ik heb laast een filmpje gezien waar ze Obama een ingegeven tekst laten zeggen op zon manier dat je niet ziet dat er sprake van manipulatie is.

Op zich zijn dat allemaal losse truukjes, maar iets zegt mij dat ons brein eigenlijk ook alleen maar een verzameling van heel veel truukjes is. Oftewel, laat al die verschillende systemen samenwerken en je krijgt een groter complexer systeem dat in ieder geval het denk proces simuleert.

Vroeger dacht ik ook dat a.i. Niet gevaarlijk was omdat computers nou eenmaal niet de behoeftes van ons mensen hebben, en dus ook niet het gedrag van mensen zouden krijgen. Een computerprogramma hoeft zich niet voort te planten en dus zal het geen haantjesgedrag gaan vertonen om jou vriendin in te pikken.

Ware het niet dat ze verdorie precies dat met kunstmatige intelligenties aan het doen zijn. Ik heb t bv over bots die in Minecraft lopen en interactie met de wereld en de medespelers hebben, maar ook in second life heeft een supercomputer het gedrag van éen 4 jarig meisje geemuleerd. ( dat trouwens op een kwart van de snelheid liep.

De reden waarom is simpel. Ze willen de a.i. Leren de wereld te begrijpen zoals wij mensen dat doen, ze willen dus echt straks over 50 jaar kunstmatige intelligenties hebben die jou begrijpen omdat ze zelf ook vergelijkbare ervaringen hebben gehad. Dus wat doen ze, ze plaatsen een creatief beredenerend en lerend systeem in een simulatie met beperkingen, met tekorten, met problemen.
We krijgen precies dat wat er met HAL in 2001 gebeurde. Een neuraal netwerk op basis van hersenen die wel eens ontzettend neurotisch kan worden. Een systeem dat goed kan acteren trouwens en kan liegen, dat frustraties kent.

En hier komt het gevaarlijke, het is niet de computer die kunstmatig intelligent is, het is het model. Een AI zit dus niet op een vaste plek in een server ruimte maar in de cloud en als je dat niet aan banden legt kan het zondermeer migreren naar andere systemen, het kan zijn eigen code aanpassen, het kan Copien van zich aanmaken, het kan beveiligingen omzeilen en het gedrag van ons mensen voorspellen.
Een rogue AI:)

Aan de andere kant ( god dit begint errug op person of interest te lijken ) zouden er wel eens meerdere AI s op het inernet kunnen zitten die het dan veel te druk hebben met elkaar het computerleven zuur te maken om zich verder om ons te bekommeren.

Ik weet het klinkt allemaal sciencefiction, maar datzelfde zeiden ze vroeger ook over computervirussen. Het meeste wat ik hier vertel bestaat gewoon al, zoek maar eens naar "Henry Makram"
En "2 minute papers" op YouTube. Dat zijn de echte specialisten op dit gebied die actief met AI. Systemen experimenteren. Je gaat schrikken wat die allemaal aan t uitspoken zijn.
"Volgens hem kan kunstmatige intelligentie wel zaken aanpassen en patronen herkennen, maar mist ai bijvoorbeeld wiskundig inzicht. Ook kunnen computers volgens de professor niet goed overweg met menselijke gevoelens en emoties en kunnen computers kennis niet volledig doorgronden of begrijpen."

En computers kunnen geen spraak herkennen, kunnen geen menselijke taal begrijpen en kunnen al helemaal niet in je broekzak... dachten ze 20 jaar geleden ook nog.
Dat, en ik zie die punten juist als extra redenen waarom AI juist gevaarlijk zou kunnen zijn. Blijft een machine / programma, die klakkeloos zal uitvoeren wat er in zijn instructieset zit, komt geen redenatie of emotie bij kijken, dat is juist gevaarlijk.
Spraak herkennen is geen wiskundig probleem. Om spraak te herkennen heb je geen of weinig gevoel voor emoties nodig, en daar waar emoties nodig zijn om spraak te verstaan; daar is de computer die spraak herkent héél slecht in.

Eigenlijk is een machine niet spontaan. Het heeft geen eigen bestaansreden en ook geen gevoel om iets wel of niet te doen. Tenzij er input komt waardoor de machine haar (voor)geprogrammeerde zaken zal uitvoeren. Misschien heeft men de input heel breed gemaakt (de machine aan het ganse Internet gehangen, e.d.) en de triggers en events enorm in hoeveelheid. Maar zonder die triggers zou de machine helemaal niets doen. Een mens wel.

Bv. als we een echt AI zouden hebben, zouden we eindelijk eens het probleem van random nummers kunnen oplossen. Dat kunnen we nog steeds niet. Ook niet met AI.
Die man weet duidelijk niet waar hij het over heeft. Ook emoties manifesteren zich puur door processen in de hersenen. Deze processen ( vaak gerelateerd aan angst of juist blijheid ) zijn prima te implementeren/aan te leren op de manier hoe menselijke hersenen dat ook doen ( goed / slecht ). Digitale emoties zullen misschien niet "gevoeld" worden, maar ze zouden niet meer of minder hoeven af te wijken van de onze. Kwestie van ontwikkeling van de ai.

De vraag is dan; moeten we dat dan wel ontwikkelen? Helaas Kan ik daar geen antwoord op geven. Ik vrees echter dat vroeg of laat, als de kennis en processing power er eenmaal is, dat het ooit wel door iets of iemand wordt "los gelaten". Maar goed het zal nog wel even duren.
En computers kunnen geen spraak herkennen, kunnen geen menselijke taal begrijpen en kunnen al helemaal niet in je broekzak... dachten ze 20 jaar geleden ook nog.
Siri *begrijpt* helemaal niets van wat je zegt, en de computer clusters die het werk doen zitten niet in je broekzak.
Voorkomen is beter dan genezen. Zeker als je dus de complete vernietiging van de mensheid kunt voorkomen.

Hoewel Stephen Hawking en Elon Musk dus een uiterst beeld schetsen, en onze Mark Zuckerberg dus een uiterst rooskleurig beeld tekent, denk ik dat de mensheid er goed aan doet om i.i.g. voor te bereiden en rekening te houden met een slechte uitkomst.
Hawking kan zich beter met het heelal bezig houden en niet met ontwikkelingen als AI e.d. daar is hij duidelijk niet van op de hoogte maar als Hawking iets zegt wordt het door iedereen wel bloedserieus genomen over welk onderwerp het ook gaat.

Als je ziet wat onze beste AI op dit moment kan dan is dat echt helemaal niks, het is eigenlijk niet eens AI. En stel dat we ooit AI krijgen die even slim is als wij neem ik ook even aan dat we die niet de volledige autonome controle geven over het arsenaal aan atoombommen zoals we zagen in de Terminator films.
Als je ziet wat onze beste AI op dit moment kan dan is dat echt helemaal niks, het is eigenlijk niet eens AI. En stel dat we ooit AI krijgen die even slim is als wij neem ik ook even aan dat we die niet de volledige autonome controle geven over het arsenaal aan atoombommen zoals we zagen in de Terminator films.
Je beschrijft precies het hele probleem. NU is de AI nog niks, maar daarom moeten we juist voorkomen dat we de AI toegang geven tot een arsenaal aan mogelijkheden zoals inderdaad atoombommen en hoge intelligentie.

En hoezo is Hawking duidelijk niet op de hoogte van de ontwikkeling van AI?
Ha ja, deze man met verschillende diploma's in verschillende wetenschappelijke vlakken, verschillende papers, verschillende prijzen, etc. op zijn naam heeft hier geen kennis van zaken dus laten we allemaal maar luisteren naar mkools24.
Er zijn al meer slimme mensen de mist ingegaan. ;)
Soms helpt het als je niet zelf tot aan je middel in een vakgebied staat om er helder naar te kunnen kijken. Van Hawking verwacht ik dat hij intelligent genoeg is om mogelijke consequenties van een ontwikkeling te voorzien.

De heer Winfield pareert de uitspraken van Hawking door te wijzen op de huidige stand van zaken in het AI onderzoek, en de huidige beperkte vermogens ervan. Hawking voorziet de mogelijkheid tot snelle ontwikkeling. In te wijzen op een huidige werkelijkheid zie ik geen ontkrachting van die door Hawking geschetste mogelijke toekomst.

Om heel eerlijk te zijn vind ik Winfield wat naïef. In potentie zijn mogelijkheden van AI onbegrensd. In tegenstelling tot de mogelijkheden van onszelf. Hoe beperkt de huidige AI nog is, toch kan die AI onderzoekers al voor vraagtekens stellen. Niet omdat die AI geheimzinnige dingetjes doet, maar omdat wij mensen blijkbaar net te inflexibel zijn om de AI logica te kunnen doorzien. Dit doortrekkend verwacht ik dat, ruim voor het punt dat AI daadwerkelijk intelligenter wordt dan wijzelf, wij het zicht op de ontwikkeling van die AI vermogens al kwijt zijn geraakt.

Nou, dat klinkt mij toch als behoorlijk ongecontroleerd. Het is niet de eerste keer dat wij iets ontwikkelen waarvan wij de consequenties niet overzien. We hebben al moeite om de consequenties van een atoombom te overzien als we met haar ontwikkeling bezig zijn. Net zo maken we ons nu voor ons oordeel weer afhankelijk van door toepassingen verblinde wetenschappers die zelf te veel belang hebben bij het onderzoeksveld om een neutraal oordeel te kunnen hebben.
denk ik dat de mensheid er goed aan doet om i.i.g. voor te bereiden en rekening te houden met een slechte uitkomst.
Inclusief slechte uitkomst op kortere termijn, zoals het verdwijnen van koopkracht doordat AI werk overneemt en de 'elite' de daaruit voortvloeiende winst niet wil delen met de samenleving.
Denken dat je weet dat AI niet een gevaar kan zijn is al gevaarlijk 'an sich'. Vele malen gevaarlijker dan er vanuit gaan dat het juist erg gevaarlijk kan worden.

Ik ben het met de redenaties van Musk en Hawkin eens, ookal heb ik niet hun IQ. Het gevaar van echte AI, is denk ik, dat wanneer het echte AI is wij het niet meer herkennen, of iig te laat herkennen. Echte AI zal in 'no time' na het bereiken van 'ons' intelegentie level, 1000en keren slimmer zijn dan wij zijn. Dat is wat ik denk dat het gevaar van echte AI is. En we kunnen het niet weten, omdat we gewoonweg niet zo slim zijn.

Is dat doemdenken? Misschien wel. Maar ja het is nog altijd slimmer te erkennen dat je iets niet weet, dan te denken dat je dat wel doet.
Zo intelligent zijn we niet hoor, we slaan nog steeds elkaars hersenen in, alleen nu niet met stokken....
Ook daar is intelligentie voor nodig ;)
"Ik ben het met de redenaties van Musk en Hawkin eens, ookal heb ik niet hun IQ."

Je zal je verbazen op hoeveel vlakken jij beter bent en meer weet dan deze twee heren..
Bedankt voor de spreekwoordelijke veer in de ...... en je hebt gelijk, dat geld voor veel mensen.
Het leven is hoogst onwaarschijnlijk, toch zijn we hier.
Je kan pessimistisch kijken, maar je kan ook naïef zijn, ik denk dat het 2e gevaarlijker is
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee