Inleiding
Stel je voor, een zelfrijdende auto rijdt in een straat in een stadscentrum. Een moeder en een klein kind staan te wachten voor het rode licht, maar het kind rent plotseling de weg op, waardoor een ongeluk onvermijdelijk wordt. De zelfrijdende auto moet binnen een fractie van een seconde kiezen: stuurt hij snel de auto weg, waarbij hij twee inzittenden waarschijnlijk doodt, of rijdt hij over het kind heen?
In films en series leren we de ware aard van een personage kennen door dergelijke morele dilemma's, zonder goede antwoorden. Wat is de ware aard van een stuk software? De zelfrijdende auto is als een personage dat nog niet bestaat en dat dus nog geen ware aard heeft. Wij als maatschappij moeten nog gaan bepalen hoe de zelfrijdende auto in zulke situaties moet reageren.
De vorige Amerikaanse president, Barack Obama, had het over dit dilemma in een groot interview vorig jaar. Hij sprak uit dat het tijd werd dat we gingen bepalen welke waarden zelfrijdende auto’s meekrijgen. Als de software moet kiezen voor het doden van de bestuurder om een voetganger te redden, op basis waarvan kiest die dan? Moet die een kind wel redden, maar een oudere niet, of omgekeerd? Wie moet die regels vaststellen?
/i/2001515501.jpeg?f=imagenormal)
Obama is niet de enige die daarover nadenkt. Een aantal bekende namen, waaronder Stephen Hawking en Elon Musk, tekenden twee jaar geleden een open brief over de ontwikkeling van kunstmatige intelligentie. "We raden aan om onderzoek uit te breiden dat erop is gericht om er zeker van te zijn dat steeds capabelere ai-systemen robuust en heilzaam zijn. Onze ai-systemen moeten doen wat wij willen dat ze doen."
Wiskunde is de basis van de enige wereldwijde taal die we hebben. Twee plus twee is overal vier, of je nu op de Noordpool of rond de evenaar bent en uit welke cultuur je ook komt. Computers hebben ook een universeel systeem dat daaruit voortkomt: het binaire systeem, de nullen en enen die razendsnel door computers worden geïnterpreteerd.
Een van de voordelen van wiskunde is dat het gaat om exacte getallen en dus compleet neutraal lijkt, of het nu deterministisch of probabilistisch is. Misschien heeft het daardoor zo lang geduurd voordat er een discussie op gang kwam over de neutraliteit van een technologie die in de komende decennia de wereld vermoedelijk ingrijpend zal veranderen: kunstmatige intelligentie.
In het hoofdkantoor van Google in Mountain View, Californië, het befaamde Googleplex, sprak Tweakers met enkele mensen die zich bezighouden met de ontwikkeling van kunstmatige intelligentie en in het bijzonder van neurale netwerken. Zij antwoordden openlijk op vragen over de ontwikkeling en de toekomst van kunstmatige intelligentie en neurale netwerken.
De invloed van bias
Neurale netwerken zijn netwerken van processors die problemen proberen op te lossen. Dat doen ze door telkens kleine wijzigingen aan te brengen. Hoewel ze hun naam ontlenen aan biologische neurale netwerken, zoals die uit het brein, hebben ze behalve de naam opvallend genoeg niet veel gemeen met de biologische netwerken, aldus Douglas Eck. Eck is wetenschappelijk onderzoeker voor Google op het gebied van machine learning.
Neurale netwerken bestaan uit een laag voor de input, een of meer tussenlagen en een laag voor de output. Neurale netwerken zijn te trainen om bijvoorbeeld plaatjes van katten te herkennen, iets wat onder meer Google deed.

Een van de grootste problemen van een neuraal netwerk treedt op als de uitkomsten niet lijken te kloppen met wat je zou denken dat juist is. Het probleem ligt dan aan de kant van de input. “Als de data die je in het systeem stopt biased is of het probleem is verkeerd geformuleerd, dan zal het antwoord ook niet kloppen”, aldus Eck.
“Maar de olifant in de kamer is eerlijkheid”, aldus Eck. “Dat is een interessant probleem voor ons. Er zit oneerlijkheid in de wereld, die komt terecht in de data. De data komt vervolgens terecht in de neurale netwerken en dus in de uitkomst daarvan." Een voorbeeld daarvan deed zich een paar jaar geleden voor, toen bij een zoekopdracht op ‘ceo’ in de afbeeldingenzoekmachine van Google 11 procent vrouw bleek, terwijl in feite 27 procent van de ceo’s een vrouw is. Google beloofde toen te kijken naar de afstelling van algoritmes bij de zoekopdrachten.
Dat voorval wierp de vraag op of neurale netwerken een ingebouwde bias, of vooroordelen, hebben. Volgens Eck is dat onvermijdelijk. “Ik heb heel veel nagedacht over bias, al heb ik er nog nooit over gepubliceerd. Het is tricky om te bespreken hoe mensen omgaan met bias, maar in zijn algemeenheid zou je kunnen verwachten dat die bias terugkomt in de machines die we bouwen.”
Assistant moet een dienende, nederige, enigszins vreemde en grappige persoonlijkheid zijn
Als neurale netwerken de bias hebben van de mensen die ze bouwen, werpt dat de vraag op wat we ze willen meegeven. Momenteel zijn de grote Amerikaanse technologiereuzen, Microsoft, Apple, Facebook en Amazon, leidend op dit gebied. Het ligt dus voor de hand dat kunstmatige intelligentie de waarden meekrijgt van die bedrijven. Dat hoeft natuurlijk niet. Facebook-oprichter Mark Zuckerberg schreef onlangs in een open brief op zijn sociale netwerk dat hij meer toe wil naar lokale regels voor wat mag op Facebook. Het is niet ondenkbaar dat Zuckerberg bij ai ook wil dat er lokale waarden in zitten.
Dit lijkt een discussie voor de toekomst, maar binnen Google is al een team dat bezig is met kunstmatige intelligentie die botst met andere culturen dan de Amerikaanse. Dat is Assistant, de digitale assistent. Die werkt nu officieel alleen in de VS en het Verenigd Koninkrijk, maar komt komend jaar onder meer naar Frankrijk en Duitsland.
Een digitale assistent vertalen draait om meer dan alleen de individuele zinnen omzetten. “Daar begint het pas mee”, zegt Gummi Hafsteinsson, product management director voor Assistant. “Om een voorbeeld te noemen: als het bij een voetbalwedstrijd 2-0 staat, zeggen Amerikanen two-zero en Britten two-nil.”
Dat is echter een verschil in taal. Het wordt pas echt interessant als het aankomt op persoonlijkheid. “We willen dat Assistant wereldwijd hetzelfde uitstraalt; het moet een dienende, nederige, enigszins vreemde en grappige persoonlijkheid zijn. Assistant moet bijvoorbeeld culturele verwijzingen maken die mensen snappen, anders vinden mensen het een raar ding.”
Om dus de kenmerken uit te stralen die Google wil, moet Assistant in Duitsland andere dingen zeggen dan in de Verenigde Staten. “Humor is zoiets wat echt verschilt. Wat grappig is in de Verenigde Staten, vinden Duitsers misschien helemaal niet zo amusant. Daar moeten we rekening mee houden.“
Mens vs. machine?
Een ander element van de toekomst van kunstmatige intelligentie is de vraag of ai ooit de mens gaat overvleugelen. In het afgelopen jaar is de discussie daarover gekanteld. Waar het eerst nog vooral ging over de vraag hoeveel en welke banen door kunstmatige intelligentie worden vervangen, gaat het er nu over hoe kunstmatige intelligentie mensen in hun werk kan versterken, iets waartoe bijvoorbeeld Microsoft-directeur Satya Nadella opriep.
“Er zijn verschillende soorten intelligentie”, aldus Hafsteinsson van Assistant. “Assistant kan elke plaats ter wereld onthouden en aan je opnoemen, maar het zal onmogelijk blijven om emotionele ondersteuning te bieden of ethische keuzes te maken. Ik denk dat ai de mens zal helpen. Om het terug te brengen tot een eenvoudig voorbeeld: als ik aan het koken ben, helpt Assistant mij met het recept en het zetten van timers. Zo’n relatie zal het zijn, denk ik.”
/i/2001456737.jpeg?f=imagenormal)
Volgens wetenschapper Eck is het wel nodig om het onderzoek naar kunstmatige intelligentie daarvoor in een bepaalde richting te sturen. “Er zijn uitdagingen die we moeten aangaan en ik denk dat we het besef hebben als wetenschappers op het gebied van kunstmatige intelligentie dat we de juiste modellen moeten bouwen, de juiste soorten technologie mogelijk moeten maken.”
Hoe kunnen we er zeker van zijn dat wetenschappers in dienst van bedrijven als Google, die op zoek zijn naar verdienmodellen en winst, de juiste keuzes maken? “Het gebeurt allemaal grotendeels in het openbaar. We maken alles wat we doen open source, we publiceren veel in wetenschappelijke tijdschriften en we gaan vaak naar conferenties om met collega’s van universiteiten te spreken.”
Hoewel Eck er duidelijk belang bij heeft om dit te zeggen, is er ondersteuning voor zijn claim. Zo besloot Apple om zijn wetenschappers te laten publiceren, omdat Apple niet aantrekkelijk genoeg was om voldoende talent aan te trekken. “Wij wetenschappers willen alleen maar publiceren, publiceren, publiceren. Als een bedrijf te gesloten is, dan willen mensen daar dus niet meer werken. Het is een zelfreinigend systeem."
De Beatles experimenteerden. Zulke creativiteit is voorbehouden aan mensen
Bij Google denken ze dus dat ethische keuzes en emotionele zaken voorbehouden blijven aan mensen. Hoe zit het met creativiteit? Mensen vinden het nu al lastig om composities van muziek die door software is gegenereerd te onderscheiden van die van mensen. Moeten we creativiteit een nieuwe definitie geven? “Ik denk het niet”, zegt Eck. “Kunstmatige intelligentie is per definitie niet creatief. Creativiteit is meer dan dingen creëren. Het is ook feedback in je opnemen en op basis daarvan wijzigingen doorvoeren. Neem de Beatles: zij experimenteerden op hun albums en klonken na vier jaar anders. Zulke creativiteit is voorbehouden aan mensen."
Het is ook goed om te benadrukken hoezeer kunstmatige intelligentie in de kinderschoenen staat. Bij Google vinden ze Assistant natuurlijk fantastisch, omdat het kan begrijpen dat je naar iets verwijst waar je even daarvoor iets over hebt gevraagd, maar uiteindelijk is het weinig meer dan een heel goed systeem met de werking van een keuzemenu bij de klantenservice van een bedrijf aan de telefoon; je geeft commando A en daar komt output B uit.
Het werkt weliswaar met natuurlijke taal, maar grotendeels probeert het systeem simpelweg die taal om te zetten in commando's die Assistant kan begrijpen. “Het gaat ook niet altijd goed”, zegt Hafsteinsson. “Als je het weer vraagt, dan komt er bijvoorbeeld een antwoord met een temperatuur in Fahrenheit. Als je dan vraagt ‘wat is dat in Celsius?’ dan heeft Assistant geen idee, omdat we niet ingebouwd hebben dat er een verband is tussen Fahrenheit en Celsius, en dat je daarnaar verwijst."
/i/2001520217.jpeg?f=imagenormal)
Assistant: soms slaat die ook de spijker op zijn kop
Tot slot
Hoeveel antwoorden we ook hebben gekregen bij Google, er blijven ook veel vragen liggen. Zo wilde Eck niet ingaan op de gevolgen van een brein-computerinterface. Als we brein en computer kunnen verbinden, wat is er dan mogelijk en voor welke morele keuzes komen we dan te staan? Het is in elk geval goed om na te denken over hoe het zit met de waarden van kunstmatige intelligentie. Behalve Obama’s voorbeeld met zelfrijdende auto’s zijn er talloze gevallen waarin, als kunstmatige intelligentie een grotere rol krijgt in onze samenleving, het belangrijk is te weten op basis waarvan die algoritmes tot beslissingen komen.
Tot het zover is, zitten we met een technologie die niets meer dan een belofte is. Wie ervaring heeft met digitale assistenten als Google Assistant, Cortana, Siri en Alexa, weet dat ze nog opvallend beperkt zijn in hun mogelijkheden. Zo werken de meeste vooralsnog niet in het Nederlands en ook in het Engels hebben ze nog lang niet de capaciteiten om spraak en gesprekken te begrijpen zoals we dat van een mens verwachten.
Het is dus nog een lange weg voordat kunstmatige intelligentie een echt grote rol in de maatschappij zal kunnen krijgen. Voor het zover is, is het goed om nagedacht te hebben over hoe die technologie zal moeten werken.
/i/2001515509.jpeg?f=imagenormal)