Artificial-intelligence-expert Stuart Russell vindt dat het tijd is dat de ai-gemeenschap volwassen wordt op het gebied van ethiek en professionalisme. Dat zei hij in een interview met Tweakers op de Tweakers Developers Summit, die afgelopen week plaatsvond.
Russell doceert computerwetenschappen aan de Universiteit van California in Berkeley en is de auteur van het standaardwerk Artificial Intelligence: A Modern Approach, dat op veel universiteiten wordt gebruikt. Tijdens zijn presentatie op de Developers Summit positioneerde hij zich tegenover onder meer Stephen Hawking en Elon Musk, die in het verleden meer dan eens hebben gezegd dat kunstmatige intelligentie ons allemaal kan vernietigen of de aanleiding kan zijn voor een derde wereldoorlog.
Zover hoeft het niet te komen, aldus Russell, die terloops opmerkte dat Hawking en Musk geen informatici of ai-experts zijn. Volgens Russell is het goed mogelijk om kunstmatige intelligentie te ontwerpen die in toom gehouden kan worden en zich niet tegen zijn makers zal keren. Hij pleit dan ook voor een andere aanpak en legde uit wat daarvoor nodig is. Daarbij baseert hij zich op zijn concept van 'provably beneficial ai', een kunstmatige intelligentie die op bewijsbare wijze ten goede komt aan de mens. Dat bewijs moet voortvloeien uit wiskundige stellingen, oftewel theorems.
Op die manier probeert ai menselijke voorkeuren te maximaliseren, legde Russell uit. Hij bedoelt daarmee dat we de kunstmatige intelligentie geen vaste doelen geven die het systeem moeten optimaliseren, maar dat het steeds onzeker is over onze voorkeuren. De ai streeft dus niet zijn eigen doelen na, maar die van zijn makers. Hij legde dit uit aan de hand van de zin: "I can't make coffee if I'm dead." Stel dat een robot alleen de concrete opdracht krijgt om koffie te zetten, dan zal hij een aanleiding hebben om zijn uit-schakelaar onklaar te maken. Als de robot uit staat, kan hij immers geen koffie maken. Dit gedrag kan bijvoorbeeld tot problemen leiden als de robot een doel probeert te bereiken en zijn waardes niet juist zijn gedefinieerd.
Door echter geen duidelijke doelen op te stellen en de robot zo te ontwerpen dat hij menselijke voorkeuren identificeert aan de hand van observatie van gedrag, kan dit volgens Russell voorkomen worden. De mens zal dan de machine alleen uitschakelen als dit beter is voor het bereiken van het doel van de mens, redeneert hij. Daarom is het ook 'in het belang van de machine' om zichzelf uit te laten schakelen.
Hoe die verschillende individuele voorkeuren van alle 7,5 miljard mensen vervolgens tegen elkaar afgewogen moeten worden, is nog niet geheel duidelijk, zo licht Russell in het vervolggesprek toe. "Dat is niet echt de beslissing van ai-mensen, maar we kunnen er wel aan bijdragen door de consequenties van verschillende keuzes duidelijk te maken. Een van de manieren is bijvoorbeeld om alle voorkeuren gelijke waarde te geven."
Russell identificeert echter ook een tweede probleem, namelijk dat mensen 'negatief altruïsme' vertonen, dus plezier halen uit het lijden van anderen. "Ik denk niet dat we de voorkeuren van die mensen mee moeten laten tellen. Ik denk dat ik op dit punt een uitzondering kan maken en kan zeggen dat ik als ai-persoon wel kan bepalen op welke manier dingen zouden moeten werken. Het basisprincipe blijft echter dat de ontwerpers van ai-systemen niet de voorkeuren bepalen, maar dat de voorkeuren van de mensheid de leidraad vormen."
Dat neemt niet weg dat iemand die systemen op deze manier moet ontwerpen. "Dat doen we ook, maar de vraag rijst dan ook of mensen deze systemen op deze manier gaan gebruiken. Waarom zou bijvoorbeeld een Dr. Evil, die de wereld wil overnemen, deze 'goede' software gebruiken als die hem niet gaat helpen. Ik heb geen goed antwoord op die vraag. Hetzelfde speelt bij splijtstof. We kunnen die gebruiken in goede en veilige reactorontwerpen, maar dat is niet waar Dr. Evil op uit is. Die is juist uit op een dirty bomb. Daarom is er een hele internationale infrastructuur om zoiets te voorkomen."
Hetzelfde is wellicht nodig voor kunstmatige intelligentie, aldus Russell. "Ik ben bang dat we iets soortgelijks nodig zullen hebben voor ai, maar ik weet nog niet hoe dat eruit moet zien. Misschien zijn daar dan weer andere ai-systemen voor in te zetten, die constant op zoek zijn naar inbreuken op de ai software design code." Op de opmerking dat die code nog niet bestaat en de vraag wie die dan zou moeten maken, zegt Russell: "Dat zou op dezelfde manier gaan als hoe we regels voor het ontwerpen van kerncentrales of stekkers vaststellen. Dus we proberen dingen op kleine schaal, bieden wiskundige onderbouwingen, doorlopen de nodige commissies en herzien concepten."
Hij vervolgt: "Ik weet zeker dat de ontwerpers van de Tsjernobyl-kernreactor niet de bedoeling hadden hem op te blazen, maar dat gebeurde toch. En dat is een van de redenen waarom ik wiskundige stellingen wil. Software is daarvoor geen vervanging, omdat we van tevoren wel regels kunnen bedenken, maar het systeem een weg daaromheen kan vinden en zo alsnog het einde van de mensheid teweeg kan brengen.
In tegenstelling tot de ingrediënten voor een dirty bomb zijn ai-tools een stuk eenvoudiger te verkrijgen. Op de vraag of er dan een soort Wassenaar Arrangement nodig is voor deze tools, zegt Russell: "Ik hoop dat we het niet nodig gaan hebben. Er zullen ontwikkeling, professionele gedragscodes en mogelijk ook wetgeving nodig zijn om duidelijk te maken dat er bepaalde dingen zijn die je gewoonweg niet bouwt." Op het voorbeeld van de FakeApp-tool, waarmee via machine learning eenvoudig gezichten in video’s te verwisselen zijn, zegt hij: "Zelfs Pornhub, dat misschien niet de hoogste morele standaarden hanteert, is overgegaan tot het blokkeren van dat soort materiaal."
"Ik denk dat het redelijk is om zeggen dat het illegaal is om iemand in een video bijvoorbeeld iets te laten zeggen dat hij niet daadwerkelijk heeft gezegd. Ik zie niet welk geldig publiek belang wordt gediend met de mogelijkheid om dat soort leugens te creëren. Ik denk dat er al wel regels zijn die het gebruik van het beeld van een publiek persoon zonder toestemming verbieden. We moeten het alleen duidelijk illegaal maken, waardoor mensen over de moraliteit ervan gaan nadenken."
Als het erom gaat op welke manier we hier afspraken over kunnen maken, wijst Russell naar bestaande voorbeelden. "Er zijn bepaalde precedenten, zoals de genetische aanpassing van mensen. Daarin nam de VS het voortouw met een vrijwillig verbod en de rest van de wereld ging hierin mee. Ik denk dat dit ermee te maken heeft dat de medische gemeenschap anders is dan de gemeenschap van computerwetenschappers. Die eerste heeft altijd zijn ethische en professionele verantwoordelijkheid zeer serieus genomen. Ik denk dat de ai-gemeenschap in dat opzicht nu eens wat volwassener moet worden."
Wat volgens Russell wel common sense is, is een verbod op het gebruik van autonome wapens. Vorig jaar publiceerde hij daarom mede een video onder de naam Slaughterbots, waarin autonome drones worden ingezet om doelwitten uit te schakelen. Zijn doel was om daarmee duidelijk te maken dat dit geenszins science fiction is, maar dat dit mogelijk is met bestaande technologie.
Hij besluit: "De ai-gemeenschap had hier eigenlijk al tien jaar geleden over na moeten denken en beleid in goede banen moeten leiden. Ik heb een eenvoudige ethische code voorgesteld die luidt: we moeten geen dingen maken die kunnen beslissen om mensen te doden. Het is juist de capaciteit van de machine om zelf te beslissen een mens te doden die hem in staat stelt om autonoom te handelen. Die autonomie maakt het vervolgens weer mogelijk om op te schalen, wat kan leiden tot een catastrofale gebeurtenis."