Ik heb hier wel het één en ander op aan te merken.
Ten eerste kan ik je verzekeren dat Tay waarschijnlijk niet of nauwlijks gebruikmaakt van
neurale netwerken. Neurale netwerken zijn vooralsnog vooral geschikt voor het mappen van een fixed form input naar een fixed form output. Bijvoorbeeld van een plaatje van 32x32 pixels naar een letter, zoals in OCR, of van een positie op een gobord naar een heatmap van mogelijke goede zetten, zoals in het policy network van
AlphaGo. Toepassingen met sociale aspecten en variabele input en output, zoals Tay, zijn nu nog veel te complex om met neurale netwerken aan te pakken, zeker als je een beetje snel resultaat wilt voor niet al teveel geld (zoals Microsoft bij een publiciteitsstunt zoals deze). Misschien dat dit langzaamaan gaat veranderen wanneer
neuromorfe chips gemeengoed worden, maar daar zijn we voorlopig nog niet.
Waarschijnlijker is dat Tay gebruikmaakt van een database van trefwoorden of zinsdelen, in combinatie met een (relatief eenvoudige)
herschrijfgrammatica en een (complex) statistisch model, dat op basis van een bericht passende onderdelen voor een reactie uit de database kan halen. Een neural netwerk is strikt genomen ook een statistisch model, maar in dit geval verwacht ik eerder dat ze
iets Bayesiaans doen, mogelijk in combinatie met een
ontologisch model en/of
vector semantics.
Ten tweede is de veronderstelling, dat pasgeborenen geen moreel besef zullen ontwikkelen tenzij ze bestraft worden voor onjuist gedrag, niet onderbouwd. Moraliteit is aangetoond in een aantal andere diersoorten (zie het werk van mensen zoals Jane Goodall en Frans de Waal,
relevante YouTube selectie) en
empathie is geobserveerd bij
wolfskinderen. Daarnaast is een gebrek aan empathie, zoals bij
narcisten en
psychopaten, vermoedelijk grotendeels aangeboren. Natuurlijk is moraliteit heel complex en speelt opvoeding een belangrijke rol, maar er zijn voldoende aanwijzingen dat aangeboren factoren ook een rol kunnen spelen.
Naar moraliteit in AI is al veel onderzoek gedaan, zowel praktisch als theoretisch. Net als bij levende wezens, is een "pasgeboren" AI niet per sé een onbeschreven blad op het gebied van moraliteit. Ook bij Tay was dit niet het geval; zoals Microsoft zelf al heeft aangegeven, hebben de ontwikkelaars geprobeerd om te voorkomen dat Tay negatieve dingen zou aanleren.
Het fundamentele probleem is echter dat Tay niets meer is dan een lerende vraag-antwoord-machine. Tay kan niet reflecteren op de inhoud van wat anderen ertegen zeggen, of op de inhoud van wat het zelf zegt. Om dat wel te kunnen, zou Tay veel complexer moeten zijn. Niemand waagt zich aan zulke complexe AI's, want iedereen gaat voor de kortetermijnbeloning. Onderzoekers willen zo snel mogelijk een publicatie, bedrijven willen zo snel mogelijk winst of reclame.
Wat er mis is gegaan, is precies wat Microsoft zelf al heeft gezegd: ze hebben geprobeerd om Tay te beschermen tegen negatieve invloeden, maar zijn daar vanzelfsprekend niet volledig in geslaagd omdat ze onmogelijk alle scenario's konden voorzien en omdat Tay eigenlijk te simpel is. Het is een klassiek voorbeeld van een
weak AI. Waarschijnlijk zal het Microsoft wel lukken om Tay in het vervolg iets robuuster te maken tegen dit soort invloeden.
Voor wat het waard is: ik ben wel een expert. Ik ben afgestudeerd (master) in AI en heb onderweg veel opgestoken over cognitie, gedragsbiologie en ontwikkelingspsychologie.
Edit 26-03-2016 20:52: Eerste zin vervangen door iets dat minder aanvallend staat.
[Reactie gewijzigd door J_Gonggrijp op 24 juli 2024 04:14]