Toevallig liep ik vandaag tegen een ander gegeven aan (
gizmodo). Een paar chatbots waren in een Facebook onderzoek met elkaar aan het onderhandelen gezet. Doel van het onderzoek was het optimaliseren van de communicatie van chatbots naar mensen toe. Doordat de chatbots de gelegenheid hadden onbeheerd met elkaar te onderhandelen optimaliseerden ze naar elkaar toe en dreven bijna automatisch van door mensen te begrijpen dialoog af. Facebook trok om deze reden de stekker uit het experiment. Het doel, communicatie met mensen werd niet bereikt. Naast Facebook zijn trouwens ook andere organisaties bezig met chatbot experimenten.
Wired noemt OpenAI van Musk, maar ook Microsoft (
Tay AI) experimenteert ermee. Deze reactie gaat dus
niet over Facebook, wat mij betreft.
Door (niet per se bèta) media werd aan dit stoppen een eigen dimensie gegeven (
Daily Mail,
The Sun en
Forbes, iets meer gemodereerd
the Telegraph. Het gegeven op zich, zich naar elkaar optimaliserende chatbots, heeft nog niet de implicaties gegeven die deze media eraan hingen. Mij vertelt het vooral dat niet de chatbots intelligent bezig waren, maar dat vooral dat wij mensen te dom en inflexibel blijken om het logische pad te begrijpen dat die chatbots afliepen. Ook dat onze fantasie snel op hol slaat en we allerlei magische kwaliteiten aan een chatbot neigen toe te kennen. Op zich zijn deze twee aspecten best iets om je ongemakkelijk over te voelen, hoezeer gizmodo en wired (zie links in deze reactie) dit gegeven rationaliseerden. Voor ons, spirituele wezens die we zijn, is de drempel naar acceptatie van magie best laag.
Tja, wat heeft dit nu allemaal met die smileys van dit item te maken? Die smileys zijn alleen maar een veilige en speelse techniek om deze gezichtsuitdrukkingherkenning bij mensen te introduceren en doordat mensen ongetwijfeld als vliegen op de stroop afkomen bouwt de functionaliteit vlot genoeg testdata op om, ik veronderstel neuraal, die herkenning te perfectioneren. Met een verhoogde nauwkeurigheid kan deze techniek vervolgens anders ingezet worden, en worden verhandeld.
Bij dit laatste komen dan die chatbots in het verhaal. Zouden de Facebooks en Microsofts uiteindelijk chatbots produceren die voor ons begrijpelijke en sociaal acceptabele reacties (verschilt per regio) produceren dan kunnen die worden gebruikt voor de dialoog met mensen. Worden de bots bovendien gecombineerd met deze gezichtsherkenningstechniek, dan ontstaat er in mijn ogen een onwenselijke situatie. Een chatbot is dan in staat de gezichtsuitdrukking van de menselijke klant te interpreteren en te verwerken in haar communicatie. De mens kan echter geen gezichtsuitdrukking van de chatbot zien. En als ze in de software wordt ingebouwd, dan weet je nooit of ze authentiek menselijk is of dat de uitdrukking manipulatief wordt ingezet, om de mens in de richting van een onderhandelingsresultaat te doen bewegen. Goede menselijke onderhandelaars kunnen een pokerface opzetten, de gevoelens van het merendeel van de mensen is echter behoorlijk transparant af te lezen van de gezichtsuitdrukking. In onderhandeling met een chatbot die beschikt over de technologie genoemd in dit item hebben de meeste mensen dus een structurele handicap. Er is een asymmetrie in de communicatie in het nadeel van de mens.
Wij mensen zijn dus best kwetsbaar voor dit soort technieken. We hechten ons al aan relatief simpele robots met elementaire menselijke eigenschappen. Ook chatbots accepteren wij in communicatie snel als medemens. We fantaseren de medemens, en allerlei (magische) eigenschappen er met hetzelfde gemak omheen. Dit maakt ons eenvoudig manipuleerbaar. Denk maar eens, op een heel ander vlak, wat er met mensen in een sekte gebeurt.