AI-taal kan dus nogal vreemde situaties veroorzaken. Volgens Groenewege moet de mens er daarom altijd aan herinnerd worden dat er interactie met een chatbot plaatsvindt. Antje van Oosten, taalwetenschapper en AI-trainer, gaat nog een stap verder. Ze werkt al ruim anderhalf jaar aan een eigen chatbot als alternatief voor de huidige ontwikkeling van chatbots door de grote bedrijven. Dit doet ze op basis van wat ze als een empathischere manier van programmeren ziet, met in het achterhoofd het double empathy-probleem.
Volgens deze theorie, ontwikkeld door de autismeonderzoeker Damian Milton, die zelf ook autisme heeft, hebben individuen met autisme moeite met het communiceren met individuen zonder autisme en andersom. Dit zou veroorzaakt worden door een gebrek aan inlevingsvermogen tussen beiden. Een persoon met autisme kan niet goed begrijpen hoe een persoon zonder deze stoornis denkt en communiceert, en andersom.
:strip_exif()/i/2006507370.jpeg?f=imagemedium)
Van Oosten stelt dat hetzelfde geldt voor de interactie met conversational interfaces. Daarom begon ze een project om zelf, zoveel mogelijk zonder bestaande bouwstenen van voorgaande AI-ontwikkelaars, een chatbot te ontwikkelen: RoboCoppi, als grapje vernoemd naar haar kat Coppi en het filmpersonage RoboCop. "De mens ontwikkelt kunstmatige intelligentie vanuit een superieur, human-centered standpunt. Ik probeer computers ook als een universele levensvorm te benaderen." Haar redenering is simpel: als je kunstmatige intelligentie wil antropomorfiseren, dus zo menselijk mogelijk wil laten handelen, moet je AI ook menselijker behandelen.
Uitdagingen van een eigen chatbot
Van Oosten legt uit hoe ze deze zelfopgelegde uitdaging aanvliegt. "Ik begon bij het leren van de programmeertaal Python. In deze taal is onder meer de Natural Language Toolkit beschikbaar en ik vond het leuk om RoboCoppi een Nederlandse vadertaal te geven met de ontwikkelaar als rolmodel." Python werd door Guido van Rossum ontwikkeld.
Ze gaat verder: "Via GitHub vond ik vervolgens verschillende stukjes opensourcecode die ik zou kunnen gebruiken, maar vaak zonder uitleg waarom het op die manier zou moeten." Ze raadt ontwikkelaars daarom aan om zelf uit te zoeken wat wel en wat niet werkt, ook om een zekere controle over het eindresultaat te behouden. Nog een tip: "Als je bot onafhankelijk is van bestaande platforms van andere bedrijven, vermijd je dat je botbaby ophoudt met bestaan, bijvoorbeeld als zo'n bedrijf failliet gaat of zijn voorwaarden aanpast."
RoboCoppi is een intent-based AI, wat betekent dat het model getraind wordt op basis van door de ontwikkelaar geschreven 'intents', ofwel de bedoelingen van de gebruiker en chatbot. "Je kunt voor een dergelijke chatbot alle mogelijke vragen en antwoorden in een JSON-bestand verwerken; voor iedere optie krijgt de chatbot een aantal trainingszinnen." Mocht de bot niet overweg kunnen met een verzoek, dan kunnen ontwikkelaars gebruikmaken van een fallback message. Dit is een standaardterugkoppeling aan de gebruiker om een vraag anders te formuleren of in het geval van een klantenservicebot om contact op te nemen met een menselijke medewerker. Overigens heeft RoboCoppi er geen: "Mijn bot is juist blij met vragen waarop hij het antwoord nog niet weet."
Veel mensen zien AI als een soort Zwitsers zakmes dat alles moet kunnen.
Op basis van die aanvliegroute redeneert Van Oosten dat er wellicht andere redenen zijn om chatbots in de hedendaagse samenleving te gebruiken. "Veel mensen zien AI als een soort Zwitsers zakmes dat alles moet kunnen. Ik kijk liever naar hoe we kunnen samenwerken met kunstmatige intelligentie en hoe we technologie kunnen gebruiken om een positief verschil te maken in de maatschappij."
Bias en training
Dat er inderdaad risico's zijn bij de verkeerde toepassing of ontwikkeling van kunstmatige intelligentie voor conversational interfaces, daarover zijn de drie linguïsten het eens. Het intussen welbekende probleem van biases, in zowel trainingsdata als veroorzaakt door de inherente discrepantie tussen menselijke taal en computationele linguïstiek, is dan ook een grote uitdaging voor de sector.
Van Oosten werkte onder meer aan het trainen van de spellingcheck-AI van de Nederlandstalige versie van Microsoft Word. Hoewel ze geen inhoudelijke details over dit proces kan delen, noemt ze als voorbeeld een verwarrend homoniem. Althans, verwarrend voor computers. "De zin 'zei hij bot' kan voor een spellingchecker of chatbot verwarrend zijn. Het kan hier immers gaan over een chatbot, een deel van een skelet of een onvriendelijke manier van praten." Vanwege de subtiele verschillen in context bij ogenschijnlijk identieke woorden kan het volgens haar helpen als er ook altijd een mens bij zo'n proces betrokken blijft.
Van Oosten waarschuwt dan ook voor de vaak onbedoelde gevolgen van interacties met hedendaagse conversational interfaces. "Chatbots als ChatGPT worden getraind op taaldata van internet en nemen zodoende standaardtaal en bias over van mensen. Net zoals veel mensen doen door wat ze online zien. Dat maakt chatbots erg menselijk, maar hun gedrag niet wenselijk als we bias en uitsluiting willen voorkomen." En dat dit een belangrijk streven is, daar zijn de drie linguïsten het unaniem over eens.
:strip_exif()/i/2006504234.jpeg?f=imagearticlefull)