TNO wil dat er een experimentele omgeving voor kunstmatige intelligentie komt om onbedoelde nadelige gevolgen van algoritmische publieke besluitvorming te testen. Hierbij zouden ook burgers betrokken moeten worden, aldus het instituut.
De proeftuin zou een afgeschermde omgeving moeten worden waarbinnen toepassingen van de overheid die gebruikmaken van algoritmes getest kunnen worden. Dit moet het mogelijk maken controle en toezicht uit te oefenen op de toepassing van AI-systemen en te rapporteren wat de risico's zijn en de impact is. Daarbij gaat het met name om toepassingen met een hoog risico, zoals die zijn benoemd in de door de EU voorgestelde regulering van AI. De EU noemde onder andere het gebruik van algoritmes voor werkgelegenheid, software voor het beheer van migratie, asielaanvragen of grenscontrole en kunstmatige intelligentie voor autoriteiten.
TNO zelf noemt als voorbeeld een AI-systeem dat het CJIB gebruikt om mensen uit schulden te houden door voorspellingen te doen op basis van historisch betaalgedrag. Dit systeem was volgens ethics by design-principes ontwikkeld, maar bleek onverwachte langetermijneffecten te hebben, zoals oneerlijkheid bij het uitlichten van bepaalde groepen en extra werk voor ambtenaren.
De bedoeling is dat meerdere partijen betrokken worden bij de AI-omgeving om alle belangen mee te wegen. Het gaat onder meer om ontwikkelaars, beleidsmakers, overheidsfunctionarissen en burgers. TNO stelt voor een bijsluiter voor burgers te ontwikkelen om te helpen bij het begrip hoe het systeem werkt en wat voor impact dit op hun leven kan hebben.
Het voorstel voor de AI-proeftuin vloeit voort uit de paper ‘Op zoek naar de mens in AI’ die TNO publiceert. Het instituut denkt dat er anderhalf jaar nodig is om deze omgeving op te zetten en het doel is om dit samen met meerdere universiteiten te doen. In de paper beschrijft TNO een methodiek voor verantwoordelijke algoritmische besluitvorming waar de proeftuin een onderdeel van is. Voorafgaand aan de inrichting en implementatie van AI-systemen zouden volgens deze methodiek vragen gesteld moeten worden zoals op welke maatschappelijke vragen de AI-toepassing gericht is en wat het gerechtvaardigd belang is om data en AI in te zetten.
Volgens eerder onderzoek van TNO is het gebruik van AI bij de overheid de afgelopen twee jaar sterk toegenomen. Dat het mis kan gaan, toonde de problematiek van het Systeem Risico Indicatie aan, dat na een toetsing achteraf in strijd met het Europees Verdrag voor de Rechten van de Mens werd verklaard en inmiddels niet meer gebruikt wordt om fraude te analyseren.