Het College voor de Rechten van de Mens pleit voor meer bewustwording in het onderwijs wat betreft de risico's van algoritmes. Scholen maken steeds meer gebruik van algoritmes, maar er zou te weinig kennis in huis zijn om ze op een verantwoorde manier in te zetten.
Het gebruik van algoritmes in het onderwijs is in de afgelopen jaren fors toegenomen. Scholen gebruiken bijvoorbeeld lesmateriaal dat zich aanpast aan het niveau van een leerling of zetten software in die fraude kan herkennen. Hoewel algoritmes de werkdruk van leerkrachten en docenten kunnen verlagen en meer inzicht kunnen geven in het leerproces van leerlingen, stelt het College voor de Rechten van de Mens dat er ook risico's aan hangen. Er zou op scholen bovendien niet genoeg kennis aanwezig zijn om algoritmes op een verantwoorde manier in te zetten. Daardoor zouden leerlingen onnodig het risico lopen om gediscrimineerd te worden door de algoritmes, waarschuwt het College naar aanleiding van onderzoek door onderzoeksinstanties KBA Nijmegen en ResearchNed.
Ongeveer de helft van de basisscholen maakt gebruik van adaptieve leersystemen, waarbij de lesstof wordt aangepast aan het huidige 'niveau' van een leerling. Wie regelmatig fouten maakt, krijgt vervolgens makkelijkere oefenstof aangeboden. Leerlingen die het er aanzienlijk beter van af brengen, krijgen juist lastigere vragen over dezelfde stof voorgelegd. Het College voor de Rechten van de Mens stelt dat aan het gebruik van dergelijke software het risico kleeft dat het niveau van leerlingen niet altijd goed wordt ingeschat. Leerlingen met dyslexie, autisme of ADHD zouden bijvoorbeeld afwijkende antwoorden kunnen geven dan de leerlingen waarop het leersysteem is getraind. Daardoor kan het systeem deze leerlingen onterecht lager inschatten.
Ook in het hoger onderwijs worden algoritmes ingezet. Zo wordt er op hogescholen en universiteiten vaak gebruikgemaakt van antifraudesoftware. Hier zit het risico aan vast dat bepaalde groepen studenten benadeeld kunnen worden, zoals studenten voor wie Nederlands niet de moedertaal is. Algoritmes 'denken' bij deze studenten eerder dat er een AI-chatbot zoals OpenAI's ChatGPT of Googles Gemini is gebruikt, waardoor deze studenten sneller als fraudeurs worden aangemerkt door de software. Ook blijkt uit onderzoek dat de gezichtsdetectiealgoritmes van anti-spieksoftware minder goed werken bij personen met een donkere huidskleur, wat tot discriminatie kan leiden.
Het College voor de Rechten van de Mens waarschuwt dat discriminatie en kansenongelijkheid op de loer ligt. Daarom vindt het College dat onderwijsinstellingen voordat ze algoritmes inzetten een afweging moeten maken of de technologie een bijdrage levert aan goed onderwijs. Het College stelt daarnaast dat het lastig is voor docenten en schoolleiders om altijd kritisch te kijken naar de gebruikte middelen. "Mensen hebben nu eenmaal de neiging te geloven wat een computer zegt." Bovendien is er vaak onvoldoende informatie beschikbaar over de werking van algoritmes, wat het moeilijk maakt een goede beoordeling te maken. Het College vindt dan ook dat het Nederlandse ministerie van Onderwijs, Cultuur en Wetenschap scholen hierbij moet helpen, bijvoorbeeld door onderzoek te doen naar de effecten van digitale systemen, het geven van voorlichting over de risico's van algoritmes en richtlijnen opstellen waar een systeem aan moet voldoen om discriminatie te voorkomen.