Anthropic werkt aan een systeem om de leeftijd van gebruikers te voorspellen op basis van hun gesprekken met chatbot Claude. Als het systeem vermoedt dat gebruikers minderjarig zijn, wordt de toegang geblokkeerd.
Het classificatiesysteem van Anthropic let op 'subtiele signalen' in gesprekken die erop kunnen wijzen dat de gebruiker nog niet volwassen is. Om wat voor soort signalen het gaat, zegt het bedrijf niet. Als hieruit blijkt dat een gebruiker waarschijnlijk minderjarig is, wordt het account van diegene geblokkeerd. Volgens de gebruiksvoorwaarden van Claude moet iedere gebruiker minstens achttien jaar oud zijn. Momenteel gebruikt Anthropic naar eigen zeggen al een systeem waarbij het account wordt geblokkeerd als de gebruiker in een chatgesprek expliciet aangeeft minderjarig te zijn. Het is niet duidelijk wanneer het nieuwe classificatiesysteem in gebruik wordt genomen.
OpenAI werkt ook aan soortgelijk leeftijdsvoorspelsysteem voor ChatGPT. Dat bedrijf gaat minderjarige gebruikers echter niet weren. Bij een vermoeden dat een gebruiker jonger is dan achttien jaar, houdt de bot zich aan strengere regels. ChatGPT is dan voorzichtiger met onderwerpen als zelfdoding, seksualiteit en gevaarlijke activiteiten. Ook kunnen ouders of de politie op de hoogte gesteld worden als een minderjarige gebruiker laat blijken suïcidale gedachten te hebben.
Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.
/i/2007948446.png?f=imagenormal)