Claude gaat gebruikers blokkeren bij vermoeden minderjarigheid

Anthropic werkt aan een systeem om de leeftijd van gebruikers te voorspellen op basis van hun gesprekken met chatbot Claude. Als het systeem vermoedt dat gebruikers minderjarig zijn, wordt de toegang geblokkeerd.

Het classificatiesysteem van Anthropic let op 'subtiele signalen' in gesprekken die erop kunnen wijzen dat de gebruiker nog niet volwassen is. Om wat voor soort signalen het gaat, zegt het bedrijf niet. Als hieruit blijkt dat een gebruiker waarschijnlijk minderjarig is, wordt het account van diegene geblokkeerd. Volgens de gebruiksvoorwaarden van Claude moet iedere gebruiker minstens achttien jaar oud zijn. Momenteel gebruikt Anthropic naar eigen zeggen al een systeem waarbij het account wordt geblokkeerd als de gebruiker in een chatgesprek expliciet aangeeft minderjarig te zijn. Het is niet duidelijk wanneer het nieuwe classificatiesysteem in gebruik wordt genomen.

OpenAI werkt ook aan soortgelijk leeftijdsvoorspelsysteem voor ChatGPT. Dat bedrijf gaat minderjarige gebruikers echter niet weren. Bij een vermoeden dat een gebruiker jonger is dan achttien jaar, houdt de bot zich aan strengere regels. ChatGPT is dan voorzichtiger met onderwerpen als zelfdoding, seksualiteit en gevaarlijke activiteiten. Ook kunnen ouders of de politie op de hoogte gesteld worden als een minderjarige gebruiker laat blijken suïcidale gedachten te hebben.

Denk jij aan zelfdoding? Neem 24/7 gratis en anoniem contact op met 113 Zelfmoordpreventie via 0800-0113 of chat op 113.nl. In België kun je terecht bij de Zelfmoordlijn op het nummer 1813 of via zelfmoord1813.be.

Claude
Claude heeft zijn eigen minimumleeftijd nog niet door.

Door Kevin Krikhaar

Redacteur

19-12-2025 • 15:26

44

Reacties (44)

Sorteer op:

Weergave:

Dat detectie systeem zal waarschijnlijk ook een LLM zijn… die getraind is op content van kinderen?
Eerder een classificatiesysteem waarbij patronen in typgedrag, woordgebruik en zinsconstructie worden gedetecteerd, en vervolgens ingedeeld: minderjarig / niet minderjarig. Wellicht een combinatie van supervised en unsupervised learning: supervised op datasets waar de leeftijd van de gebruiker gekend is, en unsupervised (clustering/group segmentation) waarbij de leeftijd niet is gekend als aanvullende techniek. De combinatie van beide zorgt vaak voor betere resultaten.

Gezien het om taal gaat zal er uiteraard ook gebruik worden gemaakt van technieken die bij LLM's worden gebruikt (woorden moeten achterliggend omgezet worden naar cijfers), maar het detectiesysteem op zich zal geen LLM zijn. Al kan ik me vergissen want ik ben geen cutting-edge ML-expert :)

[Reactie gewijzigd door TheBlackbird op 19 december 2025 16:04]

Ik vind afsluiten van de accounts wel onnodige stappen, ze zouden beter zoals openai kunnen doen: overspringen in een soort kinder modus tot wanneer een volwassenen bewijst dat hij terug is.

Maar stel je voor dat je account disabled wordt tijdens dat je op toillet zat ...en dan kan je niet meer werken.

[Reactie gewijzigd door sebastienbo op 21 december 2025 00:48]

Waarschijnlijk zowel keywords als semantisch (embeddings). Wat ook kan is het voorgaande plus een LLM die een ranking geeft aan deze input en dan besluit te signaleren en dat in een json format terugstuurt naar de api. Wellicht dat er dan nog een mens aan te pas komt voor het beoordelen en definitief blokkeren. Dit zal dan weer aanvechtbaar gemaakt moeten worden voor false positives.
Dat laatste hoeft helemaal niet. Mensen zat die hun accounts bij Amerikaanse internetdiensten om volstrekt onduidelijke redenen geblokkeerd zien worden en vervolgens tegen een muur aan lopen bij het aanvechten daarvan.
Nee van mentaal onderontwikkelden. Niet ieder kind valt in die categorie.
Mijn mentale leeftijd gaat me hier parten spelen
dit. Claude houdt denk ik niet van mijn infantiele humor :)
Ik ben benieuwd of ze ook autistische kinderen kunnen detecteren. Die hebben vaak een wat ouwelijker, formeel taalgebruik.
Ik ben benieuwd of ze ook autistische kinderen kunnen detecteren. Die hebben vaak een wat ouwelijker, formeel taalgebruik.
Zulks kan ik volstrekt confirmeren.

In ieder geval komt Kees M (Het beste voor Kees) glansrijk door die test...
Of de andere kant op. Volwassenen met een extreem laag IQ die overkomen alsof ze nog kind zijn.
De AI kan eventueel vragen stellen en op basis daarvan bepalen dat het ook geen volwassenen is.
Ik vraag me af hoe zo'n chatbot om zal gaan met mensen die wél volwassen zijn maar dyslexie hebben. Zou de AI dit verschil "begrijpen"?
zelf dyslexishe personen schrijven volwassen semantische zinnen. Ik vermoed dat ze -15 jarigen gaan kunnen herkennen, maar 15,16 en 17 lijkt me al veel moeilijker.

[Reactie gewijzigd door sebastienbo op 21 december 2025 00:56]

Ik dacht eigenlijk dat het niet toegestaan was om een 'computer says no' beslissing te laten nemen door AI?
In dit soort gevallen zeker wel.

waarom zouden orivats oartijen niet mogen bepalen dat het misschien niet zo goed is voor minderjarigen om dit te gebruiken daar dan AI voor in te zetten?

Al die face scanners voor leeftijdsverificatie in UK enzo zijn ook op AI gebaseerd.
Bor Coördinator Frontpage Admins / FP Powermod @supersnathan9420 december 2025 17:07
Dit ligt wel wat genuanceerder dan jij doet voorkomen. Het is dus niet absoluut "zeker wel".

In de basis komt het o.a. neer op een geautomatiseerd besluit. Een bedrijf mag niet zomaar een automatisch besluit nemen met rechtsgevolgen of andere serieuze gevolgen. In de AVG staan maar 3 situaties waarin het mag. Een bedrijf mag zo’n automatisch besluit over iemand nemen als:

1. Dit besluit noodzakelijk is om een contract met deze persoon af te (gaan) sluiten of uit te (gaan) voeren.
2. Deze persoon uitdrukkelijk toestemming heeft gegeven voor het besluit.
3. Er in een wet staat dat het mag. Bijvoorbeeld een wet waaraan banken zich moeten houden om witwassen tegen te gaan.

Het bedrijf moet daarbij dan wel 'passende maatregelen' nemen. Dat staat zo in de AVG.

Artikel 22 van de AVG zegt hierover:

“De betrokkene heeft het recht niet te worden onderworpen aan een uitsluitend op geautomatiseerde verwerking, waaronder profilering, gebaseerd besluit waaraan voor hem rechtsgevolgen zijn verbonden of dat hem anderszins in aanmerkelijke mate treft.”

De AVG geeft mensen dus het recht op een menselijke blik bij automatische besluiten die rechtsgevolgen of andere serieuze gevolgen voor hen hebben.

Zo hebben betrokkenen het recht een verzoek in te dienen bij een organisatie als zij het niet eens zijn met een automatisch besluit met (rechts)gevolgen. In dat geval moet een medewerker van de organisatie de gegevens van de betrokkene beoordelen en binnen een maand reageren op het verzoek van de betrokkene.

Dan komt het stuk minderjarigheid nog om de hoek:

De AVG geeft kinderen jonger dan 16 jaar extra bescherming. Want kinderen kunnen de risico’s van een gegevensverwerking niet of minder goed inschatten.

Kinderen jonger dan 16 jaar kunnen zelf geen geldige toestemming geven voor het verwerken van hun gegevens. Toestemming is alleen geldig als een van de ouders of verzorgers van een kind de toestemming geeft. En als u daarnaast aan de gewone vereisten voor toestemming voldoet.

Verwerkt u gegevens van kinderen online? Bijvoorbeeld via een app, online game, webwinkel of via sociale media? Dan mag u dit bij kinderen onder de 16 jaar alleen doen met toestemming van een van de ouders of verzorgers.

Deze eis geldt specifiek wanneer u een kind een aanbod doet dat valt onder ‘diensten van de informatiemaatschappij’. Dus als u persoonsgegevens van kinderen wilt gebruiken voor marketingdoeleinden of om persoonlijkheids- of gebruikersprofielen op te stellen. En ook als u persoonsgegevens over kinderen wilt verzamelen bij het gebruik van rechtstreeks aan kinderen verstrekte diensten.

[Reactie gewijzigd door Bor op 20 december 2025 17:08]

Het is dus niet absoluut "zeker wel".
Wat ik ook niet zeg.
Een bedrijf mag zo’n automatisch besluit over iemand nemen als:

1. Dit besluit noodzakelijk is om een contract met deze persoon af te (gaan) sluiten of uit te (gaan) voeren.
Wat hier dus het geval is.
De AVG geeft mensen dus het recht op een menselijke blik bij automatische besluiten die rechtsgevolgen of andere serieuze gevolgen voor hen hebben.
Wat niets anders betekent dan dat er een beroep gedaan mag worden om een herbeoordeling of bij aanvang een verificatie die met de hand gedaan wordt. Het gaat hier echter om detectie of er aan de voorwaarden wordt voldaan waar de gebruiker mee akkoord is gegaan, dus dat kan alleen tijdens gebruik/achteraf tenzij je van tevoren iedereen gaat screenen (met ID) en dat kan dan weer niet vanwege het ontbreken van een wettelijke vereiste en is al met al gewoon een gigantische berg rompslomp die je helemaal niet wil.

je mag in dit soort gevallen een AI een beslissing laten nemen. Ja er zijn uitzonderingen en je moet een aantal opties aanbieden, maar het mag wel een uitsluitend AI beslissing zijn.
De AVG geeft kinderen jonger dan 16 jaar extra bescherming. Want kinderen kunnen de risico’s van een gegevensverwerking niet of minder goed inschatten.
Jongeren van <18 jaar mogen dit platform niet gebruiken. Derhalve is deze regel niet van toepassing vooraf.
Anthropic is working on a new way to identify and boot users who are under 18.

[..]

Anthropic, which doesn’t allow users under 18 to chat with Claude, is rolling out measures that it will use to detect and disable the accounts of underage users. It’s developing a new system capable of detecting “subtle conversational signs that a user might be underage,” and says it already flags users who self-identify as a minor during chats.
Je moet dus 18+ zijn.
Deze eis geldt specifiek wanneer u een kind een aanbod doet dat valt onder ‘diensten van de informatiemaatschappij’.
Wat dus nooit het geval is als de gebruiker er niet over liegt (want 18+)
Bor Coördinator Frontpage Admins / FP Powermod @supersnathan9420 december 2025 18:15
Wat ik ook niet zeg.
Nee, je voegt er "in dit soort gevallen" aan toe zonder onderbouwing. Het is echter niet zo zwart wit als jij doet voorkomen.
Wat hier dus het geval is.
En dus? Dit zijn de voorwaarden waaronder het zou mogen met mitsen en maren.
Wat niets anders betekent dan dat er een beroep gedaan mag worden om een herbeoordeling of bij aanvang een verificatie die met de hand gedaan wordt.
Dat klopt, wordt daar hieraan voldaan?
Jongeren van <18 jaar mogen dit platform niet gebruiken. Derhalve is deze regel niet van toepassing vooraf.
Eh de automatische beslissing is juist op toepassing voor kinderen, ook jonger dan 16 jaar; namelijk om deze buiten te sluiten. Deze regel is dus van toepassing.
Je moet dus 18+ zijn.
Men wil geautomatiseerd beslissen of iemand 18+ is om jongeren uit te sluiten toch? Dan is de beslissing dus juist van toepassing op mensen die waarschijnlijk (want Ai staat er nou niet om bekend geen fouten te maken) minderjarig zijn. Het staat zelfs letterlijk in het artikel:
Anthropic werkt aan een systeem om de leeftijd van gebruikers te voorspellen op basis van hun gesprekken met chatbot Claude. Als het systeem vermoedt dat gebruikers minderjarig zijn, wordt de toegang geblokkeerd

[Reactie gewijzigd door Bor op 20 december 2025 18:18]

Nee, je voegt er "in dit soort gevallen" aan toe zonder onderbouwing. Het is echter niet zo zwart wit als jij doet voorkomen.
De vraag was, “is het niet verboden?”

Simpele antwoord is dan gewoon nee, dat is het niet, dat er haken en ogen aan zitten met hoe de wet werkt lijkt mij nogal evident. die wete geldt namelijk in eerste instantie alleen hier (GDPR) en niet in de VS of in Azië.

Dus het is sws al genuanceerder dan wat jij en ik vertellen maar dat is niet relevant voor de relevantie van mijn post. Het antwoord is gewoon niet dat het verboden is en dat zeg je zelf ook.
Volgens wie zou dit dan niet zijn toegestaan precies denk je? :D
Je zult maar op 29 februari geboren zijn
Je zult maar op 29 februari geboren zijn
Dat argument haal ik regelmatig aan bij kassacontroles in de supermarkt als ik alcohol houdende producten bij de zelfscan kassa afreken. Alsof ze water zien branden.
Of ze houden niet zo van flauwe grapjes. Kan natuurlijk ook.
De kans dat de gemiddelde supermarkt medewerker dit soort grapjes niet begrijpt, is groter.

Dat is een doordenkertje.
Ja ik had al in de gaten dat je je nogal verheven voelt boven anderen. Niets aan door te denken.
Geen vibe coden voor 14-jarigen?
Ik hoor al 60 jaar: "Wordt nou eens volwassen". Dit "voorspellen" van leeftijd lijkt me geen goede zaak. Online identificeren en daarmee in een databse komen trouwens ook niet.....
Die chatbots zijn zelf minderjarig
Doet dat er toe? Zoja hoe dan?

Een minderjarige mag mij ook sigaretten en alcohol verkopen toch? En die mag dat zelf niet kopen...

[Reactie gewijzigd door watercoolertje op 19 december 2025 15:53]

Een minderjarige mag jou geen sigaretten en/of alcohol verkopen
Een minderjarige mag jou geen sigaretten en/of alcohol verkopen
Onderbouw het eens met een linkje naar de wetgeving daarover dan.

Ik heb het tegendeel in ieder geval al voor je opgezocht!

https://www.khn.nl/veelge...jongeren-alcohol-schenken
Hoewel deze groep jongeren zelf geen alcohol mogen bestellen, mogen 16- en 17-jarigen wél werken in een café of restaurant en alle soorten drank schenken aan gasten.
https://business.gov.nl/regulations/sales-tobacco/
Employees selling tobacco must be aged 16 years or older.

[Reactie gewijzigd door watercoolertje op 19 december 2025 16:27]

Als we minderjarig zien als onder 18 heeft @Exception ongelijk, je mag het beiden verkopen vanaf 16 jaar oud, uitzonderingen daargelaten.

https://ondernemersplein.overheid.nl/wetten-en-regels/tabak-verkopen/

https://ondernemersplein....-regels/alcohol-verkopen/
Ah excuus, dan loop ik wat achter. Vroeger was dit gelijk aan de minimale leeftijd voor alcohol (16). Dat weet ik nog van mijn bijbaantje bij de supermarkt. Ik ging er vanuit dat dit ook verhoogd was naar 18, maar dat blijkt dus van niet. Excuus.
Ik denk dat dat te problematisch was om te doen, doordat dan veel jongeren hun baan zouden verliezen. En aangezien je voor kassawerk sowieso al 16 moet zijn was het waarschijnlijk makkelijker dat zo te houden.
En voor het oorspronkelijke argument maakt het ook niet uit, want ChatGPT is hooguit 4 en nog lang geen 16 ;)
Ik heb geen idee wat je probeert te zeggen met je compleet incorrecte analogie.
Geen idee wat je er incorrect aan vindt. Wat moet ik hier precies mee?

[Reactie gewijzigd door watercoolertje op 19 december 2025 16:20]

Watercoolertje komt hierdoor helaas niet door de leeftijdstest :)
6 7 ... you've been blocked

Om te kunnen reageren moet je ingelogd zijn