Autoriteit Persoonsgegevens zoekt ervaringen met AI die emoties herkent

De Autoriteit Persoonsgegevens zoekt naar mensen die persoonlijke ervaring hebben opgedaan met emotie-AI. Dat zijn systemen die op basis van biometrie emoties lijken te herkennen. De AP wil deze ervaringen bespreken in de komende Rapportage AI & Algoritmerisico’s Nederland.

Volgens de Autoriteit Persoonsgegevens probeert emotie-AI op basis van gegevens zoals gezichtsuitdrukking, toonhoogte van de stem, transpireren of hartritme een oordeel te vormen over iemands emotionele toestand. De AP is op zoek naar mensen die persoonlijke ervaring hiermee hebben. Dat kan bijvoorbeeld omdat apparaten voor privégebruik emotieherkenning toepassen of een organisatie dat deed tijdens klantcontact.

De ervaringen en input zijn bedoeld om een beeld te vormen van het gebruik en de risico’s van de technologie in de praktijk. De privacytoezichthouder gaat de resultaten op geanonimiseerde wijze bespreken in de komende Rapportage AI & Algoritmerisico’s Nederland. De AP brengt deze RAN ieder halfjaar uit om inzicht te geven in trends en ontwikkelingen van de inzet van deze technologieën in Nederland.

Door Idriz Velghe

Redacteur

18-04-2025 • 14:47

22

Submitter: wildhagen

Reacties (22)

22
22
17
0
0
3
Wijzig sortering
Iedereen met een LG TV binnenkort..
Beetje loze opmerking om zonder context te plaatsen. Waarom iedereen met een LG tv binnenkort? Heb ik iets gemist?
LG wil de emotionele context van wat je kijkt gebruiken om meuk te slijten, dus niet je eigen emotionele staat en niets met biometrie.

Al ben ik nog steeds van mening dat tv's niet aan het internet moeten ;)
Moeten we op TV's ook de camera gaan afplakken..
3CX heeft een AI plugin voor hun PBX systemen die de "emotionele toestand" van klanten meet, en zo vervolgens kan rapporteren per agent hoe gelukkig of ongelukkig de gemiddelde klant is.
Beetje lastig volgens mij, want zonder context gaat dit nergens over.
Iemand die op een aftersales dienst werkt zal vaker ongelukkige klanten aan de lijn krijgen dan iemand op een verkoop afdeling.
Verder is het maar de vraag of dit wettelijk ook allemaal toegestaan is.
Ze bieden transcriptie aan voor alle gesprekken, maar ik kan me voorstellen dat dit privacytechnisch niet helemaal okee is.
dit is geen vraag, dat is wettelijk geregeld in de AI-act. Emotieherkenning met biometrie is hoog risico AI en komt met een berg voorwaarden....
Sterker nog, werkplek en dus compleet verboden.
Lol, dit doet me denken aan;
Tommy Lee Jones in Man of the house YouTube: My happy face en Jackie Chan in Tuxedo, It`s my happy face YouTube: Jimmy asks out Delilah

[Reactie gewijzigd door GameNympho op 19 april 2025 22:59]

Doet me een beetje denken aan mix van de fictionele TV-shows "Person of Interest" en "Lie to Me". Ik vraag me soms af of we in combinatie met de technologie die het nu mogelijk zou kunnen maken steeds meer voorheen fictie een realiteit maken.

"Person of Interest" voornamelijk om dat de nadruk op AI ligt en voor "Lie To Me" het herkennen van emoties.
In the show, Dr. Cal Lightman (Tim Roth) and his colleagues in The Lightman Group accept assignments from third parties (commonly local and federal law enforcement), and assist in investigations, reaching the truth through applied psychology: interpreting microexpressions, through the Facial Action Coding System, and body language.

[Reactie gewijzigd door cane op 18 april 2025 15:24]

Het is belangrijk om te weten dat die serie vooral fictie is: body-language experts, het ‘meten’ van microexpressions, is allemaal net zo betrouwbaar als een polygraph—namelijk helemaal niet. Body language experts, en alles wat daar op lijkt, is al talloze keren debunked. Dat kun je op YouTube zien, op rationalwiki, of letterlijk elk wetenschappelijk platform naar wens.

In het verlengde daarvan vind ik het van belang dat we enorm sceptisch zijn op AI die pretendeert dit te kunnen, want mensen gaan dat gewoon geloven—net zoals ze nu al hallucinaties van AI geloven (zie ook: die advocaten die AI gebruikten case in de VS).
@IdrizV Doet me denken aan dit artikel:
nieuws: Algoritme beter dan mensen in herkennen van micro-gezichtsuitdrukkingen

Toen noemde we het trouwens nog gewoon een algoritme, nog geen AI :)

[Reactie gewijzigd door djwice op 18 april 2025 20:35]

Lijkt wel of ze een leugen detector willen maken/testen oid.
De AP is toezichthouder op verwerking van persoonlijke gegevens. Als ze ervaringen willen weten van personen die te maken hebben gekregen met dit soort verwerking dan gaat het waarschijnlijk om bijvoorbeeld het achterhalen welke ai systemen er bestaan (niet alle bedrijven melden dit), wat die apparaten (niet) lijken te doen bij de verwerking, wat de personen aan de werking en verwerking wel of niet bevalt en of het lijkt te voldoen aan de gestelde eisen. En dat soort kennis kan de toezichthouder dan gebruiken om meer gericht te adviseren waarop personen rekening mee kunnen houden, extra te wijzen op eisen richting verkopers en fabrikanten en om te adviseren naar wetgevers.
Dat,maar ze worden vanaf 2 augustus ook markttoezichthouder voor de AI Act en een van de verboden onder die wet is emotieherkenning op de werkplek en in het onderwijs. Dus mijn inschatting is dat ze voorsorteren op handhaven daarvan.
Niet alleen de AI act, maar ook de Platformworkers Regulation verbiedt dat, waarbij waarschijnlijk ook een rol voor (dezelfde afdeling van) de AP is weggelegd.
Wat is de reden dat emoties niet gedetecteerd mogen worden op de werkplek?

Ik heb een collega die emoties niet kan herkennen bij andere mensen, hem moet de emotie letterlijk verteld worden, al staat iemand vol emotie voor hem, hij heeft geen idee.

Het kan voor hem - en ons - juist fijn zijn als hij een hulpmiddel kon gebruiken die aan kan geven welke emotie de ander waarschijnlijk heeft.

Uiteraard mogen er dan geen false voorspellingen zijn, want hij zou blind varen op wat de tool vertelt en het voor waar aannemen, boven wat hem gezegd wordt.
Dat is dan een enorme uitzonderingspositie voor puur persoonlijk gebruik. Met emotieherkenning op de werkplek associeer ik het zakelijk gebruik ervan; massa surveillance om elke seconde van elke dag te meten hoe individuen erbij zitten. Laten we dat aub tot de persoonlijke integriteit houden en uit menselijkheid tot gesprekken daarover met elkaar komen.
Anders aardig wat branches die hier heel warm voor lopen. Direct of indirect.
Professionele (video) content creators, in de gaming industrie, ad co's etc.
Dan heb je het niet zo over je huis, tuin en keuken youtuber.

Als modellen dit kunnen overnemen dan is er een hoop hardware, anders mogelijk in de toekomst, die heel veel data, technisch mogelijk in ieder geval, kunnen aanleveren.

For better or worse.


Om te kunnen reageren moet je ingelogd zijn