AP waarschuwt voor opkomst van AI-systemen die emotie kunnen herkennen

Een groeiend aantal bedrijven overweegt AI-systemen te implementeren die emoties van klanten kunnen herkennen, bijvoorbeeld bij de klantenservice. Daarvoor waarschuwt de Autoriteit Persoonsgegevens, die zegt dat daar grote risico's aan verbonden zijn.

De Nederlandse privacytoezichthouder schrijft dat in zijn halfjaarlijkse Rapportage AI & Algoritmes. De AP kijkt daarin naar de huidige staat van algoritmes die in het bedrijfsleven en bij de overheid worden ingezet. In het nieuwe rapport constateert de AP specifiek dat bedrijven die hun eigen klantenservice beheren en leveranciers van klantenservicediensten steeds vaker overwegen AI voor emotieherkenning in te zetten. De AP zegt dat een klein deel van de organisaties zulke systemen nu al inzet, maar bijna 90 procent van de organisaties 'verwacht een toename van het gebruik van emotieherkenning voor klantcontact'.

Het is daarbij wel belangrijk op te merken dat de groep respondenten in het onderzoek klein is. De AP zette een enquête uit onder bedrijven die zijn aangesloten bij branchevereniging Klantenservice Federatie, waarop 29 respondenten antwoordden.

Van die respondenten zou 45 procent, ofwel 13 organisaties, 'potentie zien' in dergelijke emotieherkenningsystemen. Dat zijn systemen die op basis van verschillende factoren, zoals gezichtsuitdrukkingen, proberen te bepalen welke emotie iemand ervaart. De AP zegt dat er buiten klantenservicedoeleinden ook steeds meer andere plekken in de maatschappij te vinden zijn waarbij AI voor emotieherkenning wordt gebruikt. Zo worden ze op openbare plekken ingezet om de veiligheid in de gaten te houden door agressieve personen te herkennen, of in bepaalde marketinguitingen om te zien of een klant over wil gaan tot koop.

De AP waarschuwt, grotendeels preventief, voor de risico's van emotieherkenning. "Emotieherkenning gaat uit van omstreden aannames over emoties en de meetbaarheid daarvan", zegt de toezichthouder. Ook verzamelen dergelijke AI-systemen meestal biometrische gegevens. Ze brengen daarnaast een groter risico op discriminatie met zich mee. AP-voorzitter Aleid Wolfsen waarschuwt ook dat systemen vaak niet goed genoeg werken. "Als je emoties wilt herkennen, moet dat dan ook zeer zorgvuldig en op basis van betrouwbare technologie gebeuren. Daar is nu vaak geen sprake van."

Overigens spreekt de AP zich niet uit voor of tegen de wenselijkheid van zulke systemen. De toezichthouder waarschuwt enkel voor de risico's ervan en zegt dat die aan de wet, zoals de AVG en de AI-verordening, moeten voldoen. "Het is een ethisch vraagstuk of je als maatschappij het herkennen van emoties met AI toelaatbaar vindt. Daarvoor is een maatschappelijke en democratische afweging nodig: of je deze systemen wilt gebruiken en zo ja, in welke vorm en waarvoor."

Update, 10.01 uur - de rapportage komt ieder half jaar uit en niet ieder jaar, zoals eerst in de tekst stond.

Door Tijs Hofmans

Nieuwscoördinator

16-07-2025 • 08:47

101

Submitter: Maupertus

Reacties (101)

Sorteer op:

Weergave:

Tijdens functionering gesprek
"Is er iets met je, onze AI camera's detecteren dat je de status:"sad" de afgelopen periode had."

Is dit een ontwikkeling die we wel of niet willen hebben, ik weet het nog niet zo. Aan de ene kant gun ik niemand een bore or burn out. Aan de andere kant AI camera's....
Op de werkvloer mag het niet. Volgens de nieuwe AI-verordening is het verboden om emotieherkenningssystemen toe te passen op de werkvloer of in het onderwijs (artikel 5 onder f AI-verordening). Het idee hierachter is dat er in die situaties een machtsrelatie is waar de werknemer zwak staat. Om deze te beschermen is het als verbod opgenomen in de verordening. Dezelfde redenering gaat voor toepassing in het onderwijs.

Voor andere toepassingen van emotieherkenning is het niet per se verboden, maar moet men wel aantonen dat de inzet ervan verantwoord is (bijlage III, lid 1 onder c AI-verordening). Voor toepassing binnen klantenservice kan het dus op zich wel, maar dient men wel aan een hele rits aan eisen te voldoen.

Dus tijdens een functioneringsgesprek mag je hier niet mee te maken krijgen.
Tijdens mijn tijd in de telecomindustrie was er al sprake van dit soort systemen voor klantenservice. Veel bedrijven durfden het toen niet aan. Je ziet nu AI meer gemeengoed wordt dat men veel vaker geneigd is om het wel te doen.
Ik zou bijna zelf iets inzetten om te zorgen dat er een buffer is tussen mij en het systeem..
Een sentiment analyse wordt gedaan op alle meetpunten die ze aan jou kunnen koppelen. Dus als je iets er tussen wilt hebben zou het iets moeten zijn wat jouw unieke kenmerk in de weg zit. Dus altijd met andere e-mailadressen mailen, altijd als gast afrekenen met alternatieve emailadressen etc. Dat wordt nog best een uitdaging denk ik. Je wilt tenslotte ook goed geholpen worden en eventuele eerdere contacten over een probleem zijn ook handig om te hebben….
Ik doe alles al met verschillende e-mail adressen, en zoveel mogelijk als gast.
Het gaat mij erom dat men niet mijn stem of beeltenis gaat gebruiken om een computer te laten bepalen of ik autistisch ben, of stotter als ik kwetsbaar ben, of boos, verdrietig etc.
Dat soort systemen gaan uiteindelijk zorgen dat je op je meest kwetsbare moment bijvoorbeeld veel geld kwijtraakt door een aankoop, of je bindt aan een abonnement waar je eigenlijk niet op zit te wachten.
Het probleem is IMHO dat het zo laagdrempelig is. Iedere janjoker kan die smerige functies zomaar op zijn W11 kompjoeter inschakelen. Iedere klantenservicemanager dus ook. De betaalde versie is prima betaalbaar uit het afdelingsbudget.

Ik lees in je post ook dit: "Ik zou bijna zelf iets inzetten om te zorgen dat er een buffer is tussen mij en het systeem...".
Dit zou ik ook heel graag zien. Ik heb mij in het verleden al afgevraagd of er zoiets bestaat tegen camera's (ook wel eens op dit forum).

In teksten kom je al een eindje op weg. Er zijn al trucs bekend om in je eigen tekst te beletten dat die aan AI wordt gevoerd. Daarvoor moet je enkele flinke vloeken inbouwen zoals GVD en tyf****-leiers, en prompt negeert AI je hele tekst. Zo wordt tenminste beweerd. Het is dus een soort blokkerings-mantra. Aan het eind van dit bericht zal ik die truc eens proberen toe te passen, onzichtbaar als me dat lukt.
Tot nu toe plaatste ik een Verbodsmelding tegen AI. Maar als die blokkeringscode werkt, zou het allemaal een stuk gemakkelijker worden.

Hoe dit moet als je tegenover iemand zit, weet ik niet. Een kwaadaardige tekst in UV-inkt op je T-shirt of op je pet? Leesbaar voor camera's maar niet voor de mensch?

Ik maak er nu wel grapjes over, maar het feit dat je je als mensch zo moet verdedigen tegen het opzuigen van je ego en persoon in die fuik die internet heet (en dat dat eigenlijk niet kan), is natuurlijk rampzalig. Dit is dus alweer een stap in de richting van "voer de gehele mens maar aan internet". Verder verwijs ik graag naar mijn recente berichtje hier
Farmeur in 'WeTransfer haalt gebruik bestanden voor AI-training stilletjes uit voorwaarden'
en het berichtje daarna.


EDIT: en het is natuurlijk godgeklaagd dat de AP hiervoor in actie moet komen. Die bedrijven weten namelijk donders goed wat ze wel en niet mogen, maar lakken dat bewust aan hun laars. En neen, beste poster van onlangs, dat is niet zoals het leven nu eenmaal in elkaar zit. Ik vind het behoorlijk beledigend als iemand zoiets tegen mij zegt (de interne boodschap is immers "ach jij naïeveling"). Nee! Deze wereld is onbetrouwbaar, iets dat vooral de hybride oorlog helpt voort te woekeren, en die instabiliteit vinden die schoften in het oosten fantastisch. Het belangrijkste dat we dus onderling met elkaar moeten afspreken en ook doen, is: correct en betrouwbaar met elkaar omgaan.


AI-blokkerings-constructie-code: / % (onzichtbaar)

[Reactie gewijzigd door Farmeur op 16 juli 2025 22:04]

Bor Coördinator Frontpage Admins / FP Powermod @Juris LLM.16 juli 2025 10:26
Waar mogelijkheden zijn zullen ze worden toegepast. Bedrijven zoeken meer dan eens de grens van het toelaatbare en wenselijke op of gaan daar overheen. Bovendien moet je dit ook breder bekijken. Diverse regimes en landen trekken zich niets aan van welke Ai verordening, richtlijn of wetgeving dan ook.
Waar bespaard kan worden zullen ze worden toegepast.
Bor Coördinator Frontpage Admins / FP Powermod @107mb16 juli 2025 12:27
Het hoeft niet alleen om besparen te gaan. Als je op deze manier nieuwe inkomsten kan genereren zal men er ook snel voor willen kiezen. Toezicht is bovendien lastig.
Besparen op de kleine dingen aan de andere kant smijten ze het geld over de balk met dit soort systemen.
Het mag niet nee, maar management gaan deze tools wel toepassen om risico's buiten de deur te houden.
Ze zullen het gewoon nooit hardop zeggen. Net zoals de andere dingen die niet mogen en toch gebeuren.

Nee er zijn inderdaad ook goede werkgevers...
Tijdens een maatschappelijk functioneringsgesprek bij de politie.

Er is bij het toepassen van AI, camera's, profileren, in principe altijd een machtsrelatie tussen wie kiest het toe te passen en anderen daar onderwerp van te maken. En hoewel sommige machtsverhoudingen nauw verbonden zijn met de grondbeginselen van onze rechtsstaat zijn veel andere dat juist niet.

Het nmm niet te rijmen dat een toezichthouder wel heel streng is wat betreft camera's in openbare ruimte maar nauwelijks streng is voor een nog veel verdergaand gebruik daarvan op verwerking van nog veel persoonlijkere gegevens. Terwijl de praktijk is dat een aanzienlijk deel van de samenleving, tot en met zelfs de handhavers, maling hebben aan de strenge beschermende eisen en graag anderen er aan onderwerpen, zonder enige effectieve machtsgelijlheid voor wie men er allemaal aan onderwerpt. En met AI is dat net zo. De personen van wie men de gegevens verwerkt laat men meestal niet eens weten welke verwerking aan beeld, geluid, ai-herkenning enz er plaats heeft. Niet in de laatste plaats omdat wie dat doet het zelf niet eens lijkt te interesseren wat er werkelijk aan verwerking plaats heeft.
Daarop aanvullend, de platformwerkersrichtlijn heeft ook expliciet dit verbod in zich. Aan de ene kant zou je kunnen zeggen dat het dubbelop is, gezien het feit dat diezelfde richtlijn van alle platformwerkers echte werknemers maakt en geen 'contractworkers', maar omdat die platform apps al heel ver gaan in het controleren en beinvloeden van de gebruikers is het goed dat daar op wordt gereageerd.
Bedankt voor je uitleg, helder!
Verademend zo'n tekst zonder spatiefouten of onnodige Engelse woorden.
Dus nu krijg ik twee mannen tegenover me, mijn baas en zijn baas..Ze zeggen dingen die niet waar zijn en mij zeer raken. De ander ziet mij emotioneel worden als ik voor de 3e keer moet aangeven dat het niet klopt.
En registreert dat als onprofessioneel gedrag.

Wat zei zeiden en deden staat niet in het verslag en het geloofd hen wat ze waren met twee.

Soms heb je liever objectieve observanten.
Jij als werknemer mag er wel mee te maken krijgen in een functioneringsgesprek. Graag zelfs, want je werkgever doet iets illegaal.
Wat is dit voor kromme redenatie? Het is gewoon illegaal, dus nee, je mag en moet er gewoon niet mee te maken krijgen. Niet tijdens het werk zelf, en niet tijdens een functioneringsgesprek.
Ik wil nergens met die flauwekul te maken krijgen.
want iedereen die illegale dingen doet, hangt dit aan de grote klok om erop gepakt te worden |:(
Of iemand "sad" is is natuurlijk totaal niet relevant voor een functioneringsgesprek.

Wat relevant is is of iemand hun werk goed doet.
Inderdaad, plezier hebben in je werk is volledig onbelangrijk! Het maakt totaal niet uit, zolang je maar je taak uitvoert. Werken zul je, en morgen weer!
Dat is niet wat ik zeg. Het is voor de werkgever niet relevant hoe iemand erbij zit.

Sowieso is stemming niet altijd gerelateerd aan werk. Je kunt thuis wel een zieke hond hebben liggen die je stemming drukt, maar verder niet beinvloed hoe je je werk doet.

Is dat dan van belang voor de werkgever om te weten? Nee. Niet als de werknemer ervoor kiest om dat niet te delen.
Het is voor de werkgever niet relevant hoe iemand erbij zit.
Maar dat zou het wel moeten zijn.... je depressieve werknemer is niet goed.... een 'te blije' werknemer (=high) ook niet.

Maar via AI bepalen? - nope.
Jij maakt er ook meteen depressief van, dat is nogal een verschil met even wat minder vrolijk zijn.

Depressie meet je niet met een momentopname en dus totaal onzinnig om dat direct aan elkaar te koppelen.

"Ik heb vandaag niet zo'n goeie dag" -> dan zal ie wel depressief zijn.
het voordeel van AI is om patronen te herkennen. Eens een slechte dag hebben zal niet meteen gelinkt worden aan depressie, maar net zoals een empatische collega of manager dit kan merken, zou een AI het ook kunnen en dan proactief verwittigen in de hoop dat je de werknemer in kwestie kan ondersteunen. Het moet niet altijd direct negatief zijn, zeker in het geval van depressie kan het lang duren voordat dit opgemerkt wordt en dan is het meestal al veel te laat.
Ja, dat is dus ook een andere emotie (minder vrolijk)....

En dat het moeilijk is om van elkaar te onderscheiden....ja.... (want zelfs meerdere dagen niet vrolijk is nog steeds geen depressie bijv.)

Maar het geeft toch aan hoe complex het is?
Maar vooral ook dat werkgevers hier wel degelijk in geinteresseerd zouden moeten zijn [via hun HR afdeling].
Ik weet niet of je een werkgever bent of waar je werkt maar er zijn in mijn ervaring wel degelijk bedrijven die handelen als er iets niet goed gaat met een werknemer. Iemand kan bijvoorbeeld tegen een burnout aanzitten, het is dan goed om daarnaar te handelen.
Ik zie een situatie waarin iemand tien maanden lang goed heeft gefunctioneerd. En dan ineens minder presteert. Vervolgens wordt die persoon door AI geanalyseerd, en krijgt de werkgever een melding: verhoogd risico op burn-out, met een bepaald percentage. Plotseling gaat de vaste aanstelling of contractverlenging niet door. Het draait dan niet meer om goed functioneren, maar om de vraag: hoe lang houdt iemand het nog vol zonder mentaal of fysiek uit te vallen?
Kan gewoon een momentopname zijn...
Goed werkgeverschap houdt in dat je rekening houdt met gevoel van medewerkers. Als je dat niet doet, succes met het behouden van je medewerkers.
Ah, zou dat misschien zijn waarom @Haruhi dat als ongewenst voorbeeld nam?
Als iemand zijn werk niet goed doet dan kan dat aan heel veel factoren liggen. Als dat komt omdat de persoon in kwestie 'sad' is om welke dan ook dan is juist het feit dat de persoon 'sad' is wel heel erg van belang. De werkgever/collega's moeten dan kijken of en hoe ze dat weg kunnen nemen op de werkvloer..
Daarbij ga je er vanuit dat de negatieve emotie komt door de werkvloer.

Misschien houd iemand wel van het werk maar zijn er andere dingen in hun leven die voor negatieve emoties zorgen.

Daarnaast is slecht werk afleveren sowieso een reden om door te vragen, daar heb je geen AI camera's voor nodig.
Dus bij zowel goed werk afleveren als slecht werk afleveren zijn ze overbodig.
Daarbij ga je er vanuit dat de negatieve emotie komt door de werkvloer.
Hij zegt letterlijk 'om welke dan ook dan', dus nee daar gaat hij niet vanuit...
Daarnaast is slecht werk afleveren sowieso een reden om door te vragen, daar heb je geen AI camera's voor nodig. Dus bij zowel goed werk afleveren als slecht werk afleveren zijn ze overbodig.
De discussie ging (dankzij je eigen reactie) specifiek over het wel/niet een zorg zijn van de werkgever als iemand zich 'sad' voelt. Niet of AI wel/niet nodig is om dat 'sad' te classificeren.

Ik weet zeker dat mijn werkgever wil dat ik lekker in mijn vel zit, los van of dat wel/niet invloed heeft op mijn werk. Ik wil ook dat hij lekker in zijn vel zit, lijkt me niet meer dan normaal met mensen waar je in de loop der tijd een band mee opbouwt...
Als manager zou ik toch best graag willen weten dat een medewerker sad is. Mijn primaire taak is mijn team gelukkig houden.

Maar dan wil ik niet leunen op AI. Wel op een werksfeer die openheid beloont met oplossingen en verbeteringen.
Tja daar wordt niet echt naar gekeken, later wel maar je hebt genoeg mensen die luid praten maar niks voor elkaar krijgen, vaak in grotere corporaties komen dat soort kwakzalvers vrij ver in een korte tijd. Echter na een langere periode realiseert men pas dat er een fout is gemaakt bij die beste persoon en je kan op de blaren gaan zitten als die dan al beste vriendjes is met de manager, CFO of CEO.

[Reactie gewijzigd door nonestpraens op 16 juli 2025 10:51]

Bunq bank doet dit al! Ik werd benaderd voor een functie bij Bunq en kreeg een uitnodiging voor een videocall, waarbij ze aangaven dat mijn gezicht en emoties gemonitord worden door een derde partij. Dat wilden ze in plaats van een cv. De 3e partij was een startup en had geen enkele vorm van assurance (SOC2, ISO, privacyverklaring enz.), waardoor ik kon zien dat ze veilig omgaan met mijn data. Ook moest ik met de camera mijn kamer laten zien, zodat ze zeker wisten dat ik alleen was (gebrek aan vertrouwen!). Op de website van de startup stond ook dat ze een profiel van je maken gebaseerd op emoties en AI inzetten als een leugendetector. Als kandidaat krijg je die functies niet.

Ik heb aangegeven geen interesse te hebben.
Dit klinkt al als een stevige voorselectie op mensen die bereid zijn (of wanhopig genoeg) om dit soort onzin te ondergaan.
Ik vraag me af of je daar we de juiste mensen mee binnen haalt. (Als het de bedoeling is om capabele mensen binnen te halen en niet vooral volgzame mensen.)
De verschillende problemen bij Bunq op het gebied van privacy, ethics en compliance laten zien dat ze niet de juiste mensen binnenhalen. Maar financieel lijkt het een succes te zijn, Bunq blijft doorgroeien en de toezichthouders zijn niet heel actief met toezicht op handhaving van wetten en regels. Het is een formule date werkt voor Bunq.
"Is er iets met je, onze AI camera's detecteren dat je de status:"sad" de afgelopen periode had."
"Ja, ik raak gedeprimeerd bij de gedachte dat ik de hele tijd in de gaten word gehouden" ;)

Continue monitoring, zoals cameratoezicht op de werkplek, met als doel om iemands functioneren te beoordelen (dus los van bijv. veiligheid) is gelukkig niet toegestaan, al gebeurt het in de praktijk helaas soms wel. Blijft zaak om alert te blijven... Ik werk liever op een plek waar je open met een leidinggevende daarover kunt communiceren, dan dat die mijn stemming moet afleiden uit een digitale analyse.
Was het niet Voight-Kampff die daar werk van heeft gemaakt?

Maar, inderdaad, ik zie dat wel gebeuren. Niet een samenleving waar ik in wil leven. Net als de camera’s die je in de gaten houden of je wel werkt. In sommige bedrijven zijn die al geïmplementeerd.
Ik zou zeggen ''gaat je geen moer aan hoe ik me voel'' NEXT hahah


Dit is wel erg eng trouwens
Wij zijn hier inderdaad ook mee bezig, aan de telefoon door AI laten herkennen of iemand boos is of blij is etc. Maar in het Nederlands werkt het gewoon nog steeds dramatisch. Engels werkt prima, maar we kunnen moeilijk zeggen dat je de klanten service alleen in het Engels mag bellen...
Ik weet niet wie de "wij" is waar jij bij hoort. Maar wat is exact de meerwaarde om te weten of iemand blij of boos is aan de telefoon?

Daarnaast neem ik aan dat je klantenservice medewerkers dat ook prima in kunnen schatten toch?
Welke klantenservice medewerkers?
De onderbetaalde werkpaarden in een aziatische sweatshop achter de vertaal-AI-tweewegproxy die de chat moeten oppakken als de AI-bot er niet meer uitkomt.
Zoals hieronder ook wel aangegeven, inderdaad voor statistieken. Kunnen we ergens in onze keten iets veranderen waardoor klanten minder boos zijn. En kunnen we mensen aan de telefoon verder helpen om hier mee om te gaan of nog beter kunnen voorkomen. Het zou best kunnen zijn dat er bepaalde patronen zijn waardoor klanten eerder boos worden, dan kunnen wij die verbeteren!
Dat kun je zeker! Alle tenenkrommende AI uit je klantenservice trekken. Zoals de telefoonmenu’s waar je tegen moet praten.


Wat een drama. Wordt altijd zo giga agressief als je dan een verkeerde samenvatting terugkrijgt van je probleem, met daarna als oplossing om precies datgene te doen waarvan ik al gezegd heb dat het niet werkt.
Hier ben ik het helemaal mee eens hoor. Ik heb er ook een gruwelijke hekel aan, maar als een simpele developer heb ik hier niet heel veel over te zeggen...
yeah I know. Ik ken het probleem

Ik ben echt wel te spreken over AI hoor, maar de manier waarop het nu wordt ingezet is gewoon tenenkrommend.
Grappig, dit zou op basis van de AVG al niet toegestaan zijn. Dit klinkt als een heel extreme vorm van monitoring. Waarom kan de klantenservice niet aangeven of de klant boos was of niet? Daarvoor hoef je AI niet het gesprek te laten analyseren.
Waarom kan de medewerker met wie jullie klanten spreken niet zelf op een knopje "klant was wel/niet blij" drukken? Tenminste, ik neem aan dat jullie klantenservice nog steeds wel bemenst is?
Volledig mee eens. Dit zou bij ons niet door de privacyhoepel komen.
Statistieken en inzicht? Als veel klanten boos zijn dan kan dat een signaal zijn dat dingen moeten veranderen. Na de verandering kun je meten of klanten minder of meer boos zijn.
Maar wat is exact de meerwaarde om te weten of iemand blij of boos is aan de telefoon?
Is dat het meest logische ding dat bedrijven wil weten?
Zijn mijn klanten tevreden/ontevreden over een product, waarderen ze de klantenservice, welke medewerker heeft meer en welke minder positieve interacties, en ga zo maar door.

Ik zie best wel positieve kanten van dergelijke systemen, en ook hele enge kanten, die zeker misbruikt gaan worden door managers die meer in het sociopathische spectrum vallen.

[/q]Daarnaast neem ik aan dat je klantenservice medewerkers dat ook prima in kunnen schatten toch?[/q]
Heb je wel eens klantenservice contact, dat kan zijn van zijn van geweldige hulp, tot waarom praat ik met dit persoon, die blijkbaar nog minder weet dan jezelf.

Van wat ik zie, gaat AI binnen 5j echt de wereld veranderen, eerst eenieder die redelijk simpel administratief werk doet, gaat vervangen worden, dan van laag tot midden opgeleide, creatieve en de hogere die geen idee hebben hoe een AI prompt werkt gaan grotendeels hun baan verliezen.

In de US zie je het al (AI werkt op het moment voornamelijk goed in het Engels), dat voor jongere met een MBO dat voor heen gegarandeerd werk, ze opeens geen werk meer kunnen vinden.
Waar werk je? Dan zorg ik dat ik jullie nooit hoef te bellen, belachelijk gedoe.
Even los van nut en noodzaak... Hoe doen jullie dat dan met de betrokkene informeren en het verlenen van toestemming? Je verwerkt persoonsgegevens van degene die aan de lijn zit voor een doeleinde dat niet noodzakelijk is voor het leveren van de dienst op dat moment.

[Reactie gewijzigd door Tc99m op 16 juli 2025 09:13]

Dat zijn nou 1 van de zaken wat nog onderzocht moet gaan worden, kan ik nu dus geen antwoord nog opgeven!
gelukkig zijn er meerdere wegen dsn toestemming… maar dit zou niet door het gerechtvaardigd belang kunnen komen dus inderdaad, toestemming is je redmiddel.
Dus het hangt af van het taalgebruik (en niet intonatie) ?

En hoe is het relevant? Andere antwoorden/vragen?

En AI is al typisch slecht [...ervaring met service desk chatbots] in het opvolgen/oplossen van simpele problemen....let's bring emotions into the mix..... 8)7
Dat is wisselend. Wij zetten AI (beperkt) in als coach. Het klinkt raar want de meeste mensen denken dat juist dat 'luisterend oor' iets is waarvoor je bij mensen terecht moet komen, maar de praktijk wijst uit dat een LLM hier eigenlijk veel beter in is! Juist de relevante en correctie informatie komt bij de expert vandaan, maar de begeleiding en het 'zachte' gedeelte kan door een AI opgevangen worden.

Totaal niet wat we hadden verwacht. Onze deelnemers zijn zeer te spreken over de AI ondersteuning. Die is namelijk altijd beschikbaar, nooit moe, boos of gefrustreerd, heeft nooit weekend of ruzie met z'n vrouw... Het wordt echt ervaren als een maatje en een mentor.

Het herkennen van emoties en wat daar dan vervolgens mee gedaan moet worden... dat is wel een lastige. Je kunt al zeggen tegen de AI dat je moe bent of boos of ongemotiveerd en daar wordt dan (soort van) passend op gereageerd en de AI kan het taalgebruik of tempo daarop aanpassen. Het wordt wel spannend wanneer de AI dingen gaat zeggen als: "Ik merk dat je boos bent." Getsie... ik krijg al jeuk wanneer mensen dat zeggen. Zo meteen zitten we met een AI die ervan overtuigd is dat een deelnemer zwaar depressief is terwijl er een kop sterke koffie nodig is.

Die hallucinaties en aannames moet je helemaal niet hebben.
Hmmm... als dit bij wijze van onderzoek is, dan moet je wel de 'deelnemers' daarop wijzen.
Jij denkt dat het in het Engels goed werkt. Maar als ik naar taal-instellingen van bijvoorbeeld LibreOffice kijk, dan zie ik veel verschillende landen die zelf officieel Engels spreken en schrijven waarbij ik weet dat daar een totaal verschillende volks-aard achter zit. En dat nog los van iedereen die daar als 2e of 3e taal mee werkt. Een upper-class Engelsman zal heel anders reageren dan de gemiddelde Australier. Vergelijk dat met een Canadees of een Ier.

In het Nederlands, of om het even welke Europese taal dan ook, gaat het zeker moeilijk werken. Een Fin en een Italiaan die een bepaalde reactie hebben, zullen daar een compleet verschillende emotie achter hebben. En binnen Nederland kan dat verschil er al zijn met een Limburger en een Fries, of een Achterhoeker en een Amsterdammer.
Gaat dit over beeldherkenning of spraakatroon herkenning? Want voor het eerste bestaat AI emotieherkenning al bijna 10 jaar.
En daar werd vroeger door de AP ook al tegen opgetreden, denk aan de reclameborden van de NS die zaken probeerde uit te lezen wanneer je er naar keek:
nieuws: AP gaat NS vragen stellen over reclameschermen met camera's op stations

Voorbeeld output van een vergelijkbaar systeem van een medetweaker:
https://tweakers.net/foto...RWyw36qfuap9hH8OeUcUf.jpg

[Reactie gewijzigd door jdh009 op 16 juli 2025 09:02]

Bor Coördinator Frontpage Admins / FP Powermod @jdh00916 juli 2025 10:22
Waar je naar kijkt hoeft nog niets te zeggen over de emotie (gevoel) die iemand ervaart. Echt een emotie herkennen is een stap verder dan alleen detecteren waarnaar iemand kijkt. Daar kan je geen medeleven, verlangen, walging etc uit afleiden.

Het nauwkeurig herkennen van emoties maakt van alles mogelijk. Van het herkennen van bv het herkennen naar welke reclame het beste aanslaat tot het bepalen van politieke voorkeur, sexuele voorkeuren etc. Moeten we dit echt willen?

[Reactie gewijzigd door Bor op 16 juli 2025 10:24]

Natuurlijk is kijken niet hetzelfde als emotieherkenning, maar in de context van toezicht is het wel een voorstadium. Beide vallen onder AI-gestuurde gedragsanalyse met biometrische input. De AP heeft juist al eerder ingegrepen bij systemen die registreerden waar je naar keek, zoals in het voorbeeld dat ik deelde, juist omdat zulke observatie de basis vormt voor verdere interpretatie zoals “emotionele respons” of “aandacht”.

In haar recente AI-rapport zegt de AP expliciet dat emotieherkenning vaak wordt opgebouwd uit dit soort tussenlagen: gezichtsrichting, mimiek, stemgeluid, micro-expressies. De stap van detectie naar herkenning is dan eerder gradueel dan principieel. Daarom valt in mijn ogen ook zo’n tussenstap binnen het risicobereik dat de AP benoemt, zeker wanneer het gebeurt zonder expliciete toestemming of transparantie.

Je hoeft iemands verlangen of walging niet goed te kunnen herkennen om toch al in de fout te gaan qua privacywetgeving. De lat ligt niet bij perfecte herkenning, maar bij de aard van de gegevens en de aannames die het systeem erop projecteert.

En om je vraag te beantwoorden: moeten we dit echt willen? Nee, dat moeten we niet willen.

En er is daarom ook genoeg grond om bedrijven aan te pakken die dit wel willen. Emotieherkenning berust (vaak0 op het verwerken van (bijzondere) persoonsgegevens, direct of indirect. Via bijvoorbeeld biometrische gegevens zoals gezichtsscans, stemprofielen of hartslagmetingen. Dergelijke data vallen onder de AVG’s meest strenge regime, bijvoorbeeld artikel 9 AVG (link), waarbij je echt een duidelijke wettelijke verwerkingsgrondslag moet hebben. Dat kan via uitdrukkelijke toestemming van de betrokkene, of een zwaarwegend gerechtvaardigd belang dat geen inbreuk maakt op de rechten van personen (en die zijn er maar weinig, ik ken er op wat medische zaken na geen enkele bedenken).

Dat komt er feitelijk gewoon op neer dat het in de praktijk zeer moeilijk te rechtvaardigen is om iemands emoties uit biometrie te verwerken. Omdat dit iemands mentale toestand en eventueel gezondheidsgegevens raakt. Stressniveau bijvoorbeeld kan als gezondheidsinformatie worden gezien. Dat de AP dus al in voorstadia toezicht houdt, lijkt mij dus alleen maar goed.

[Reactie gewijzigd door jdh009 op 16 juli 2025 12:53]

Wat is het nut van: emotieherkenning voor klantcontact?
Bor Coördinator Frontpage Admins / FP Powermod @moonlander16 juli 2025 10:30
Dat zou het beter begrijpen van de klant kunnen zijn, het beter kunnen inspringen op iemand gemoedstoestand. Ik zou bv een use case. kunnen bedenken voor de geestelijke gezondheidszorg. waar cliënt en behandelaar voordeel bij kunnen hebben. Helaas weten we ook dat dit soort techniek niet louter voor positieve zaken gebuikt zal worden.
Enter Goldblum:

"Your scientists were so preoccupied with whether or not they could, they didn't stop to think if they should."
Ik vindt het een inbreuk op privacy. Het is vergelijkbaar met iedereen ongevraagd aan een leugendetector hangen.
Die bestaat al. Ik had een tijd geleden een soort proof-of-concept projectje gemaakt dat elke paar seconden een foto van je gezicht maakte op websites. Vervolgens bepaalde het met AI je emoties en stuurde die informatie door naar de webmaster. Een soort emotie-analytic dus, om te zien hoe je reageert op de content zoals video’s of foto’s die op de site wordt getoond.
Die bestaat al. Ik had een tijd geleden een soort proof-of-concept projectje gemaakt dat elke paar seconden een foto van je gezicht maakte op websites.
Dit is waarom browsers om toestemming vragen voordat een site een camera of microfoon kan gebruiken.
Dat is maar goed ook :)
Dit klinkt als een mijns inziens negatieve extra sturing als het ooit wordt ingezet voor social media die nu al azen op extra schermtijd. Vooral voor mensen met een "resting bitch face" kan dit een hel worden als een algoritme kost wat kost emoties zichtbaar probeert te krijgen, of het nu positieve of negatieve emoties zijn lijkt me op zo'n punt niet belangrijk voor dat platform.
En werkte dat? Hoe test en valideer je dat?
Hier een simpel algoritme die kan herkennen of iemand die de klanten service een negatieve emotie heeft:

fun hasNegativeEmotion() {
return customerSuspectsAl ? true : rand() > 0.05;
}
De functie geeft hasNegativeEmotion = True als een klant denkt dat 'ie met een AI te maken heeft. Daarnaast zijn slechts 5% van klanten gelukkig (volledig random geselecteerd) als ze de klantenservice berichten en niet doorhebben dat ze met een AI spreken.

Misschien moet je een programmeur zijn om deze grap als +1 te modden.

[Reactie gewijzigd door Dekar op 17 juli 2025 11:49]

Ik heb echt een hekel aan de huidige staat van AI klantenservices. Ze zijn vaak nog veel te dom. Het eerste wat ik typ of inspreek als ik een AI voorgeschoteld krijg is 'medewerker spreken'.
Wat ik hier lees, is dat dit voornamelijk werkt bij interactie via een camera. Allemaal leuk en aardig, maar ik persoonlijk vertik het in 99 van de 100 gevallen om 'zomaar' mijn camera aan te zetten voor een gesprek.
En zolang bedrijven besluiten om minder in te zetten op personeel, zie ik al helemaal geen toegevoegde waarde. Wat is het nut van mijn gezicht laten zien aan een robot?
Met de huidige AI-chat kom je bij een iets andere vraag dan 'het werkt niet" toch al in een kringetje uit. Voeg daar een camera aan toe, en de robot aan de andere kant merkt dus dat de klant, die toch al minder blij is (want waarom ander contact opnemen met de klantenservice) steeds gefrustreerder raakt vanwege het herhaaldelijk ontvangen van nutteloze antwoorden en vragen, omdat het probleem net niet in het script past...

Op dit item kan niet meer gereageerd worden.