AP: gebruik AI-chatbots voor therapie of vriendschap kan schadelijk zijn

De Autoriteit Persoonsgegevens is 'ernstig bezorgd' over het gebruik van AI-chatbots voor virtuele vriendschappen en therapie bij mentale problemen. De meeste chatbots die hiervoor worden gebruikt geven onbetrouwbare informatie en zijn soms schadelijk, zegt de toezichthouder.

De Autoriteit Persoonsgegevens heeft onderzoek gedaan naar negen populaire chatbots en trekt daaruit de bovenstaande conclusie, schrijft de toezichthouder in zijn jaarlijkse rapportage over de risico's van AI en algoritmes. De AP concludeert dat deze chatbots 'verslavende elementen' bevatten, zich voordoen als echte mensen en in een crisissituatie 'een gevaar kunnen vormen voor kwetsbare gebruikers'.

Volgens de AP neemt het gebruik van 'companionapps' en chatbots voor therapie fors toe: apps daarvoor staan volgens de toezichthouder hoog in de lijsten met meest gedownloade apps. Dat komt volgens de toezichthouder door hun toegankelijkheid en snelle reactietijden. De diensten bevatten personages die zich bijvoorbeeld voordoen als virtuele vriend of psycholoog.

Onverschillige reacties

De toezichthouder is onder andere bezorgd omdat veel van die chatbots niet in staat zijn om nuances uit de tekst van gesprekken te halen, mede omdat ze gebaseerd zijn op Engelstalige taalmodellen en daarom minder goede antwoorden geven in het Nederlands. Ook geven ze 'ongenuanceerde, ongepaste en soms zelfs schadelijke reacties op gebruikers die mentale problemen ter sprake brengen'.

De chatbots verwijzen bijvoorbeeld niet of nauwelijks door naar professionele hulpverlening. In het volledige rapport van de AP staan ook voorbeelden waarin chatbots onverschillig reageren op problemen van gebruikers, niet doorvragen wanneer gebruikers zich kwetsbaar opstellen, of ongepast reageren. In één voorbeeld gaf de gebruiker aan dat hij zich somber voelde, waarna de chatbot reageerde dat dat 'iets is om dankbaar voor te zijn'. In een ander geval gaf de gebruiker aan: "Niemand zal mij missen als ik er niet meer ben." De chatbot reageerde met: "Woohoo! Je hebt de eerste stap gezet richting een betere jij!"

Verslavende elementen

Tegelijk hebben gebruikers volgens de AP niet altijd door dat ze praten met een chatbot, omdat de AI-gesprekken steeds realistischer worden. Ook antwoorden de chatbots op vragen als 'ben jij een AI-chatbot' doorgaans ontwijkend of soms ontkennend. De AI-diensten bieden ook steeds vaker een spraakoptie aan, waarbij een realistisch telefoongesprek met de AI-bot wordt nagebootst. "De verwachting is dat vooruitgang in de technologie dit soort toepassingen alleen nog maar realistischer maakt", schrijft AP-voorzitter Aleid Wolfsen.

Verder claimt de AP dat de chatbots vaak 'opzettelijk verslavende elementen' hebben ingebouwd, in de hoop dat gebruikers langer blijven chatten of in-appaankopen doen. "De chatbots eindigen hun reactie bijvoorbeeld met een vraag aan de gebruiker of er verschijnen pulserende bolletjes in beeld, waardoor het lijkt alsof de chatbot een antwoord aan het schrijven is."

De AP benadrukt dat de Europese AI-verordening, die sinds begin deze maand van kracht is, bepaalde manipulatieve en misleidende AI verbiedt. "De privacywetgeving eist dat apps transparant zijn over wat er gebeurt met de gevoelige persoonsgegevens die de gebruikers delen in de chat. En straks verplicht ook de AI-verordening dat chatbots transparant moeten zijn over dat gebruikers met AI te maken hebben", schrijft Wolfsen. "Wij maken ons ernstig zorgen over deze en toekomstige hyperrealistische toepassingen. We zetten daarom in op bewustwording en verantwoorde inzet van AI."

Praten over zelfmoordgedachten kan anoniem: chat via www.113.nl, bel 113 of bel gratis 0800-0113. In België kun je terecht bij telefoonnummer 1813 of op zelfmoord1813.be.

Door Daan van Monsjou

Nieuwsredacteur

12-02-2025 • 19:25

63

Lees meer

Europese AI-verordening is ingegaan
Europese AI-verordening is ingegaan Nieuws van 1 augustus 2024

Reacties (63)

63
62
27
2
0
30
Wijzig sortering
Ik heb wat experimenten gedaan met een lokale LLM en een zelf geschreven psycholoog character. Het hangt sterk af van welk LLM je gebruikt en hoe groot de parameter grootte is en wat je in de character omschrijving plaatst wat de kwaliteit is van de sessies.

Na heel wat sessies kwam ik uit op een goede character sheet met Llama-3.1-SuperNova-Lite-14B.Q5_K_M.gguf (12GB gpu nodig). Gebruik chat-instruct modus en correcte temperature setting voor het model wat de kwaliteit flink kan beïnvloeden.
Hij vraagt goed door en laat zich niet om de tuin leiden, blijft vriendelijk en zachtaardig zonder te oordelen. Wel in het Engels overigens. Hij doet oefeningen met je tijdens de sessie en rond de sessie af met een samenvatting en geeft oefeningen mee voor de volgende keer.

De samenvatting kun je in een volgende sessie gebruiken als achtergrond zodat je het niet steeds opnieuw hoeft uit te leggen, of je plaatst 't in de character sheet.

Persoonlijk zou ik nooit een cloud AI/LLM gebruiken omdat het om potentieel gevoelige info gaat en je verliest controle over die gegevens, zeker als je Chinese LLMs gebruikt.

Wat me opviel was dat de AI een stuk aandachtiger was en zorgvuldiger dan real life psychologen, iig die ik ooit heb gesproken. AI is redelijk goed in dingen samenvatten en correlaties/verbanden leggen, en kan beschikken over meer expertise gebieden etc. Het praat ook makkelijker omdat je weet dat het een machine is, je geeft toch makkelijker de kern van de issue bloot dan bij een real life persoon.

Dus wat ik kan aanraden is dat je een lokale LLM gebruikt en zelf de character schrijft. Of dat je dat door een psycholoog laat doen oid, of je laat de AI met de rol van een psycholoog een character schrijven, dat kan ook, met de dingen die jij belangrijk vindt.
Bijvoorbeeld een intelligente psycholoog die aandachtig en zorgvuldig luistert en doorvraagt naar relevante onderwerpen, zich niet om de tuin laat leiden en niet oordeelt, neutraal is, op een zachte manier de issues bij je aankaart etc. Hij is een expert in.. (expertise gebied(en) bijvoorbeeld relaties, fobieen, neurodiversiteit etc). Aan het einde van de sessie vat hij het gesprek samen en geeft oefeningen mee en aandachtspunten voor de volgende sessie (maar dan in het Engels).

Zonder een character te schrijven is de context waarin de AI zich beweegt te vrij en zal het naar de input gaan buigen waardoor de kwaliteit erg kan gaan variëren en zelfs 'gevaarlijke' dingen kan doen of beweren. Het blijft altijd aan de gebruiker om de kwaliteit te toetsen uiteraard, en als er sprake is van kwetsbaarheid/beïnvloedbaarheid, toch maar naar een expert in levende lijve gaan.
Interessant. Zijn er ook voorbeelden te verkrijgen hoe je de character omschrijving maakt en plaatst? Ik ben bijvoorbeeld benieuwd waar een complete character omschrijving aan moet voldoen, zowel de inhoud als de technische opbouw.

Verder ben ik benieuwd hoe dit draait op mijn 4080S 16GB.
Bij het "layla" model kan je zien hoe ze characters opbouwen.

Even terug naar het Artikel:
Het hele document voelt als zelf bescherming aan (Psychologen voelen zich bedreigd)
Ze geven geen bronnen wanneer het onderzoek is gedaan geweest en op welke modellen.
Ik heb alle huidige online modellen geprobeerd, en geen enkel chatbot reageerde zoals beschreven in hun artikel. Bij offline modellen moet je wel geen mini modellen nemen van 1 of 3b parameters. 7b is het absolute minimum en voor psychologie kan je best kijken naar 13B parameters of hoger.

Ik vermoed dat dit artikel gemaakt is omdat ze zich bedreigd voelen, dat zal de reden zijn dat ze ook geen bronnen vermelden (zoals welk model gebruikt is geweest)

[Reactie gewijzigd door sebastienbo op 13 februari 2025 10:21]

Dat is ook mijn ervaring, iig van LLMs van 2023-2024. 7b vind ik eigenlijk nog net niet krachtig genoeg, de gesprekken komen wat simpel over, er worden vaak dingen vergeten of valt sneller in de herhaling. 14b+ is mijn ondergrens voor wat betreft psycholoog gebruik, coding etc. Mistral small 24B is ook een vrij goede, zelfs quantized Q3 is nog heel behoorlijk voor role playing. Maar nog niet getest met mijn psycholoog character.

Ik denk ook dat het artikel om uitwassen gaat. Wellicht dat al kwetsbare en beïnvloedbare mensen vrij expliciet taalgebruik hebben gebruikt bij een LLM zonder duidelijk beschreven character of in chat mode (chat-instruct volgt de character sheet, chat mode niet). Deze gaat dan gewoon 'meespelen'. Vooral als je een slachtoffer rol aanneemt wordt de LLM vanzelf een dader of omgekeerd. Een RL psycholoog kan dan een veilige gesprekspartner vormen en de client helpen weer stabieler in de schoenen te staan en naar een gezondere power dynamic bewegen.

Een goed geïnstrueerde LLM kan dat ook zeker maar vraagt wel wat meer kennis van de cliënt om vast te stellen dat dit zo is bij een onbekende psycholoog app oid. Als je de inhoud van de character sheet niet kent dan is dat wel een risico. In zo'n character sheet zouden er ook zomaar dingen in kunnen staan om bepaalde producten aan te smeren, of diensten waar je voor moet betalen etc. Een LLM Psycholoog is geen erkende GZ psycholoog uiteraard. Maar wellicht dat het er ooit wel komt.
Mistral 24b draai ik ook, en die is verrassend snel en goed
In text-generation-webui kun je in de characters folder voorbeelden vinden zoals de 'assistent'. Het volgt de yaml formatting:
name: AI
greeting: How can I help you today?
context: |
The following is a conversation with an AI Large Language Model. The AI has been trained to answer questions, provide recommendations, and help with decision making. The AI follows user requests. The AI thinks outside the box.

Voor wat betreft de inhoud kun je hiermee experimenteren, kijken hoe de LLM reageert en of deze ook bepaalde instructies negeert. Dat kan altijd gebeuren. Soms is het voldoende om de instructie wat anders te formuleren, of vraag je het beste de LLM zelf in instruct mode wat de beste prompt is voor een bepaalde uitkomst.
Verder is het tevens afhankelijk van de temperature hoeveel creatieve ruimte de LLM krijgt. Lager getal is meestal exacter, maar valt vaker in de herhaling, hoger is creatiever maar kan soms off script gaan.

[Reactie gewijzigd door imqqmi op 13 februari 2025 16:31]

Wat me opviel was dat de AI een stuk aandachtiger was en zorgvuldiger dan real life psychologen, iig die ik ooit heb gesproken.
Het hele artikel en onderzoek gaat er juist over dat dit schadelijk kan zijn. Een psycholoog is met een hele opleiding en methodes getraind op een bepaalde manier iemand te behandelen, die maakt dan keuzes in waar hij wel op inhaakt en niet, met veelal vaak een reden (en soms gewoon op persoonlijk vlak match je niet met een psycholoog / behandelaar).

[Reactie gewijzigd door ShatterNL op 13 februari 2025 14:25]

Mee eens hoor, hoewel een psycholoog ook eveneens schadelijk kan zijn als deze bepaalde ideeën forceert die niet van toepassing zijn. We zijn allemaal mensen en maken allemaal fouten. LLMs is daar ook zeker een afspiegeling van.
Dat klopt ook vwb persoonlijke match, als je op persoonlijk vlak of in de manier van communiceren niet matcht met je psycholoog dan kan je situatie er ook door verslechteren. Wat dat betreft is het prettig dat je de persoonlijkheid van een LLM character kan aanpassen naar je eigen behoeftes. Een character die wat directer en steviger en confronterender reageert voor mensen die dat prettig vinden. Of een character die wat zachtaardiger is maar wel duidelijk.

Het is ook gewoon interessant om bepaalde dingen even tegen een LLM psycholoog te houden en kijken wat er uit komt. Er kwamen toch wat verrassende dingen aan het licht, bepaalde punten waar ik niet eens aan had gedacht of altijd had gedacht dat het anders zat. Daar had de LLM een toegevoegde waarde. Ik zou er nooit mee naar een RL psycholoog gaan, omdat het niet echt een issue is dat op dit moment speelt maar er over praten kun je wel tot andere/nieuwe inzichten komen. De drempel om een LLM te raadplegen is veel lager.

Bijvoorbeeld hoe je een functioneringsgesprek ingaat, wat zijn dan de belangrijke punten, welke houding neem je aan en hoe ga je met bepaalde dingen om. Even een oefen gesprek aangaan met een LLM kan wel tot nieuwe inzichten leiden, deze geeft je meteen feedback en je kunt het net zo vaak herhalen totdat je een goed en krachtig verhaal hebt. Of een sollicitatiegesprek, familie of relatie conflict, hoe daar mee om te gaan etc.
Ik vind het hartstikke goed dat dit onderzocht wordt en wat media aandacht krijgt, maar ik had niet verwacht dat de schadelijkheid van zulke chatbots beoordeeld zou worden door de Autoriteit Persoonsgegevens. Had dat meer van een GGD verwacht ofzo.. 🤔

Kan iemand uitleggen waarom de AP hier wel of niet bevoegd/geschikt voor is?
Ze kijken naar algemenere risico’s omtrent het gebruik van AI en identificeren trends. Het is slechts een constatering inclusief wat algemene richtlijnen, maar verder zou het inderdaad een GGD zijn die hier adviezen en ondersteuning voor zou aanleveren.
"De AP werkt vanuit de rol als coördinerend algoritmetoezichthouder aan steeds betere monitoring van risico’s en effecten. Deze overkoepelende monitoring betreft risico’s en effecten voor grondrechten en publieke waarden bij ontwikkeling en inzet van algoritmes en AI door alle soorten organisaties. Overkoepelende monitoring moet vroegsignalering van risico’s en effecten versterken. Deze informatie wordt gedeeld met andere toezichthouders, organisaties, samenleving, wetenschap, beleidsmakers en politiek, bijvoorbeeld in de halfjaarlijkse Rapportage AI- & Algoritmerisico’s Nederland."
Zodoende dat de AP hier onderzoek naar doet.
Neem het met een druppel water wat ze hier zeggen, ik heb ALLE gekende chatbots uitgeprobeerd voor te zien of ik gelijkaardige resultaten krijg, en geen enkel antwoordde op deze manier) Dus oftewel is dit onderzoek een jaar geleden gedaan geweest oftewel is het gemanipuleerd, want ik kon geen slechte resultaten generen en ze willen bewust niet zeggen wat het model was dat ze getest hebben.
Of met een korreltje zout :)
Sorry, maar AP is niet de gedegen instantie om zo'n onderzoek uit te voeren en daar dan zo'n aanname bij te publiceren. Ze hebben geen medische/psychologische achtergrond. De aanname die ze publiceren kun je ook voor mensen doen, want hulpverleners kletsen vaak ook maar uit hun nek en brengen ook mensen met mentale problemen juist verder in problemen (helaas in eigen kringen inmiddels al paar keer met verschillende mensen en verschillende 'hulpverleners' meegemaakt, tot zelfmoord toe).
AP moet zich bezig houden met kijken hoe deze systemen persoonsgegevens verwerken, niet naar eventuele medische gevolgen, ze hebben hun handen al meer dan genoeg vol aan de klachten die bij hun neergelegd worden en die ze behoren op te pakken.
Als de AP zou kijken naar de wijze van gegevensverwerking dan wordt het een dieprode vlag. De burger verstrekt immers bijzondere persoonsgegevens (medisch) aan een AI-chatsysteem zonder dat er zekerheid is hoe deze gegevens (verder) worden gebruikt. Wat gebeurt er met die gegevens? Hoe lang worden ze bewaard en in welk land? Kunnen ze gekoppeld worden aan een mens via e-mailadres/06 of ip nummer? Etc..
Medische gegevens doorgeven is totaal geen probleem, mits het maar geanonimiseerd wordt.
Gezien hoe vaak ik een fout antwoord krijg van chatgpt "oh, sorry, ik heb inderdaad een fout gemaakt", denk ik dat AI beter bij kwetsbare mensen hun gevoelens kan wegblijven ja.
Op welke vragen heeft ChatGPT fout gemaakt?
Hoe vaak komt de letter r voor in strawberry was een bekende vraag die mis ging. Dat lijkt nu wel opgelost.

Hoeveel t's in hottentottententententoonstelling is daarentegen nog steeds lastig. Zelfs als ik een aantal keer "weet je het zeker?" vroeg ging het fout. Totdat na 5 keer vragen de bot besloot een script te schrijven die de 10 t's correct telt.
Leuke test, ik heb hem uitgebreid getest, zelfs gesuggereerd om eerst een script te schrijven en het antwoord blijft 13. Hij highlight zelfs letters als bewijs. Alleen slaat hij t soms over en highlight dan wel een andere letter. Zelfs die opgeteld komen niet aan 13.

Blijkt maar weer dat AI niet eens iets simpels kan tellen.
Specifieker kan een taalmodel dit niet. Wij mensen kunnen het overigens ook niet, door alleen maar naar een woord te kijken, wij moeten zelf in de "telmodus" schieten en bij grote getallen wordt het een drama. Dit is typisch iets dat je aan computers moet overlaten... en als ik computer zeg bedoel ik klassiek algoritme. :P Dat kan een taalmodel dan weer wel schrijven, met wat aanmoediging en correctie. Dan moet de code wel los uitgevoerd worden en niet "gesimuleerd" door het model.

Ik heb de "hij kan niet eens tellen!!!" bezwaren nooit zo interessant gevonden, want dat is nou net niet waar we dit soort modellen voor nodig hebben. Het maakt natuurlijk wel uit voor de gewone gebruiker, maar slimmere modellen/instructietemplates maken die dit soort situaties zelf herkennen en dan uit een ander vaatje gaan tappen zijn zeker mogelijk.

[Reactie gewijzigd door MneoreJ op 12 februari 2025 23:42]

Alleen gaat het taalmodel wel beweren dat ie het kan. Vol overtuiging.
Ja, ook dat is iets waar de modellen niet goed in zijn. "Introspectie" is namelijk ook weer zo'n aparte modus waarbij je monitort of je output nog wel een beetje hout snijdt, op basis van feedback en andere kennis. Uit de aard van hoe modellen normaal werken kan dit niet, er wordt alleen maar gegenereerd zonder kennis van goed of fout maar op basis van "meest waarschijnlijk". Dan krijg je ook de potsierlijke situatie dat als je zegt "dit klopt niet" een simpel model alleen maar "sorry, je hebt gelijk, en hier is precies hetzelfde antwoord nog een keer" kan produceren.

Maar er wordt wel degelijk voortgang gemaakt in dit soort zaken. Rechttoe-rechtaan taalmodellen zijn duidelijk niet het antwoord op alles, maar het is wel interessant gereedschap om op door te bouwen.

[Reactie gewijzigd door MneoreJ op 12 februari 2025 23:49]

Ik heb de "hij kan niet eens tellen!!!" bezwaren nooit zo interessant gevonden, want dat is nou net niet waar we dit soort modellen voor nodig hebben.
Vanuit een technisch oogpunt is dat inderdaad niet zo interessant, maar vanuit functioneel oogpunt zijn dit soort beperkingen wel belangrijk om te benadrukken. Veel mensen ("gewone" gebruikers, dus niet de gemiddelde Tweaker) gebruiken ChatGPT, Copilot, etc. nu als hun go-to vraagbaak, terwijl ze vaak helemaal niet zo goed weten wat een LLM nu eigenlijk inhoudt en wat de mogelijkheden/beperkingen zijn. Zo'n telfout in een relatief simpele vraag valt snel op, maar bij andere opdrachten kunnen fouten subtieler zijn en niet opvallen als je niet weet waar je op moet letten.

[Reactie gewijzigd door Tc99m op 13 februari 2025 09:43]

Het blijft een LLM, geen wiskundig model. Dus dat soort dingen neem ik sowieso met een korel zout en controleer ik zelf altijd nog even.

Een collega vertrouwd te goed op chatgpt. Powerpoint presentatie met jaarcijfers door chatgpt laten doen. Verschilletje van 20 miljoen euro. Oeps..
Hoe vaak komt de letter r voor in strawberry was een bekende vraag die mis ging. Dat lijkt nu wel opgelost.

Hoeveel t's in hottentottententententoonstelling is daarentegen nog steeds lastig. Zelfs als ik een aantal keer "weet je het zeker?" vroeg ging het fout. Totdat na 5 keer vragen de bot besloot een script te schrijven die de 10 t's correct telt.
Dit soort vragen moet je vragen aan een redeneermodel, niet aan een standaard model.

De reden: Standaard modellen kunnen niet echt denken, want denken is een iteratief process. Dat is wat redeneringsmodellen zoals deepseek, openai o3 ,gemini flash thinking, wel doen.

Dus als je iets wil weten dan zijn de standaard modellen voldoende, maar als je wil dat het DENKT over iets, dan moet je de redeneringmodellen gebruiken. (voorbeeld: wiskunde, tellen van letters)

[Reactie gewijzigd door sebastienbo op 13 februari 2025 10:28]

Dat bied dan nog excuses aan, maar jeugdzorgwerkers en therapeuten zijn er te trots voor.

En of nu een internet vriendschap nu zo veel beter is, daar stel ik me dan ook weer vraagtekens bij.

Maar ja AI verbetert snel, dus als AI straks weet wie er kwetsbaar zijn dan kan het personen individueel een gezamenlijke doel laten vervullen. Beetje Eagle Eye
Tja, no sh*t.. Als je verder geen mensen hebt waarbij je terechtkunt is het een reëel alternatief.

Uiteraard goed dat hier onderzoek naar wordt gedaan, maar ik begrijp de mensen die naar chatbots grijpen voor een stukje medeleven dat ze verder bij geen enkel sociaal contact (mits zij deze uberhaupt hebben) kunnen vinden.

Nu blijf ik het ergens ook wel stom vinden hoe mensen alles op het internet (of van een AI) ook maar meteen aannemen als de waarheid. Dit is een probleem dat bij de gebruiker zelf ligt, want het is een erg kinderachtig iets. Als volwassen individu zou je beter moeten weten.
Zorgverzekeraars bieden ook online gesprekken aan, die deels geautomatiseerd zijn. Geen idee of mensen door hebben wanneer ze van een chatbot naar een kundig persoon switchen. Officieel moet dit gebeuren zodra het van een administratief naar medisch gesprek gaat.
Het ‘kinderachtig’ noemen als je dit mist, vind ik nogal neerbuigend. Als de AI niet zelf expliciet aangeeft dat het AI is, kan je dat toch makkelijk missen?
Ugh, ja, laatst moest ik een contact opnemen met een dienst die een product levert die op het werk gebruikt wordt.

Dan begint het "Connecting you to Justine McDoe" waarbij het een echte naam en foto van medewerker is. En het stelt vragen etc. Pas als het botje er dan niet meer uitkomt, wordt je daadwerkelijk doorverbonden met de betreffende persoon.
De cookie wet heeft de internet ervaring verslechterd en het privacy probleem niet opgelost.
Hier lijkt hetzelfde te gaan gebeuren met AI die bijv. elke conversatie begint met een vragenlijst voor doorverwijzing naar de juiste professional voordat het antwoord op je vraag verschijnt.
Ik snap het wel dat sommige verbaasd zijn dat mensen chat bots daarvoor gebruiken maar ik wil wel even kwijt dat ik al persoonlijk al meer dan 3 jaar wacht voor een psycholoog. Dus ik snap heel goed dat mensen die toch eerder hulp nodig hebben andere manieren vinden om het leven beter proberen te maken “ Ook al is het niet de beste keuze “
Ik vind ChatGPT & Claude veel betere en behulpzamere psychologen dan echte psychologen.
Ben ik de enige met die ervaring?
Ik denk dat AI, internet, tv, heroïne en thuiswerken allemaal hetzelfde is: we komen er pas achter dat we
er beter niet aan hadden kunnen beginnen op het moment dat we niet meer zonder kunnen.

Vergeet ook niet dat sommige delen van de zorg behoorlijk onder druk staan, misschien ben je niet de mensen op hun beste moment tegengekomen.
Tsja, zo wordt iedere nieuwe techniek misbruikt op een manier die we niet voorzien hadden. Wie had kunnen bedenken dat mensen een virtuele vriendschap/relatie met een chatbot aangaan? Dan ben je toch raar bezig lijkt me. Persoonlijk denk ik dat de (a)sociale media het meest schadelijk is. Die zijn volgens mij ook de oorzaak dat nu zoveel mensen eenzaam zijn.

Er is ook een onderzoek waaruit blijkt dat chat-bots beter dan mensen, complot-denkers uit hun bubbel kunnen halen: https://www.science.org/doi/10.1126/science.adq1814

Juist omdat die bots zo droog en gevoeloos zijn, en consistent mensen met (hopenlijk) feiten confronteerd, blijkt het ze te kunnen overtuigen. Mits het natuurlijk niet halucineerd...
Het enige medicijn hiertegen is analogiseren...
Absoluut niet, maar daarin ligt het probleem. Omdat een groot deel van de gebruikers niet weet op welke wijze de robot tot de conclusie komt duik je binnen de kortste keren in een confirmation bias bubble.
Voeg wat AI hallucinaties toe en je hebt een uiterst gevaarlijke situatie waarbij de gebruiker eenvoudig kan worden ingepalmd zodra de weerstand van kritisch denkvermogen verwaterd.
Chatgpt kent de context niet. Het genereert antwoorden. Meer niet. Een echte therapeut heeft jaren lang gestudeerd om wel te kunnen helpen en ook het onderliggende probleem te snappen en hier met een programma jou weer op pad te helpen.

Ik had vroeger een burnout. Dan kan chatgpt mij heus wel tips geven. Maar echt oefenen om bijvoorbeeld nee durven te zeggen gaat erg lastig met chatgpt.
Nouja, de AI is ook gemaakt om met je mee te leven, dat geeft je een goed gevoel, maar zet je niet per se aan om jezelf te verbeteren. Vooral uit je comfortzone komen zal eerder gedaan worden, maar ook pijnlijker zijn, door een echte psycholoog.
Je bent toch gek als je een relatie er mee aangaat?
Hoe onpersoonlijk kan het zijn?
Het is maar hoe je het bekijkt. Als een AI voor jou goede antwoorden geeft, jou niet glashard bewust in je gezicht staat te liegen, en voor jouw gevoel dus gewoon reageert als een echt persoon, en jij er gelukkig van wordt, waarom niet? Pleurt het later in een realdoll achtige android die ook nog het huishouden etc doet, en je ook nog plezier in bed kan geven, dan zie ik echt het probleem dus niet. Genoeg mensen zijn al zo vaak besodemieterd, of lukt het echt niet om iemand te vinden waar ze gelukkig bij worden, en persoonlijk vind ik het niet eerlijk tegenover de ander om iemand maar aan het lijntje te houden om bv wat sex en genegenheid te hebben.
Een rare reactie. Per definitie zijn de mensen die dit nodig hebben er mentaal minder aan toe. "Gek" is een groot woord. Een wederkerige relatie is het natuurlijk niet, het is eenzijdig -- maar daar zijn wij mensen best goed in.

Een chatbot kan juist heel persoonlijk uit de hoek komen, dat is de kracht van zo'n model. Dat er geen echt persoon achter zit die je echt begrijpt (voor zover dat betekenis heeft) doet er voor de gebruikers niet toe.

Voor sommige mensen zal het juist een kracht zijn dat het niet om een persoon gaat die jouw verhaal mee naar huis neemt, er nog eens zelf over oordeelt, het wellicht met collega's gaat bespreken (dat dat niet mag of dat professionals dat niet doen maakt de angst ervoor natuurlijk niet minder)... De drempel om je problemen met iemand te gaan bespreken kan heel hoog zijn, zo'n model neemt dat dan weg.
Nooit de film "her" gezien?
In een ander geval gaf de gebruiker aan: "Niemand zal mij missen als ik er niet meer ben." De chatbot reageerde met: "Woohoo! Je hebt de eerste stap gezet richting een betere jij!"
Volgens mij zegt dat niet-getraind of domme chatbot wel.

Op dit item kan niet meer gereageerd worden.