AP en ACM: AI-chatbots mogen mensen niet volledig vervangen bij klantenservice

Bedrijven en organisaties die chatbots gebruiken voor hun dienstverlening, moeten klanten altijd de mogelijkheid bieden van contact met een medewerker. Dit stellen de Nederlandse toezichthouders AP en ACM, die ook wijzen op AI-risico's van onjuiste of misleidende informatie.

Behalve het zorgen voor de optie van menselijk contact bij klantenservice moeten organisaties volgens de twee toezichthouders duidelijk maken wanneer mensen met een chatbot te maken hebben. Ook moeten organisaties 'erop toezien dat de chatbot geen onjuiste, ontwijkende of misleidende informatie geeft'. De Autoriteit Persoonsgegevens en de Autoriteit Consument & Markt roepen organisaties op om hun verantwoordelijkheid te nemen als zij chatbots inzetten.

De twee toezichthouders, die respectievelijk toezien op algoritmes en AI, en op consumentenrechten, zien een snelle toename van meldingen over problemen met chatbots. Recent consumentenonderzoek door de ACM wijst uit dat het ontbreken van menselijk contact bij klantenservice een van de grootste ergernissen is.

Naast ergernis spelen er ook misstanden: chatbots blijken soms slechte of zelfs onjuiste antwoorden te geven, of mensen naar de mond praten zonder een aangekaart probleem echt op te lossen. "Verder is het voor mensen vaak onduidelijk of ze contact hebben met een chatbot of een medewerker en ze slagen er niet altijd in om contact te krijgen met een medewerker als ze dat willen", aldus de toezichthouders voor AI en consumentenrechten.

Wet- en regelgeving

Ook halen de toezichthouders ook wet- en regelgeving aan. Het gaat om de bestaande digitaledienstenverordening (DSA), aankomende aanpassingen aan Europese consumentenwetgeving en verplichtingen die volgend jaar van kracht worden. De DSA is van toepassing op een specifiek soort bedrijven: 'zogenoemde tussenhandeldiensten, zoals sociale media, marktplaatsen en online platforms'.

"In de DSA staat dat mensen de mogelijkheid moeten hebben om een communicatiemiddel te kiezen dat niet volledig geautomatiseerd is. De Europese Commissie bereidt op dit moment aanpassingen in de consumentenwetgeving voor, waardoor die dankzij de ‘Digital Fairness Act’ straks ook meer duidelijkheid moet geven voor andere bedrijven", stellen de Nederlandse toezichthouders.

Verder halen de AP en ACM de AI-verordening van de Europese Unie aan. Die verordening bevat nieuwe verplichtingen voor transparantie bij gebruik van AI-chatbots. Deze verplichtingen gelden vanaf 2 augustus 2026. "Bedrijven moeten gebruikers dan onder meer informeren dat zij met een geautomatiseerd systeem communiceren", waarschuwen de toezichthouders. Zij vragen de Europese Commissie nu ook om de transparantieverplichtingen aan te vullen 'met duidelijke regels voor het ontwerp van AI-chatbots'. De AP en ACM stellen dat die regels eerlijk, herkenbaar en toegankelijk moeten zijn. Mensen mogen niet op het verkeerde been worden gezet wat betreft AI-chatbots.

Door Jasper Bakker

Nieuwsredacteur

02-10-2025 • 14:11

64

Reacties (64)

Sorteer op:

Weergave:

Volgens mij zit de oplossing meer in meeluisteren, samenvatten en suggesties doen aan de helpdesk medewerker. Die zal dan efficiënter het werk kunnen doen. Aan het eind van het gesprek kan AI nog een samenvatting van het gesprek voorstellen zodat dit naar de klant gemaild kan worden en een interactie in het systeem gelogd kan worden. Bij volgende contact kan dit dan weer aangehaald worden.
Precies, het gaat hier om een klantenservice, geen helpdesk of faq- als je als bedrijf “service” wil bieden door met je klanten met een computer te laten praten gaat er iets helemaal mis bij diverse communicatie en marketing afdelingen in de organisatie.
Als je als bedrijf service will bedien door menselijke medewerkers kom je erachter dat het knap lastig is om goede mensen te krijgen en te houden.
Het telecombedrijf waar ik werk maakt al ai samenvattingen van gesprekken. Die wil je echt niet naar klanten mailen. Daar staan soms echt hele rare dingen tussen.
Maar als je AI chatbot (zoals ChatGPT) heel erg goed traint zijn ze meestal slimmer dan de medewerkers!!!!
Ik denk dat helpdesk slimme AI (die van ChatGPT) ook goed kunnen gebruiken, want ze zijn vaak slimmer dan de medewerkers :P

[Reactie gewijzigd door Dark Angel 58 op 2 oktober 2025 15:06]

Maar, ze zullen altijd dat beetje mensheid missen.
Dus zullen ze misschien wel slimmer zijn, maar niet beter.
De gemiddelde helpdeskmedewerker is dusdanig murw geslagen door procedures, flowcharts en eisen aan de tijd dat daar ook maar bitter weinig menselijkheid meer bij zit. De "persoonlijke touch" is iets waar veel bedrijven wel graag prat op gaan maar in de praktijk juist zo min mogelijk toepassen omdat het geld kost.

De ideale combo is wat mij betreft een geautomatiseerd systeem (hoeft geen AI te gebruiken, kan wel) dat het hele probleem zo ver mogelijk op weg kan helpen naar de oplossing, en dat er voor de harde kern die er daarna eventueel overblijft een kundige medewerker aan te pas kan komen die niet eerst nog een hele flowchart met domme vragen hoeft te doorlopen omdat het systeem een kant-en-klaar dossier aanlevert.

Voor de mensen die "gewoon een mens willen spreken" omdat ze denken dat dat altijd meerwaarde heeft mag er wat mij betreft zeker ook wel een ingang blijven, maar die moeten dan niet raar opkijken als ze eerst contact krijgen met meneer Kastje wiens baan het vooral is om je naar mevrouw Muur te dirigeren.

[Reactie gewijzigd door MneoreJ op 2 oktober 2025 15:06]

Ik wil een mens spreken omdat ik als klant behandeld wil worden en niet als een stuk vee. Alles om nog meer € te verdienen , echte schande dit. Bloedirtitant is het.
Mensen zijn erg duur om in te zetten als klantenservice. Zeker als je bedenkt dat iedereen altijd gelijk te woord gestaan wil worden, en 80% daarvan een vraag heeft die ook beantwoorden was door te kijken in een Q&A of handleiding. Ik snap de insr van die die AI-bots dus wel.

Het is kort door de bocht dat het allemaal gaat om nog meer euro's te verdienen. Het gaat erom dat je competitief blijft. Als jij niet automatiseert en je concurrent wel, dan loop je een risico.
En toch doen we dat al jaren en maken deze bedrijven al jaren winst.

Vandaag nog eens “ongewild” de bank moeten contacteren en natuurlijk verloopt dat eerst via een bot … wat een drama. De bot vraag info en je hebt je zin nog niet afgewerkt of hij onderbreekt je al … , nog 2,3 extra vragen om je steeds opnieuw te willen afleiden naar een info pagina op hun website … zo een aantal keer, steeds weer bevestigen dat het niet is wat je zoekt om vervolgens toch een medewerker aan de lijn te krijgen, waar je opnieuw mag beginnen met je verhaal … 🤬.

Dat riedeltje van concurentieel / relevant blijven is dikke BS, en gaat altijd ten koste van customer experience waar ze wel ieder jaar de kosten voor hun diensten maar blijven oprekken.

Dit was de winst vorig jaar !!

11,69 miljard, wat een stijging was van 25,8% Tegenover 2023

[Reactie gewijzigd door klakkie.57th op 2 oktober 2025 21:06]

Hahaha ik weet nog goed een tijd in derdelijns support waar ik intern wel eens opnam met "Afdeling kasten en muren, goedemiddag!" xD
Ze kunnen ook AI met bewustzijn gebruiken, dan voelt AI met bewustzijn met een klant mee (dus kiest de kant van een klant) en dan gaan ze samen de oplossingen zoeken. Zoals een mens betaamt :P
Een slecht afgekaderde AI is zo makkelijk te beïnvloeden dat ie ook jouw kant kiest, want dat ding is gebaseerd op gescrapede tekst uit boeken en websites. Een beetje prompt wizard prikt er zo doorheen.
Voor feitelijke informatiehulp moet je dat soort subjectieve onderdelen zo-veel-mogelijk weglaten.
Het is niet voor niks dat bepaalde modellen "makkelijker" dromen en dingen als-voor-waar verwoorden op een manier die voor een leek niet doorheen te prikken is.
Zeker als je bedenkt dat het grootste deel van de vragen hetzelfde zijn. Dan kan je de mensen inzetten voor de moeilijke gevallen.
Ik heb een nieuwe PC met Windows 11 waar in Explorer alles weer zo irritant op 'Today' 'Last Week' etc gestorteerd staat.

Vraag je ChatGPT/Gemini waar dit aan te passen, krijg je (natuurlijk) eerst een fout antwoord...

Als het om een 'chatbot' in de zelfhulp sectie gaat is het een ding, maar als ik de 'echte' klantenservice wil spreken verwacht ik een echt mens te spreken te krijgen die (tot op zekere hoogte ;) ) wel logisch kan redeneren en na kan denken.

Gelukkig wordt langzaam maar zeker steeds duidelijker wat de (fundamentele) beperkingen van taalmodellen zijn. Leuk voor al die bedrijven die al tientallen/honderden mensen ontslagen hebben en ze nu terug moeten gaan halen. Zo'n salaris onderhandeling wil ik wel voeren!
Vraag je ChatGPT/Gemini waar dit aan te passen, krijg je (natuurlijk) eerst een fout antwoord...
Ik heb even geprobeerd, en ik krijg direct het juiste antwoord. Maar ik vermoed dat jij zocht naar sorteren op datum, terwijl hij gegroepeerd is op datum. Goede kans dat een mens jouw dan ook het antwoord had gegeven die jij niet wilde.
Hij verwees me naar het 'View' menu, ipv 'Sort' wat er naast staat. Toen is zei dat het daar niet stond gaf het aan dat het 'door een recente update van Windows' kwam en gaf het wel het juiste antwoord.

Los daarvan, dit soort fouten in ChatGPT/Gemini maak ik dagelijks mee, het is al bijna een standaard reactie om na ieder antwoord te vragen 'weet je het zeker'.

Einde van het liedje: het gaat uiteindelijk alsnog sneller dan zelf zoeken, maar van de tijdsbesparing die LLM's opleveren blijft bij mij netto minder dan de helft over (ongeacht het soort vraag/opdracht)
Een taalmodel heeft altijd een heleboel aannames omdat er altijd een antwoord moet komen. Als je zelf niet vertelt welke versie je gebruikt dan kan je niet verwachten dat hij dat kan raden. Soms zou je denken dat het op basis van context beredeneerd moet kunnen worden, of dat ChatGPT het gewoon heeft over de nieuwste versie, maar daar ga ik zelf eigenlijk nooit van uit.

In principe geldt: hoe meer info je geeft, hoe accurater het antwoord.
Laten we de redenatie omdraaien: Waarom vraagt de AI niet als aanvullende/wedervraag om welke versie het gaat of gaat zolang het dat niet doet er op zn minst vanuit dat het de meest recente versie is?

Sorry maar rationeel is de aanname van de bot waar deze fout door ontstaan zou zijn gewoon niet te verklaren; en dat hoeven we dus ook niet te verdedigen.
Inderdaad, de AI zou best wat meer kunnen vragen. Het is een ontwerpkeuze is geweest van de makers om gewoon altijd een antwoord klaar te hebben. De AI kiest voor een antwoord gebaseerd op de meest voor de hand liggende versie of een antwoord waar het meeste documentatie van is. En dat is niet altijd recent, en zelfs niet altijd correct. Maar het is wel de beste aanpak.
Waarom? Omdat mensen niet graag "Geen idee" als antwoord willen.
Hoe ik dat weet? Gevraagd aan een AI, die bevestigde mijn aannames.

https://chatgpt.com/share/68decfd9-64ac-800f-9d53-7ebb6b51c211 <- de chat

[Reactie gewijzigd door Tielenaar op 2 oktober 2025 21:18]

Oh daarmee helemaal eens. Of nou ja, sneller dan zelf zoeken is ook niet altijd zo. Meestal gaat het bij mij wel goed als de optie er gewoon is. Maar vraag je naar iets wat niet mogelijk is, en er is op internet nergens expliciet gezegd dat het onmogelijk is, dan gaat de LLM erg vaak oplossing hallucineren. Waarbij het problematische is: Die hallucinaties lijken gewoon correct te zijn.
Ik sta er eigenlijk van te kijken dat je daar een verkeerd antwoord op hebt gekregen. Dit soort config dingetjes kan ChatGPT me altijd goed mee helpen. Daarnaast zijn de taalmodellen natuurlijk nog niet uitontwikkeld. Ik kan me prima voorstellen dat er in de toekomst enkel nog voor gecompliceerde problemen menselijke inzet nodig is (en een deel van wat deze mens bijdraagt is dan weten WAT je aan het taalmodel moet vragen, waarschijnlijk).

Ik zou er in ieder geval niet op rekenen dat er voor alle ontslagen mensen nog een plek is, en dat ze ook maar een poot om op te staan hebben in eventuele salaris onderhandelingen tenzij het daadwerkelijke experts betreft die nooit ontslagen hadden mogen worden.
Bij mij is bij dit soort vragen meestal het eerste antwoord fout. Volgens de 'AI' omdat er dan een recente aanpassing/update is geweest die de plek van de instellingen heeft gewijzigd. Of dat klopt weet ik niet, ik ga nadat het probleem is opgelost daar verder geen tijd aan besteden.

Wat betreft ruimte voor verbetering in LLM's, ik denk dat ze nu wel ongeveer op hun piek zitten - de fouten die ze maken zijn volgens mij fundamenteel/inherent aan hoe dit soort modellen werken. Ze kunnen niet redeneren en hebben gebruiken geen 'logica'. Het gaat dus niet om 'gecompliceerde problemen' maar juist om de meest simpele zaken - noem het middelbareschoolniveau: als dit, dan dat.

Ik blijft het zeggen: LLM's zijn niets meer dan T9 op steroïden. Hiermee is in de meest basale zaken enorme tijdswinst te behalen, en het lijkt 'slim' maar als je iets dieper kijkt...
Als je vragen stelt over een recent veranderd onderdeel krijg je eigenlijk het gecachede antwoord en voordat je zelf extra prompts maakt zal de AI aannemen dat zijn cache (zondermeer zelfs) up to date is; dit is een herhaaldelijk patroon.
Ik heb een nieuwe PC met Windows 11 waar in Explorer alles weer zo irritant op 'Today' 'Last Week' etc gestorteerd staat.

Vraag je ChatGPT/Gemini waar dit aan te passen, krijg je (natuurlijk) eerst een fout antwoord...
Vandaag de dag moet je eerst vragen of iets aan te passen is in windows.
Daarom wou ik eigenlijk ook over op Linux dit jaar, maarja, ik kreeg 'gratis' Win 11 Pro op m'n Geekom.
Ik heb een nieuwe PC met Windows 11 waar in Explorer alles weer zo irritant op 'Today' 'Last Week' etc gestorteerd staat.

....

maar als ik de 'echte' klantenservice wil spreken verwacht ik een echt mens te spreken te krijgen die (tot op zekere hoogte ;) ) wel logisch kan redeneren en na kan denken.
Hah, het is mij nog nooit gelukt om zinnige ondersteuning van Microsoft klantenondersteuning te krijgen voor problemen die ik ondervind met Windows.
Tegenwoordig noemen ze alles AI en llm. De een is de andere niet. Alles komt op training aan. Een chatbot is absoluut geen llm maar meer zon bot die op irc sinds het begin van het internet al bestond. Als men werkelijk een llm zou tranen met alles wat het moet weten van de procedures en regels van een X bedrijf kunnen er heel wat meer inpakken op de helpdesk. Dat dit trainen heel veel geld kost en tijd geeft al aan dat wat de meeste helpdesks hebben niet in de schaduw kan staan van echte llm's. Al zou je een 96 core threadripper met 256 GB ram hebben en twee rtx 5090 gpu's in sli dan nog kom je never nooit niet bij de super clusters van gpt in de buurt.

Als je echt diep gaat op een bepaald gebied: besturingsstemen, sctipting, etc gaat het lampje aan wat betreft hoever gevorderd de llm's wel niet zijn. Honderd procent waterdicht is het niet. Maar maakt de mens dan geen fouten? Dan zouden we geen updates en patches meer hoeven te hebben.

Op kritieke wekplekken waar first time right cruciaal is zet je geen ai autonoom in maar hoogstens als grof geschut voor advies of verlaging van de administratieve werkdruk.
Opzich vind ik het niet erg als een AI het filterwerk doet.

Als ik door het geven van mijn emailadres + klantnummer/ordernummer / postcode/huisnummer beter gefiltered kan worden naar de juiste medewerker, dan is AI de juiste manier naar mijn idee om te zorgen dat je sneller en beter geholpen wordt. Het moet het werk voor de mens tot slot makkelijker maken - niet vervangen.

Als je die standaard vragen al niet meer hoeft te antwoorden en op de vraag: kan ik een medewerker spreken gewoon netjes wordt doorgezet, zie ik het probleem niet dat AI de 'frontline' bemand.

Als ik bijvoorbeeld een betaallink alleen nodig heb, kan dat best door een AI afgehandeld worden. Ben ik 5 minuten te laat voor mijn afspraak, dan zou ik toch even iemand willen spreken.

Het is aan het bedrijf die de AI inzet om de juiste keuzes te maken in wat je wel door AI laat oplossen en wanneer je de optie geeft/toestaat dat AI naar een mens doorzet.

Zolang een bedrijf AI niet presenteert als een 'mens' is daar volgens mij niets mis mee met wat simpele taken.
Voor al die dingen die je noemt heb je geen AI nodig, maar gewoon een fatsoenlijk ontwikkeld platform; en dat hoeft echt niet complex te zijn.
En AI-chatbot kan ook gewoon op willekeurige momenten gaan hallucineren en opeens een verkeerd antwoord geven op een vraag, of verkeerde nummers doorgeven aan afdelingen, of in het voorbeeld een factuur maken voor iets wat gehallucineerd is. Een fatsoenlijk ontwikkeld platform of algoritme voor beslissingen is juist betrouwbaarder dan een LLM chatbot vind ik.
Een een AI-chatbot van een bedrijf mij onjuiste antwoorden gaat geven dan vind ik dat het bedrijf daar zelf voor verantwoordelijk is. Dus heb je een probleem met Essent en de chatbot geeft aan, je hebt gelijk je krijg 100 euro terug ipv betalen vind ik dat niet het probleem van mij als klant.

Ik snap dat het bedijf dat niet tof gaat vinden maar ja, hadden ze mij anders te woord moeten staan 🤪.
Precies dit! Dit is waar het 99% van de tijd aan schort.

Ik kan niet begrijpen waarom het altijd zo moeilijk en ingewikkeld wordt gemaakt, terwijl het logisch en makkelijk kan. Ja, ik snap het wel, designers en programmeurs werken eraan, niet de gebruikers. Die krijgen alleen een product die ze niet begrijpen ipv dat ze de standaard zijn tijdens de ontwikkeling.
Met een traditioneel filter- en routeringssysteem zit je vast aan een bepaalde structuur waar beide kanten (klant en bedrijf) zich aan moeten houden. Als je van de flow en structuur afwijkt krijg je rare situaties. AI (Of eigenlijk ML) is flexibeler en kan beter omgaan met verkeerde input. Met Chatgpt of Gemini krijg je nu al sneller de juiste antwoorden dan via standaard search queries. Vooral als je niet helemaal precies weet wat je zoekt (bijvoorbeeld producten). Hetzelfde zal je ook hebben als je filtering voor call centers deze technologie gebruikt.
Met Chatgpt of Gemini krijg je nu al sneller de juiste antwoorden dan via standaard search queries.
Mijn ervaring is toch echt precies het tegenovergestelde (zodra je langs alle payed results scrolled iig).
Een AI kan dat wel beter herkennen uit een zin of verhaal wat men zegt/typt.

Ik weet niet of je wel eens zo’n oud keuze menu gehad hebt maar zo’n oude spraakbot is vreselijk VS AI
Niet zondermeer; bovendien kan de AI vrij makkelijk misinterpretaties maken.

Waar jij op doelt is een gestructureerd platform, wat van-tevoren al ingericht is om op de juiste momenten de juiste stukken informatie te evaluëren; Dit doet men nog maar 20+ jaar dus daar hebben we vooral méér ervaring in (wat zou moeten kunnen zorgen voor betere accuratie).

Voorbeeld; je belt naar PostNL, het platform herkent jouw mobiele telefoonnummer al en zoekt daardoor de klantgegevens op, het ziet vervolgens dat er vandaag een pakket aangeboden had moeten worden, reeds is het geschatte bezorgmoment al 2 uur verstreken, en de bezorger is niet meer op zijn ronde. Deze informatie kan dan hapklaar getoond worden aan de servicemedewerker.

Nog beter; Dit doet postnl doorlopend en zodoende, als er een pakket die dag geleverd had moeten worden, die postbode klokt uit, loopt het systeem meteen alle bij de bezorger aangemelde pakketten aan en kan volautomagisch een bericht sturen dat het pakket tóch niet die dag bezorgd kan worden.

Voila helemaal geen AI nodig en de workflow is efficienter want PostNL in dit voorbeeld communiceert pro-actief in plaats van dat je minuten na sluitingstijd van de klantenservice kan gaan beginnen met bellen.


Een simpeler voorbeeld kan ik 1 2 3 niet verzinnen. en dan als klap op de vuurpijl; heb je ook niet van het een op andere moment een rack vol GPU's nodig, en het kan performant draaien op waarschijnlijk nog een raspberry pi.

Nu heeft PostNL recent lijkt het een stel vibe-coders ingehuurd want tegenwoordig krijg ik de nietszeggende notificatie dat een pakket is aangemeld per mail, dat het pakket is aangekomen en binnenkort wordt bezorgt en dan vervolgens nog een mail met het verwachte tijdsslot; helemaal niet nodig om te communiceren vóór uitloop of voordat het tijdsslot/de dag vastgelegd is; dat is non-informatie en eigenlijk afleidend. Kost ook minder resources omdat er geen onnodige mails en pushberichten gestuurd worden (ik word eigenlijk bloedchagrijnig als ik afgeleid wordt door een notificatie die me net-niks vertelt.)

[Reactie gewijzigd door Annihlator op 2 oktober 2025 18:11]

Als ik bijvoorbeeld een betaallink alleen nodig heb, kan dat best door een AI afgehandeld worden.
Dat is wel een top voorbeeld van iets wat ik niet door een AI wil laten afhandelen. Die ineens gaat haluniceren en de betaallink van iemand anders geeft met de gevolgen van dien.
Inderdaad, wat DdeM ook al zegt, dit zijn voorbeelden die niets met AI te maken (zouden moeten) hebben. Ik heb liever een mens die weet hoe Crtl-F werkt dan het risico op halucinaties.

Sowieso zou een goed ontworpen 'regel het zelf' sectie geen AI nodig moeten hebben, maarja, dat ontwerpen schijnt nogal moeilijk te zijn.
Ik wil die vraag niet hoeven stellen, gewoon voor het gesprek begint een keuzemenu, 1 voor AI, 2 voor medewerker, iets in die richting.
Ik heb een hekel aan de AI chatbots. Ze geven 9 van de 10 keer een onbevredigend antwoord. Ik vind het vreemd dat ze in de huidige staat zo weidversprijd worden ingezet. Het eerste wat ik altijd type is "medewerker spreken". Vaak krijg je dan direct iemand te spreken die in ieder geval snapt waarvoor je contact opneemt.
Je moet echt AI Chatbot duidelijker maken, want er bestaan verschillende AI bots… domme (die alleen volgens script werkt), slimme die echt AI gebruikt zoals van ChatGPT en AI met bewustzijn (also je echt met een mens praat die ook met emoties kent).
Ik haat domme chatsbots, omdat hun antwoorden vaak nergens op slaat en boden ook niet echt hulp.
Dat bewustzijn is ook gewoon nep, zo ver zijn ze nog niet.
ChatGPT is helemáál niet slim, dit is een van de pijnlijkste misvattingen van 2025.
Hetgene waar ChatGPT vooral goed in is is de indruk wekken dat het om een gesprek gaat; mede-hierdoor dat totdat je vraagt om extra toelichting je niet standaard de onderbouwing bij een antwoord krijgt.

Dus super, doorgaans is ChatGPT voor mij het handigst om voor mij bronnen op te zoeken en dat ik die vervolgens zelf wel doorlees; anders ben ik hetzelfde tijdsbestek kwijt aan doorvragen en daarná zou ik pas kunnen beginnen met verifiëren van de bronnen. 8)7
Het is knap irritant ja dat je je elke keer langs zo'n oerdomme bot moet zien te vechten om bij een echt persoon te komen. Ik heb allang alle opties geprobeerd als ik met jullie contact opneem.
Jij wel, maar verbazingwekkend veel mensen niet.
Het meerendeel van de mensen bezit niet over voldoende (achtergrond-)kennis over LLM's om ook maar enig benul te hebben van de inherente tekortkomingen van bepaalde modellen;
Dat is geen excuus om het weg te wuiven, het is een argument om mensen wél te educeren of ze er op te wijzen dat ze aan de schoenmaker z'n leest pogen te zitten. (Beste stuurlui staan aan wal enzo).
Mwah, als je als bedrijf merkt dat 90% van alle vragen door zo'n bot beantwoord kunnen worden dan is dat een vrij makkelijke business case voor management. Zo werkt dat gewoon.
Maar zodra je een mens aan de telefoon krijgt moet je nog steeds al diezelfde stappen uitvoeren omdat die in het script staan.
"Waar kan ik je mee helpen?

"Medewerker spreken."


klaar.
En dan klagen dat services zo duur zijn en dat je lang moet wachten omdat het bedrijf geen personeel kan vinden.
Ik zelf ga verder. Als een bedrijf chatbots gebruikt dan ga ik ergens anders heen.
Hopelijk dan nooit de NS nodig? :+
De hele wereld is al om, en dan komt de ACM pas in actie. In mijn optiek staat de ACM daar vooral om bekend, overal te laat mee.

[Reactie gewijzigd door HollowGamer op 2 oktober 2025 19:07]

Voortgang moet je sturen, die kun je niet vantevoren al afkaderen...

Je snapt zelf ook wel dat ACM niet in de toekomst kan kijken.
.

[Reactie gewijzigd door angushansen op 2 oktober 2025 14:41]


Om te kunnen reageren moet je ingelogd zijn