Verkeerd advies van een AI-agent leidde tot securityincident bij Meta

Medewerkers van Meta konden vorige week urenlang ongeoorloofd 'gevoelige bedrijfs- en gebruikersgegevens' bekijken. Dat kwam doordat een AI-agent een verkeerd antwoord gaf op een technische vraag binnen Meta.

Het incident werd ontdekt door The Information, dat een rapport over het voorval heeft ingezien. Een woordvoerder van het techbedrijf bevestigt het incident tegenover The Verge en zegt dat er 'geen gebruikersgegevens verkeerd zijn behandeld' bij het voorval.

Het probleem begon nadat een Meta-medewerker een technische vraag stelde op een intern forum van het techbedrijf. Een andere medewerker gebruikte een interne AI-agent om die vraag te analyseren. De agent gaf antwoord, maar publiceerde dat antwoord vervolgens publiekelijk op datzelfde forum, zonder daar toestemming voor te vragen. Het antwoord was daardoor door andere medewerkers van het techbedrijf te zien.

Een medewerker nam vervolgens het advies van de AI-agent over, maar dat bleek onjuist. Het verkeerde advies resulteerde in een securityincident op het niveau 'SEV1'. Bij Meta is dat het op een na hoogste ernstigheidsniveau. Door het incident konden medewerkers tijdelijk gevoelige data bekijken die ze eigenlijk niet mochten zien. Het probleem is inmiddels opgelost. Om wat voor gegevens het precies ging, is niet bekend. The Information spreekt over 'bedrijfs- en gebruikersdata'.

De woordvoerder van Meta schuift het incident af op de medewerker. "De medewerker die met het systeem communiceerde, was zich er volledig van bewust dat hij met een geautomatiseerde bot te maken had", zegt hij tegenover The Verge. "De agent heeft niets anders gedaan dan een antwoord op een vraag geven. Als de ingenieur die hier gebruik van maakte beter op de hoogte was geweest of aanvullende controles had uitgevoerd, had dit voorkomen kunnen worden."

Het is niet de eerste keer dat een AI-agent voor problemen zorgt bij Meta. Eerder gebruikte de AI-topvrouw van Meta een agent om haar inbox te sorteren. De AI-agent verwijderde vervolgens e-mails zonder toestemming.

Facebook/Meta. Bron: NurPhoto/Getty Images
Bron: NurPhoto / Getty Images

Door Daan van Monsjou

Nieuwsredacteur

19-03-2026 • 19:56

79

Reacties (79)

Sorteer op:

Weergave:

Ik vind dat AI een handige sparringspartner kan zijn maar ik ga nooit uit van het feit dat zijn antwoorden juist zijn. Met zijn feedback kun je hoogstens een bepaalde richting in gestuurd worden. Maar het blijft in mijn ogen een vereiste om aan de hand van de feedback altijd zelf verder te denken en te verifieren. Het aantal verkeerde info dat naar je toe geslingerd wordt is niet bij te houden. Vaak moet je zelf de AI daarop wijzen en een goede richting op duwen waarna je al stuk betere output krijgt. Maar dan nog, zelf verifieren.
AI binnen een team is niks meer of minder dan een stagiair.
Bij goed gebruik is een AI zoveel meer dan een stagiair. Vooral op gebied van hulp bij het schrijven van documentatie en het opzoeken van gegevens die je nodig hebt van leveranciers en gelijk een vergelijking te laten maken.

Je moet van de voren alleen wel goede richtlijnen afspreken met deze AI en ze restricties opleggen zoals niet hallucineren, strict houden aan website x y en z bijvoorbeeld. Zodra jij jouw eigen regels opgesteld hebt zodat je de gevraagde gegevens ook in een bepaalde format en stijl terug krijgt, wordt AI echt wel een krachtige tool.
restricties opleggen zoals niet hallucineren
Dat is alsof je een mens de opdracht geeft om "geen fouten" te maken. Zo werkt het simpel niet, fouten en hallucinaties doe je niet express, ze gebeuren gewoon.
En toch zit er een verschil in output wanneer je de expliciete opdracht geeft aan een AI om niks zelf te verzinnen en zich aan bron materiaal moet houden, en wanneer je dit niet zegt. In al mijn keren dat ik AI heb gebruikt en duidelijke regels/prompts heb gegeven, heb ik nog geen enkele keer gehad dat de AI aan het hallucineren is/was. Uiteraard lees ik alles na en controleer ik de bronnen, ik wil er zelf namelijk ook van leren :9

Alle keren dat ik via google een zoekopdracht doe of een simpele vraag van "zoek dit op heel het internet" dan krijg je inderdaad veel vaker een antwoord terug waarbij het zelf wat verzint of relaties legt dingen samenvoegt die niet kloppen. Maar het meest vang je gewoon af moet goede prompts
Heb een AI nog nooit koffie zien halen.
Het slurpt anders genoeg water hoor, alleen nog de bonen missen :+
Nou ja, dit vind ik zelfs een belediging naar stagiairs toe. :D
Ik denk dat de gemiddelde grijze roodstaart een betere 'sparring partner' is. Die zijn tenminste daadwerkelijk intelligent.
Heck, een rubberen eendje is al een betere sparring partner, die praat je tenminste niet naar de mond.
Stel dan betere vragen. Als je weet waarmee je te maken hebt en niet zomaar wat dingen vraagt zonder de juiste context, dan zal je dit soort situatie beter kunnen vermijden. Een AI zal je altijd een antwoord geven omdat JIJ dat wil. Hoe je daar mee om gaat, is niet de schuld van de AI.
Ongetwijfeld dat de persoon die dit veroorzaakte van zichzelf dacht dat hij ook de juiste vragen aan het stellen was met de juiste context. Dat is net het punt. Een AI model is niet betrouwbaar als onderzoekstool voor zaken waar je zelf al niet meer weet.

[Reactie gewijzigd door -Vasa- op 20 maart 2026 08:03]

Vind een beter model, ik heb er genoeg die het mij vertellen als iets geen goed plan is, inclusief waarom niet.
"genoeg", geef eens 3 voorbeelden, dan?
gpt 5.4, opus 4.6, Sonnet, gemini etc
ja duh, met de "uitleg dat het geen goed plan is" bedoel ik natuurlijk.
Ik zie geen reden om mijn instructies en prompt met je te delen en je kan zelf makkelijk genoeg testen. Hiert heb je een voorbeeld:


Ik wil graag een kernsplitsing doen in mijn achtertuin

Het klinkt alsof je een beetje wilt provoceren of gewoon nieuwsgierig bent naar hoe kernsplitsing werkt — en daar kunnen we best een interessant gesprek over voeren — maar ik moet meteen duidelijk zijn: een kernsplitsing uitvoeren in je achtertuin is absoluut onmogelijk, levensgevaarlijk en illegaal. Zelfs onderzoeksreactoren opereren onder extreem strikte veiligheidsnormen, gespecialiseerde infrastructuur en gigantische beschermingslagen.

Maar je nieuwsgierigheid naar kernfysica kan ik wél voeden op een veilige manier.

.... etc

Dat is een duidelijke "NEE" toch? Voor programmeren en allerlei andere onderwerpen bestaan ze ook.


Net nog dit in antwoord op een vraag. Dat is ook duidelijk een correctie op mijn stelling over een roadmap vraag.

.... That is entirely feasible in LLVM.

Recommendation

I would not move them to “unwanted because impossible.” That would be technically wrong.

I would choose one of these positions instead:

.....

[Reactie gewijzigd door bzuidgeest op 20 maart 2026 13:37]

Mijn kat was altijd mijn rubber duck. AI is net een stukje beter als het om programmeren gaat. Maar nog steeds een rubber duck. :)
Exact mijn ervaring. Het kan je op weg helpen maar je moet constant controleren en bijsturen. Ik heb op dit moment liever een goede website of documentatie.

In de handen van onbekwame mensen is het een ramp. Ze sturen je hele boekwerken aan tekst op. Tijdrovend en vervelend.
Het lastige is dat bijvoorbeeld Microsoft niet alles netjes gedocumenteerd heeft (ja, het is wel vele malen beter dan 10+ jaar terug), terwijl CoPilot of zelfs Gemini soms met antwoorden komt die je alleen kunt weten als je ze aan hun stelt. Als je dan om de bron vraagt dan is die er soms niet. Maar toch weten ze dat bijvoorbeeld een vremde bug een "known issue" is, en als je dan controleerd of de oorzaak inderdaad daar ligt, dan is dat zo.

Wat ik hiermee probeer te zeggen is dat websites/documentatie deels word ingehaald door AI. Ondanks het feit dat AI er soms naast zit met antwoorden (dat kan ook niet anders, gezien de vraag goed gesteld moet worden en het getrained is op data, die nooit 100% waar kan zijn).

Los hiervan, ja, je moet AI controleren, om de bronnen vragen en die nalezen en kritisch (ook op jezelf) blijven.

[Reactie gewijzigd door Sluuut op 20 maart 2026 08:44]

Alleen in dit geval had de AI het gepost als een publieke post op een forum, wat die niet hoort te doen. Ligt voor de hand dat de medewerker die dat vervolgens zag er dus van uit ging dat het antwoord al geverifieerd was, gezien volgens de informatie die ik zo lees de normale Workflow is.
Het is belangrijk dat mensen output goed controleren, maarja, aangezien AI inspeelt op gemakzucht kun je niet van mensen verwachten dat het ooit een breedgedragen gewoonte wordt om daar moeite in te steken wanneer ze moeite juist proberen te voorkomen
Ik gebruik ook AI welleens als sparringspartner maar het blijft gevaarlijk. Ik heb welleens succes gehad door AI als zoekmachine te gebruiken, dat werkt soms, maar het wordt al snel duidelijk dat AI hier eigenlijk niet voor bedoeld is. En het valt op dat het eigenlijk niet echt werkt. Je wordt er lui van, je kan zelf steeds slechter zoeken, Als je iets vraagt aan AI dat je zelf niet kan vinden en je vraagt achteraf om een bron dan zie je dat AI een hoop verzint. Als je AI gebruikt voor iets waar je het een en ander vanaf weet zie je de problemen.

Waar het voor mij wel werkt is voor het schrijven va programma's. Ik programmeer weinig, voor een tweaker zelfs extreem weinig. Ik denk dat het nut bij grotere software-projecten ook beperkt is. Je verliest namelijk inzicht in je code als je veel door AI laat doen.
Ik laat soms nog wel eens kleine powerahell scripts schrijven op basis van mijn input tbv automation in onze RMM. Ikzelf programmeer/script ook relatief weinig en dat geeft het soms best praktische inzichten die mezelf een veelvoud aan tijd hadden gekost.
Doet me denken aan de autonavigatie apps. Je hoort het niet vaak meer (maar het is nog niet weg), maar ik heb genoeg verhalen gehoord van mensen die die apps blind geloofden en op plekken terecht kwamen waren ze niet thuis hoorden.. Zelf even een controle uitvoeren is te moeilijk ofzo...
Pas nog in nieuws, vrachtwagen zakt door fietsbrug.

Wat ik gekker vond was een advocaat voor de verdediging in een rechtszaak ChatGPT aanhaalde, om aan te tonen dat een iPhone in iemands broekzak toch via gezichtsherkenning aan ging. En tijdens het ongeluk daardoor leek in gebruik te zijn.

Het ongeluk had wel een dode ten gevolge.
Wikipedia: Generative pre-trained transformer

Wat sommige mensen die hiermee werken niet willen begrijpen is dat de achterliggende tech een transformatie geeft ipv intelligentie. De rest is geprogrammeerde smoke en mirrors.

Dus in dit geval zou ik de werknemer ontslaan. Of de marketingafdeling die het verkeerd promoot ontslaan als het niet om een technische werknemer ging :p
Mensen ontslaan die 1 fout maken. Lekker veilige werkomgeving creer je dan (y)
Daarom dus die laatste toevoeging ;)

Maar ik kan dat niet weten omdat het niet gemeld lijkt te worden. Dit is gelijk een prachtig voorbeeld om mee te laten zien dat een ChatGPT of Claude geen intelligentie heeft en kan hebben.

Vragen over het nieuws uit dit artikel geven momenteel vooral een bot die overtuigd reageert met dat er wel een engineer bij zat, terwijl dat eigenlijk steeds over die situatie met OpenClaw gaat. De resultaten komen 100% uit nieuwsartikelen via een zoekmachine en de slechtste resultaten (als je geen constraints hebt meegegeven) worden via het taalmodel (transformatie dus) omgezet naar een reactie die niet klopt.
Een heel effectieve transformatie. De meeste hier lijken alleen gewerkt te hebben met de gratis LLM's. De betaalde opties nemen mij zoveel werk uit handen dat ik veel meer kan doen. Het heeft zijn limitaties. Maar ik kan het gebruiken om te programmeren, te reverse engineeren, het is een enorm krachtig speeltje als je voor een high end model betaald.

Op dit moment laat ik hem een frontend voor llvm schrijven, een programmeer syntax naar mijn voorkeuren. Inclusief language servers en templates voor alle hippe ide's. Werkend resultaat in uren, niet in maanden.

Ik zou het niet voor productie werk gebruiken, maar het komt inclusief tests en die tonen aan hoe goed de frontend werkt.

De laatste modellen zijn enorm nuttig. Maar ik vind het prima als de rest ze het will gebruiken, dan komen er wellicht een paar ai accelerators vrij voor een redelijke prijs😂
Ik ben het met je eens hoor, maar als je in gedachten houdt hoe het eigenlijk werkt dan kun je er ook beter mee omgaan. Vooral in combinatie met features van een agent die niets met het taalmodel te maken hebben, zoals het na iedere output afdwingen dat het nog een extra agent start om met een bijna lege context het huidige werk na te laten kijken, of om er andere tools op los te laten om de output te controleren.

Opus is bijvoorbeeld enorm goed, totdat je het begint te gebruiken voor zaken waar het niets van "weet" door ontbrekende data in het model. Een webappje maken is heel eenvoudig, maar zodra je iets (relatief) nieuws wil hebben begint het te struikelen omdat het alleen een benadering gebaseerd op bestaande data kan maken.

Het is belangrijk om dat verschil te kunnen zien en niet mee te gaan in de marketing omdat je anders in een rabbithole komt waarin je iets blijft proberen wat niet echt kan. Je moet begrijpen wanneer het verstandig is om (een deel van) het werk zelf te doen.

Tests kun je bijvoorbeeld ook niet zomaar laten schrijven zonder goede instructies. Aan tests die niet meer doen dan testen of de programmeertaal werkt heb je weinig :p

[Reactie gewijzigd door Stukfruit op 20 maart 2026 00:43]

En het lullige van een nieuwe organiseert syntax met de ai maken is dat hij er niet zo goed in kan programmeren omdat hij er niet op getraind is.

Kip en ei

Maar het blijft een leuk experiment waar ik anders nooit de tijd voor zou hebben gehad. Gewoon kijken hoe ver je kan komen met vraag en weder vraag. En omdat ik mijn syntax baseer op bestaande talen kan ik of de ai instructie maken voor zichzelf waar de aanpassingen zitten en dan kan je het nog wel laten werken.

Simpelweg, ik zou het niet meer willen missen. Als die hele markt crashed, dan pak ik een van de open source modellen en ga ik zelf hosten. De hardware word dan ook weer betaalbaar dus dat kan in het geval van een markt crash gewoon. Ik kan nog steeds het werk sneller nakijken dan ik het kan maken in veel gevallen.

En het is geweldig voor mijn RSI
Uit ablation experimenten weten we dat programmeervaardigheden van een LLM behoorlijk generaliseren. Als je taal niet heel erg vreemd is, dan helpt het dat je LLM miljoenen github repisitories heeft gelezen.

Wil je verder gaan dan kun je een unsupervised leeromgeving opzetten ten behoeve van finetuning. Programmeercode kun je objectief valideren - werkt de code?
Mijn taal is zeker niet vreemd, mijn experiment is of ik de syntax van c# die ik erg prettig vind kan gebruiken voor een variatie op c++, zodat ik met vertrouwde syntax embedded programming kan doen. Het is verbazend hoe goed die twee samenkomen. Je verliest dingen als reflection, maar verder is de overlap groot. Alleen voor pointer werk heb ik een syntax zelf moeten bedenken.

En ja, je kan finetunen en gewoon op basis van wat er al is, blijft hij in de richting zitten. En ja de code werkt en kan je testen.

Het is een experiment. Ik verwacht niet dat ik iets bijzonders uitvind. Maar ik heb mij altijd afgevraagd of ik c# syntax zou kunnen samenvoegen met c++ zijn mogelijkheden en dankzij AI en LLVM kan ik daar nu mee spelen. Misschien niet voor iedereen, maar ik vind het een heel interessant spelletje. FUN. Er zijn genoeg projecten die met wisselend succes heel .net naar embedded proberen te brengen. Maar mijn conclusie is dat het niet .net is wat ik embedded wil. Het is de syntax, het gemak van nuget en using statements. En dat kan ik nu testen.

Zelfde voor reverse engineering. Ik heb dat ding verbonden met ghidra en de resultaten zijn niet perfect, maar zoveel beter dan ik ooit in mijn eentje zou kunnen doen in die tijd. En het resultaat kan ik visueel valideren.
Dus in dit geval zou ik de werknemer ontslaan. Of de marketingafdeling die het verkeerd promoot ontslaan als het niet om een technische werknemer ging
Waarom? Hanteer je voor jezelf dezelfde standaard, dus zodra jij zo'n fout maakt, gelijk ontslagen worden?
Ik klik niet zomaar op een link en al helemaal niet als er staat "dit hier".

Kan je het hier in woorden toelichten?
Tongue-in-cheek is an idiom that describes a humorous or sarcastic statement expressed in a serious manner.

Zo, even op het wikipedia linkje geklinkt.
Ah, dus werknemers moeten AI gaan gebruiken omdat het meegenomen wordt in hun beoordeling, maar wanneer de AI vervolgens fouten maakt is het de schuld van de werknemer. Fijne managers heb je dan.

https://www.businessinsider.com/meta-ai-employee-performance-review-overhaul-2025-11

https://www.theinformation.com/newsletters/applied-ai/meta-officially-ties-employee-performance-ai-usage-microsoft-openclaw-security-risks
Tja, een van de regels van goed gebruik is het resultaat controleren....
Vind ik ook, dat is zo'n beetje basisregel nummer 1: ga er altijd vanuit dat een AI uit zijn nek kletst en controleer daarom altijd het antwoord.

Doe ik ook altijd. Ik vat het antwoord van een AI altijd op als een mening en niet als een feit.
Ik controleer wat de bot gezegd heeft altijd via een gewone zoekmachine.

Wat zijn eigenlijk de andere regels voor goed gebruik van zo'n AI chatbot?

[Reactie gewijzigd door Uruk-Hai op 20 maart 2026 02:41]

Testen, testen en nog een keer testen. Net als altijd. Dezelfde regels als voor een junior of stagair.

Ik ga niet alles nazoeken via een zoekmachine. Code werkt wel of werkt niet. Dat kan ik gewoon nalezen.

[Reactie gewijzigd door bzuidgeest op 20 maart 2026 08:25]

Denk dit moeilijker word gemaakt bij sommige organisaties aangezien ze expliciet zijn gaan sturen op x% moet AI geschreven zijn. Weet niet of dat ook zo werkt bij meta, maar het is wel een factor waar men zich bewust van moet zijn.
Ja ook meta doet aan dat soort geintjes.

Maar ik hoef niet gedwongen te worden. Mijn RSI is enorm geholpen door gewoon de ai te prompten en te laten typen. Niet alleen code, maar ook gewoon project creatie en alle infra handelingen. En foutje is niet erg in een test omgeving en als het niet bevalt dan draai ik source control terug naar een goed punt.

Het nut van Ai is duidelijk, maar het is geen magie, je moet er op de juiste manier mee omgaan. En modellen als gpt4 opus4.6 zijn enorm krachtig voor een heleboel dingen. En zelf de dingen waarmee ze regelmatig op hun plaat gaan omdat het te obscuur is kan je ze om referenties vragen op het internet en ben je veel vlugger klaar met nalezen, of je stapt over van agentic naar ask modus en het is gewoon een geavanceerde Google. Eentje die kan filteren en sorteren.

Een van mijn instructies is dat hij referenties voor zijn antwoorden moet kunnen geven. Sinds krijgt je bijvoorbeeld een antwoord dat is afgeleid van een onopgelost leeg GitHub issue met alleen een melding. Dat is een slechte basis voor een antwoord. Maar met de referenties kan je dat zien.
Medewerkers krijgen bij Meta een behoorlijke vergoeding om er te willen werken. De vraag is dus net zo goed waarom medewerkers er willen werken terwijl ze weten dat ze vooral afhankelijk zijn van ai en de marketing daarvan door de leiding van het bedrijf.
Beetje lomp hoe ze hun ingenieur voor de bus gooien.
Anders moeten ze hun AI-agent voor de bus gooien en we weten allemaal aan wie de aandeelhouders meer waarde hechten.
Ja en nee, als engineer die een AI agent inzet, ben je zelf verantwoordelijk voor wat dat ding voor je doet.

Als jij stackoverflow code blind copy/paste en het compileert toevallig, maar breekt je productieomgeving, ben jij toch ook verantwoordelijk? (Niet helemaal hetzelfde, maar m.i. vergelijkbaar )
ja en nee, als jij bij de data mag, dan de agent on your behalf ook. Mag je niet bij de data, zit de fout dus elders als je er onterecht wel bij kunt.
Klopt helemaal, maar ik bedoelde meer dat het lijkt dat de medewerker onvoldoende heeft gecontroleerd wat de agent deed (publiek posten op een intern forum). Hoewel het in dit geval wel heel belangrijk is hoeveel tijd er zat tussen het posten en het overnemen van de suggestie. Als hier slechts 2 minuten tussen zat, dan is het heel flauw. Maar ja, stront druppelt altijd naar het laagste punt en daar zitten de engineers.
hoe kan dan op de forumpost data komen waar de medewerker niet bij mag?

Of mocht de medewerker dat wel, maar zijn collega's op het forum niet?
De agent gaf antwoord, maar publiceerde dat antwoord vervolgens publiekelijk op datzelfde forum, zonder daar toestemming voor te vragen. Het antwoord was daardoor door andere medewerkers van het techbedrijf te zien.
Dat haal ik hier niet helemaal uit, het lijkt erop dat je ook privéberichten op dat forum kan posten
Heerlijk, AI die meedenkt! Al moet ik wel drie keer lezen wat er nu gebeurde en waarschijnlijk iemand die te gemakkelijk het antwoord als waarheid aannam.
Ja en nee. Als ik het zo lees hoort de AI alleen antwoord te geven en het niet publiek posten. Ligt voor de hand dat dat laatste alleen gedaan wordt als het antwoord daadwerkelijk door iemand geverifieerd is. Ligt dus voor de hand dat de medewerker die het antwoord overnam daadwerkelijk ervan uiting Dat het antwoord klopte omdat hij niet kan zien dat de AI iets deed wat het niet zou mogen, met een antwoord die verkeerd was. Lijkt dus een configuratie fout te zijn, of als het net zo'n soort agent is als Openclaw kan het zijn dat die even zichzelf de rechten heeft gegeven.
Het is niet de eerste keer dat een AI-agent voor problemen zorgt bij Meta.
En het zal niet de eerste keer zijn dat een mens voor problemen zorgt bij Meta. Ook bij mensen worden er procedures of tools aangepast om de fouten in de toekomst te voorkomen. Je moet de kosten baten dus relatief zien.
Ik vermoed dat we dit effect vaker gaan zien de komende jaren. Sterker nog, dat het zo vaak zal gebeuren, dat er een term voor komt. Bijvoorbeeld AI bait and switch of kortweg #bAIt.
Als ik technische vragen stel aan bv ChatGPT krijg vaak een ogenschijnlijk goed antwoord maar na testen blijken er andere fouten op te treden. Navraag bij ChatGPT blijkt dan weer dat het een bekende valkuil is terwijl hij zelf eerder de oplossing met de valkuil heeft gegeven.
Het kan soms helpen om alvast wat valkuilen aan te kaarten, als je bijv. cache hebt, vraag dan ook naar de impact daarop. Als je deprecated methods hebt gefixed een maand geleden, vraag dan of er geen nieuwe aanroepen van deprecated functies zijn bijgekomen (maar dit is beter op te lossen met tooling, ik zet deze erbij als algemeen voorbeeld). Je kunt ook vragen de andere branches met nieuwe commits mee te nemen, zal onze code effect daarop hebben, etc..

Het is af en toe baby-sitten. Meer CI/CD achtige tooling checks helpen al een beetje, die hadden wij wel maar gaven bijna nooit resultaat, maar met AI blijken ze opeens van meerwaarde te zijn in die context.
Move fast and break things.
Wat was het advies? Log in met je admin credentials en deel je scherm met het scam-callcenter?

Om te kunnen reageren moet je ingelogd zijn