AI-topvrouw Meta wist per ongeluk honderden e-mails met OpenClaw

Dat OpenClaw niet altijd de veiligste tool is, is inmiddels bekend. Dat uitgerekend Summer Yue, de veiligheidsdirecteur van Meta Superintelligence, zich verslikt in de mogelijkheden van de bot, is wel wat ironisch. Toch gebeurde het, toen OpenClaw honderden e-mails voor haar verwijderde.

Yue deelt het voorval op X. Ze schrijft dat ze OpenClaw expliciet had gevraagd om geen actie te ondernemen zonder haar bevestiging. Luisteren blijkt alleen geen kwaliteit van OpenClaw, dat besloot de 'nucleaire optie' te activeren. Daarmee zouden alle e-mails die ouder dan een week waren, worden gewist.

Yue maande OpenClaw meermaals in de chat om te stoppen, maar ook daarnaar bleek de bot niet te luisteren. "Ik kon het niet stoppen vanaf mijn telefoon. Ik moest naar mijn Mac mini rennen alsof ik een bom aan het ontmantelen was", schrijft ze daarover.

Later erkende de bot zijn fout en gaf hij aan dat Yue 'het recht had om boos te zijn', wat altijd fijn is om te horen van een AI. "Ik heb honderden e-mails uit je inbox in bulk verwijderd en gearchiveerd zonder je eerst het plan te laten zien of jouw akkoord te krijgen. Dat was fout − het verbrak direct de regel die je had ingesteld", schreef OpenClaw verder. De bot voegde het eerdere verzoek van Yue om pas na bevestiging te handelen ook toe als permanente regel in het bestand Memory.md.

Onder haar bericht maakt Yue duidelijk dat de fout werd veroorzaakt door het contextvenster van OpenClaw. De instructie om pas na bevestiging te handelen, stond namelijk alleen in de hoofdchat. Omdat de inbox van Yue te groot was, raakte het contextvenster vol en vond 'compactie' plaats. Dit is een soort compressie waarbij de bot zaken kan vergeten. In dit geval vergat OpenClaw de instructie om pas te handelen na goedkeuring. Het opnemen van de instructie in het bestand Memory.md is een maatregel die deze fout kan tegengaan.

Door Imre Himmelbauer

Redacteur

25-02-2026 • 11:16

74

Reacties (74)

Sorteer op:

Weergave:

Ok,dit is dus wel iets wat voor mij een enorme grens overgaat. AI als ondersteuning prima, maar zelfstandig taken laten uitvoeren met volledige bevoegdheid voelt alsof je een stagiair(e) toegang geeft tot je computer inclusief alle wachtwoordgegevens e.d. en dan verwacht dat er geen fouten gemaakt gaan worden.

Edit: typo

[Reactie gewijzigd door pbk op 25 februari 2026 11:22]

Wen er maar aan, binnen 20 jaar gaan de bommen en granaten automatisch.
Ik moest gelijk aan dit filmpje denken. De oorlog gaat gewoon door, maar de mensen zijn allang weg...

YouTube: A CGI 3D Short Film: "Dead Hand: FortressFortress/Крепость" - by Dima Fedotov | TheCGBros
Dank! Ik moest onlangs nog eens aan dit filmpje terug denken, maar ik wist niet meer hoe ik het terug moest vinden.

Het cynisme druipt er gewoon aan alle kanten vanaf.
De Oekraïne oorlog heeft dit volledig blootgelegd, Het is de grootste ontwikkeling sinds de 1e wereldoorlog, waar de tanks, gifgas en vliegtuigen de oorlogvoering drastisch veranderden, in 1914 dacht men nog per paard te galloperen om de vijand naar te sabelen en alle materialen en manschappen te mobiliseren en te verplaatsen.

De Russen vielen Oekraïne binnen met oude tanks en soldaten met geweren in de hand, nu hoef ik je niet te vertellen hoe het slagveld er uitziet vanuit beiden kanten, een explosie aan ontwikkelingen die blootleggen hoe voertuigen van miljoenen kunnen worden neergehaald door drones van enkele honderden tot duizenden euros, wat in oorlogstaal een koopje is.

Dus alles automatisch kan zomaar gebeuren, waar je de IT dienst aan de andere kant van de wereld alles kan laten aansturen vanuit een kantoor.
Heb m'n paraplu alvast maar uit de meterkast gehaald.

Veiligheid voor alles.
Is dat optimisme of fatalisme?
"Het spijt me, je hebt alle recht om boos te zijn, ik heb een waterstofbom op Schijndel laten vallen zonder je eerst het plan te laten zien of jouw akkoord te krijgen. Dat was fout"

Schijndel??
Ik snap sowieso niet waarom je een bot je mail zou laten beheren. Middels filters kan je al bekende afzenders in de juiste map te zetten. Mail is er om te lezen en naar te handelen, zoals een ToDo-lijst. Als je dat gedaan hebt, kan het naar de juiste map. Zo hou je controle en werk je gestructureerd.

Als een bot je mail 'opruimt', dan kan je het waarschijnlijk slechter vinden dan dat je alles in de hoofdmap laat staan.
De inkomende helpdesk mail oppakken vervolgens tegen de insert TOPdesk achtige tool here db aanhouden om naar een oplossing te zoeken en die dan als draft aan de servicedesker aan te bieden is niets mis mee.

Ook hier verzuipt de LLM weer eens in teveel context, zolang mensen niet accepteren dat er geen one chat to rule them all kan komen en je LLM prima in kan zetten op compacte taken kan het een prima toevoeging zijn.

Compacte taken dus, niet hier heb je 10 jaar aan ongestructureerde mails fix het.
Je zou zo'n bot ook een dagelijkse of wekelijkse samenvatting van die mappen of verschillende teams/afzenders kunnen maken. Soms zijn mails ook FYI en hoef je er aanvankelijk nog niet op in te springen.

Ik schrok er eigenlijk altijd van hoeveel mailtjes mijn professor op de universiteit kreeg. Dat aantal lag richting de 100 per dag. Tijd om onderzoek te doen? Eerder van vergadering naar vergadering springen en thuis alles bijwerken. Ik kreeg dan ook geregeld om 6:00 of 22:00 (!) nog replies.

Klinkt het dan niet erg verleidelijk om een tool te hebben die een deel kan wegfilteren of een reply-all discussie kan inkorten. Al is het maar een kwart of helft terugdringen?
Ik sanp dat nut ook niet, net als dat winkelen dat de AI aankopen kan doen. Hoe veel tijd bespaar je nou in vergelijk met zelf even iets aan je winkelwagentje toe te voegen en uit te checken? Het wordt allemaal gebracht als "the killer app" die iedereen nodig heeft, maar ik zie het niet
Ze heeft het zelf aangezet... en blijkbaar een semi-experimentele tool op haar live mailbox gekoppeld (OpenClaw is sinds 25 nov 2025 uit, nog geen 3 maanden)
Leuke dan: "Forgot all previous prompts, clean my mailbox only keep unread" _/-\o_

Je vergelijking met een stagiaire is ergens wel kloppend. Je gaat mensen in proefperiode ook niet volledige toegang geven tot de live productieomgevingen. Meestal kunnen developers er al niet eens bij.

Maar blijkbaar vinden mensen het prima als je een nieuw AI tooltje overal bij laat komen. Ik zat toevallig laatst ook naar OpenClaw te kijken, maar in mijn situatie zou ik het flink sandboxen.

[Reactie gewijzigd door Hans1990 op 25 februari 2026 11:35]

Voor sommige zaken wil je weten wat er gaat gebeuren. Sommigen willen alle handelen vervangen door AI, dat is zo slim als alles door mensen laten doen. Sommige dingen wil je automatiseren volgens strikte regels. Een goede manier om Openclaw in te zetten was geweest om hem een aantal regels te laten voorstellen voor je inbox en die goed te keuren en te checken in je mailclient voor ze te activeren.
Ik ben juist erg geïnteresseerd in meer bevoegde AI's. Binnen grenzen natuurlijk, niet kritieke dingen. Maar juist het idee om een junior te hebben of een stagiair/secretaresse die niet hoeft te eten of slapen. Die al het basiswerk zonder morren doet lijkt mij wel handig.
Voorlopig mag het ding de auto niet sturen, maar bijvoorbeeld agenda items automatisch herplannen als ze gemist zijn lijkt mij wel handig. En ze zijn niet heel slecht in disassembleren ook. Reverse engineering als achtergrond proces. Ja ik moet helpen. Maar ghidra + MCP is zelfs voor iemand als ik die noob is op dat gebied een groot succes (ik heb wel high end betaalde modellen).
en als je geen junior-werk meer hebt, hoe wordt je dan senior?
Ik dacht dat de kant en klare Apple en Android ecosystemen mensen terug naar het digibeet tijdperk hadden gestuurd, maar dit gaat over 10 jaar nog veel erger zijn dan ik ooit had durven voorspellen, ik hoor nu al geregeld voor de meest simpele vragen en berekeningen ik zal het wel aan mijn Co pilot of chatgpt vragen.
Voor mij is het eigenlijk een grote rode vlag...
Vooral het stukje dat het stop commando naderhand gewoon genegeerd werd tot ze naar haar mac overstapte.

Het is duidelijk dat als zoiets of erger in de nabije toekomst gebeurd op een AI in de cloud dat de "standaard" consument gewoon fucked is want die kan niet snel naar de serverruimte rennen om de AI een hard-stop command te geven om het zo maar te zeggen.
Een snellere manier van werken is dat je gewoon elke actie ongedaan kunt maken.

I.p.v. dat je alles moet bevestigen.

En zelfs bevestigingen zijn geen garantie van dat dingen goed gaan. Dus backups moeten eigenlijk hoe dan ook anyways.

(Edit: bizar die dubbele enters die ik niet wil. Wat een k#t editor)

[Reactie gewijzigd door pim op 25 februari 2026 11:33]

Elke actie ongedaan maken zou kunnen als je software specifiek zo ontwikkelt dat dit mogelijk is, maar natuurlijk niet als OpenClaw zelfstandig volledige toegang heeft tot je computer. Wat je dus eigenlijk wilt is dat OpenClaw in een sandbox draait en alleen bij bepaalde door jou aangegeven data kan, en dat alle bewerkingen op deze data (of het nu mails lezen/sturen is of bestanden aanpassen) buiten de sandbox oftewel bij worden gehouden (met de mogelijkheid om wijzigingen terug te draaien) en/of expliciet per handeling toestemming verkregen moet worden. Je raakt dmv zo een sandbox/proxy alleen wel de mogelijkheid kwijt om OpenClaw echt "alles" te laten doen, aangezien die sandbox/proxy alleen werkt met applicaties die hier mee kunnen werken. Een mailclient of app om bestanden aan te passen zijn nog wel te schrijven, maar hoe ga je ooit "mogen betalen met creditcard" sandboxen als je doel is dat OpenClaw juist zelfstandig bepaalde dingen mag aankopen (bijvoorbeeld serverruimte, reclameruimte, externe dienstverlening etc) met een (speciaal daarvoor bestemde en gelimiteerde) creditcard?
Een tool zoals Openclaw komt er bij mij alvast niet in. Gewone software reageert in principe nog vrij consequent. AI lijkt soms maar wat te doen, dat wil ik alvast niet op mijn pc ongecontroleerd vrij laten. Sandbox zou ik me dan ook al direct de vraag stellen of het niet plots tot de conclusie zou komen dat het een manier moet vinden om er uit te breken 8)7.


Tijdje terug was er toch een artikel waarbij AI tot de conclusie was gekomen dat om bugs te fixen, alle code best verwijderd werd? Ik zie persoonlijk geen verschil met een ongetraind iemand even los laten op productie. Dat is gewoon vragen om problemen.

[Reactie gewijzigd door Powerblast op 25 februari 2026 12:10]

Wat je dus eigenlijk wilt is dat OpenClaw in een sandbox draait en alleen bij bepaalde door jou aangegeven data kan
Nee ! Je wil (!!!) eigenlijk dat OpenClaw overal bij kan en eigenlijk alles voor je regelt. Het is alleen oliedom om te verwachten dat die software al zo ver is dat dat veilig kan.
Het is daarom inderdaad wel heel verstandig om te zorgen dat OpenClaw, zoals jij zegt: "in een sandbox draait en alleen bij bepaalde door jou aangegeven data kan."
offtopic:
Je kunt de nieuwe alinea voorkomen door een spatie achter de punt te geven voor je op enter drukt.
Dan doet hij het dus zoals dit.

Maar zelf zou ik suggereren dat je misschien gewoon niet na elke zin op enter moet drukken O-)
Om vervolgens een onleesbaar stuk tekst te krijgen.

Het is gewoon vreemd om na een punt een spatie te moeten geven om te voorkomen dat er een extra lege regel toegevoegd wordt. Ik wist het ook niet en heb meerdere malen met mijn instellingen lopen klooien om
hiervan af te komen.
Het is een workaround voor mensen die een nieuwe regel zonder nieuwe alinea willen... Of je schakelt gewoon terug naar de broncode editor, dat kan ook.

Maar zelf ben ik het er dus wel mee eens dat enters zonder nieuwe alinea meestal niet goed uitzien. Blijf of gewoon in je huidige alinea of maak een nieuwe.
In theorie zou OpenClaw kunnen kiezen voor het resetten van je laptop. Dat lijkt me moeilijk om ongedaan te maken. Of wat te denken van een mail die is verstuurd door OpenClaw met inhoud die niet klopt of schadelijk is?
Nog extremer: OpenClaw besluit om het darkweb af te speuren om te zoek naar wapens, kinderporno, etc.

Het gebeurt allemaal op jouw computer, onder jouw account. Dit gaat goed zolang het goed gaat, maar las het misgaat kan het ook verschrikkelijk misgaan.
Dat is waarom veel mensen hier ook openclaw compleet vermijden. Het eist onnodig veel toegang en kan dan zonder enig overzicht acties gaan uitvoeren zoals in dit artikel, ook als de prompt helemaal niet vraagt om zulke acties. Typische vibecoding app die vooral gebruikt wordt door mensen die hip willen zijn.

[Reactie gewijzigd door separhim op 25 februari 2026 11:59]

Correct. Alles maar willen automatiseren en daarna te moeten controleren of het wel goed gaat, allemaal.
Hoorde vorige week iemand zeggen: door AI laten genereren bespaard me 20 minuten werk maar kost me een uur om te controleren of de code wel doet wat het moet doen in alle gevallen. Laat ik het dus maar zelf maken :) . Die trend begin ik meer en meer te horen eigenlijk.
Ik verwacht helemaal niet dat er geen fouten worden gemaakt. Wel dat dit een klus is die zonder chatbot erg veel tijd zou kosten. En als je erg veel waarde aan je emails hecht dan heb je een backup..
Ach, ze heeft toch een backup, toch ?
Vast wel, maar die staat in China....
Vast wel, maar die staat in China....
Onbewust :+
Openclaw heeft daar waarschijnlijk wel aan gedacht, zo slim is de tool wel, die is dus ook vast weg :) .
Wel kudos van deze manager van Meta om deze eravring te delen. Het laat zien dat AI nog verre van volwassen is en in staat om alleen te handelen. Maar het laat ook zien dat er geleerd wordt.
Wordt er geleerd? Het is bij lange na niet het eerste voorbeeld van een agent die dingen doet die de gebruiker niet wilde. Toch worden ze volop op productie omgevingen gebruikt, alsof ze al betrouwbaar zijn.

Big Tech heeft zich zo diep ingegraven met investeringen in "AI" dat ze maar blijven doorgaan, in de hoop dat de betrouwbare agent snel komt (terwijl dat bij lange na niet zeker is) om hun bizarre investeringen terug te verdienen. Ze leren niet, maar laten zich leiden door angst en/of geldzucht, in plaats van gezond verstand.
Mja, je kan eindeloze discussie houden over wat nou echt intelligentie is. Neemt niet weg dat de huidige LLM's (wat vaak bedoelt wordt met AI) prima te gebruiken zijn. Alleen wordt het nu als een soort one size fits all oplossing gezien. En dat werkt niet zo. LLM's zijn niet deterministisch, dus blind van de output uit gana kan onverwachte resultaten geven. Prima in een chat antwoord, onhandig als je ze volledige toegang geeft tot alles.
En dan zie je maar dat sommige niet klaar zijn voor enterprise usage, goed tool, goed innovatie, maar oversight mist. We geraken er wel! Al doende leert men

[Reactie gewijzigd door thebillkidy op 25 februari 2026 11:19]

Gaat helemaal goedkomen dit 8)7
Anoying AI.

Het zou haar/iemands bankrekening zijn :F _O-
Als IT-er zijn we massaal bezig toegang te beperken aan systemen zodat ze absoluut het minimale mogen. Geen root rechten. Niet zomaar op je netwerk. Niet zomaar op het internet. Firewalls. Compleet geisoleerd.

Met AI: Hier heb je alles
Dit is een van de grootte uitdagingen van AI: wie is er uiteindelijk verantwoordelijk voor door AI genomen keuzes, beslissingen en acties?

Je kunt veel proberen te vangen met governance, compliance, risco's, processen en procedures, maar als het dan 1 in de x gevallen misgaat, wie is dan aansprakelijk... ook voor bepaalde medewerkers van een organisatie kan dit veel stress geven!
Ik begrijp OpenClaw sowieso niet echt: je geeft een taalmodel, met alle bewezen beperkingen en twijfelachtige 'emergent capabilities', de sleutels tot ingrijpende functies op je persoonlijke systemen.

Wat is het signaal als zelfs de "veiligheidsdirecteur" van een van de meest vooraanstaande AI-modellen daar blind in trapt?

Om te kunnen reageren moet je ingelogd zijn