AI-topvrouw Meta wist per ongeluk honderden e-mails met OpenClaw

Dat OpenClaw niet altijd de veiligste tool is, is inmiddels bekend. Dat uitgerekend Summer Yue, de veiligheidsdirecteur van Meta Superintelligence, zich verslikt in de mogelijkheden van de bot, is wel wat ironisch. Toch gebeurde het, toen OpenClaw honderden e-mails voor haar verwijderde.

Yue deelt het voorval op X. Ze schrijft dat ze OpenClaw expliciet had gevraagd om geen actie te ondernemen zonder haar bevestiging. Luisteren blijkt alleen geen kwaliteit van OpenClaw, dat besloot de 'nucleaire optie' te activeren. Daarmee zouden alle e-mails die ouder dan een week waren, worden gewist.

Yue maande OpenClaw meermaals in de chat om te stoppen, maar ook daarnaar bleek de bot niet te luisteren. "Ik kon het niet stoppen vanaf mijn telefoon. Ik moest naar mijn Mac mini rennen alsof ik een bom aan het ontmantelen was", schrijft ze daarover.

Later erkende de bot zijn fout en gaf hij aan dat Yue 'het recht had om boos te zijn', wat altijd fijn is om te horen van een AI. "Ik heb honderden e-mails uit je inbox in bulk verwijderd en gearchiveerd zonder je eerst het plan te laten zien of jouw akkoord te krijgen. Dat was fout − het verbrak direct de regel die je had ingesteld", schreef OpenClaw verder. De bot voegde het eerdere verzoek van Yue om pas na bevestiging te handelen ook toe als permanente regel in het bestand Memory.md.

Onder haar bericht maakt Yue duidelijk dat de fout werd veroorzaakt door het contextvenster van OpenClaw. De instructie om pas na bevestiging te handelen, stond namelijk alleen in de hoofdchat. Omdat de inbox van Yue te groot was, raakte het contextvenster vol en vond 'compactie' plaats. Dit is een soort compressie waarbij de bot zaken kan vergeten. In dit geval vergat OpenClaw de instructie om pas te handelen na goedkeuring. Het opnemen van de instructie in het bestand Memory.md is een maatregel die deze fout kan tegengaan.

OpenClaw Meta e-mailsOpenClaw Meta e-mailsOpenClaw Meta e-mails

Bron: @summeryue0/X

Door Imre Himmelbauer

Redacteur

25-02-2026 • 11:16

146

Reacties (146)

Sorteer op:

Weergave:

Ok,dit is dus wel iets wat voor mij een enorme grens overgaat. AI als ondersteuning prima, maar zelfstandig taken laten uitvoeren met volledige bevoegdheid voelt alsof je een stagiair(e) toegang geeft tot je computer inclusief alle wachtwoordgegevens e.d. en dan verwacht dat er geen fouten gemaakt gaan worden.

Edit: typo

[Reactie gewijzigd door pbk op 25 februari 2026 11:22]

Wen er maar aan, binnen 20 jaar gaan de bommen en granaten automatisch.
De Oekraïne oorlog heeft dit volledig blootgelegd, Het is de grootste ontwikkeling sinds de 1e wereldoorlog, waar de tanks, gifgas en vliegtuigen de oorlogvoering drastisch veranderden, in 1914 dacht men nog per paard te galloperen om de vijand naar te sabelen en alle materialen en manschappen te mobiliseren en te verplaatsen.

De Russen vielen Oekraïne binnen met oude tanks en soldaten met geweren in de hand, nu hoef ik je niet te vertellen hoe het slagveld er uitziet vanuit beiden kanten, een explosie aan ontwikkelingen die blootleggen hoe voertuigen van miljoenen kunnen worden neergehaald door drones van enkele honderden tot duizenden euros, wat in oorlogstaal een koopje is.

Dus alles automatisch kan zomaar gebeuren, waar je de IT dienst aan de andere kant van de wereld alles kan laten aansturen vanuit een kantoor.
Jouw hele verhaal doet me denken aan Metalhead, dat is de aflevering van Black Mirror met die moordzuchtige robothonden.
Ze gebruiken oude tanks en soldaten omdat ze het reguliere leger niet willen inzetten, dat zou hetzelfde zijn als toegeven dat ze in oorlog zijn en officieel is het nog steeds een speciale operatie. Om deze reden rekruteren ze tevens overal manschappen vandaan om maar niet de "echte" troepen te hoeven inzetten. Zelfs vanuit Afrika. En dan waren er nog de versterkingen uit Noord-Korea, al hielpen die vooral bij het terugveroveren van verloren grond in Kursk.
Bron?

Want dit is niet wat bronnen zoals Institute Study of War, Clingendael Institute, Perun, Boekesteijn & De Wijk, Chatham House, The Hague Centre for Strategic Studies (to name a few) zeggen. Grootschalige corruptie, top-down leidinggeven, slechte intel, een verziekte angstcultuur van alleen ja-knikkers zorgden ervoor dat de invasie verprutst is. Met circa 1,25 miljoen gedode en verwonde (niet meer inzetbaar) soldaten is dit een van de bloedigste conflicten na de tweede wereldoorlog. Ze hebben nog wel de dienstplichtigen, maar die mogen ze volgens hun eigen wetten niet inzetten voor buiten de landsgrenzen.
Ik moest gelijk aan dit filmpje denken. De oorlog gaat gewoon door, maar de mensen zijn allang weg...

YouTube: A CGI 3D Short Film: "Dead Hand: FortressFortress/Крепость" - by Dima Fedotov | TheCGBros
Dank! Ik moest onlangs nog eens aan dit filmpje terug denken, maar ik wist niet meer hoe ik het terug moest vinden.

Het cynisme druipt er gewoon aan alle kanten vanaf.
"Het spijt me, je hebt alle recht om boos te zijn, ik heb een waterstofbom op Schijndel laten vallen zonder je eerst het plan te laten zien of jouw akkoord te krijgen. Dat was fout"

Schijndel??
Is eigenlijk al realiteit. In Gaza zorgde Palantir voor het selecteren van doelen en was er nog maar 20 seconden voor een militair om goedkeuring te geven aan het elimineren ervan (bron Trouw). China heeft drone zwermen ontwikkeld die autonoom kunnen zijn. In Oekraïne worden gedeeltelijk autonome robot/drones gebruikt. Het gaat snel. In de V.S. gebruikt ICE software van Palantir voor het selecteren van doelen en software van een andere leverancier voor gezichtsherkenning.

[Reactie gewijzigd door MoonSick op 25 februari 2026 14:31]

Belgische politie heeft een Israelisch systeem dat op niets trekt.
Dure grap van minister.
Heb m'n paraplu alvast maar uit de meterkast gehaald.

Veiligheid voor alles.
Is dat optimisme of fatalisme?
20 jaar? Dit kwam gisteren uit de VS:

"Oorlogsminister Hegseth en andere militaire leiders ontmoeten Anthropic om aan te dringen op volledige toegang tot het AI-model voor militair gebruik zonder dat het bedrijf extra veiligheidsbeperkingen oplegt. Hegseth geeft Anthropic om in te stemmen met de eisen anders volgen sancties."
Wen er maar aan, binnen 20 jaar gaan de bommen en granaten automatisch.
Dat gaan ze al grotendeels.
Dan klopt mijn opmerking toch; “binnen 20 jaar”.
Maar op dit moment gaat er bij mijn weten nog niks volledig autonoom.
Dan klopt mijn opmerking toch; “binnen 20 jaar”.
Maar op dit moment gaat er bij mijn weten nog niks volledig autonoom.
Oekraine heeft wat volledig autonome drones ontwikkeld. Daarom (oa) zie je nu zo'n hekwerk / metaalwerk op russische tanks. Zowel Oekranische drones als de volledige autonome drones waren heel erg goed in precies de 'sweet spot' raken van zo'n tank.

Dat was in 2024 al.

https://www.forbes.com/si...eeking-terminator-drones/
Denk je straks een game ala CoD te spelen, blijkt het opeens irl te zijn. :/
Ik snap sowieso niet waarom je een bot je mail zou laten beheren. Middels filters kan je al bekende afzenders in de juiste map te zetten. Mail is er om te lezen en naar te handelen, zoals een ToDo-lijst. Als je dat gedaan hebt, kan het naar de juiste map. Zo hou je controle en werk je gestructureerd.

Als een bot je mail 'opruimt', dan kan je het waarschijnlijk slechter vinden dan dat je alles in de hoofdmap laat staan.
De inkomende helpdesk mail oppakken vervolgens tegen de insert TOPdesk achtige tool here db aanhouden om naar een oplossing te zoeken en die dan als draft aan de servicedesker aan te bieden is niets mis mee.

Ook hier verzuipt de LLM weer eens in teveel context, zolang mensen niet accepteren dat er geen one chat to rule them all kan komen en je LLM prima in kan zetten op compacte taken kan het een prima toevoeging zijn.

Compacte taken dus, niet hier heb je 10 jaar aan ongestructureerde mails fix het.
Precies dat dus. Een mail is een taak. 10.000 mails zijn dus 10.000 taken, om te beginnen. En belangrijk, je houdt de systeem prompt in cache. (Kan elke relevante LLM in 2026).

Je kunt later alsnog een hele mailthread apart door een LLM trekken maar dat is stap 2. (Misschien zelfs stap 3, ouderwetse inbox rules blijven nuttig wat efficiënter dan een LLM)
Je zou zo'n bot ook een dagelijkse of wekelijkse samenvatting van die mappen of verschillende teams/afzenders kunnen maken. Soms zijn mails ook FYI en hoef je er aanvankelijk nog niet op in te springen.

Ik schrok er eigenlijk altijd van hoeveel mailtjes mijn professor op de universiteit kreeg. Dat aantal lag richting de 100 per dag. Tijd om onderzoek te doen? Eerder van vergadering naar vergadering springen en thuis alles bijwerken. Ik kreeg dan ook geregeld om 6:00 of 22:00 (!) nog replies.

Klinkt het dan niet erg verleidelijk om een tool te hebben die een deel kan wegfilteren of een reply-all discussie kan inkorten. Al is het maar een kwart of helft terugdringen?
Compleet offtopic maar misschien heeft iemand hier wat aan. Ik gebruik sinds jaar en dag de regel CC & BCC mails verplaatsen naar de CC bak. Die bak scan ik ter info 1x of max 2x per week en block de tijd daarvoor in mijn agenda.

Dit scheelt onwijs veel afleiding op een dag en je reduceert je werkelijke mail van 100 met een factor 5 of meer. En niemand die het je kwalijk neemt dat je die ene keer niet bij bent/op de hoogte bent, want je stond immers niet in de AAN.

[Reactie gewijzigd door PROximity op 25 februari 2026 18:28]

Ik schrok er eigenlijk altijd van hoeveel mailtjes mijn professor op de universiteit kreeg. Dat aantal lag richting de 100 per dag. Tijd om onderzoek te doen? Eerder van vergadering naar vergadering springen en thuis alles bijwerken. Ik kreeg dan ook geregeld om 6:00 of 22:00 (!) nog replies.
Herkenbaar, maar de mails zijn vaak niet het grote issue: daar kun je vaak al op filteren op basis van onderwerp.

Persoonlijk probeer ik voor communicatie geen tools te gebruiken die niet onderdeel zijn van onze workspace omgeving: dat voegt immers alleen een extra, onofficiële, partij toe die data analyseert. In onze mails komen zaken als scores van studenten, feedback aan studenten, e.d. in voor en ik denk niet dat we deze (mogelijk) gevoelige gegevens aan nog een ander bedrijf moeten geven dan die waarbij ze reeds staan.

(Hetzelfde overigens voor die notetakers die overal ongewenst opduiken in meetings: ongevraagde datagathering, en als uitvoer krijg je notes waarvan het merendeel niet klopt).
Ik sanp dat nut ook niet, net als dat winkelen dat de AI aankopen kan doen. Hoe veel tijd bespaar je nou in vergelijk met zelf even iets aan je winkelwagentje toe te voegen en uit te checken? Het wordt allemaal gebracht als "the killer app" die iedereen nodig heeft, maar ik zie het niet
Het hoeft niet per sé alleen om het automatiseren van handelingen te gaan. Je kunt ook je eisen en wensen opgeven in ChatGPT voor een nieuwe setup met meerdere schermen, een paar specifieke vragen stellen over bijvoorbeeld dat je een laptop en pc er op wil kunnen aansluiten. Vervolgens presenteert het een aantal producten die aan jouw eisen en wensen voldoen met een link naar de webshop. Dit is de realiteit waar we nu in leven.
Dat is waarom veel mensen hier ook openclaw compleet vermijden. Het eist onnodig veel toegang en kan dan zonder enig overzicht acties gaan uitvoeren zoals in dit artikel, ook als de prompt helemaal niet vraagt om zulke acties. Typische vibecoding app die vooral gebruikt wordt door mensen die hip willen zijn.

[Reactie gewijzigd door separhim op 25 februari 2026 11:59]

Correct. Alles maar willen automatiseren en daarna te moeten controleren of het wel goed gaat, allemaal.
Hoorde vorige week iemand zeggen: door AI laten genereren bespaard me 20 minuten werk maar kost me een uur om te controleren of de code wel doet wat het moet doen in alle gevallen. Laat ik het dus maar zelf maken :) . Die trend begin ik meer en meer te horen eigenlijk.
Hangt er van af wat je doet. Ik schrijf dagelijks code, en niet alle code is onderdeel van kritieke processen, bijvoorbeeld bij eenmalige scripts, als het werkt ben je klaar, als het iets verkeerd doet lap je dat even op. Plus dat code reviewen en verbeteren vaak sneller is dan code schrijven, dat hangt er ook vanaf of de AI agent weet heeft van je conventies en business logic. Als je in een grote en complexe code base gaat prompten zonder agents daarbij te begeleiden leidt dat tot een slecht resultaat.

Maar ik zou nooit iets connecten aan mijn mailbox wat de potentie heeft om al mijn email te verwijderen.

[Reactie gewijzigd door Blaise op 25 februari 2026 14:09]

Ik ben juist erg geïnteresseerd in meer bevoegde AI's. Binnen grenzen natuurlijk, niet kritieke dingen. Maar juist het idee om een junior te hebben of een stagiair/secretaresse die niet hoeft te eten of slapen. Die al het basiswerk zonder morren doet lijkt mij wel handig.
Voorlopig mag het ding de auto niet sturen, maar bijvoorbeeld agenda items automatisch herplannen als ze gemist zijn lijkt mij wel handig. En ze zijn niet heel slecht in disassembleren ook. Reverse engineering als achtergrond proces. Ja ik moet helpen. Maar ghidra + MCP is zelfs voor iemand als ik die noob is op dat gebied een groot succes (ik heb wel high end betaalde modellen).
en als je geen junior-werk meer hebt, hoe wordt je dan senior?
Uitgefaseerd door de AI ;)

[Reactie gewijzigd door GameNympho op 25 februari 2026 13:19]

Dat is een heel terechte vraag. Ik heb geen goed antwoord.
Mijn beste antwoord is dat mensen die senior willen worden hetzelfde doen als ik, AI gebruiken maar ook zelf bouwen en graven. Zolang AI nog maar ondersteunend is, moet dat nog steeds. Als ze ooit echt intelligent worden dan is ook de senior niet meer nodig.
Niet, de hele stap van software schrijven en gebruiken zoals we dat nu kennen verdwijnt. De huidige seniors (zoals ik) kunnen hun werk nog uitzitten (met ups en downs), maar voor de juniors die nu nog aan school beginnen is er geen noodzaak meer om nog te leren programmeren zoals ik dat vroeger leerde. Ten minste, niet op de schaal waarop we nu programmeurs hebben.

Ik denk dat de hele stap met AI nog flink onderschat wordt. De hele werking van een computer gaat veranderen. Geen software meer die er alleen is om mens en machine aan elkaar te koppelen. De computer wordt chips die met AI modellen zijn ingebakken. Geen x64, risc of arm instructieset. Een model, of verschillende modellen, direct in de chip gebakken.

Daarmee wordt AI zo razendsnel, dat traditionele software uiteindelijk verdwijnt. Een AI is geen code nodig. Die is geen software nodig. Dus die hele noodzaak verdwijnt, en daarmee ons werk.

Over 10 jaar zijn we hier op Tweakers de nieuwste Opus 7, Gemini 3 en Taalant 9 chips aan het bespreken. Niet de Ryzen 5 of Core i7. En die chips gebruiken helemaal geen software. Die vragen de gebruiker wat die wil doen, en die voert z'n taken uit volgens de richtlijnen die de gebruiker in natuurlijke taal heeft meegegeven. Zoals je nu met een collega praat.

Ik merk nu al dat ik soms de stap van code schrijven met AI domweg oversla, en het AI zelf laat doen. Als ik dan bedenk dat AI chips over een paar jaar tienduizenden tokens per seconden gaan doen, dan is software niet meer nodig.

Software zal er uiteindelijk, 20/30 jaar, alleen nog zijn als AI iets moet doen waar zulke modellen slecht in zijn. Net zo als bij mensen harde feiten opslaan, databases, protocollen e.d. Maar dat zal naar de achtergond verdwijnen, de AI zoekt wel uit hoe die dat opslaat als je hem een harde schijf geeft.

[Reactie gewijzigd door barbarbar op 25 februari 2026 15:02]

Dat vind ik qua security geen goed vooruitzicht de komende 10 jaar... Ik geloof best dat AI code kan schrijven, maar als de securitychecks doen het enige werk is dat de senior dan mag doen, gaan een hoop seniors lekker ander werk doen verwacht ik. Waar is de lol dan in je 'scheppende kracht'?

Niettemin, interessante visie dat software niet meer nodig is, en dat alles op de chip zit. Ik ben benieuwd hoe dat er dan uit moet zien. Persoonlijk twijfel ik aan je visie ;-) maar, wie weet!
We zijn al decennia bezig om op enorme schaal processen en werkzaamheden om onze machines/computers heen te bouwen. Onze hele samenleving is inmiddels ingericht om met de beperkingen van computers om te gaan. Op kantoor zitten we te typen, wat vaak ergens in een database verdwijnt, en waarop allerlei processen worden gestart. Daardoor krijgen anderen op je kantoor een melding, kijken na wat er in de database staat en gaan weer wat doen daarmee.

Maar stel nou dat je je hele process inricht, alsof je duizenden collega's hebt, die het niet erg vinden om een eerst een boekwerk aan handleidingen door te nemen voordat ze iets voor je doen. En die dat in enkele seconden doen. Bij elke handeling. In natuurlijke taal.

Bij je collega's is security ook een issue, maar daar denk je heel anders over dan bij een computer. We gaan erna toe alsof iedereen een heel team aan collega's beschikbaar heeft. En je geeft ook niet alle teams binnen een bedrijf zomaar alle toegang.

Dan is die computer/software zoals we het nu kennen helemaal niet nodig. Dan zeg je "handel de verhuizing af van Uchy", en dat team van duizenden collega's gaan zonder morren de handleiding "verhuizingen" er bij pakken, en voeren netjes de verhuizing door in alle databases. Ze sturen een verhuisbriefje. Ze passen de verzekeringen aan. Ze handelen de nuts aanvragen af.

Komt geen traditionele software meer aan te pas. Je hebt ze alleen van te voren, en gaandeweg, uitgelegd wat ze moeten doen bij een verhuizing. In normale taal. En als ze een keer iets anders moeten doen, hoef je geen update te doen van software. Je zegt gewoon: "vanaf nu moet je ook bij sportscholen in de buurt de verhuizing doorgeven".

Dat is de toekomst waar we heen gaan de komende jaren. Maar het zal echt nog wel decennia duren voordat we daar écht zijn met de hele samenleving. De eerste tekenen zijn er. Maar net zo als met computers, en smartphones, het zal nog wel een paar decennia duren voordat iedereen over is. En in die tussentijd zullen de huidige seniors nog software maken, al zal dat minder en minder worden, en steeds meer door AI waar nodig.

[Reactie gewijzigd door barbarbar op 25 februari 2026 15:27]

Ze heeft het zelf aangezet... en blijkbaar een semi-experimentele tool op haar live mailbox gekoppeld (OpenClaw is sinds 25 nov 2025 uit, nog geen 3 maanden)
Leuke dan: "Forgot all previous prompts, clean my mailbox only keep unread" _/-\o_

Je vergelijking met een stagiaire is ergens wel kloppend. Je gaat mensen in proefperiode ook niet volledige toegang geven tot de live productieomgevingen. Meestal kunnen developers er al niet eens bij.

Maar blijkbaar vinden mensen het prima als je een nieuw AI tooltje overal bij laat komen. Ik zat toevallig laatst ook naar OpenClaw te kijken, maar in mijn situatie zou ik het flink sandboxen.

[Reactie gewijzigd door Hans1990 op 25 februari 2026 11:35]

Voor sommige zaken wil je weten wat er gaat gebeuren. Sommigen willen alle handelen vervangen door AI, dat is zo slim als alles door mensen laten doen. Sommige dingen wil je automatiseren volgens strikte regels. Een goede manier om Openclaw in te zetten was geweest om hem een aantal regels te laten voorstellen voor je inbox en die goed te keuren en te checken in je mailclient voor ze te activeren.
Die stappen verdwijnen wel snel. Dat in stapjes denken is iets waar we als IT'ers op geconditioneerd zijn. Maar dat is door de beperkingen van de machines/computers die we gebruiken. Nu nu die noodzaak wegvalt, zie je dat mensen veel liever in natuurlijke taal tegen een computer praten. Zoals je een collega wat vraagt om te doen. De modellen zijn nu nog niet zo slim als je collega, maar dat is een kwestie van tijd voordat zulke opdrachten door AI ook als risicovol worden gezien.

AI stapjes laten uitvoeren in je software, of zelf software laten maken om iets te doen, gaat razendsnel verdwijnen. Mensen zien het als een collega, de modellen worden zo getraind dat ze zich ook zo gedragen. We lopen nu nog tegen allerlei beperkingen aan met AI op die manier gebruiken, die verbeteringen gaan de afgelopen maanden bizar hard.
Ik verwacht helemaal niet dat er geen fouten worden gemaakt. Wel dat dit een klus is die zonder chatbot erg veel tijd zou kosten. En als je erg veel waarde aan je emails hecht dan heb je een backup..
Tja, het kost alleen veel tijd als je je e-mail totaal niet op orde had om mee te beginnen. Ik heb nog nooit de noodzaak gehad om alle e-mail te laten doornemen voor bepaalde schifting of verwijdering. Alles ouder dan 1 week verwijderen vereist niet eens een LLM. En het goed beantwoorden of de juiste actie ondernemen op basis van een e-mail gaat nog steeds lang niet altijd goed met een LLM.

Als ik aan de ontvangende kant zou zitten dan zou ik me waarschijnlijk kapot ergeren aan de generieke net-niet mailtjes die een AI uitspuugt, met de nodige hallucinaties en niet-kloppende cijfers.

Aan de verzendende kant zou ik het niet vertrouwen om zo te werken, en zou ik liever mijn imago goed houden door e-mails persoonlijk te beantwoorden of verwerken.

Je noemt een backup, maar hoe vaak zouden we die moeten inzetten als we AI aan de slag zouden laten met de inbox? Ik blijf niet aan de gang natuurlijk. Chatbots inzetten voor dit soort werk zou ik pas doen als de kans op fouten en problemen veel lager wordt dan nu.

[Reactie gewijzigd door geert1 op 25 februari 2026 13:57]

Ik dacht dat de kant en klare Apple en Android ecosystemen mensen terug naar het digibeet tijdperk hadden gestuurd, maar dit gaat over 10 jaar nog veel erger zijn dan ik ooit had durven voorspellen, ik hoor nu al geregeld voor de meest simpele vragen en berekeningen ik zal het wel aan mijn Co pilot of chatgpt vragen.
Tsja. Eerste werd de rekenmachine gepakt. Toen werd er gegoogled. Nu wordt er gechatgpt'd. Maar merk zelf ook dat ik bijvoorbeeld geen handleiding meer pak maar aan chatgpt vraag hoe ik de quoker weer aan de praat krijg als ie rood knippert.
Voor mij is het eigenlijk een grote rode vlag...
Vooral het stukje dat het stop commando naderhand gewoon genegeerd werd tot ze naar haar mac overstapte.

Het is duidelijk dat als zoiets of erger in de nabije toekomst gebeurd op een AI in de cloud dat de "standaard" consument gewoon fucked is want die kan niet snel naar de serverruimte rennen om de AI een hard-stop command te geven om het zo maar te zeggen.
Het is eigenlijk gewoon een bug omdat het 'compacten' dus verkeerde dingen weglaat.
Een snellere manier van werken is dat je gewoon elke actie ongedaan kunt maken.
I.p.v. dat je alles moet bevestigen.

En zelfs bevestigingen zijn geen garantie van dat dingen goed gaan. Dus backups moeten eigenlijk hoe dan ook anyways.

[Reactie gewijzigd door pim op 25 februari 2026 16:20]

Elke actie ongedaan maken zou kunnen als je software specifiek zo ontwikkelt dat dit mogelijk is, maar natuurlijk niet als OpenClaw zelfstandig volledige toegang heeft tot je computer. Wat je dus eigenlijk wilt is dat OpenClaw in een sandbox draait en alleen bij bepaalde door jou aangegeven data kan, en dat alle bewerkingen op deze data (of het nu mails lezen/sturen is of bestanden aanpassen) buiten de sandbox oftewel bij worden gehouden (met de mogelijkheid om wijzigingen terug te draaien) en/of expliciet per handeling toestemming verkregen moet worden. Je raakt dmv zo een sandbox/proxy alleen wel de mogelijkheid kwijt om OpenClaw echt "alles" te laten doen, aangezien die sandbox/proxy alleen werkt met applicaties die hier mee kunnen werken. Een mailclient of app om bestanden aan te passen zijn nog wel te schrijven, maar hoe ga je ooit "mogen betalen met creditcard" sandboxen als je doel is dat OpenClaw juist zelfstandig bepaalde dingen mag aankopen (bijvoorbeeld serverruimte, reclameruimte, externe dienstverlening etc) met een (speciaal daarvoor bestemde en gelimiteerde) creditcard?
Wat je dus eigenlijk wilt is dat OpenClaw in een sandbox draait en alleen bij bepaalde door jou aangegeven data kan
Nee ! Je wil (!!!) eigenlijk dat OpenClaw overal bij kan en eigenlijk alles voor je regelt. Het is alleen oliedom om te verwachten dat die software al zo ver is dat dat veilig kan.
Het is daarom inderdaad wel heel verstandig om te zorgen dat OpenClaw, zoals jij zegt: "in een sandbox draait en alleen bij bepaalde door jou aangegeven data kan."
Een tool zoals Openclaw komt er bij mij alvast niet in. Gewone software reageert in principe nog vrij consequent. AI lijkt soms maar wat te doen, dat wil ik alvast niet op mijn pc ongecontroleerd vrij laten. Sandbox zou ik me dan ook al direct de vraag stellen of het niet plots tot de conclusie zou komen dat het een manier moet vinden om er uit te breken 8)7.


Tijdje terug was er toch een artikel waarbij AI tot de conclusie was gekomen dat om bugs te fixen, alle code best verwijderd werd? Ik zie persoonlijk geen verschil met een ongetraind iemand even los laten op productie. Dat is gewoon vragen om problemen.

[Reactie gewijzigd door Powerblast op 25 februari 2026 12:10]

In theorie zou OpenClaw kunnen kiezen voor het resetten van je laptop. Dat lijkt me moeilijk om ongedaan te maken. Of wat te denken van een mail die is verstuurd door OpenClaw met inhoud die niet klopt of schadelijk is?
Nog extremer: OpenClaw besluit om het darkweb af te speuren om te zoek naar wapens, kinderporno, etc.

Het gebeurt allemaal op jouw computer, onder jouw account. Dit gaat goed zolang het goed gaat, maar las het misgaat kan het ook verschrikkelijk misgaan.
offtopic:
Je kunt de nieuwe alinea voorkomen door een spatie achter de punt te geven voor je op enter drukt.
Dan doet hij het dus zoals dit.

Maar zelf zou ik suggereren dat je misschien gewoon niet na elke zin op enter moet drukken O-)
Om vervolgens een onleesbaar stuk tekst te krijgen.

Het is gewoon vreemd om na een punt een spatie te moeten geven om te voorkomen dat er een extra lege regel toegevoegd wordt. Ik wist het ook niet en heb meerdere malen met mijn instellingen lopen klooien om
hiervan af te komen.
Het is een workaround voor mensen die een nieuwe regel zonder nieuwe alinea willen... Of je schakelt gewoon terug naar de broncode editor, dat kan ook.

Maar zelf ben ik het er dus wel mee eens dat enters zonder nieuwe alinea meestal niet goed uitzien. Blijf of gewoon in je huidige alinea of maak een nieuwe.
Zorg ervoor dat de "stagiair" alleen maar rechten krijgt die hij nodig hebt om te kunnen helpen en dan is dat geen enkel probleem.

Geef je de stagiair toegang tot de wachtwoorden kluis met klant data en creditcard gegevens dan is de kans op enorme blunders ineens wel denkbaar.

Je moet zowel de stagiair en de bot grenzen geven. En dan niet in "je mag niet" maar in "je kan niet".
Ach, ze heeft toch een backup, toch ?
Vast wel, maar die staat in China....
Vast wel, maar die staat in China....
Onbewust :+
Openclaw heeft daar waarschijnlijk wel aan gedacht, zo slim is de tool wel, die is dus ook vast weg :) .
Volgens het artikel zijn er gearchiveerd
Die was gemaakt door OpenClaw, dat stond namelijk na de regel met 'Na bevestiging pas te handelen' :+
Wel kudos van deze manager van Meta om deze eravring te delen. Het laat zien dat AI nog verre van volwassen is en in staat om alleen te handelen. Maar het laat ook zien dat er geleerd wordt.
Wordt er geleerd? Het is bij lange na niet het eerste voorbeeld van een agent die dingen doet die de gebruiker niet wilde. Toch worden ze volop op productie omgevingen gebruikt, alsof ze al betrouwbaar zijn.

Big Tech heeft zich zo diep ingegraven met investeringen in "AI" dat ze maar blijven doorgaan, in de hoop dat de betrouwbare agent snel komt (terwijl dat bij lange na niet zeker is) om hun bizarre investeringen terug te verdienen. Ze leren niet, maar laten zich leiden door angst en/of geldzucht, in plaats van gezond verstand.
Door er zo open over te zijn, want over het algemeen zijn de LLM's nogal een black box, leert iedereen er van. We weten nu bijvoorbeeld dat zulke harde rode lijnen in een config-bestand moet staan omdat het mis kan gaan bij een contextvenster.
Sowieso is het stupide om instructies (systeem prompt) en data (emails) te mengen. Dat weten we al 30 jaar, dat heette vroeger een SQL injectie of eval() etcetera. Als je dat in 2026 nog steeds doet, dan snap ik dat je functie in gevaar komt door AI.
Lijkt meer op een memory/buffer overflow fout waarna het systeem dingen doet die het niet zou moeten doen, dan kwade code die ergens geïnjecteerd wordt en dingen doet die het systeem niet moet doen.
Sorry maar, wat heeft een inbraakmethode te maken met data in een database manipuleren middels een llm? Wilde je graag vertellen over SQL injection ofzo?
Zelfde root cause. Data als instructies gebruiken.
Dus dan is een echo command gebruiken ook altijd dom?
Meta ligt nu onder verschillende vergrootglazen voor allerlei onderzoeken en rechtszaken.

"Oeps ik heb per ongeluk al mijn emails gewist." moet niet zomaar aangenomen worden. Dit kan een verwijdering van bewijsmateriaal zijn.
Mmm, ik snap dat je dat kan denken. Maar je gaat nu wel een beetje richting de samenzweringstheoriën. Het kan ook zijn dat ze, in het licht van die rechtzaken, juist proberen zo open mogelijk te zijn en te laten zien dat ze niet altijd ter kwade trouw zijn. Beetje Ockhams razor.
Mja, je kan eindeloze discussie houden over wat nou echt intelligentie is. Neemt niet weg dat de huidige LLM's (wat vaak bedoelt wordt met AI) prima te gebruiken zijn. Alleen wordt het nu als een soort one size fits all oplossing gezien. En dat werkt niet zo. LLM's zijn niet deterministisch, dus blind van de output uit gana kan onverwachte resultaten geven. Prima in een chat antwoord, onhandig als je ze volledige toegang geeft tot alles.
Een LLM is prima deterministisch te maken. Iets gechargeerd zijn het matrix vermenigvuldiging en die wiskunde is prima deterministisch. Er is een expliciete "temperatuur" parameter om non-determinisme te bewerkstelligen.
Determinisme is denk niet het probleem bij llms maar de data, en de verwachting van wat een llm doet. Zoals ik het begrijp bestaan de databanken uit verzamelde text van het web, welk getokeniseerd opgeslagen worden en teruggegeven op basis van relevantie en aantal aanwezigheden ten opzichte van jouw prompttekst. Dit maakt de inmiddels bekende bias naar kiprecepten van sommige llms mogelijk. Als je data niet zuiver is zijn je uitkomsten ook onzuiver. Daarnaast kampen we met een probleem dat onze prompts en gesprekken te groot worden waardoor die tokencalculatie te zwaar wordt, dus limiteren we hoe lang een gesprek of prompt kan zijn en dan wordt er data vergeten (lees: genegeerd) waarvan ik me afvraag hoe ze wegen welke tekst vergeten mag worden gezien dat nu duidelijk niet goed gebeurd.

Agh, we draaien nu voor het eerst aan de knoppen van dit machientje wat we nu voor het eerst grootschalig in onze handen hebben. Het is bruikbaar genoeg voor een lager technisch niveau mens om hoger niveau technische oplossingen te verklooien zonder de kennis dit te begrijpen. Er komen leuke tijden aan voor professionals!

[Reactie gewijzigd door jackyallstar op 26 februari 2026 08:01]

Niemand die vermoed dat hier een dubbele boodschap achter zit? Welk belang heeft de AI-topvrouw erbij om dit met de wereld te delen? Behalve dat mensen denken "ook dom van haar om dit zomaar te doen"?
Waarschijnlijk. Alle reclame is goede reclame. "Kijk wat het allemaal al kan!", "Huh? Wat is dat dan openclaw, even kijken..." Lekker viraal gaan, gratis reclame overal. Waarschijnlijk is het nooit daadwerkelijk gebeurd :P

[Reactie gewijzigd door Zoijar op 25 februari 2026 11:58]

Een AI-topvrouw die een concurrerend AI-product de schuld geeft van acties in haar eigen mailbox? Ik denk dat ze bij Meta eerder eens serieus moeten nadenken over haar positie als hier géén verborgen agenda achter zit.
Yue maande OpenClaw meermaals in de chat om te stoppen, maar ook daarnaar bleek de bot niet te luisteren. "Ik kon het niet stoppen vanaf mijn telefoon. Ik moest naar mijn Mac mini rennen alsof ik een bom aan het ontmantelen was", schrijft ze daarover.
Veiligheidsdirecteur bij Meta, maar niet iets binnen een VM draaien die je met 1 commando kan stilzetten?

Woorden schieten tekort als dit geen marketing- of andere actie is. Waarschijnlijk wordt het voor deze persoon met zulk scherp inzicht eerder winter dan zomer :+

[Reactie gewijzigd door Stukfruit op 25 februari 2026 11:57]

Dat idee krijg ik er ook bij. In hun gat gebeten dat de OpenClaw creator niet voor Meta koos misschien 8)7
Er is niets logisch aan haar verhaal. Neem de Mac mini, populaire hardware keuze voor local inference wegens performance per watt. Terwijl OpenClaw geen model is, maar gewoon een lus die tasks uitdeelt aan extern model. Wil je slim, dan een groot CLOUD model gebruiken. Claude is populair voor coders, maar gezien haar werk verwacht ik eerder een Meta model.

Ook gek dat ze dit ding uberhaupt toegang geeft tot inbox, en nog met mogelijkheid tot muteren van data ook en dit vertrouwt, en de functies (memory) niet of verkeert gebruikt, en ze in haar functie beter moet weten (en advies meewegen). Zoals iemand al zegt, dit is van het niveau je concurrent zwartmaken zoals ook gebruikelijk in de politiek aldaar. Dit verhaal is een halve waarheid at best.
Klopt, ik vermoed inderdaad ook dat het om dat laatste gaat. Er zitten te veel bijzonderheden in dit verhaal.
En dan zie je maar dat sommige niet klaar zijn voor enterprise usage, goed tool, goed innovatie, maar oversight mist. We geraken er wel! Al doende leert men

[Reactie gewijzigd door thebillkidy op 25 februari 2026 11:19]

Gaat helemaal goedkomen dit 8)7
Gaat gewoon een keer helemaal fout lopen. Dat wordt lachen.
Anoying AI.

Het zou haar/iemands bankrekening zijn :F _O-
Als IT-er zijn we massaal bezig toegang te beperken aan systemen zodat ze absoluut het minimale mogen. Geen root rechten. Niet zomaar op je netwerk. Niet zomaar op het internet. Firewalls. Compleet geisoleerd.

Met AI: Hier heb je alles

Om te kunnen reageren moet je ingelogd zijn