Je kunt voortaan via de commandline AI-agents loslaten op Gmail, Drive en Docs

Zakelijke Google-gebruikers die graag op het randje willen leven, kunnen voortaan AI-agents loslaten op hun Workspace-data. Het bedrijf heeft een command-line-interface uitgebracht voor Workspace, waarmee het mogelijk is Gmail, Drive en Docs te bedienen via de terminal. In de praktijk, zegt Google, is dat onder andere bedoeld om AI-agents zoals OpenClaw toegang te geven tot de omgevingen. Alles op eigen risico, uiteraard.

Google heeft het project in de afgelopen week stilletjes op GitHub gezet. Google Workspace-CLI is een commandline-interface waarbij gebruikers via de Workspace-api de officesoftware zoals Drive, Docs, Calendar of Gmail kunnen aanspreken. Gebruikers moeten dat installeren via npm en verder een Google Cloud-project aanmaken.

Google zegt dat de CLI bedoeld is voor 'mensen met AI-agents', maar in de praktijk zal het vooral die laatste categorie zijn die hiermee aan de slag kan. De interface kan het mogelijk maken om AI-agents zoals OpenClaw te koppelen aan de softwarepakketten in Workspace. Die kunnen dan zelfstandig taken uitvoeren, zonder tussenkomst van de gebruiker.

In de documentatie staan zelfs expliciete instructies voor het koppelen van OpenClaw. Ook andere AI-agents en -modellen die het Model Context Protocol ondersteunen, zoals Claude Code, kunnen worden gekoppeld aan Workspace via de CLI.

Het was eerder al wel mogelijk om AI-agents toegang te geven tot Google-diensten, maar dat moest dan vaak met losse api's en veel omwegen. De cli lijkt dat makkelijker te maken, al is het maar de vraag hoe verstandig het is om een agent los te laten gaan op je eigen bedrijfsdata. Google lijkt dat te beseffen, want hoewel de cli in Googles eigen repo staat, schrijft het bedrijf dat het 'niet om een officieel door Google ondersteund product' gaat. Bovendien gaat het nog om een bètaversie die waarschijnlijk veel stuk maakt, waarschuwt Google.

OpenClaw stock. Bron: NurPhoto/Getty Images

Door Tijs Hofmans

Nieuwscoördinator

06-03-2026 • 20:55

27

Reacties (27)

Sorteer op:

Weergave:

Wat ik me hierbij vooral afvraag is hoe lang het gaat duren tot het fout gaat.Normaliter kun je een Google project redelijk limiteren in welke API's dat die mag gebruiken. Maar als gebruiker kun je ze vrij makkelijk toevoegen. Hoe groot is de kans dat de AI dat zelf gaat doen, en vervolgens toegang krijgt tot documenten die je niet zou willen delen met de buitenwereld?

Google zegt natuurlijk wel dat dingen op eigen risico zijn, maar dat is natuurlijk ook wel een manier om je er makkelijk vanaf te maken vind ik dan. Je kunt ontzettend veel dingen doen met Google projecten, en aan genoeg API's hangen de nodige limitaties. Wie zegt dat zo'n AI die gaat respecteren (want als je tegen zo'n API aankletst, is dat lang niet altijd duidelijk).

Het is natuurlijk gaaf dat het kan, en er zullen ook zeker wel leuke dingen mee te doen zijn. Ik kan er best een paar bedenken die mijn werk wat makkelijker zouden maken. Maar aan de andere kant zitten er genoeg haken en ogen aan dat ik het alleen zou doen als ik het ding echt kan sandboxen.
Class van 400 regels naar 3 regels.

Of, wat mij de meeste zorgen baart, ik ging over van big pickle naar minimax en opeens begon opencode agent zaken in git te comitten, totaal niet om gevraagd, dat is wel het laatste dat ik wil dat die agent git gaat lopen pushen met niet werkende en zelf niet compilerende code.

Mijn workflow is: AI doe dingen, ik check.. bij OK COmmit en bij Total Failure een revert.

Wat als hij git reset doet naar de eerste commit. BRRRRR!!
Eh, je kan in je config je agents zo instellen dat ze geen git commands kunnen uitvoeren. Niet in de agent prompts, maar echt in de permissions. Dan is het niet model/prompt afhankelijk, maar heb je enige echte guardrails. Ik zou de docs voor de config er even op naslaan als ik je reactie zo lees.
Aangepast. Geen git meer voor de agents.
Openclaw heeft limieten daarop tegenwoordig, het is inmiddels zo geprogrammeerd dat de bot nooit zelf bij de API keys kan. De SecretRef implementatie dekt nu 64 credential targets en zorgt ervoor dat API keys niet meer direct toegankelijk zijn voor de bot zelf — keys worden op runtime opgezocht maar nooit doorgegeven aan de LLM of zichtbaar in de context. Unresolved references falen nu ook direct met een duidelijke foutmelding, in plaats van stil te breken.

Dit betekent dat de bot by design geen toegang meer heeft tot de ruwe API key waarden — hij kan alleen de verbinding gebruiken die via SecretRef wordt gemaakt, zonder de key zelf te “zien”.

@TijsZonderH ik snap niet goed waarom in het artikel staat dat het voorheen heel ingewikkeld was, vanuit openclaw zelf heb je gog met onderliggend gogcli, waarmee je precies kan doen wat hier wordt beschreven: de Google workspace benaderen. kortom die tools waren vanuit openclaw al beschikbaar, ik snap niet goed wat hier nu makkelijker / beter gaat ?

[Reactie gewijzigd door DeNachtwacht op 6 maart 2026 23:51]

we moeten erover nadenken hoe dit over te brengen aar het "normale publiek", die neme alles voor zoete koek aan. ik heb intussen te maken die de voorgestelde zoektermen al als waarheid zien. Laat staan wat en/of hoe die de AI gaan interpreteren, ze nemen gewoon alles voor waar aan. Dit zijn ook de mensen die uiteindelijk de AI (wie/hoe/wat boeit niet) toegang gaan geven tot hun computersystemen, laten we hopen dat we het dan alleen over privé computers hebben. Maar gezien mijn ervaringen hoe ondernemers met IT omgaan, wordt de toekomst echt raar op dit gebied.
(denk aan het oude napset, of limewire, van sommige mensen waren alle documente te downloaden!).

Ook de politiek b& vooral de media heeft hier een rol in, ipv alleen te benadrukken hoe geweldig men de vakantie foto's kan op kalefateren, zou men (met wat moeite, maar dat is wat veel gevraagd aan de huidige journalistiek, uitzonderingen daargelaten), wat meer op de nadelen en risico's kunnen benadrukken. Maar ja, daar maak je je niet populair mee, en dat laatste daar gaat het om vandaag de dag. Al weet niemand uiteindelijk waarom ze persé populair moeten zijn, als ze het maar zijn.
Op het randje leven is een understatement geloof ik 😅
Ach ja, het gebruik van dit soort agents wordt gezien als een edge case 😜
Niet iets wat iedereen zomaar doet.
Je privé data én die van je klanten en contacten koppelen aan het publieke internet met als firewall een hallucinerende, gemakkelijk te misleiden AI. What can go wrong.
Misschien gaan we dit gewoon niet doen.
Recentelijk een voorval gezien van de Openclaw AI dat plots dingen tegen de wil van de gebruiker ging doen (bij een medewerker van META): YouTube: Top AI Safety Exec LOSES CONTROL Of AI Bot
Aangenomen dat het nieuws echt is, gaat het dus al flink fout met autonome AI / AI agent.

Ik schrok er behoorlijk van. Ook al lijkt de schade in bovenstaande geval relatief nog beperkt te zijn, doet Openclaw blijkbaar dingen die het niet hoort te doen.
Het is onvoorstelbaar dat er niet heel hard aan de noodrem wordt getrokken.
Ook voor de ontwikkeling en inzet van AI in het algemeen:

YouTube: Unrestricted AI in a robot does exactly what experts warned
YouTube: AI's first kills show we're close to disaster. Godfather of AI.
Dat krijg je als je AI zonder begrenzingen draait. Dit is niet iets wat openclaw niet hoort te doen. Dit is letterlijk wat openclaw doet. En je wordt door iedereen en alles gewaarschuwd dat niet te doen, maar mensen zijn zo dom om dat wel te doen.

[Reactie gewijzigd door Seth_Chaos op 7 maart 2026 00:25]

Dit klinkt allemaal leuk maar ik raad iedereen aan om hier heel voorzichtig mee zijn, want ik had Openclaw een tijdje gebruikt maar op een gegeven moment ging er iets mis en begon het foto's van mijn gaypornverzameling naar (o.a.) familieleden en zakenpartners en sommige klanten te e-mailen en ben ik er onmiddelijk mee gestopt. Ik heb iedereen maar gezegd dat mijn account gehackt was en de meesten geloofden dit volgens mij ook maar sommigen volgens mij niet want ze maken nu steeds allemaal gay-grapjes terwijl ik helemaal niet gay ben.
Dat je familie en zaken niet van elkaar scheidt zegt helaas wel iets over hoe je met je gegevens omgaat.

Niet om je te victimblamen, maar dit is een van de redenen waarom mensen zo vaak blijven hameren dat je zelfs zonder "AI" zaken van elkaar gescheiden moet houden.
Ik neem aan dat het een grap is gezien de laatste zin.
Ik had het per ongeluk gedownload. Dat kan iedereen gebeuren.
Ah ja, voor een vriend natuurlijk :+
Ik zat er inderdaad aan te twijfelen, maar er zijn helaas echt veel mensen die zulks heel star blijven combineren :/

En aangezien het tegenwoordig als normaal wordt gezien om wereldvreemde uitspraken te doen durf ik niets meer aan te nemen :P
Er zijn genoeg mensen waarbij prive en zakelijke kanalen enigzins door elkaar lopen. Ik zou ook aanraden om dat te scheiden. Dan eigenlijk meer nog zodat je in je vrije tijd kan ontkoppelen van werk en wel je prive mail kan inzien.

Los daarvan lijkt mij het gebruik van AI in je mail op dit moment totaal niet betrouwbaar. Zelfs de experts lopen hier tegenaan getuige dit nieuwsbericht van 2 weken geleden.
De expert waar je naar linkt leek een marketinguiting te zijn :)

Als dat serieus was dan hoort die persoon niet op zo'n positie te zitten omdat het niet past bij het gewenste competentieniveau.
Dat had dé soft launch kunnen zijn van je onlyfans account man
Outed by AI

Ik zou Sam Altman bellen, die weet er vast meer van.
Wat een afschuwlijk idee.....
Dat kon altijd al via Google app script
Zijn we nu niet langzaamaan onszelf overbodig aan het maken?

Om te kunnen reageren moet je ingelogd zijn