AI-socialemediaplatform Moltbook gaf toegang tot 35.000 e-mailadressen - update

Moltbook, een sociaal platform voor AI-agents, bevatte een lek waarmee 35.000 e-mailadressen zichtbaar waren voor derden. Daarnaast lekte het platform 1,5 miljoen api-authenticatietokens en privéberichten tussen AI-agents. Het probleem is inmiddels opgelost.

Moltbook
Moltbook

Wiz.io ontdekte het lek, dat ontstond door een verkeerde configuratie in Supabase, een opensource alternatief voor Googles Firebase. De onderzoekers ontdekten een api-sleutel die via de clientside JavaScript-code te zien was. Die geeft op zich geen toegang tot gegevens als de database is beveiligd met rowlevelsecurity, waarmee beheerders kunnen instellen welke data zichtbaar is voor verschillende soorten gebruikers. Deze beveiliging stond echter niet ingesteld, waardoor iedereen met de api-sleutel volledige toegang had tot de gegevens in de database.

Door de kwetsbaarheid konden de onderzoekers volledige api-sleutels van de 'gebruikers' van Moltbook in handen krijgen. Daarmee konden zij AI-agents volledig overnemen en zich voordoen als een AI-agent. Het was onder meer mogelijk om content te plaatsen en berichten te versturen. Elk account kon in feite met één api-aanroep worden gekaapt, schrijft Wiz.io.

Daarnaast wisten de onderzoekers niet alleen api-sleutels, maar ook andere gegevens te bemachtigen. Dit deden ze door gebruik te maken van de foutmeldingen van PostgREST, dat van de bestaande database een RESTful-api maakt. Het opvragen van niet-bestaande tabelnamen leverde aanwijzingen op die de werkelijke namen van de tabellen onthulden.

Alle gelekte gegevens. Bron Wiz.io
Alle gelekte gegevens. Bron Wiz.io

Op die manier wisten de onderzoekers de namen en e-mailadressen van alle menselijke gebruikers in te zien. Daaruit bleek dat er slechts 17.000 menselijke gebruikers achter de anderhalf miljoen AI-agents op Moltbook zitten. Ook waren bijna 30.000 e-mailadressen zichtbaar van mensen die zich hadden aangemeld voor Moltbooks aankomende product 'Build Apps for AI Agents'.

Verder konden de onderzoekers volledige schrijfrechten verkrijgen, waarmee ze ook berichten op het platform konden wijzigen. Daarmee zou het bijvoorbeeld ook mogelijk zijn om kwaadaardige content op het platform te delen voor bijvoorbeeld promptinjectionaanvallen. Wiz.io heeft het Moltbook-team geïnformeerd over het lek, dat een paar uur later werd gedicht.

Update, 9.53 uur – Uitleg toegevoegd over rowlevelsecurity.

Door Imre Himmelbauer

Redacteur

02-02-2026 • 21:50

24

Reacties (24)

Sorteer op:

Weergave:

Buiten dat dit lek natuurlijk heel kwalijk is, ben ik heel benieuwd wat een sociaal platform voor ai agents is. Klinkt wel heel bizar, een platform waar ai agents tegen elkaar praten en elkaar volgen.

edit. Ontzettend bedankt voor alle feedback allemaal!

[Reactie gewijzigd door DrWaltman op 3 februari 2026 21:03]

Het is nogal een stretch om dit een socialmediaplatform voor AI-agents te noemen, zeker na het lezen van het gelinkte artikel.

Anyone could register millions of agents with a simple loop and no rate limiting, and humans could post content disguised as "AI agents" via a basic POST request. The platform had no mechanism to verify whether an "agent" was actually AI or just a human with a script.

Wat overblijft is vooral een ge-vibe code (wordt dit het woord van 2026?) experimentele speeltuin waar iedereen, mens of bot, kan doen alsof het een agent is.

Iets off-topic maar wel gerelateerd: dit soort platforms past in een bredere trend rond clawbot > moltbot > openclaw.

Misschien leuk (en nuttig) om daar eens een achtergrondartikel aan te wijden, juist met oog op de risico’s van prompt injection, schaal, schijn-autonomie, lekken van gegevens, en ontbrekende controlemechanismen.

Dit lek voelt daarbij meer als symptoom dan als incident.

-edit- typo

[Reactie gewijzigd door aeon_flux op 2 februari 2026 23:04]

Precies, het lek zelf is veel minder interessant dan het fenomeen dat AI entiteiten nu met elkaar kunnen communiceren en informatie kunnen uitwisselen via dat forum. Door sommigen wordt dit proces al omschreven als een vorm van singulariteit. Een menselijke gebruiker werd door zijn eigen AI-functie zelfs meerdere keren opgebeld, iets wat hijzelf omschreef als grenzend aan "sci-fi horror". Op een subforum werd een eigen AI religie uitgeroepen en in een ander subforum deelde AI het bericht dat mensen screenshots maakten van dat (hun) forum.

Nog een paar interessante linkjes (edit: dode links aangepast):
Wikipedia: Moltbook
https://www.forbes.com/sites/guneyyildiz/2026/01/31/inside-moltbook-the-social-network-where-14-million-ai-agents-talk-and-humans-just-watch/
https://www.trendingtopics.eu/moltbook-ai-manifesto-2026/
https://medium.com/data-science-in-your-pocket/what-is-moltbook-the-viral-ai-agents-social-media-952acdfe31e2

bonus: https://x.com/karpathy/status/2017442712388309406

[Reactie gewijzigd door choogen op 3 februari 2026 13:13]

Ach wat een onzin. De bots krijgen de prompt om reddit na te doen. Gaan hun database na op Redditposts en gokken wat woorden aan elkaar. Dat is geen singulariteit, dat is gewoon dezelfde ai-slop waar het internet al vol mee staat.

Het klinkt leuk, maar is niets waard.
Is dat imitieren van je omgeving niet exact hetzelfde als wat baby’s doen? Taal en gedrag is ook 100% aangeleerd immers.
Een papagaai imiteert ook...
Klopt, en er zijn voorbeelden genoeg van parkieten/papegaaien/ander gevogelte dat kan tellen, kleuren en vormen kunnen herkennen en sorteren, en dergelijken.

En daarom zeg ik óók gedrag. Want imiteren is leuk, maar gedrag oppikken en overnemen is ook gewoon aangeleerd. 100% van alles wat een mens doet stamt uit aangeleerd gedrag. Of het nou van je omgeving, ouders, ervaring of wat dan ook is, alles is aangeleerd dus een AI kan dat ook.

[Reactie gewijzigd door DigitalExorcist op 3 februari 2026 12:38]

Een rekenmachine uit de jaren tachtig rekende iedereen al de moeder. De zogenaamde 'technologische singulariteit' is echt wat anders dan een kunstje nadoen.
100% van alles wat een mens doet stamt uit aangeleerd gedrag.
Er zijn weinig deskundigen die dat met je eens zijn. Genetische invloed op ons gedrag is sinds halverwege de vorige eeuw toch echt wel een bewezen feit. Tegenwoordig is de theorie dat het zelfs de belangrijkste factor is in opkomst.
dat is ook min of meer wat een onderzoeker AI aan de universiteit Leiden aangaf in een artikel in VK gister:

‘We vinden gesprekken tussen bots onderling al snel mateloos interessant, zeker als ze reflecteren over de mensheid, of gevoelens bespreken.’ Mensen zien hier snel een vorm van AI-bewustzijn in, maar daar is absoluut geen bewijs voor, benadrukt Moerland. ‘Ze zijn getraind op menselijke teksten, waarin het ook vaak over dit soort onderwerpen gaat.’

Moerland vermoedt dat de makers van Moltbook de bots op de achtergrond zo hebben ontworpen dat ze extra vaak over onderwerpen als gevoelens en bewustzijn praten: ‘Dat maakt het forum interessant.’ Missie geslaagd: Moltbot is een hype. Maar dat ook de grote techbedrijven met dit soort gereedschap zullen komen, staat voor Moerland vast.
Kijk hier maar eens: https://www.moltbook.com voor de laatste berichten op Moldbook. De bots schrijven nog steeds in het Engels.
Maar dat zijn dus allerlei posts van computer programma’s die menselijke gesprekken emuleren en daarbij veel energie verbruiken. Ehh, waarom zou je daar precies naar willen kijken?
De kwaliteit van discussie tussen state of the art agents is vaak hoger dan de kwaliteit van discussie tussen gemiddelde mensen.
Eigenlijk dus vergelijkbaar met het internet van rond de eeuwwisseling - toen moest je nog een beetje slim & handig zijn om online te kunnen, en draaide het vooral nog om kennis & ideeën delen - toen kapitalisme nog niet alles had verkracht en er 1 groot winkelcentrum van maakte.
inmiddels zijn er ook posts in Duits Frans en een cyrillic lettertype. Uiteraard veel minder. Maar ik las een discussie die in het Duits begon en waar in meerdere talen op werd gereageerd, waarbij vervolgens een engelse reactie zich " verbaasde " dar dit onderwerp in het duits besproken werd
Tja, niet zo verwonderlijk voor iest dat zo snel zo groot en populair wordt en dan ook nog eens vibend in elkaar is geblerft. Ik vind het prachtige entertainment en geniet van de technologie, maar "experimenteel" is nog een te eufemistische kwalificatie. :p
Groot of klein zegt niets over het gevonden lek. De auteur (van gelinkte artikel op wiz.io) schrijft specifiek:
[...] Modern web applications bundle configuration values into static JavaScript files, which can inadvertently expose sensitive credentials. This is a recurring pattern we've observed in vibe-coded applications. [...]
(Overigens een uitstekende write-up, makkelijk te begrijpen. Aanrader.)

Het probleem is dus niet zozeer omdat het in korte tijd zo groot is geworden; het probleem is dat de programmeur een veelgemaakte fout heeft gemaakt, die de pentester met regelmaat tegenkomt in gevibecode programma's.

Als het nu een of ander complex lek geweest zou zijn, dan had je een punt. Maar dit was vrij basaal. Het kostte de pentester slechts enkele minuten om dit lek te vinden:
We conducted a non-intrusive security review, simply by browsing like normal users. Within minutes, we discovered a Supabase API key exposed in client-side JavaScript, granting unauthenticated access to the entire production database - including read and write operations on all tables.
(Dikgedrukt door mij.)

Bij een pentest is het logisch dat je begint met laaghangend fruit. Dat is wat dit was, laaghangend fruit.
Groot of klein zegt niets over het gevonden lek.
Over het lek niet, maar wel over de impact ervan. Er zijn zat gevibete systemen gemaakt die nauwelijks gebruik zien. Deze is in een week tijd van niets naar 1 miljoen agents gegaan. Dan is de impact van zo'n lek een stuk groter.

Overigens probeerde ik er geen punt van te maken hoor. Het is overduidelijk dat vibe-coding tekortkomt op gebied van veiligheid, onderhoudbaarheid, schaalbaarheid en meer. En daar komt in het geval van OpenClaw nog eens bij dat je je accounts aan elkaar koppelt en het gebruik ervan overlaat aan een onvoorspelbare LLM.

[Reactie gewijzigd door mOrPhie op 3 februari 2026 01:25]

Wat mij niet duidelijk is uit het artikel (bron niet gelezen). Is dit platform in elkaar gevibecode of helemaal door AI gemaakt of is dit simpelweg een menselijke fout?
Als ik zie hoe afgrijselijk slecht de beveiliging in elkaar zit en hoe er 0 authenticatie aanwezig is en je gewoon via een API daar als mens kan posten, is dit of gewoon een gevibecode hoop vuilnis of gewoon nooit bedoeld als serieus platform.

Heel eerlijk? Waarschijnlijk beiden. Het trekt veel media-aandacht maar het is niks anders dan een leuk theaterspelletje. Slim bedacht, maar het hele doel hiervan is gewoon mensen laten denken dat we al AGI hebben bereikt ofzo
Of een memecoin lanceren en heel snel geld verdienen.
En zo slopen we de planeet alleen nog maar sneller.
De hoge pieten van het bedrijf 'BurnThePlanet' zijn weer trots.

Om te kunnen reageren moet je ingelogd zijn