Gartner: 'Blokkeer AI-browsers op de werkvloer vanwege beveiligingsrisico's'

AI-browsers zijn voor de meeste organisaties een te groot risico om te gebruiken, waarschuwt ict-onderzoeksbureau Gartner. De standaardinstellingen voor software als Perplexity Comet en ChatGPT Atlas geven namelijk de gebruikerservaring voorrang boven beveiliging.

Vanuit beveiligingsoogpunt moeten organisaties het gebruik van AI-browsers blokkeren, adviseren analisten van Gartner in een rapport. Agentic AI, verpakt in webbrowsers, kan het gebruik van websites door gebruikers drastisch veranderen, door bijvoorbeeld transacties te automatiseren, schrijft The Register. Daarbij spelen echter flinke beveiligingsrisico's. Gartner concludeert dat dit cybersecurity te veel aantast en raadt securitytopmanagers aan om AI-browsers voorlopig geheel te blokkeren.

Het beveiligingsgevaar zit volgens de analisten van het onderzoeksbureau in het delen van gebruikersdata met AI- en cloudproviders. AI-functionaliteit die browsers in een zijbalk of deelvenster bieden, zoals het samenvatten van webpagina's of onlinevideo's, 'lekt' dan gevoelige gegevens. Dit omvat naast bezochte webpagina's en bekeken video's ook openstaande tabbladen, de browsegeschiedenis en meer, waarschuwt Gartner. Daarnaast zijn AI-browsers vatbaar voor promptinjectieaanvallen.

Blik op de backend

Organisaties die het gebruik van AI-browsers toch willen toestaan, moeten de instellingen voor beveiliging en privacy strak vastleggen en centraal beheren. Het Gartner-rapport stelt dat het mogelijk is om de securityrisico's van AI-browsers in te perken, maar dat daarvoor ook een inschatting nodig is van de achterliggende diensten die deze AI-agents gebruiken. Zijn de daar toegepaste beveiligingsmaatregelen wel in lijn met wat een organisatie zelf hanteert? Zo niet, is er dan sprake van een acceptabel risico?

Naast een inschatting van backenddiensten is het ook nodig om gebruikers te instrueren over het gebruik van AI-browsers. Alles wat gebruikers zien en doen met hun AI-browser kan mogelijk naar een AI-dienst worden verstuurd. Het is dus belangrijk dat gevoelige data niet in een browservenster is geopend wanneer AI-functionaliteit wordt gebruikt, aldus Gartner.

Door Jasper Bakker

Nieuwsredacteur

08-12-2025 • 14:43

16

Reacties (16)

Sorteer op:

Weergave:

Dit is natuurlijk ook van toepassing op de verschillende IDE voor software met AI, zoals vscode of jetbrains.
Dat is wel een wezenlijk verschil, toch? In een IDE werk je voornamelijk met je eigen, gecontroleerde source code en lokale omgeving. Met AI-browsers ga je het openbare, onveilige internet op, waar je websites bezoekt die dan mogelijk kwaadaardige prompts bevatten.

Een promp injectie kan dan zo je hele browsergeschiedenis lekken, of je opgeslagen wachtwoorden etc.
Maar als jij in je IDE een .env of andere file met allerlei secrets hebt staan kan AI dat natuurlijk wel zo crawlen. IDE's met een agentic functie gaan nog verder, die kunnen zo je hele filesystem door. Zo raakte iemand al zijn hele D schijf kwijt na gebruik IDE van Google Antigravity.
Klopt! Er kan een hoop mis gaan met AI tools en agents, dat is zeker een risico, maar dat zijn geen gecoördineerde aanvallen.

We hebben het hier dus niet over ongelukjes, data farming of privacy issues, maar echt gecoördineerde hacks door kwaadwillige derde partijen waar AI-browsers vatbaar voor zijn m.b.v. prompt injectie.
Inderdaad. Wel een uitzondering om te noemen is wanneer je bedrijf een zakelijk contract heeft met een provider, in deze gevallen zitten hier (meestal) wel strenge eisen begaande dataveiligheid aan gebonden, zo wordt er dan bijvoorbeeld geen data opgeslagen.
In feite geld het voor alle AI die niet "lokaal" gehost wordt.
In hoeverre weet je met een AI browser dat de content die je bekijkt niet gebruikt wordt om hun modellen te trainen?
Door de EULA's goed na te lezen. :)
Ik vermoed dat het eerder andersom is en dat je er vanuit kunt gaan daar alles dat je er mee doet gebruikt wordt om het model mee te trainen.
Het 'internet' staat op een kantelpunt te veranderen naar een AI-tijdperk. Handige nieuwe functies die voor veel gebruikers echt voordelen biedt maar zich niet bewust zijn van de gevolgen als de gegevens door derden worden verwerkt.

Het zou verplicht moeten worden dat je binnen de browsers uitsluitend AI-functies wilt toe staan toegestane sites/webapplicatie en waarvoor die mogen worden gebruikt (net als cookies/popup-blocker etc), of is dit al zo?
Het is alleen maar een platform-insluit-spel. Dit is een goed voorbeeld. Wat heeft AI met een browser te maken? Waar het om gaat is dat de internetter niks anders meer kan gebruiken om aan informatie te komen.
Waarom zou ik uberhaupt a.i. browsers moeten blokkeren ?
Alles behalve hetgeen wat op de whitelist staat is geblokt.
Daarnaast hebben users geen rechten om zelf te installeren....
sommige programma's installeren zich in het profiel van de gebruiker dus in een standaard omgeving kost het wat extra werk om dit soort programma's te blokkeren waardoor het voorkomt dat mensen dit wel zelfstandig kunnen installeren zonder administrator rechten.
Ook dat gaat hier niet werken ;)
Zeer leuk, maar dat werkt niet in elke omgeving natuurlijk. Dat krijg je niet verkocht aan de proffen op een universiteit bijvoorbeeld.
Werken met een whitelist ?
Zeker wel.
zowel in Edu omgevingen gewerkt als omgevingen waar ook proffen en PHD's werken.
Ook daar is het in te regelen.
Ik kan mij bijna geen usecase verzinnen waarom je reguliere users, admin en install rechten zou willen geven.
ongeacht het opleidings niveau van iemand.
De ervaling leert hoe hoger ze zijn opgeleid, hoe minder ze van IT snappen.

Om te kunnen reageren moet je ingelogd zijn