Google overweegt opt-out voor Britse sites om opgenomen te worden in AI-zoeken

Google overweegt een opt-outfunctie voor Britse websites als het gaat om AI-zoekresultaten. Dat kondigt het bedrijf aan nadat de Britse toezichthouder CMA bekendmaakte extra maatregelen te willen implementeren voor de AI-zoekresultaten van Google.

De opt-out voor websites om opgenomen te worden in generatieve-AI-zoekfuncties wordt verkend, schrijft Google in een blogpost voor de Britse markt. Het is niet bekend of deze functie ook naar andere markten kan komen, maar daar lijkt het momenteel niet op.

Google zegt het doel te hebben om 'de nuttigheid van Zoeken voor mensen die snel informatie willen te beschermen, terwijl websites de juiste tools krijgen om hun content te beheren'. Het bedrijf wil als onderdeel van dit proces in gesprek met de Britse toezichthouder, websitebeheerders 'en andere stakeholders'. Het bedrijf wil voorkomen dat dergelijke opt-outs zorgen voor een 'gefragmenteerde of verwarrende ervaring voor gebruikers'.

Britse toezichthouder overweegt AI Overviews-maatregelen

De Britse toezichthouder Competition & Markets Authority – vergelijkbaar met de Nederlandse ACM - stelde woensdag een nieuw pakket aan Google Zoeken-maatregelen voor. De toezichthouder wil dat uitgevers en andere websitebeheerders 'een eerlijkere deal krijgen' met hoe Googles AI Overviews omgaan met hun content.

Op dit moment verzamelt Google data van websites om te gebruiken voor AI Overview, zonder dat website-eigenaren hier iets voor krijgen. Beheerders kunnen ook niet veel doen om dit te stoppen. Ze kunnen Google bijvoorbeeld wel vragen om geen content te verzamelen van een website, maar dan wordt de website bijvoorbeeld ook niet opgenomen in Google Discover en worden er ook geen uitgebreide resultaten in Zoeken getoond. Deze keuze heeft daardoor gevolgen voor hoe sites worden gevonden in Google Zoeken, los van de AI Overviews.

De CMA overweegt dan ook Google te dwingen om beheerders een opt-out te geven voor het opnemen van hun content in AI Overviews, precies wat Google nu aankondigt te 'verkennen'. De CMA wil Google ook dwingen transparanter te zijn met hoe AI Overviews tot stand komen. Google noemt de potentiële maatregelen 'slecht voor innovatie en groei'.

Google-hoofdkwartier. Bron: Justin Sullivan / Getty Images
Google-hoofdkwartier. Bron: Justin Sullivan / Getty Images

Door Hayte Hugo

Redacteur

28-01-2026 • 15:26

29

Reacties (29)

Sorteer op:

Weergave:

Robots.txt was niet genoeg?
Bor Coördinator Frontpage Admins / FP Powermod @hottestbrain28 januari 2026 16:32
Nee, dat is het nu voor andere zaken ook al niet. Robots.txt is niet meer dan een vriendelijk verzoek. Het staat je vrij de inhoud hiervan te negeren en dat gebeurd dan ook met regelmaat door diverse partijen.
Ik volg je redenatie niet. In principe is er geen absolute vrijheid om maar van andermans website gebruik te maken zoals men zelf wil. Het feit dat het kan maakt niet dat het dus rechtmatig is om informatie te negeren. Of zelf niet op te zoeken terwijl het algemeen bekende bronnen zijn die als doel hebben grenzen te stellen. En daar is robots.txt juist een voorbeeld van. Het opzettelijk alleen willen zien als wensen die ook nog te negeren zijn lijkt me precies wat bedrijven doen die geen zin hebben om andermans gestelde grenzen te accepteren. Bijvoorbeeld omdat men liever net doet alsof het gebruik van andermans website en content maar als gratis verdienmodel te gebruiken is zolang de individuele eigenaar niet aan de wensen van dat soort ondernemers voldoet.

[Reactie gewijzigd door kodak op 28 januari 2026 19:52]

Bor Coördinator Frontpage Admins / FP Powermod @kodak28 januari 2026 21:39
Het is simpelweg hoe het e.e.a. is opgebouwd en vastgelegd. Don't shoot the messenger.

We hebben het hier over het Robots Exclusion Protocol (ook bekend als robots.txt).

Sinds september 2022 is er een officieel voorstel om het Robots Exclusion Protocol als RFC vast te leggen. Initieel werd het protocol met behulp van een consensus in juni 1994 gecreëerd door leden van de WWW Robots Mailing List (robots-request@nexor.co.uk).

Het protocol dient echter alleen ter advies en gaat uit van medewerking van de bezoekende webrobot. Het kan dus niet daadwerkelijk de toegang tot bestanden en mappen ontzeggen en is daarmee ongeschikt om (delen van) een website af te schermen.

Er zijn robots die het protocol (al dan niet bedoeld) negeren of niet kennen. Tevens is het robots.txt-bestand voor iedereen zichtbaar. Dat kan dan weer gebruikt worden om bijvoorbeeld de useragent van een robot als een normale webbrowser in te stellen, zodat de robot zonder problemen zijn werk op een website kan doen. Ook al wordt zulk gedrag afgeraden en als zeer onbeleefd gezien, het protocol kan dus absoluut niet de afscherming van de website garanderen. Het protocol is dan ook voornamelijk bedoeld om gegevens die irrelevant zijn voor bezoekers niet weer te geven in de zoekresultaten van zoekmachines.

Bron: Wikipedia: Robots Exclusion Protocol

Meer dan een vriendelijk verzoek is een robots.txt niet. Het schermt technisch gezien niets af en het opvolgen is niet verplicht.

[Reactie gewijzigd door Bor op 28 januari 2026 21:40]

Dat de schrijvers van een puliek protocol stellen in een bestand niet meer dan een optie te zien is vooral om te voorkomen dat er anders te weinig adoptie is en ze het succes van hun voorstel wel kunnen vergeten. Het gebruik is niet zomaar op te vatten als hoe de schrijvers het graag zien.

Als miljoenen eigenaren van websites het gebruiken om hun grenzen te stellen op een standaard manier die geautomatiseerde verwerking wel kan weten, vinden en gebruiken, dan is dat niet zomaar af te doen als optie. Zeker als die gebruikers weigeren om hun geautomatiseerde werken te laten controleren op voorwaarden.
Bor Coördinator Frontpage Admins / FP Powermod @kodak29 januari 2026 12:30
En toch is het dat; volledig optioneel. Technisch gezien beperkt het niets en het opvolgen is niet te handhaven of af te dwingen. Of het negeren netjes is is een andere discussie.

Wist je dat robots.txt ook uitgelezen worden om te bepalen waar mogelijk interessante gegevens te vinden zijn?

Kijk maar eens naar dit voorbeeld;

User-agent: spambot10000
Disallow: /prive/

Robots.txt is niets meer dan een gentlemen's agreement. Ofwel: "Web crawlers do not have a legal obligation to respect robots.txt.""

[Reactie gewijzigd door Bor op 29 januari 2026 12:35]

Ik lees je geen onderbouwing geven die in gaat op mijn argumenten. Dat maakt het wel erg simpel om te stellen dat er in de praktijk geen andere betekenis valt toe te passen. Maling hebben aan wat een eigenaar als grenzen stelt is niet zomaar slechts niet netjes.
Bor Coördinator Frontpage Admins / FP Powermod @kodak29 januari 2026 20:36
Wat is het dan wel? Gezien robots.txt een soort gentlemens agreement is komt het neer op de ethische vraag; wat als ik het verzoek als vrager niet honoreer? Dat is een vraag die menig web crawler en bv hacker die een crawl tool gebruikt etc zich zal afvragen; de praktische kant is; het maakt helemaal niets uit; er wordt niets afgedwongen en aan het niet opvolgen zitten geen enkele repercussies. Ik weet niet hoe ik het je duidelijker moet uitleggen. Je lijkt te veel waarde te hechten aan hoe het systeem in de praktijk werkt. Dat het fundament daarvan in feite niet meer dan een verzoek is is evident.
Momenteel wel maar de toezichthouder kan natuurlijk wel opleggen dat dit verplicht gehonoreerd moet worden. Het is niet meer dan een technische manier om een wens aan te geven.

Ik denk dat Google daarom ook bezig is nu, want de toezichthouder praat over het verplichten dus ze proberen er gauw af te komen met wat vrijwillige opties. Hopen dat de druk tot regulering dan verdwijnt. Ik hoop dat ofcom hier niet in trapt.

Daarom vond ik het ook zo jammer dat de EU nooit heeft gestipuleerd dat de do-not-track flag verplicht gehonoreerd had moeten worden. Deze vlag is verdwenen omdat hij nutteloos was (niemand honoreerde hem), maar met juridische verplichting zou deze juist wel nuttig zijn en meteen terugkomen. Dan hadden we een cookievrij internet gehad zonder al dat gezeik met cookiepopups.

De reclameindustrie was toen woest omdat browsers deze vlag zonder te vragen aan de gebruiker standaard op aan zetten, maar tracking moet juridisch opt-in zijn dus dat is precies zoals het zou moeten werken.

[Reactie gewijzigd door Llopigat op 28 januari 2026 18:25]

eerlijk gezegd vind ik AI-overviews wel in beginsel een interessant idee, maar helaas is de informatie vaak gewoon niet correct. dan maar gewoon weglaten, zeker als het veel extra stroom kost

als ik AI wil gebruik ik gewoon google ai-modus. ik raadpleeg ook vaak de bronnen die worden aangehaald

[Reactie gewijzigd door angushansen op 28 januari 2026 17:08]

de overviews helpen me wel op weg. Er staan bij google ook altijd hyperlinks bij, en dan lees ik daar verder, om te verifieren.
ja dat wel maar ze waren lange tijd wel wat bagger qua accuraatheid. omdat het (uiteraard) een heel zwak model gebruikte. iets dat heel snel en goedkoop een antwoord moest genereren

maar volgens mij gebruiken ze sinds kort gemini 3 dus misschien is het allemaal qua kwaliteit vooruit gegaan

[Reactie gewijzigd door angushansen op 28 januari 2026 17:50]

Serieus? Dat kost je dan toch minstens zoveel tijd als wat gewoon een link van Google volgen deed? Daar komt nog bij dat de AI resultaten gewoon echt bagger zijn.

M.i. is dit niets anders dan weer een vertragende taktiek van Google, zodat je meer requests doet en meer reclame ziet.
Lijkt me heel gezond voor de makers van websites. Veel sites zijn voor hun inkomen afhankelijk van traffic. Nu er een samenvatting verschijnt bovenaan de zoekresultaten missen sites dat en gaan de cijfers rap naar beneden.
Denk eerder dat het net gaat als met kranten die geld wilden zien voor de snippets op Google. Google haalde gewoon die kranten uit de index en het bezoek aan die sites stortte in.

Je zou denken machtsmisbruik en dat zit er zeker in, maar tegelijk maakt Google ook een hoop verkeer mogelijk door inhoud vindbaar te maken. De ai kan altijd terug linken naar de bron. Als een site een opt out doet dan komen ze gewoon niet meer boven in de resultaten en valt hun verkeer waarschijnlijk helemaal weg. Sites zonder een opt out krijgen dan dat verkeer.
Ik denk dat de opt out een zeer dom iets is voor bedrijven om te willen. Bedrijven die dan wel meedoen worden dan makkelijker gevonden. Er hebben dit gezien met kranten e.d. jezelf uit de Google index verwijderen is een goede manier om je website zijn nek om te draaien. Google is de manier waarop mensen iets vinden.

Je kan er wat van vinden, maar opt-out is gewoon jezelf in de voeten schieten als bedrijf.

Google grijpt misschien gratis content, maar de site krijgt gratis exposure. Je kan op zijn hoogst praten over de balans tussen die twee. Als de markt voor zoekmachines concurrerend was dan hadden we meer opties, maar praktisch heel de wereld gebruikt Google. Die race is gewonnen.
Ik weet eigenlijk niet of bedrijven die in de AI modus gebruikt worden, veel exposure krijgen. Zouden er zoveel zijn die doorklikken op de links in de samenvatting? Ik gok dat de meeste al genoeg hebben aan die samenvatting. Op die manier loop je dus heel wat traffic mis.
Op die manier loop je dus heel wat traffic mis.
Het punt is dat je zonder die samenvatting, ALLES misloopt.

Die samenvatting (persoonlijk is hij vaak verkeerd of van lage kwaliteit bij google vind ik) is alles wat de mensen nog gaan lezen of bekijken. Traditioneel zoeken is aan het sterven.

For better or worse. Het is dus traffic via die route of niets. Iemand die genoeg heeft aan de samenvatting vind het wellicht zelfs vervelend om door 10 sites te moeten zoeken en dan zelf samen te vatten. Maakt je site niet geliefder.

De positie van sites zal veranderen door AI. Net zoals alles altijd veranderd. Net als online shoppen fysieke winkels overneemt. De enige fysieke winkels die nog bestaan of goed lopen zijn winkels die meerwaarde bieden boven op online shoppen. Sites worden voor mensen die meer zoeken dan een samenvatting of eenvoudige instructie. Een site zal meerwaarde moeten bieden.

Ik kan alles op tweakers vragen aan de AI. Maar ik kan niet het comment stuk doen op de AI. Dat is dus meerwaarde. De sociale interactie.

[Reactie gewijzigd door bzuidgeest op 29 januari 2026 09:59]

Binnenkort gaat AI zoeken dezelfde weg op dan Google zoeken, prioriteit voor reclame, en steeds minder zinvolle inhoud.
Nu zit dat nog in de fase dat er klanten moeten gelokt worden, en houden ze het interessant en aantrekkelijk, maar het zal niet lang meer duren eer de marketing en reclame het overnemen.
En je punt daarmee in een discussie over traffic is???
Het is toch heel simpel? Als we afspreken dat wat in de title, description en opengraph tags staat vrij is om te gebruiken door derden dan zijn we er toch?
Het geschil gaat niet over de title, description en tags. Het geschil gaat over het gebruik van de inhoud van de site.
Dat is mijn punt; als we afspreken dat enkele delen van de content te gebruiken zijn voor het indexeren van websites, zoals de title en description, en men van de rest afblijft dan zijn we er toch. Het probleem is juist dat men verder gaat dan de title en description, iets dat tot enkele jaren geleden juist voldoende was voor Google.
Google wil dat niet afspreken. Men wil andermans content gebruiken alsof er hoe dan ook maar vrij van rechten is tenzij rechthebbenden ze er exiciet op wijzen dat niet van Google te willen. Daarbij zijn er al grenzen dat andermans systemen en content hoe dan ook niet zomaar te gebruiken is. Ik zien in waarom dat recht af te nemen omdat Google er standaard maling aan heeft om te bestaan.
Het is meer dan dat. Google is geen liefdadigheid. Indexeren is niet gratis maar de prijs is niet in dollars. De prijs is een gebruikslicentie.

Het "probleem" is dat sommige aanbieders gratis geïndexeerd willen worden. Aangezien elke zoekmachine op AI gebaseerd is, al jaren, willen ze dus tegelijk wel en niet in een AI zitten. Google heeft redelijkerwijs geen zin in die complicatie.
Waaruit blijkt de redelijkheid dan? Want in veel landen is er om te beginnen wettelijk al niet zomaar recht om andermans content vrij te gebruiken voor eigen gewin. Bedrijven kunnen aanwijzen die hun rechten wel selectief willen opgeven heeft niet spontaan de betekenis dat het van anderen dus ook maar verwacht mag worden. Zeker aangezien Google nog ee stap verder gaat door te doen alsof ze zelf recht hebben tot een ander voor de eigen rechten op komt. Dat is geen recht doen, dat is het recht van de sterkste toepassen. Typisch voor bigtech. Je doet het gewoon tot het een hogere macht zoals een rechter of toezichthouder je stopt.
Je mist dat omgekeerd die bedrijven ook niet het recht hebben om geïndexeerd te worden door Google.

Zoals ik dus al zei, het is een vrijwillige overeenkomst. Geef Google toegang of doe het niet. De keuze is aan de website aanbieder.
Google overweegt een opt-outfunctie voor Britse websites als het gaat om AI-zoekresultaten.
Dat klinkt alsof google de sites nog steeds kan/mag (en wil ?) gebruiken om de AI te trainen. Alleen de RESULTATEN worden dan gefilterd. Daar schiet een websitebeheerder weinig mee op, zo lijkt me.
Google kennende is dan binnenkort de zoekmachine alleen nog maar AI driven, en hebben sites geen keuze dan het wel toestaan omdat er anders dan helemaal geen traffic meer komt.

Om te kunnen reageren moet je ingelogd zijn