Google overweegt opt-out voor Britse sites om opgenomen te worden in AI-zoeken

Google overweegt een opt-outfunctie voor Britse websites als het gaat om AI-zoekresultaten. Dat kondigt het bedrijf aan nadat de Britse toezichthouder CMA bekendmaakte extra maatregelen te willen implementeren voor de AI-zoekresultaten van Google.

De opt-out voor websites om opgenomen te worden in generatieve-AI-zoekfuncties wordt verkend, schrijft Google in een blogpost voor de Britse markt. Het is niet bekend of deze functie ook naar andere markten kan komen, maar daar lijkt het momenteel niet op.

Google zegt het doel te hebben om 'de nuttigheid van Zoeken voor mensen die snel informatie willen te beschermen, terwijl websites de juiste tools krijgen om hun content te beheren'. Het bedrijf wil als onderdeel van dit proces in gesprek met de Britse toezichthouder, websitebeheerders 'en andere stakeholders'. Het bedrijf wil voorkomen dat dergelijke opt-outs zorgen voor een 'gefragmenteerde of verwarrende ervaring voor gebruikers'.

Britse toezichthouder overweegt AI Overviews-maatregelen

De Britse toezichthouder Competition & Markets Authority – vergelijkbaar met de Nederlandse ACM - stelde woensdag een nieuw pakket aan Google Zoeken-maatregelen voor. De toezichthouder wil dat uitgevers en andere websitebeheerders 'een eerlijkere deal krijgen' met hoe Googles AI Overviews omgaan met hun content.

Op dit moment verzamelt Google data van websites om te gebruiken voor AI Overview, zonder dat website-eigenaren hier iets voor krijgen. Beheerders kunnen ook niet veel doen om dit te stoppen. Ze kunnen Google bijvoorbeeld wel vragen om geen content te verzamelen van een website, maar dan wordt de website bijvoorbeeld ook niet opgenomen in Google Discover en worden er ook geen uitgebreide resultaten in Zoeken getoond. Deze keuze heeft daardoor gevolgen voor hoe sites worden gevonden in Google Zoeken, los van de AI Overviews.

De CMA overweegt dan ook Google te dwingen om beheerders een opt-out te geven voor het opnemen van hun content in AI Overviews, precies wat Google nu aankondigt te 'verkennen'. De CMA wil Google ook dwingen transparanter te zijn met hoe AI Overviews tot stand komen. Google noemt de potentiële maatregelen 'slecht voor innovatie en groei'.

Google-hoofdkwartier. Bron: Justin Sullivan / Getty Images
Google-hoofdkwartier. Bron: Justin Sullivan / Getty Images

Door Hayte Hugo

Redacteur

28-01-2026 • 15:26

12

Reacties (12)

Sorteer op:

Weergave:

Robots.txt was niet genoeg?
Bor Coördinator Frontpage Admins / FP Powermod @hottestbrain28 januari 2026 16:32
Nee, dat is het nu voor andere zaken ook al niet. Robots.txt is niet meer dan een vriendelijk verzoek. Het staat je vrij de inhoud hiervan te negeren en dat gebeurd dan ook met regelmaat door diverse partijen.
Momenteel wel maar de toezichthouder kan natuurlijk wel opleggen dat dit verplicht gehonoreerd moet worden. Het is niet meer dan een technische manier om een wens aan te geven.

Ik denk dat Google daarom ook bezig is nu, want de toezichthouder praat over het verplichten dus ze proberen er gauw af te komen met wat vrijwillige opties. Hopen dat de druk tot regulering dan verdwijnt. Ik hoop dat ofcom hier niet in trapt.

Daarom vond ik het ook zo jammer dat de EU nooit heeft gestipuleerd dat de do-not-track flag verplicht gehonoreerd had moeten worden. Deze vlag is verdwenen omdat hij nutteloos was (niemand honoreerde hem), maar met juridische verplichting zou deze juist wel nuttig zijn en meteen terugkomen. Dan hadden we een cookievrij internet gehad zonder al dat gezeik met cookiepopups.

De reclameindustrie was toen woest omdat browsers deze vlag zonder te vragen aan de gebruiker standaard op aan zetten, maar tracking moet juridisch opt-in zijn dus dat is precies zoals het zou moeten werken.

[Reactie gewijzigd door Llopigat op 28 januari 2026 18:25]

Lijkt me heel gezond voor de makers van websites. Veel sites zijn voor hun inkomen afhankelijk van traffic. Nu er een samenvatting verschijnt bovenaan de zoekresultaten missen sites dat en gaan de cijfers rap naar beneden.
Het is toch heel simpel? Als we afspreken dat wat in de title, description en opengraph tags staat vrij is om te gebruiken door derden dan zijn we er toch?
Het geschil gaat niet over de title, description en tags. Het geschil gaat over het gebruik van de inhoud van de site.
Dat is mijn punt; als we afspreken dat enkele delen van de content te gebruiken zijn voor het indexeren van websites, zoals de title en description, en men van de rest afblijft dan zijn we er toch. Het probleem is juist dat men verder gaat dan de title en description, iets dat tot enkele jaren geleden juist voldoende was voor Google.
eerlijk gezegd vind ik AI-overviews wel in beginsel een interessant idee, maar helaas is de informatie vaak gewoon niet correct. dan maar gewoon weglaten, zeker als het veel extra stroom kost

als ik AI wil gebruik ik gewoon google ai-modus. ik raadpleeg ook vaak de bronnen die worden aangehaald

[Reactie gewijzigd door angushansen op 28 januari 2026 17:08]

de overviews helpen me wel op weg. Er staan bij google ook altijd hyperlinks bij, en dan lees ik daar verder, om te verifieren.
ja dat wel maar ze waren lange tijd wel wat bagger qua accuraatheid. omdat het (uiteraard) een heel zwak model gebruikte. iets dat heel snel en goedkoop een antwoord moest genereren

maar volgens mij gebruiken ze sinds kort gemini 3 dus misschien is het allemaal qua kwaliteit vooruit gegaan

[Reactie gewijzigd door angushansen op 28 januari 2026 17:50]

Google overweegt een opt-outfunctie voor Britse websites als het gaat om AI-zoekresultaten.
Dat klinkt alsof google de sites nog steeds kan/mag (en wil ?) gebruiken om de AI te trainen. Alleen de RESULTATEN worden dan gefilterd. Daar schiet een websitebeheerder weinig mee op, zo lijkt me.
Google kennende is dan binnenkort de zoekmachine alleen nog maar AI driven, en hebben sites geen keuze dan het wel toestaan omdat er anders dan helemaal geen traffic meer komt.

Om te kunnen reageren moet je ingelogd zijn