Europese uitgevers dienen antitrustklacht tegen Google in over AI Overviews

Europese uitgevers hebben een antitrustklacht ingediend bij de Europese Commissie tegen Google vanwege de AI-gegenereerde Overviews die het bovenaan zoekresultaten plaatst. De groep uitgevers vraagt hierbij om tijdelijke maatregelen voor die overzichten.

De Independent Publishers Alliance heeft bij de Europese Commissie een klacht ingediend waarin het Google beschuldigt van antitrustgedrag, meldt Reuters. Het persbureau heeft het klachtdocument ingezien. Dit document is gedateerd op 30 juni en zet de beschuldigingen uiteen. De organisatie stelt dat de zoekmachine misbruik maakt van zijn machtspositie op de markt voor onlinezoekopdrachten.

De groep uitgevers stelt dat de kernzoekmachineservice van Google webcontent misbruikt voor het aanmaken van de AI Overviews die gebruikers bovenaan in Google Zoeken krijgen aangereikt. Zowel het contentgebruik waarvoor geen opt-out mogelijk is als de prominente positionering is problematisch voor uitgevers. Dit heeft namelijk gezorgd voor aanzienlijke schade en zorgt daar nog steeds voor, aldus de klagende bedrijven. Het gaat om inkomend verkeer en daaruit voortkomende lezersaantallen en advertentie-inkomsten. Waar gebruikers normaliter na een zoekopdracht klikken op een link om een site te bezoeken, zou dat door Googles AI-overzichten nu veel minder gebeuren.

Google is iets meer dan een jaar geleden begonnen met het toevoegen van AI-gegenereerde samenvattingen. Die teksten moeten gebruikers een antwoord geven op hun zoekopdrachten. Googles AI kan daarbij meerdere bronnen gebruiken. Die input kan het dan combineren tot een nieuwe tekst. Volgens zakenkrant The Wall Street Journal heeft dit, net als bij andere AI-chatbots, al wel gezorgd voor een instorting van doorverwijzingen en onlineverkeer voor uitgevers. Google spreekt deze bewering tegen en stelt dat nieuwe AI-ervaringen in zijn zoekmachine juist meer vragen opleveren. Dat geeft volgens Google weer nieuwe kansen voor content en voor bedrijven.

De ingediende antitrustklacht is nog niet te vinden op de website van de Independent Publishers Alliance. De groep heeft zich begin dit jaar aangesloten bij een gerelateerde zaak. Het is een van de ondertekenaars van een waarschuwing tegen Brits overheidsbeleid voor AI. Dat beleid zou auteursrecht benadelen om AI-ontwikkeling te bevorderen. Het 'ontginnen' van tekst en data voor commerciële doeleinden zou niet mogen zonder expliciete gebruikslicentie, stelt de Creative Rights In AI Coalition.

Door Jasper Bakker

Nieuwsredacteur

07-07-2025 • 15:19

74

Reacties (74)

Sorteer op:

Weergave:

Ik vind die AI-overviews erg handig, maar het eerst wat ik dacht toen ik ze kreeg was ook dat websites hier niet blij mee gaan zijn want ze krijgen ze veel minder verkeer.
Het is ook een beetje raar. De websites doen het werk en schrijven inhoudelijk content en vervolgens vat google dat doodleuk samen en plaatst het soms recht boven de URL.

Het is alsof ze, onbetaald, werken voor Google.
Nou precies er was (vroeger) een verbond (niks juridisch) tussen publishers en Google. Publishers maken content en Google helpt de publishers aan clicks en bezoekers. Dat laatste is dus mooi voorbij.
Ja precies. Ik vraag me af of dit stand kan houden aan de kant van de publishers. Het leek er niet op dat websites überhaupt enorm winstgevend waren voordat dit gebeurde. Je zag er in elk geval veel verdwijnen. Dat zal er niet beter op worden nu.

[Reactie gewijzigd door DLSS op 7 juli 2025 15:39]

Het is ook een tikkende bom. Het is niet voor niks dat Google (en vooral Microsoft) in alles LLM's gaan integreren. Ze hebben snel een nieuwe inkomstenbron nodig :p
Er is in principe niets mis met het gebruik van LLM’s om artikelen te schrijven voor websites. Wel heb je een deskundige nodig om te verifiëren of de informatie klopt.

Als Google het websiteverkeer wegneemt, wordt het financieel onmogelijk om genoeg mensen in te huren om goed onderbouwde en gecontroleerde artikelen te schrijven.
Vanuit een gebruiker vind ik dit soort AI van google of een ander wel handig. Vooral voor simpele onderwerpen waar je vaak veel artikelen van veel sites moet lezen die elkaar soms tegenspreken of net niet de volledige informatie heeft die je zoekt. Zo’n samenvatting bespaart aardig wat tijd in je eerste zoektocht, zodat je vervolgens wat gerichter verder kan zoeken.

Ik kan me voorstellen dat veel sites dat jammer vinden dat ze geen bezoekers ‘vangen’ waar ze eigenlijk niet de informatie voor hadden, maar slechts tekst om clicks te vangen. En daar zit het net vaak vol mee: artikelen om clicks te vangen, en niet per se om gebruiksvriendelijk te zijn. Als bezoeker ben ik dan blij dat een zoekmachine dat handiger maakt zoals hier, en als bezoeker sta je niet direct stil bij het verdienmodel.
Maar de AI geeft jou die samenvatting op basis van het werk van anderen. Die anderen zullen uiteindelijk verdwijnen als ze geen vergoeding meer krijgen voor hun werk.

Overigens zijn lang niet alle onderwerpen eenvoudig. Daarnaast gaat er in zo’n samenvatting veel waarde verloren; de AI kan de waarde van bronnen niet goed inschatten en kan ook niet beoordelen of de bronnen waarop het artikel (en dus de samenvatting) is gebaseerd, wel solide zijn etc. etc.

Op de lange termijn zou dit wel eens schadelijk kunnen uitpakken, juist voor de gebruiker.
En daarom is voor sommige onderwerpen een AI samenvatting dus goed, zodat je vervolgens erna gerichter kan zoeken. Zoals je zegt is die samenvatting niet voldoende en wil je het ook nog valideren. Wat je dan over kan slaan zijn die sites die lezers lokken en weinig inhoud hebben. Die hebben er nu oa last van.
Ook sites met goede inhoud hebben er last van. Veel mensen lijken niet verder te kijken dan de AI samenvatting, ongeacht de complexiteit van het onderwerp.

De kwaliteit van de AI samenvattingen zal achteruit gaan als steeds meer websites met goede inhoud om zullen vallen. En zo vermoed ik dat het uiteindelijk slecht uit gaat pakken voor de gebruiker.
Ik vind het wel een interessante case. Het begint natuurlijk met het stoppen met het aannemen van starters (want die heb je niet meer nodig). Dus zelfs als ze winstgevend blijven dan zullen ze na verloop van tijd geen personeel meer hebben om de zaak draaiende te houden. De huidige generaties kunnen hiervan profiteren maar ben wel benieuwd wat ervoor in plaats gaat komen
Maar in principe is dat toch niet anders dan het gebruik van Perplexity of tegenwoordig ChatGPT? Als ik aan Perplexity iets vraag krijg ik ook van Perplexity een antwoord, met daaronder bronnen.
Ja klopt. Al heeft perplexity wel al afspraken met een aantal websites over revenue sharing.
Revenue sharing? Volgens mij moet er dik geld bij. Dit moet ook gigantisch duur zijn voor google op elke search query... AI is volgens mij zo verliesgevend dat men moeite heeft uit te vinden hoe het ooit rendabel gemaakt kan worden. En tegen die tijd draaien we gewoon lokale open source modellen.
Omzet is natuurlijk niet winst. Profit sharing zou inderdaad niet gaan. En eens dat het waarschijnlijk peanuts is.
Ik vind ze soms handig, maar ik erger me er vooral aan dat als ik iets googel, ik verwacht het antwoord zelf te kunnen vinden zonder dat daarvoor een onnodige hoeveelheid energie verbruikt hoeft te worden voor het genereren van een AI antwoord. Nu krijg ik beide en het lijkt wel of niemand bij Google nadenkt of dit wel verstandig is met het oog op energieverbruik.
Haha, vooral hoe ze er meer van kunnen gebruiken dus 8)7
lol, maar dat is wel toekomst... Ik zou beter geen kernenergie gebruiken, maar haal stroom vanaf de kern van het planeet. Een bijkomend voordeel, het geeft ook minder klimaat opwarming. Als je niet goed oppast, zie je bijna overal kerncentrales... een foutje... dan hebben we EEN GROOT PROBLEEM.... misschien wel planeetachtig probleem.

Daarom geen kerncentrales, maar geothermische energiecentrales. Dit is schoner en het produceert geen CO2, en geen radioactieve afval, makkelijk te hernieuwen.
Nieuwere zogenaamde small modular reactors (smr) hebben die meltdown problemen alvast niet. Weet niet hoe kosteneffectief geothermie op te schalen is, maar naast die puls gebaseerde kernfusie altijd goed om 24/7 alternatieven te hebben.
Ze zijn erg handig, totdat je er achter komt dat er heel erg vaak fouten in zitten en dat het bestaan van de overviews uiteindelijk hun eigen bestaan gaan ondermijnen.

Op een gegeven moment is het voor de originele uitgevers niet meer rendabel om artikelen te schrijven, waardoor de AI niks nieuws meer gaat hebben om op te trainen, waardoor de overviews steeds meer outdated en onbetrouwbaar worden.

Die uitgevers zullen op hun beurt weer meer AI gaan gebruiken om artikelen te laten schrijven, want dat is vele malen goedkoper dan het in dienst hebben van journalisten, auteurs en redacteurs, waardoor er een negatieve feedback-loop ontstaat van AI dat wordt getraind op AI wat in het verleden ooit is getraind op origineel materiaal.

Net zoals tweedehands kleding; je kan proberen het gebruik ervan te rekken, maar op een gegeven moment is het op en zal je echt wat nieuws moeten kopen.
Uitgevers kunnen zich sinds kort tegen het crawlen beschermen via coudflare. Willen de gpt's de zaak toch afromen, dan moet er betaald worden.
Net zoals met tweedehandskleding: de kwaliteit van nieuw is zo laag geworden dat recyclen niet eens meer mogelijk is.
Laatst gaf ik Google de opdracht om de goedkoopste POLO Ralph Lauren polo-shirts maat XXL te tonen maar dat ging niet. Ik kreeg :
  • Verouderde informatie.
  • Niet bestaande URL's.
  • Verkeerde maat.
  • Een globaal antwoord met welke winkels geregeld stunten met aanbiedingen (Zalando bijvoorbeeld).
Dus uiteindelijk moet je zelf toch naar winkel(s) toe surfen om achter de waarheid en de juiste maat te komen.
Ik neem aan dat je Gemini bedoelt of echt in Google?

En dan ben ik wel benieuwd, met andere heb ik dat wel gezien en volgens mij lang geleden Gemini, maar tegenwoordig echt nooit meer.
Gemini, je hebt gelijk.
Natuurlijk ben je er blij mee want je hoeft zelf niet langs het internet om 3 of 4 sites te zoeken en al die reclame te zien.
Ik heb een kleine website en ik zie sinds de invoering al een duidelijke drop in verkeer van zo'n 15 procent, dit is killing voor grotere websites. Ik snap ook niet wat het eindspel is want als die omvallen, dan kan AI zich nergens op baseren. Dan krijg je straks AI-overviews gebaseerd op AI-content gebaseerd op stokoud trainingsmateriaal. Racen naar de ondergang, zo raar.
Ik weet niet of dit haalbaar is, maar misschien kan google een kleine premie betalen aan websites van wie content gebruikt wordt om een antwoord te geven op een zoekvraag ofzo? 🤔
Cloudflare heeft een voorstel voor betaling: YouTube: Could HTTP 402 be the Future of the Web?
Oh wow dat is interessant. Bizar dat hier zo weinig aandacht voor is. Had er nog nooit van gehoord.
Weet niet of dit de oplossing is. Vroeger waren zoekmachines om ervoor te zorgen dat er content kwam naar de website. Daar verdienden uiteindelijk die sites dan weer geld aan.

Ik denk dat per crawl betalen lastig concept is om zinnig te zijn. Aangezien sommige dingen gecrawld kunnen worden maar nooit gebruikt. In dat geval is het oneerlijk en die zullen er ook genoeg zijn.
Maar hoe weet je dan dat die drop AI gerelateerd is? Gebruik Google info van jouw site?
Het is inderdaad te repliceren door bepaalde zoekopdrachten te doen. En het is bekend wanneer de AI-knop in de zoekmachine aan ging, en daar begon de drop na jaren van vrij stabiel verkeer. En het is gewoon een bekend probleem onder grote nieuwssites ook.
Die AI overviews zijn verschrikkelijk. Ik probeer het op allerlei mogelijke manieren te omzeilen, maar het wordt je heel moeilijk gemaakt. Met Google search heb ik het in Windows wel voor elkaar gekregen om die overviews niet te krijgen, maar op Android lukt het me helaas niet. Heeft er iemand een oplossing?
Firefox met ublock origin en dan een custom filter op dat stuk pagina, geen idee of er een specifiek id of css class aan hangt?
Dat is een filter, maar voorkomt niet dat er energie wordt gebruikt. Ik zoek eigenlijk een mogelijkheid dat er geen energie wordt gebruikt voor het genereren van het resultaat.
Ah klopt, en ik ben 100% met je eens dat ook het energieverbruik voorkomen de beste weg zou zijn, maar geen idee of dat kan.


Eventueel van zoekmachine wisselen? Ook als het nu wel uit te zetten is kan dat morgen weg zijn, google gaat echt wel door met hun AI bullshit
Je eerste link gaat naar een pagina waar juist staat dat het niet uit kan en dat je via een feedback formulier een request kan indienen om de feature uit te laten schakelen.
Ik ben wel benieuwd hoe dit er op langere termijn uit gaat zien ook. Bijvoorbeeld voor programmeerissues ging ik vroeger vaak naar StackOverflow e.d. Die zijn uiteraard flink gescraped voor het trainen van LLM's waardoor ChatGPT / Gemini e.d. nu veel vragen kunnen beantwoorden. Ik zou ook verwachten dat een gevolg dan is dat er minder vragen én minder antwoorden op StackOverflow en soortgelijke platforms geplaatst worden - ik ben ongetwijfeld niet de enige die dit doet. Hierdoor blijft er minder data over om LLM's te trainen. Zouden LLM's dan na verloop van tijd steeds meer achter de feiten aan gaan lopen doordat er weinig aanvoer van nieuwe data is?

Dit geldt uiteraard net zo goed voor wat Google nu op andere toepassingsgebieden aan het doen is in de zoekresultaten - hoe minder verkeer er te verdelen is omdat AI-resultaten het gros afvangen, hoe minder inhoudelijk sterke bronnen er overblijven omdat er weinig meer te halen is.

Om dit blijvend te laten werken zal er een soort van balans moeten ontstaan tussen LLM's en platforms die content produceren of faciliteren.

[Reactie gewijzigd door MadEgg op 7 juli 2025 15:28]

Een extra probleem is dat de nieuwe content die erbij komt ook door AI wordt gemaakt, hierdoor blijft de trainingsdata qua kwaliteit hetzelfde.
Volgens mij is het een soort van digitale inteelt, dus de kwaliteit van de trainingsdata gaat zelfs achteruit.

Om dat te voorkomen heb je een selectiemechanisme nodig dat de slechte kwaliteit eruit gooit. Dat moet dan aan de trainingskant gebeuren want de producenten van de AI slop gaan het niet doen.

Als we dat aan de trainingskant kunnen, dan wil ik ook graag zo'n filter in mijn browser :)
In een ander opzicht lijkt het mij mogelijks voordelig dat stackoverflow verdwijnt. Nu komen die vragen vaak voort uit dingen niet te vinden via Google. Het antwoord op die vraag was er misschien wel al als Google ergens relevante broncode gevonden zou hebben om als referentie te gebruiken, maar omdat dat niet gebeurd heeft iemand die vraag dus gesteld.

De AI modellen zullen ongetwijfeld wel datasets hebben met de hele code van al het publieke op github, code op een nog veel grotere schaal dan stackoverflow. Zou die nood naar die vragen er nog zijn als je nu AI modellen hebt die statistisch relevante code kunnen voorschotelen om je verder te helpen?

Uiteindelijk gaan vragen er ook nog steeds blijven komen, maar ik denk dat die nu ook al op andere plekken zoals Reddit of Discord gesteld worden.
Ik zou het niet leuk vinden als StackOverflow verdwijnt, precies om hiervoor al genoemde redenen. Voor alles, inclusief AI geld: garbage in, garbage uit.

Nu wil ik niet zeggen dat StackOverflow heilig is, verre van. Maar het is wel een platform waarin je met mensen met echt heel veel kennis en ervaring in contact kan komen. Zo had ik ooit een obscure vraag over boost::log op StackOverflow gepost, en notabene een van de auteurs van de library beantwoorde mijn vraag.

Dat soort interacties heb je niet met AI, en als sites als StackOverflow verdwijnen zal het alleen maar erger worden.
Jep hier herken ik me ook in, wat ik geregeld doe als er een AI antwoord komt, gewoon overslaan en kijken welke antwoorden Googlesearch gevonden heeft en die gebruiken.
Dit is een klassiek geval van zoeken en vinden. AI zorgt er voor dat we minder zoeken. Als ik het wel heb is het ongeveer een 80 20 regel. Je bent ontzettend veel tijd kwijt aan zoeken en het oude Google exploiteert dat dus eigenlijk door het zoeken te laten sterven van allerlei reclame. Het gaat natuurlijk om het vinden. Dit is vind ik vooruitgang. Maar ja je ziet er zijn allerlei business modellen rondom het zoeken gebouwd en de spelers daarin vinden dat nu dus niet zo leuk. Hoe dit gaat uitpakken? Wie het weet mag het zeggen. Maar het lijkt me dus toe dat die tachtig procent zoeken een enorm energie verlies veroorzaakt zowel mentaal bij de mens als ook elektriciteit gebruik. Het nieuwe businessmodel is dus originele content die echte waarde toevoegt voor mensen. En zeker voor bedrijven, want hún efficiency gaat enorm omhoog. Content aanbieders zullen dus beter moeten gaan presteren. Ai gaat dus een grote verschuiving veroorzaken in het businessmodel.

[Reactie gewijzigd door oks op 7 juli 2025 16:41]

"Maar ja je ziet er zijn allerlei business modellen rondom het zoeken gebouwd"

Als ik iets zoek en die AI overview geeft mij dan als antwoord een samenvatting van een site als tweakers, hoe heeft Tweakers dan een business model gebouwd rondom zoeken?

"Het nieuwe businessmodel is dus originele content die echte waarde toevoegt voor mensen."

En wat los je hiermee op, als AI er vervolgens mee aan de haal gaat?

Het probleem is dat websites nu inkomsten mislopen doordat AI de content van hun pagina's gebruikt wat er toe leidt dat mensen die sites niet meer bezoeken. Het enige alternatief is die content niet publiek aanbieden, of erger nog, niet op het internet aanbieden, omdat je anders wel zeker kan zijn dat AI ermee aan de haal gaat.

"Maar ja je ziet er zijn allerlei business modellen rondom het zoeken gebouwd en de spelers daarin vinden dat nu dus niet zo leuk."

De enige die explicit een business model heeft gebouwd rond zoeken is Google, (bijna) alle andere partijen zijn min of meer geforceerd om vindbaarheid (of zoekbaarheid) te verhogen omdat mensen massaal Google zijn gaan gebruiken om content te vinden. Die spelers hadden geen keuze, alsof je geforceerd bent russisch roulette te spelen en je weet dat de volgende poging de kogel is.
Volgens mij had ik het over het businessmodel van Google. Hun model is het zoeken te verreiken met reclame. Ik beschrijf het nieuwe gedrag dat AI oplevert. Tja het lijkt me niet zo moeilijk door gewoon aan de AI te vragen waar het vandaan komt. Dat heet in de wetenschap je referenties goed krijgen. Moet je sowieso altijd doen: je bronnen, de oorspronkelijke achterhalen. Anders is AI gewoon aan het orakelen of hallucineren of hoe je het ook noemt. Betrouwbaar zal het niet zijn. Dan kom je er ook achter dat al dat copyright geneuzel niet zoveel hout snijdt. Alle concepten en varianten zijn ongeveer al bedacht. Al denk je wellicht dat dat niet zo is. Het is meestal de context die een beetje veranderd en het lijkt of er iets nieuws ontstaat. En hoezo moet ik me als consument druk maken over een of andere website? het gaat om het vinden. Zoals ik al zei. Heb je gevonden wat je zocht. Daar gaat het om. Waarom moet ik als consument altijd de melkkoe zijn? Ik wordt gewoon str8ntziek van al dat hobbels opwerpen om mijn aandacht en klik gedrag steeds te laten beïnvloeden. Heb je enig idee hoeveel levensuren je daarmee verspild? Tijd is het enige wat je niet terug krijgt. En vermaakt worden tja daar hebben we tegenwoordig tiktok etc voor. Als ik gewoon de dichtstbijzijnde leverancier van mijn kraanleertje wil hebben en de klusjesman/vrouw die het voor mij kan vervangen dat is wat ik nuttig vindt. Lijkt me dat dat een prima verdienmodel is. De klussert zal dus een website moeten hebben anders kan de AI het niet vinden of beoordelen of de klussert ok is. Als ik in Utrecht er een wil vinden zoek ik niet een klussert uit Groningen... En ja dat we allemaal googlen tja dat is volgens mij vooral ons eigen gedrag. Kan je over klagen heeft niet zoveel zin denk ik? Hoogstens kun je hopen dat er nu met het verschijnsel AI iets anders gaat gebeuren. Het blijven voeden van google zou je wel kunnen als iets wat niet zo handig is. Al je google email door google AI laten doorvlooien is je privacy inderdaad helemaal naar de filistijnen helpen. Google AI online je mails laten schrijven tja. Misschien niet zo handig in het kader van geautomatiseerd identiteitsdiefstal etc etc. Welke AI provider je hanteert is een issue denk ik zo...

[Reactie gewijzigd door oks op 7 juli 2025 22:00]

Ik zou ze graag als gebruiker uit willen zetten. Als ik via Google iets zoek wil ik zelf de bronnen wegen, dat hoeft de AI juist niet voor me te doen. Afschuwelijke ontwikkeling, en ik merk dat ik hierdoor nog sterker geneigd ben een andere zoekmachine te gebruiken.
gewoon -ai toevoegen aan je zoekquery. Als je iets a la tampermonkey/userscripts gebruik, kan je dat ook automatisch aan al je zoekqueries toevoegen.
Minder nauwkeurig kan het door een een fuck in je zoekterm te verwerken, Amerikaanse bedrijven zoals Google zijn daar allergisch voor. :+
Ik zit al een aantal jaar in de online marketing en die AI overzichten maken het echt niet meer relevant om SEO te verkopen. Wat nu nog clicks oplevert is volgende week weer anders. Search is fundamenteel aan het veranderen en Google die zegt dat de AI overzichten publishers helpt, weet zelf ook wel dat ze concurrentie hebben gekregen op hun search eiland. Ik ben heel benieuwd hoe zich dit gaat ontwikkelen in SEO land.
die AI overzichten maken het echt niet meer relevant om SEO te verkopen.
Toch nog een positief effect van die AI overload!
Ik schakel in alles wat ik heb of gebruik alle AI uit en als dat niet lukt zoek of koop een alternatief gelijkwaardig product indien dat er is. Die vlieger gaat natuurijk niet helemaal op want het zit in steeds meer producten maar gelukkig kom je een heel eind met door alle settings en hidden settings door te ploegen. En als dat niet lukt komen bv apps achter een firewall. SwiftKey bv doet het prima zonder internetverbinding.
Volgende nagel in doodskist van content websites.

Ik heb het al vaker gezegd, Google, Twitter en Facebook hebben al menig website vernield. Veel van de sites die het hebben overleefd houden het amper droog. Dit zal voor velen de doodsteek blijken.

En om het nog een tikje spannender te maken: er wordt al heel erg veel content 'geschreven' door AI. Daar klopt vaak geen hout van, maar zo ontstaat er een nieuwe werkelijkheid waarin waarheid niet zo belangrijk is als "But the computer said so, so it must be true".
AI is handig, zolang er geen fouten in zitten... En aangezien ik geen tijd heb om alle resultaten te doublechecken heb ik nu een extension voor Firefox die het hele AI-overzicht bij de zoekresultaten weglaat.

Op dit item kan niet meer gereageerd worden.