Google wil een debat op gang brengen waarin nagedacht wordt over nieuwe protocollen die web publishers keuze geven en controle laten behouden over hoe hun webcontent gecrawld kan worden door kunstmatige intelligentie.
Het Amerikaanse internetbedrijf meent dat web publishers voldoende controle moeten kunnen blijven behouden over hoe hun content op het web wordt gebruikt. De huidige tools om dat te doen, zoals de implementatie van robots.txt, zijn volgens Google ontwikkeld in een tijd waarin er van kunstmatige intelligentie nog geen sprake was en dus moet er volgens Google nagedacht worden over nieuwe bijkomende protocollen. Vandaag de dag kunnen websitebeheerders via tekstbestand robots.txt aangeven welke delen van een website door een zoekmachine gecrawld mogen worden, en welke niet.
Google wil een debat op gang brengen waarbij spelers uit zowel de internetindustrie als de AI-wereld met elkaar in dialoog gaan. Het Amerikaanse internetbedrijf wil heel wat verschillende stemmen horen en nodigt ook mensen van de academische wereld en andere sectoren uit om de komende maanden met elkaar in gesprek te gaan.