The New York Times heeft zijn algemene voorwaarden gewijzigd. Het Amerikaanse dagblad verbiedt nu het gebruik van zijn artikelen en andere content voor het trainen van AI-modellen. Webcrawlers mogen content van de website ook niet zonder toestemming verzamelen.
The New York Times heeft zijn voorwaarden begin deze maand aangepast, merkte Adweek op. Met de nieuwe voorwaarden verbiedt de krant het scrapen van zijn artikelen, foto's, afbeeldingen, illustraties, ontwerpen, audio- en videoclips, ontwerpen en metadata voor het trainen van machinelearning- of AI-modellen. Ook webcrawlers mogen content van het dagblad niet gebruiken om grote taalmodellen of AI-systemen te trainen.
Het niet naleven van de nieuwe beperkingen kan volgens The New York Times leiden tot boetes of straffen, maar de exacte invulling daarvan wordt niet genoemd in de voorwaarden. De krant lijkt zijn robots.txt-bestand, waarmee webcrawlers van zoekmachines worden geïnformeerd welke URL's toegankelijk zijn, niet te hebben aangepast.
Het is niet duidelijk om welke concrete reden The New York Times de wijziging in zijn voorwaarden heeft doorgevoerd; het bedrijf noemt geen redenen. AI-modellen worden doorgaans getraind op basis van datasets van het internet, waar ook auteursrechtelijk beschermde werken zoals journalistieke artikelen verwerkt kunnen zitten. Google zette onlangs bijvoorbeeld in zijn privacyvoorwaarden dat het bedrijf publieke data van het internet kan gebruiken om zijn AI-diensten te trainen, zoals chatbot Bard. OpenAI doet hetzelfde voor zijn GPT-modellen, maar laat website-eigenaren die dataverzameling blokkeren via hun robots.txt-bestand.