X verbiedt ontwikkelaars om AI-modellen op posts te trainen in nieuw beleid

X heeft zijn overeenkomst voor ontwikkelaars aangepast. Daarin verbiedt het platform bedrijven om hun AI-modellen te trainen of te finetunen met content van X. Hiermee wil het socialemediabedrijf derden mogelijk verplichten om een overeenkomst af te sluiten.

X heeft woensdag zijn ontwikkelaarsovereenkomst aangepast, merkt TechCrunch op. Er is een zin toegevoegd aan de sectie met gebruiksbeperkingen, waarin wordt gemeld dat ontwikkelaars 'de X-api of X-content niet mogen gebruiken voor het finetunen of trainen van een foundation- of frontiermodel'.

In 2023 paste X zijn gebruikersovereenkomst aan om aan te geven dat het zijn eigen AI-modellen mag trainen met de posts van gebruikers, iets wat een jaar later ook gebeurde. Afgelopen oktober liet het bedrijf in een gewijzigd privacybeleid weten dat voortaan ook AI-modellen van derden getraind mogen worden op content van X-gebruikers. Dit privacybeleid is sindsdien niet gewijzigd.

De aanpassing aan de ontwikkelaarsovereenkomst komt een paar maanden nadat Elon Musks xAI het voormalige Twitter heeft overgenomen. Eerstgenoemde biedt een eigen AI-chatbot aan, genaamd Grok, die deels getraind wordt op X-posts. TechCrunch vermoedt dat X concurrerende AI-modellen niet langer zomaar toegang wil bieden tot content op het platform. Het is niet duidelijk of X van plan is om overeenkomsten te sluiten met externe AI-partijen, waardoor ze hun modellen alsnog zouden mogen trainen met posts op het platform. Onder meer Reddit heeft wél zulke deals gesloten.

Door Kevin Krikhaar

Redacteur

06-06-2025 • 14:22

43

Reacties (43)

43
41
21
0
0
8
Wijzig sortering
Want dat doen we zelf wel!

Ben benieuwd wat Grok maakt van de goede dialoog tussen Trump en Musk van de afgelopen dagen. Daar kunnen we allemaal iets van leren

[Reactie gewijzigd door gaskabouter op 6 juni 2025 14:27]

Is toch ook hun goed recht?
Ware het niet dat ze zelf natuurlijk ook het internet afschrapen. Ik pak wel van jou. Maar jij niet van mij.

Goed recht? Misschien. Kinderachtig? Zeker.

Al blijft natuurlijk de vraag hoe intelligent een systeem wordt van Twitter
Het gaat om specifieke vormen van trainen van AI. Je mag de data van Twitter dus best gebruiken, maar men stelt er paal en perk aan wanneer dat wel en niet kan, wat is daar kinderachtig aan?

[Reactie gewijzigd door CH4OS op 6 juni 2025 16:04]

Je kan gewoon legaal alles doen met de informatie die op je scherm verschijnt en al legaal was. Of is 'eigendom' nu ineens weer relevant terwijl bedrijven die willekeurige data bij elkaar harken en invoeren geen copyrightschending kunnen begaan omdat ze geen persoon zijn?
Het is hierbij in de eerste plaats relevant dat als je van andermans diensten gebruik maakt die diensten ook hun eigen rechten hebben om grenzen aan gebruik te stellen. Het is geen telecombedrijf dat de plicht heeft om alle communicatie maar zo veel mogelijk ongemoeid te laten. Daarbij was het gebruik maken van andermans gegevens voor gebruikers al niet zomaar onbeperkt. Er is meestal slechts beperkt recht, bijvoorbeeld alleen voor persoonlijk gebruik. Maar als een bedrijf ook moet voorkomen dat er onrechtmatig gebruik plaats heeft dan is een eerste middel het expliciet duidelijk maken wat men niet onder redelijk gebruik verstaat, zoals bij het om onduidelijke redenen en doelen hun systemen en andermans gegevens gebruiken een grens trekken.
Als je bepaalde informatie zelf openbaar stelt kun je niets verhalen op het moment dat een ander ermee op de loop gaat. Dan moet je het persoonlijk maken en achter een registratie stoppen. Probleem is vaak dat het dan al gauw geen publiek meer heeft omdat de waarde gewoon te beperkt is en er alleen mensen op af komen als je het uitlegt als aas dat geen moeite kost.
Een platform als X mag dan socialmedia genoemd worden en redelijk vrij toegankelijk zijn, het is geen publiek terrein of publiek systeem alsof er vooral openbrare rechten gelden. Het is een platform dat volledig bestaat uit systemen die namens en onder verantwoordelijkheid van het bedrijf andermans gegevens verwerken. Dat is onder eigen voorwaarden van het bedrijf, en waar wetgeving het bedrijf zeer veel rechten geeft om zelf te bepalen wat de voorwaarden zijn om toegang tot de gegevens te hebben en vervolgens te gebruiken zijn. Er is dus ook geen registratie nodig om dit soort beperkingen over het mogen gebruiken op te leggen en laten gelden.

[Reactie gewijzigd door kodak op 6 juni 2025 20:23]

Dan blijft het toch nog steeds je goed recht?
Het staat andere platformen niks in de weg dit ook te doen?
Dat doen ze al, met de robot.txt.
Niet dat AI modellen zoals Grok zich daar aan houden.
Is dat zo? Zijn die tweets eigendom van X?
Het platform is van hun. Facebook, reddit, etc doen dit ook maar als X het doet is het slecht.

[Reactie gewijzigd door Rogers op 6 juni 2025 17:56]

Het platform is van hun. Facebook, reddit, etc doen dit ook maar als X het doet is het slechts.
Dat is een whataboutisme. Dat een ander (Meta) iets fout doet geeft jou (X) niet meteen het recht om ook iets fout te doen.

Dat het platform van hun is, is ook geen argument. Ja, tot op zekere hoogte mogen ze bepalen wat er op hun platform gebeurt. Maar dat moet wel binnen de wettelijke kaders gebeuren. Als X iets wil op hun platform, maar het overtreed de wetgeving, dan kunnen ze zo hoog springen als ze willen, het mag dan toch écht niet.

En los van wet- en regelgeving is het wel enigszins hypocriet wat X hier doet: ze verbieden derde partijen iets wat ze zelf wel doen. Op zijn zachtst gezegd: niet netjes.
Ik zie niet wat dit met wet en regelgeving te maken heeft.
En wat is er fout aan om je data te beschermen.

[Reactie gewijzigd door Rogers op 6 juni 2025 18:00]

Ik mag mijn eigen gebruik toch zeker wel onder dezelfde fair-use laten vallen? De grote data slurpers wijzen dan ook op fair-use (of op "ik doe het lekker toch").
wat is hier zo hypocriet aan?
ja. Je geeft bij het aanmelden bij X hun het recht dat te doen.
Ja, dat is vrij standaard in de markt. Ook bij websites waar je foto's e..d. kunt uploaden.
Want dat doen we zelf wel!

Ben benieuwd wat Grok maakt van de goede dialoog tussen Trump en Musk van de afgelopen dagen. Daar kunnen we allemaal iets van leren
Deze vraag werd al via X aan Grok gesteld. Dat ging iets over dat er geen winnaar door hem aangewezen kan worden, maar dat de grote commotie om die nieuwe plannen van Trump met zijn belastingen etc.. wel negatieve impact zal hebben op de inwoners van VS en daarom in feite de verliezer zijn.
Do as I say, not as I do.

Zodra partijen je dat gaan opleggen weet je dat het tijd is om te vertrekken omdat je niet op kan boksen tegen zo'n partij die zelf alles uit de kast trekt om illegale dingen te doen en jou dwingt om het op de nette manier voor elkaar te krijgen.
Leg eens uit? Wat is is hier illigaal aan.
OpenAI, Anthropic, xAI, enz. schrapen data alsof hun leven er van af hangt (zie rechtszaken bij o.a. The New York Times, het gedoe met Reddit, de lekkage van data bij de overheid van de VS, etc) en nu zegt zo'n partij dat je dat zelf als ontwikkelaar niet mag doen.

Mocht je vallen over de definitie van illegaal: daarom staat in het voorbeeldenlijstje hierboven ook het werk van DOGE genoemd. Niemand weet het vooralsnog zeker, maar het blijft Musk.
Ben wel benieuwd naar de use cases van het trainen van AI-modellen op dit open riool van data eigenlijk.

Ondanks mijn formulering is dit wel een oprechte vraag.

[Reactie gewijzigd door Recursio op 6 juni 2025 14:39]

Misschien het trainen om een AI misinformatie te laten herkennen, of natuurlijk om bots te maken die dat allemaal zelf lekker kunnen schrijven :P
waarom hebben ze daar bots of AI voor nodig? Ze hebben letterlijk miljoenen gebruikers die gratis de wereld aan misinformatie voor ze schrijven :)

[Reactie gewijzigd door Vizzie op 6 juni 2025 15:09]

Eens!! En kan het niet beter omschrijven!
Je krijgt in ieder geval een AI die korte en bondige antwoorden geeft. Met duidelijk verwoorde standpunten ;-)
Weinig anders dan menig echo chamber op het internet, biased informatie.
Maar aan de andere kant wel pleiten dat auteursrecht niet moet gelden voor AI trainen?

Volgens mij was dat Meta, maar ik denk dat die ook een asterisk er bij willen dat hun social media content is uitgesloten.
Data is het nieuwe goud en aangezien er heel veel data op X staat, willen ze dat graag voor zichzelf houden, wat voor een commercieel bedrijf natuurlijk een logische zet is.
Gelukkig staat X bekend om zijn mooie volzinnen en uitstekende vocabulaire…
ik zou zeggen probeer het eens.....
en vergelijk met andere AI bots
https://www.tomsguide.com...-prompts-heres-the-winner

Te makkelijk om meteen de conclusie te trekken is Musk, is X, dus slecht inderdaad.
ben benieuwd nu Musk Trump onder de bus aan het gooien is (wat te verwachten was), of links nu weer gaat draaien. Als ik her en der de artikelen lees, dan lijkt het daar wel op. Het is best interessant als je nieuwsartikelen over een langere tijd volgt over een zelfde onderwerp of een zelfde persoon en hoe slecht vaak de inschattingen van de journalisten achteraf blijken te zijn. Eigenlijk ook logisch: achteraf weet je steeds meer. Maar we leven kennelijk in een wereld waarin er geschreeuwd moet worden om gehoord te worden. Veel artikelen staan daarom ook vol met drogredenaties en insinuaties.
Hahahhaa ok stop maar weer met je TrADiTiOnElE mEdiA. Die is hier niet aan te pas gekomen. Het filpje an sich is genoeg om je eigen conclusie te trekken, daar heb ik echt de NOS niet voor nodig. Musk maakte een meer dan uitstekende Hitler groet. Je eigen mening vormen, dat was toch het speer punt van de anti-msm groep?

[quote] Alle andere politici met zo een gebaar. Totaal geen nieuws. [/quote]

Bewijs maar eens dan. Laat maar eens een filpje* zien van Biden ofzo die een hitler groet brengt.

*Ja echt een filmpje en niet een handig geknipte foto, want die kennen we nou wel ;)
Die X dataset is ook wel goud waard voor wie Tay 2.0 wil trainen.
Welke ontwikkelaar wil X ( of gelijk welk ander gelijkaardig social media platform) nu gebruiken om zijn modellen op te trainen? Enkel als je een tool wil maken die automatisch reacties plaatst op social media kan dit handig zijn... en zo een tools zien we liever niet denk ik :-)
Voor een deel omdat er op dit soort platforms teksten rondgaan die qua syntax e.d. wel afwijken van veel 'nettere' teksten zoals bijvoorbeeld nieuwsberichten en officiële publicaties. Ik kan mij best voorstellen dat om een systeem te hebben dat goed kan reageren op teksten van mensen, het niet verwacht dat zo iemand per se super nette volzinnen schrijft. En daarvoor is sociaal media toch wel een mooie bron. (En dan is het wel typisch dat er van alles illegaal binnengeslurpt om AI-modellen te trainen, maar als de concurrent het doet moet dat natuurlijk niet kunnen). Het is ook relevant voor allerhande onderzoek naar wat er zoal rondgaat op social media. Bijvoorbeeld eerder was dit al lastiger gemaakt door de prijzen van API's te verhogen. Zoals onderzoek naar, zeg, het rondgaan van misinformatie.
Hahaha de hypocricie 8)7
Ik mag wel naar jou auto kijken maar er niet in rijden
Kan iemand uitleggen hoe zoiets gecontroleerd kan worden?
Je kunt na het trainen toch niet achterhalen op welke data de AI getraind is?
Lijkt me redelijk logisch: je stelt vragen over een onderwerp en als het systeem dan met antwoorden komt met informatie die specifiek van een tweet(discussie) komt, evt zelfs met bronvermelding, dan weet je 't wel.

Op dit item kan niet meer gereageerd worden.