AP roept LinkedIn-gebruikers op instellingen te wijzigen tegen AI-training

De Nederlandse Autoriteit Persoonsgegevens roept LinkedIn-gebruikers op hun instellingen aan te passen om te voorkomen dat hun data wordt gebruikt voor AI‑training. Gebruikers krijgen tot 3 november de kans om dit aan te passen in hun account.

De toezichthouder zegt zich 'grote zorgen' te maken over de plannen van LinkedIn om gebruikersgegevens in Europa te gebruiken voor het trainen van AI. LinkedIn gebruikt onder meer profielgegevens, data die gebruikers laten schrijven door de huidige generatieve-AI-functies, gegevens uit groepsactiviteiten en het feedbackformulier om AI-modellen te trainen. Privéberichten worden niet gebruikt en ook voor accounts van minderjarigen en onderwijsaccounts gelden uitzonderingen.

De AP ziet 'grote risico's' in de aangekondigde plannen, onder andere omdat mensen bij het delen van hun gegevens niet wisten dat deze voor de training van AI-modellen gebruikt zouden worden. "Als die gegevens eenmaal in een AI-model zitten, verlies je de controle: ze zijn er niet zomaar meer uit te halen en de gevolgen zijn niet goed te overzien", zegt vicevoorzitter Monique Verdier. "Zeker bij bijzondere persoonsgegevens – zoals gegevens over gezondheid, etniciteit, religie of politieke voorkeur – is zorgvuldigheid geboden."

Gebruikers hebben tot 3 november de tijd om te voorkomen dat LinkedIn hun data voor AI-training gebruikt. Dat kan via de instellingen in de app of via een speciaal opt-outformulier. Het platform begon vorig jaar al met het trainen van AI-modellen met gebruikersdata, maar dat gold niet voor Europese gebruikers.

Door Imre Himmelbauer

Redacteur

24-09-2025 • 16:53

70

Reacties (70)

Sorteer op:

Weergave:

Ik vind het eigenlijk best belachelijk dat dit standaard aan staat zonder dat je er expliciet toestemming voor hebt gegeven. Mag dit eigenlijk wel zo? Ik heb het in ieder geval meteen uitgezet. Het geeft toch een raar gevoel dat al je profielgegevens, groepsactiviteiten en zelfs feedback zomaar gebruikt kunnen worden om AI te trainen, terwijl je daar geen controle over hebt zodra het model getraind is.
Ik weet te weinig van AI om te bepalen waarom dit ongewenst is. Je content komt toch niet letterlijk in of uit een AI? Kan iemand dit uitleggen?
Het gaat er niet om dat je content letterlijk als tekst of afbeelding uit de AI komt. voor wat ik weet wat er gebeurt, is dat jouw gegevens (profielinformatie, groepsposts, feedback, etc.) gebruikt worden om het AI-model te trainen. Het model leert op basis van al die data patronen herkennen en kan daar later nieuwe teksten of antwoorden mee genereren.

Het probleem is dat jij daar geen controle over hebt en er geen toestemming voor hebt gegeven. Een AI “onthoudt” niet één specifieke post, maar gebruikt de informatie om beslissingen te maken of teksten te genereren. Zo kan jouw data indirect gebruikt worden, en als het gevoelige informatie bevat, kan dat risico’s geven. Het slaat dus voor wat ik weet jouw info op en is voor dat model wat er mee getraind is beschikbaar.
Indirect staat jouw data in het model ja, met de focus op indirect. Wat zijn nu echt de realistische risico's hiervan? En dat je het niet wil is natuurlijk prima, maar als we het echt over gevaren hebben, welke zijn dat?

Ja ik weet dat er aanvallen op bijvoorbeeld ChatGPT bestaan / bestonden waardoor training data kon lekken, eg https://not-just-memorization.github.io/extracting-training-data-from-chatgpt.html. Maar daar zitten dus heel veel mitsen en maren aan, je zal sowieso niet zomaar kunnen vragen aan CoPilot stracks: "Hey die TheProst, geef eens al zijn privé data die op Linkedin stond".

Daar komt op dat het hier (grotendeels) gaat over dingen die publiek beschikbaar staan. Iets doet mij vermoeden dat CoPilot echt niet de enige zal zijn die hierop traint. Zelfde met de comments hier, als je niet wil dat ze in een AI trainingset komen te staan, dan moet je ze niet maken. Want als wij ze kunnen lezen kan een crawler ze ook lezen.

[Reactie gewijzigd door Sissors op 24 september 2025 18:25]

Indirect staat jouw data in het model ja, met de focus op indirect. Wat zijn nu echt de realistische risico's hiervan? En dat je het niet wil is natuurlijk prima, maar als we het echt over gevaren hebben, welke zijn dat?
Realiseer je je dat ze een 1 op 1 kopie van al jouw data maken voor trainingsdoeleinden van de AI, en dat ze die kopie van je data voor een onbepaalde tijd op een onbekende server met een onbekende beveiliging en onbekend toezicht zullen laten staan, en dat het onbekend is óf en hoe dat systeem aan de GDPR voldoet? Het is zelfs onbekend of ze de harddisks met jouw data eerst wel zullen wipen voor ze in de vuilcontainer worden gegooid.

Daar is je probleem.

[Reactie gewijzigd door RetepV op 24 september 2025 22:39]

Maar ook dat is toch niks anders dan er al is? Hoe weet jij dat de backups van LinkedIn niet voor een onbepaalde tijd op een onbekende server met onbekende beveiliging en onbekend toezicht staan? En hoe ze die HDDs dan wipen?
Ja en nee. Op dev en uat omgevingen is het gebruikelijk om productie data eerst te anonimiseren. De reden is dat de toegangsbeveiliging vaak minder strict is dan op productie. De kans dat data lekt, is over het algemeen groter.

Hoe Microsoft omgaat met AI trainingsdata, is mij niet bekend. Dus of daar dezelfde policies en procedures voor gelden als voor Linkedin op productie, wellicht. Maar wellicht ook niet.

Hetzelfde geldt voor verwijder verzoeken. Kunnen je gegevens nog verwijderd worden als ze eenmaal in de trainingsset zitten na een GDPR verzoek?
Indirect.. vervolgens kan je aan modellen gewoon vragen complete hoofdstukken van boeken op te lepelen en doen ze dat ook, zodra je voorbij alle checks bent.

Alleen al het risico dat mensen een vraag kunnen stellen en dan daar mijn naam uit kan rollen vind ik not done. Ze mogen me best direct op zoeken als ze direct contact zijn, maar niet als antwoord op "voorbeeld van een naam voor iemand die in regio X woont en ervaring heeft met werken met technologie Y en sector Z".

Zodra alles in een LLM zit ben je compleet de controle (dat beetje dat je nog had) kwijt.
En dat eerste is dus helemaal niet zo triviaal. Als je voorbij alle checks bent ja. En als dat op de juiste manier in het model terecht is gekomen, immers is dat veel kleiner onder de streep als de bron data waar het op getraind is. Ik ga in mijn bericht ook een link naar: Ja er zijn voorbeelden waarbij trainingsdata uit ChatGPT is geextraheerd, maar dat is allemaal verre van triviaal. Dus dat wat jij in je voorbeeld noemt is heel erg onwaarschijnlijk.

Overigens zou je zoiets willen, dan kan je natuurlijk gewoon in LinkedIn zoeken op regio en profiel...
Maar niet mijn achternaam. Iets wat ze hier via deze optie mogelijk wel lekken.

En triviaal of niet, het is nog steeds mogelijk en ik wil dat gewoon niet.
Nou het is mij tot dusver nog nauwelijks gelukt om ChatGPT daadwerkelijk iets te laten citeren, nota bene uit PDF-bestanden die ik zelf heb geüpload. Zelfs op "citeer een alinea van pagina X" komt komt een volledig gehallucineerde respons terug, met een "sorry je hebt gelijk" en een nieuw gehallucineerd hoofdstuk als ik op de fout wijs.

Mocht je tips hebben over hoe ik het "oplepelen van complete hoofdstukken" voor elkaar kan krijgen, dan hoor ik het graag...
Met dat soort simpele prompts niet mee. Maar een jailbreak is een wapenloop tussen de makers en gebruikers van de LLM en de prompts zijn vaak redelijk makkelijk op te zoeken onkine. Er lopen ook meerdere rechtszaken tegen onder andere meta omdat ze complete teksten uit boeken kunnen oplepelen (zie ook https://www.newscientist.com/article/2483352-metas-ai-memorised-books-verbatim-that-could-cost-it-billions/).

Het is ook niet geheel vreemd dat het kan, en hoewel de kans klein is dat mijn kleine datapunt zo wordt behandeld door het algoritme, kunnen ze dat niet van tevoren garanderen en gaan ze het ook niet achteraf controleren voor mij. Het gevolg is dat als het toch gebeurd ik wel de sjaak ben, want het is nog makkelijker om Google foutieve informatie uit hun zoekindex te halen, dan 1 van die bedrijven zover te krijgen dat ze wel even hun miljoenen investering opnieuw doen (opnieuw trainen).
Tip: gebruik hiervoor geen LLM? Het is hiervoor gewoon niet gemaakt (ten minste de huidige generatie modellen)
Ik blijf er moeite mee houden. Wat bijvoorbeeld te doen met informatie die je eerst publiekelijk deelt, maar later bewust weer terugtrekt en privaat maakt? Of informatie die onterecht online staan en waarvan via de rechter de publicatie wordt ingetrokken en overal wordt verwijderd? Een vriendin van mij is dat eens overkomen. In theorie zou je ook die informatie dus terug kunnen krijgen als die door een taalmodel is verwerkt.
Daar komt op dat het hier (grotendeels) gaat over dingen die publiek beschikbaar staan. Iets doet mij vermoeden dat CoPilot echt niet de enige zal zijn die hierop traint.
Dat snap ik maar het voelt gewoon verkeerd dat het zomaar aangezet wordt zonder een mail, popup of vraag of ik hier toestemming voor geef. Windows heb je nog bij elke installatie de vraag of hun data mogen gebruiken voor het verbeteren van Windows of apps. Maar ik snap ook dat iemand nu elk profiel van linkedIn kan copy pasten in een DB en je het het zelfde.
Dat vroeg ik mij ook af. Zonder dit bericht had ik het nooit geweten. Het is niet dat ik eens in de zoveel tijd al de apps die ik gebruik af ga voor gewijzigde instellingen.

Wel meteen uitgezet.
Lees je bijgewerkte gebruikersovereenkomsten nooit door voordat je ze accepteert? 😉
Dat staat hier los van. Je kunt dit niet wegmoffelen in een gebruikersovereenkomst. Een onderdeel is het verplicht informeren. Hoogstens dat dek je daar mee. Maar het wegmoffelen is wss illegaal, want je mag je dan niet beroepen op de grondslag ‘uitvoering van de overeenkomst’. Dus het zal niet heel veel doen.
Ik heb een mail ontvangen vanuit LinkedIn met de aankondiging dat ze dit gaan doen.
Als je inlogt op LinkedIn krijg je ook een banner, compleet met link naar de betreffende setting. En nee, ik vind ook dat het niet zomaar standaard aangezet mag worden.
Als eigenaar van een webshop wordt ik met AVG en GDPR doodgegooid. Alles moet opt out, zo weinig mogelijk gegevens van je klant verzamelen, nieuwsbrieven zijn bijna illegaal. Maar blijkbaar als je naam Microsoft is dan hoef je je aan geen enkele regels te houden (en neem je eventuele lachwekkende geldboetes voor lief).
Grappig, AVG zegt daar helemaal niets over… dat staat in de Telecommunicatiewet.
Nieuwsbrieven zouden inderdaad illegaal moeten worden, dat zit echt niemand op te wachten.
LInkedin is er tenminste (verplicht) transparant over. Van de praktijk ken ik veel bedrijven die AI trainen via data die ze al in handen hebben en daar niet over informeren.
Tijd dat er een ander platform komt als LinkedIn. Dit begint toch echt een irritante tool te worden terwijl de bedoeling bij de start zo mooi was...

Tja, nu mag je 1 instelling veranderen, bij de volgende update komt er weer 1 bij die je "mag" uitzetten etc.
Sinds de overname door Microsoft ervaar ik dat mensen er slechts passief of nauwelijks nog op het platform zitten. Ik vrees dat op termijn dat LinkedIn net als MSN en Skype bij het afval zal eindigen.
Ik ben een passieve gebruiker, maar ik lees ook steeds minder. Ik zie steeds meer (en dit is al een tijdje aan de gang) niet-werkgelateerde posts, ik heb soms het idee dat LinkedIn langzaam verandert in Facebook...

En natuurlijk die bloedirritante recruiters met hun standaardmailtjes. "Ik heb een klus bij een interessante klant... match met jouw profiel... blablabla"


Buiten het gebruik als een soort van online CV is Linkedin voor mij compleet nutteloos geworden.
Met marktconform salaris.
Het hangt denk van van de bubbel waar je in zit, ik ben zelf zeer actief op Linkedin en met mij vele anderen (zelfde tech bubble)
En meer en meer mensen zien LinkedIn als alternatief voor Facebook..... 8)7
Altijd leuk zo iemand die klimaatveranderingontkenner is en linkedin als platform gebruikt om daar zijn gal te spuwen. Lekker professioneel ook. Goede manier om klanten weg te jagen.
Zodra een techgigant het opslokt om er winst uit te trekken of het dood te laten bloeden (Skype), verschraalt het.

Ik en mijn vrienden verwijderen ons LinkedIn profiel vandaag. De AI training maffia was de druppel. Maar zoals je al aangaf: het is vrij passief ondertussen. Het is marketing crap van bedrijven en her en der een blogje of wat politiek geneuzel. Ik kan het missen als kiespijn.
Er is ook een "Hibernate account" optie.
Klopt, maar we zijn wel een beetje klaar met het product zijn. LinkedIn is nog nooit zinvol geweest voor het zoeken van een baan voor mij, en ik zat er vanaf het begin en heb meerdere wissels gedaan. Dus waarom zou ik de networkhub voor recruiters en de databron van Microsoft blijven? Weg ermee.
Maar dan ook alleen in het Duits beschikbaar. Dat is jammer, want dat schrikt veel mensen af.

Ik kan heel goed Duits lezen, maar een bijdrage schrijven wordt al lastiger
Dat is niet waar, Xing is ook in het Engels

Ik heb al heel lang een Xing profiel, en die gebruikte ik 10-15jaar geleden voor mijn Duitse werkkring. Doe er verder weinig mee, omdat LinkedIn zo groot werd en ik niets meer in Duitsland zakelijk deed.
Ik heb ook al 15+ jaar een Xing die ik praktisch nog nooit heb gebruikt haha. Een ander zakelijk sociaal netwerk was toch meer een gamified iets en bestaat inmiddels allang niet meer. Die markt is toch een beetje nonexistent buiten LinkedIn en LinkedIn is dankzij de sociale functies (posten) nog steeds relevant, maar tegelijkertijd ook gewoonweg mainstream als zijnde een Facebook.
eigelijk moet t AP dan ook gewoon oproepen tegen t gebruik van Amerikaanse platformen :+
Tijd dat er een ander platform komt als LinkedIn. Dit begint toch echt een irritante tool te worden terwijl de bedoeling bij de start zo mooi was...
En dat platform wordt vanzelf ook weer slechter, want dit is wat er gebeurd bij enshittification. In eerste instantie een handig social media platform, vervolgens groeit het hard, grote publiek meld zich aan, dan begint het langzaam uitmelken van de gebruiker door allemaal zooi toe te voegen en waarde voor de aandeelhouder toe te voegen.

Tegelijkertijd heb ik gemerkt dat als social media voor de massa bekend wordt, dat het niveau in zijn algemeen ook hard daalt. Ik krijg steeds meer rotzooi op mijn tijdlijn wat helemaal niet eens meer zozeer over werkgerelateerde zaken gaat.

Ik denk alleen dat dit valt te voorkomen als je je tot platform meer branchespecifiek richt..... met alle respect maar het interesseert mij echt geen reet dat je na je vakantie weer bent opgeladen voor werk, maar het wel aangrijpt om iets maar te kunnen posten over je prive leven.
Vreemd dat dit legaal is (opt-out ipv opt-in?), maar de EU heeft er wel een handje van om 5+ jaar achter te lopen op de digitale wereld. Dan is het al te laat met het trainen van AI.
Wees blij dat men in ieder geval daar moeite voor doet om de Privacy van de burgers deels te beschermen.
Jawel hoor. We mogen blij zijn Nederlanders te zijn, maar je moet toch ergens over zeuren als je leven zo goed is en niks anders te doen hebt ;)
Zeg. Wie misbruikt de data hier? Geef jij de EU nou de schuld ervan dat data gebruikt gaat worden? Ben benieuwd hoe jij je hieruit gaat kletsen.
Ik snap niet wat je bedoeld. Ik doel meer op dat er best wat vlotter wetten gemaakt mogen worden om dit soort gedrag van tech giganten af te remmen, voordat ze alles van iedereen al gestolen hebben. De digitale wereld evolueert als het waren 10x sneller dan het normale leven, dus dan lijkt het me logisch dat er wat sneller gehandeld moet worden.

Anderzijds, deze AI ontwikkeling is niet te stoppen, het is een natuurlijke technologische ontwikkeling. Maar ik heb liever dat het op een moraal positieve manier gaat :P
Dit nieuws is gesubmit, maar die submit heb ik per ongeluk weggegooid. Mocht je dit nieuwtje ingestuurd hebben: meld je vooral in de comments of in mijn dm's!
Dit is al de tweede keer in 2/3 weken dat ik dit zie. Zit die delete knop naast de archiveerknop ofzo? :+
Voor mensen die, net als ik aan het zoeken waren, hier via de webversie -> https://www.linkedin.com/mypreferences/d/settings/data-for-ai-improvement

Ah, het staat wat onhandig in het artikel. Een speciaal opt out formulier, ik moest hierbij aan een fysiek formulier denken. Dit routeert je ook naar de juiste pagina en kan je dit dus gewoon online doorgeven. :+

[Reactie gewijzigd door Perkouw op 24 september 2025 17:06]

Done.

Fijn dat er een link gepost is. De instellingen van LinkedIn zijn werkelijk een dramatisch oerwoud.

Ik vraag me ook wel af waarom ik het nog heb. Ik vind het een vreselijk facebook-achtig platform met alleen maar dankbare positieve slijmposts.
Ah leuk! Laatst kreeg ik een mail over ToS van Linkedin. Ik dacht zelf al mijn account te hebben verwijderd jaren geleden wat dus schijnbaar niet gebeurd is. Nou wil ik inloggen bij linkin om alsnog mijn account te verwijderen ik heb de site in jaren niet gebruikt, echter nu wanneer ik inlog wilt linked in dat ik mijzelf verifeer door middel van mijn ID. Dat is iets wat ik dus mooi niet ga doen echter heb ik geen idee hoe ik mijn account dan kan verwijderen?
Via de app: instellingen -> gegevensprivacy -> Gegevens voor verbetering van generatieve Al -> uit
Uitgezet bedankt voor het meedenken! 👍
Let op er zin nog een aantal opties die data vergaren oa voor onderzoek, yeah right.
Heb het meeste wel uitgezet onder my preferrences
Ik zal ze nog eens doornemen bedankt!
Via de LinkedIn app de toestemming uitschakelen kan op deze manier;

LinkedIn App > Instellingen > Gegevensprivacy > Gegevens voor verbetering van generatieve AI > vinkje uitzetten
Hoe zit dit dan voor nieuwe gebruikers? Als je nu een account aanmaakt, is opt-out dan geen optie meer? Of is de deadline alleen voor historische content?


Om te kunnen reageren moet je ingelogd zijn