Ierse toezichthouder onderzoekt Google om gebruik data bij training AI-model

De Ierse Data Protection Commission is gestart met een onderzoek naar of Google regels heeft overtreden bij het trainen van zijn taalmodel PaLM 2 op data van Europeanen. Het is onbekend hoe lang het onderzoek zal duren.

Het gaat om een onderzoek over de landsgrenzen heen, zegt de DPC. De Ierse toezichthouder onderzoekt dus of Google data van burgers uit alle EU-lidstaten correct heeft gebruikt bij het trainen van AI en of het een correcte DPIA heeft uitgevoerd. Een DPIA, Data Protection Impact Assessment, is in sommige gevallen verplicht als een bedrijf data gaat gebruiken.

Google heeft nog niet gereageerd op de aankondiging van het onderzoek. DPC heeft niet gezegd hoe lang het gaat duren en tot welke straf een overtreding mogelijk kan leiden. Het onderzoek richt zich op het trainen van het vorig jaar uitgebrachte PaLM 2-model van Google. Onder meer de toenmalige chatbot Bard, intussen Gemini, kwam later uit in Europa omdat de zoekgigant de software in lijn moest brengen met Europese regels. Onder meer X en Meta stopten al met het gebruiken van data van Europeanen voor het trainen van grote AI-modellen.

Door Arnoud Wokke

Redacteur Tweakers

12-09-2024 • 17:36

10

Submitter: wildhagen

Reacties (10)

10
10
10
1
0
0
Wijzig sortering
Deze mening zal wel niet gewaardeerd worden, maar ik zie niet hoe een AI trainen en dingen leren anders is als het leren van kinderen met kinderboeken en goede informatie. Zouden we niet juist trots moeten zijn dat met onze informatie, AI getrained wordt?

Diezelfde AI kan ons weer helpen. Ik denk dat je uiteindelijk blij mag zijn, dat wanneer je oud bent en niet meer voor je zelf kan zorgen dat er dan een robot is die begrijpt wat ie moet doen om je te verzorgen.

Het is jammer dat iedereen geld wil zien voor iedere poep en scheet die ze op het internet zetten. Ja Google, Microsoft, OpenAI, Meta.. Amazon trainen allemaal op data die iedereen vrijelijk openbaar heeft gemaakt, en hopen daar uiteindelijk geld mee te verdienen.

Disclaimer: Deze mening is compleet opensource, iedere AI mag van mij deze post gebruiken om zich te verbeteren in realiteit-zin, ik zal niet nu, en niet in de toekomst geld gaan vragen aan een ieder die zijn AI, of zichzelf hier op trained.
Kinderen die leren worden niet geclassificeerd als een geheel of gedeeltelijk geautomatiseerde verwerking. Dat is in ieder geval juridisch een zeer relevant onderscheid.

Als bedrijven die lesmethoden maken de schoolboeken massaal volstoppen met persoonsgegevens van mensen die daar niet vanaf weten en waarvan de rechtmatigheid op zijn zachtst gezegd in twijfel getrokken kan worden zou ik het ook goed vinden als daar een toezichthouder naar zou kijken.

Ik snap de behoefte om gebruik te maken van een analogie. Maar ik vind het wel wat ver gaan om te ontkennen dat er relevante verschillen zijn tussen een verzameling servers en software die eigendom zijn van een bedrijf en een menselijk kind.
Zouden we niet juist trots moeten zijn dat met onze informatie, AI getrained wordt?
Zou ik daar dan aub zelf voor mogen kiezen in plaats van dat Google voor de zoveelste keer zonder het te vragen of daar geheimzinnig overdoet met gegevens van mij?
Buiten het feit dat het ook nog eens een keer tegen de wet is.
Diezelfde AI kan ons weer helpen
Zoals Google het hele internet volgooit met reclame zeker? Nee dank je.
Ik denk dat je uiteindelijk blij mag zijn, dat wanneer je oud bent en niet meer voor je zelf kan zorgen dat er dan een robot is die begrijpt wat ie moet doen om je te verzorgen.
Je bedoelt een robot die mij verzorgt en om de haverklap reclamefilmpjes dwingt te kijken en luisteren? Zo'n robot? Nee dank je.
Zouden we niet juist trots moeten zijn dat met onze informatie, AI getrained wordt?
Als ik informatie van internet haal (film, muziek) :+ , springt er ook meteen iemand op die geld daarvoor wil zien, waarom is de verwachting als iemand mijn "product" gebruikt anders? Die firma die die data gebruikt maakt daarmee een product, en daarmee wordt naderhand (indirect) geld verdient.

Die robot die voor je zorgt, is dat de vergoeding die we terugrkrijgen voor het gebruik van onze data, of wordt die robot deel van de exploderende zorgkosten?

Daarnaast, is de data van de gemiddelde Europeaan op social media zo interessant dat je daarmee een chatbot wil trainen? Zouden we de ambities niet wat hoger moeten leggen?
Wat is het probleem? Heeft google niet genoeg geld op kas om te betalen voor het gebruik van 100.000 wetenschappelijke boeken om hun AI te trainen? Of van mijn part trainen ze die op een liefdesroman, als dat nuttig is.

[Reactie gewijzigd door rboerdijk op 12 september 2024 21:30]

Het probleem is dat deze tools niet gemaakt zijn om de wereld een betere plek te maken, maar om zo veel mogelijk geld te verdienen.
Zodra ze alle data voor zichzelf hebben, zullen ze hun best doen om het onmogelijk te maken voor anderen om diezelfde informatie te vergaren.
Zodra zij effectief een monopolie hebben en mensen gewend zijn aan het product zullen ze de prijzen verhogen.
Zodra ze merken dat er geen geld meer verdient mee kan worden zullen ze de stekker eruit trekken.
Een paar mensen hebben dan miljarden verdient aan alle informatie en hert werk van de hele wereld en de rest heeft uiteindelijk niks.
De kinderboeken die je aanhaalt worden (hopelijk) ook gewoon betaald. Het is een keuze van de schrijver om een boek te maken en dat te verkopen. Als we onze persoonsgegevens of teksten willen delen met een AI systeem, dan zouden we daarvoor toestemming moeten geven en eventueel een vergoeding krijgen. In de muziek- en filmindustrie wordt dat probleem al lang afgedekt met licenties; je mag muziek luisteren (via de radio) maar niet opslaan (je betaalt daarvoor zelfs een vergoeding als je een harddisk koopt) en wanneer je een liedje van een ander publiek uitvoert (of opneemt en reproduceert) moet daar ook voor betaald worden. Dat is ook de enige manier om te zorgen dat mensen nog nieuwe dingen maken.
Ik zou het toejuichen als dit soort onderzoeken de standaard zouden zijn, al dan niet steekproefsgewijs.

Tijdens zo'n onderzoek kan men nog van alles tegenkomen. Ook zou zo'n onderzoek Google vrij kunnen pleiten. (Tenminste... In theorie dan). Logisch dus dat er verder nog niet zoveel bekend is over looptijd en consequenties.
Google die onrechtmatig gebruikmaakt van data? Nee joh! /sarcasm off
Google zal het wel weer afdoen als "foutje, bedankt"
In beroep, traineren, evt. de boete betalen en door...
Ondertussen zijn de vruchten al geplukt van de (mis)gebruik van de data.
Tegen de tijd dat het onderzoek afgelopen is, is de AI al getraind met data van EU burgers.

Op dit item kan niet meer gereageerd worden.