Meta, Spotify en Ericsson pleiten voor minder en duidelijkere EU-regels voor AI

Een groep bedrijven, waaronder Meta, Spotify en Ericsson, hebben de EU opgeroepen om minder en consistente regels en handhaving in te stellen voor kunstmatige intelligentie. Dat ontbreekt nu, vinden zij.

De bedrijven willen onder meer de data van Europese burgers kunnen gebruiken voor het trainen van AI-modellen, zo blijkt uit de open brief. De regels en het ingrijpen van toezichthouders creëert volgens de tientallen bedrijven, die zijn samengekomen onder aanvoering van Meta, onzekerheid bij bedrijven en daardoor twijfel om AI-diensten aan te bieden.

Zo brengt Meta alleen tekstmodellen uit in Europa en multimodale modellen niet. Ook Apple brengt zijn AI-functies voorlopig niet uit in Europa. Onder meer Meta, Google en LinkedIn gebruiken de data van Europeanen niet voor het trainen van modellen. Google heeft zijn Gemini-diensten zonder problemen uitgebracht in de EU. Ook OpenAI heeft al zijn ChatGPT-producten beschikbaar in Europa.

De bedrijven waarschuwen dat AI-producten in de EU niet zullen uitkomen in de toekomst. "Europa staat voor een keuze die de regio decennialang zal beïnvloeden. Het kan ervoor kiezen om het principe (van) de AVG opnieuw te bevestigen en een moderne interpretatie van de AVG-bepalingen te bieden die nog steeds de onderliggende waarden respecteert, zodat AI-innovatie hier op dezelfde schaal en met dezelfde snelheid gebeurt als elders. Of ze kan doorgaan met het afwijzen van vooruitgang, de ambities van de interne markt tegenspreken en toekijken hoe de rest van de wereld technologieën ontwikkelt waar Europeanen geen toegang toe hebben." De Europese Commissie heeft niet gereageerd op de brief. Eerder zeiden Meta en Spotify al ongeveer hetzelfde in een gezamenlijke verklaring.

Door Arnoud Wokke

Redacteur Tweakers

19-09-2024 • 21:05

67

Reacties (67)

67
66
35
3
0
24
Wijzig sortering
Goh, Meta zit weer het slachtoffer uit te hangen. Ik kan weinig medelijden krijgen met bedrijven die dit soort acties doen. En ik word al helemaal moe van dat argument "Of ze kan doorgaan met het afwijzen van vooruitgang, de ambities van de interne markt tegenspreken en toekijken hoe de rest van de wereld technologieën ontwikkelt waar Europeanen geen toegang toe hebben.". Meta besluit om hun multimodale models niet uit omdat ze niet hun zit krijgen en niet meer zomaar onze data mogen gebruiken voor hun winst zonder blikken of blozen, niet omdat de regels vooruitgang tegenwerken. Als dat zo zou zijn, dan heb ik zelf liever dat deze vooruitgang niet doorgaat, want het is 99% in het voordeel van big tech alleen, en niemand anders.

[Reactie gewijzigd door separhim op 19 september 2024 21:16]

Goh, Meta zit weer het slachtoffer uit te hangen. Ik kan weinig medelijden krijgen met bedrijven die dit soort acties doen
Ja en die actie die je daar linkt, daar gaat het hem nu juist om. Want dat mag hier dus niet.
Ik las deze week een mooie uitspraak dat als een bedrijf hun nieuwe technologie niet in de EU wil of kan uitbrengen vanwege bestaande regels dat dat dan eigenlijk een gigantische rode vlag is omdat de technologie de consument of samenleving schaadt.
Net zoals met elke nieuwe technologie is er ruimte voor misbruik. Het gaat er niet om of het wordt gebruikt, maar hoe. Want in de medische wereld wordt het al ingezet om nieuwe medicijnen te maken en betere diagnoses te stellen. Dus ik vind dit soort paranoia reacties maar virtue signalling.
Ze weten dat politiek veelal draait om compromissen.

Met zo'n stok achter de deur kunnen ze later makkelijker verder wrikken wanneer hun belangen daardoor sterker zijn gegroeid/geworteld, om zo meer concessies of veranderingen in de regelgeving te eisen.
In ondersteun AI als het bv gaat over onderzoek naar nieuwe medicijnen, of het opsporen van vroegtijdige ziektes …
Maar Meta heeft werkelijk niets met wetenschappelijk onderzoek te maken .

AI inzetten voor bv HR taken als het vergelijken van CV’s is voor mij een “big red flag” totaal onethisch en niet te controleren. Lijkt leuk zolang je aan de “goede” kant van de tafel zit, maar het tij kan zomaar keren

Dus een “dikke middenvinger” wat mij betreft voor dit soort bedrijven

[Reactie gewijzigd door klakkie.57th op 19 september 2024 22:56]

Volgens mij gaat veel van dat wetenschappelijke werk sowieso om Machine Learning en niet die Large Language Model meuk die ze iedereen aan proberen te slijten.

Om door middel van Machine Learning signaal in de ruis van genetische data te vinden hoef je niet iedereens Facebook posts op te slurpen. Die twee hebben helemaal niets met elkaar te maken.
Een meta die dergelijke modellen maakt met FB data helpt echter wel mee aan de overall groei van AI en dus ook in de onderzoekswereld. Ik heb mijn afstudeerscriptie gedaan over Machine learning. Geautomatiseerde eiwit herkenning in wetenschappelijke artikelen. Heel veel zaken die hiervoor in de wetenschappelijke wereld worden gebruikt, worden ontwikkelt door grote corporates als Meta.

Zo is netflix bijvoorbeeld een grote pionier geweest in veel devops zaken. Service discovery library eureka komt bij hen vandaan.

Meta heeft dankzij de gigantische berg aan userdata ook goede opensource tooling die het beschikbaar stelt aan iedereen die het wil gebruiken. Datasets voor van alles en nogwat om training mee te doen.

Het klinkt allemaal irritant (en dat is het meestal ook), maar er zit wel een resultaat aan die verder gaat dan alleen “Meta AI”. Heel veel wetenschappelijk onderzoek wordt gewoon met Meta tooling gedaan.
Allemaal leuk en wel maar Meta is allesbehalve een liefdadigheidsinstelling. dus die “tooling” wordt dan wel betaald met de data van de gebruikers.
Als ons wetenschappelijk onderzoek afhankelijk wordt van het werk van dit soort commerciële partijen, moeten we ons dan niet afvragen of de uitkomst van dit onderzoek nog wel onafhankelijk is 🤷🏻‍♂️
Zoals je zelf aangeeft lukt dit zonder Europese data best goed..
Meta is hier al tig jaren mee bezig he? Die wetgeving bestaat pas net. Kan me niet voorstellen dat die data niet al lang en breed in de testsets is verwerkt die men nu gratis kan downloaden.
Ik zie de relatie die wordt gelegd tussen GDPR (AVG) en het open delen van modellen echt helemaal niet. Helaas staat er ook niets concreets in de brief welke 'rulings' of tegenstrijdigheden binnen de GDPR er dan zijn.

Als ze de vinger niet op de zere plek weten te leggen dan hebben we er niets aan en lijkt het mij niets anders dan een rookgordijn optrekken.
Dat ze het trainen van data niet kunnen baseren op het ‘gerechtvaardigd belang’. Maar dus toestemming moeten verkrijgen.
Bovendien is het model dat daaruit voortkomt uiteindelijk enorm complex. Dit komt doordat AI-modellen vaak bestaan uit miljoenen parameters die moeilijk te interpreteren zijn. Hierdoor is het (bijna) onmogelijk om specifieke data of inzichten op een eenvoudige manier uit het model te halen, omdat de logica die de beslissingen stuurt vaak niet transparant is.
De andere discussie is of zo’n generatief model ‘persoonsgegevens’ bevat. Een duitse Privacytoezichthouder zei ‘nee’. Wel in de input & output (beetje kort door de bocht).

En als aanvulling, dat speelde mee in de onderhandeling voor de AI act om de GenAIs aparte verplichtingen op te leggen ipv gelijk te stellen met hoog-risico systemen.

[Reactie gewijzigd door Quintiemero op 19 september 2024 22:21]

Het grootste probleem is dat het mogelijk is om de AI training data te laten ophoesten. En dan kunnen er dus WEL persoonsgegevens lekken. Bijvoorbeeld in dit artikel : https://www.404media.co/g...reveal-its-training-data/
Ik zat dieper te denken, maar wellicht heb je gelijk. Als dat het enige is dan hebben ze echt geen enkel recht van spreken mijns inziens.

Dan is de samenvatting dus "Als we iedereen hun auteursrecht en privacy mogen afpakken dan kunnen we de economie 1% per jaar laten groeien, wie wil dat nou niet?!"
De GDPR is de gebeten hond van de Amerikaanse Big Tech sector, kennelijk beschermt de GDPR een beetje te goed voor ze.

Je ziet het ook met het gezanik over de cookiemuur. Er worden allemaal suggesties gewekt dat een cookiemuur verplicht is (dat is niet zo, alleen als je gebruikersdata deelt met derden) en dat de cookiemuur het gevolg is van de GDPR (dat is niet zo, de verplichte toestemming voordat je data te mag verkopen komt uit de ePrivacy Directive, nog voor de GDPR überhaupt bestond).

Maar, deze bedrijven willen de GDPR ondermijnen dus moet de GDPR de schuld krijgen van van alles dat ze niet aan staat.
Ik ben zelf absoluut blij dat mijn data niet gebruikt word en eerlijk gezegd zit ik nog niet helemaal op de AI trein. Echter hoor ik mijn omgeving toch steeds meer commentaar op de regels en dat wij alles mislopen hierdoor en ook hier kan ik me ook wel ergens in vinden. Ik moet me zelf er ook wel is op betrappen dat ik een AI aankondiging zie en denk, nou dat lijkt me wel leuk. En daar zie: Niet of Voorlopig niet in Europa.

Ik denk toch dat we een betere balans hier in moeten gaan vinden. Nee bedrijven mogen absoluut niet je data gebruiken als je daar geen toestemming voor geeft, maar als je hier wel toestemming voor geeft moet er denk ik wat meer kunnen.

Op het moment dat AI goed genoeg is dat ik zonder een "Oke Google" met een normaal gesprek tegen mijn huis kan praten of mijn huis van alles voor mij doet zonder dat ik hier over na hoef te denken mogen ze al mijn data hebben die ze willen. Als dat de prijs is ben ik bereid die te betalen namelijk.

Ik blijf dit een moeilijk vraagstuk vinden. Te veel en te weinig regels zijn niet goed. Ik denk dat we er nu te veel hebben!
Ik begrijp niet goed welke zaken u tegenkomt. En bij Google heb ik het idee dat die alleen maar slechter geworden is nadat ze met veel geroep AI hadden geïmplementeerd.
Nou bijvoorbeeld de aanpassingen van Siri die voorlopig niet naar de EU komen, zoals te lezen bij de NOS. En Siri slechter maken kan bijna niet, dus dit is wel echt een teleurstelling voor veel mensen.
Best wel slim van die techbedrijven. Dat van Apple ging niet over de AI act maar over de DMA act.

Ze spelen marketing technisch heel slim in op het FOMO gevoel terwijl de feiten gewoon zijn dat als Apple dit uitbrengt ze andere toepassingen waarschijnlijk ook moeten toestaan (bijv. Gemini van Google). Als Meta wilt mee doen met de AI hype hebben ze 2 opties. Betalen voor de training data of ongevraagd persoonlijke informatie van hun users gebruiken. Betalen doen ze niet omdat het 1 vd partijen is geen portfolio hebben waarin ze AI kunnen integreren om zo geld te verdienen. Je ziet Google en Microsoft een andere strategie volgen. Die hoor je veel minder hard roepen (al gaan ze natuurlijk hetzelfde roepen want minder regels is meer beter :p )

Maar toch blijft het FOMO gevoel hangen omdat de media die marketing blijft herhalen en herhalen

[Reactie gewijzigd door Mellow Jack op 20 september 2024 14:19]

Klopt. Google search, Bing en nog een paar.

Vind je echt bijna niet meer wat je daadwerkelijk zoekt.

Bing is nu wel de ergste, want die heeft nu alle AI meuk prominent in het midden en daadwerkelijke resultaten ergens rechts.
Op het moment dat AI goed genoeg is dat ik zonder een "Oke Google" met een normaal gesprek tegen mijn huis kan praten of mijn huis van alles voor mij doet zonder dat ik hier over na hoef te denken mogen ze al mijn data hebben die ze willen.
Nu doe je of het doel van Google het bouwen van fantastische home automation is. Feit is dat Google voor bijna 80% puur AdTech is, dus de werkelijke reden dat ze dit soort producten bouwen zit in het verzamelen van informatie die gebruikt kan worden om jou te beïnvloeden. Dat zal niet altijd in jouw belang zijn en de kosten zijn over de hele maatschappij gezien echt wel een stuk hoger dan jouw privacy.
De bedrijven waarschuwen dat AI-producten in de EU niet zullen uitkomen in de toekomst.
Voor hen staan tien andere bedrijven klaar die wél producten kunnen leveren die aan onze eisen voldoen. Mocht het zo groot worden dat ze hierdoor hun marktaandeel verliezen of dreigen te verliezen, zullen ze snel genoeg stappen ondernemen, omdat het dan opeens wél mogelijk blijkt. Het is simpelweg een kwestie van niet willen in plaats van niet kunnen.
Zoals in het artikel staat hebben bedrijven zoals Google en OpenAI geen enkel probleem om hun modellen in de EU te laten gebruiken. En daarnaast heb je ook Microsoft dat zijn Copilot gewoon aan het uitrollen is.
Bor Coördinator Frontpage Admins / FP Powermod 19 september 2024 21:25
Als ik kijk naar de bedrijven denk ik dat het maar goed is dat de EU streng is op dit vlak. Zowel Meta, Spotify als Ericsson heeft niets met mijn data te doen voor voor het eigen gewin. Het mag wat mij betreft nog behoorlijk strakker.
Van Meta snap ik de vraag omdat die vrij heftig met AI bezig zijn.
Ik vind het vooral curieus waarom Spotify en Ericsson hier achter staan, die zijn absoluut niet op hetzelfde nivo met AI bezig. Misschien omdat investeerders om 'EU' medestanders hebben gevraagd om het verzoek van Meta wat meer legitiem te laten lijken?

[Reactie gewijzigd door bzzzt op 20 september 2024 09:42]

Het is maar goed ook. Waarom mogen zij zomaar alles van ons scrapen zonder toestemming en zonder ervoor te betalen?
En hoe veel denk jij dat de gemiddelde gebruiker betalen voor platforms zoals Instagram, TikTok of X? Juist, zo goed als niks. Dus wel gratis willen genieten van de services, en dan zelfs roepen dat je betaald willen worden voor je data?
Dat is een aanname. Ik geef er de voorkeur aan om te betalen in plaats van mijn gegevens te verkopen. Maar er is geen optie om te betalen om te voorkomen dat mijn gegevens worden gescraped. Bovendien worden mijn gegevens gedwongen gescraped, zonder mijn toestemming en zonder de mogelijkheid om dit tegen te houden, zelfs als ik zou willen betalen om het te voorkomen. Uw argument is daarom irrelevant.

[Reactie gewijzigd door MrFax op 20 september 2024 18:55]

Wij laten ons niet bedreigen. En zeker niet om onze eigen mensen en diensten te laten beconcurreren door taalmodellen. Volgende stap wordt je door Indiërs in slavendienst van Amerikanen in het Nederlands te woord en raad gestaan door een taalmodelrobot. Kan de Europeaan op sociale zekerheid staan en de Amerikaanse inc monsterwinsten aan aandeelhouders uitkeren. AI heb je echt niet nodig hoor.
Of ze kan doorgaan met het afwijzen van vooruitgang, de ambities van de interne markt tegenspreken en toekijken hoe de rest van de wereld technologieën ontwikkelt waar Europeanen geen toegang toe hebben.
Wat een onzin. Als je miljarden investeert in nieuwe technologie dan ga je geen heel continent van honderden miljoenen relatief rijke burgers overslaan als afzetmarkt.

Het wordt nu gewoon tijdelijk weggehouden om druk te zetten. En dat is ook niet zo erg. Dingen komen hier toch altijd later uit. De iPhone kwam hier een jaar later, de iPad 6 maanden, de ECG functie op de iWatch bijna 2 jaar later als ik het me goed herinner. Apple intelligence komt ook wel. En Llama van meta is zelfs open source dus dat kunnen ze niet eens echt tegenhouden.

Bovendien staat zoveel druk op deze markt. Iedereen wil eerste zijn. Dus zodra er een partij europa uitsluit komt er wel een nieuwe die in het gat springt. En dan hebben we onze eigen mistral ook nog.

[Reactie gewijzigd door Llopigat op 19 september 2024 21:41]

Lekker duidelijk, welke vorm van AI gaat het over? De LLM hype?

AI is als crypto, de onderliggende technieken zijn fascinerend, maar de grootste toepassingen gebakken lucht.
Crypto is een oplossing voor een probleem wat niet veel mensen hebben (decentraal betalen), schaalt niet tot het dagelijks betalingsverkeer en heeft als keerzijde dat het mensen aantrekt die minder fraaie bedoelingen hebben.
LLMs hebben daadwerkelijk nut, het automatisch samenvatten, herschrijven, suggesties geven voor tekst laat mensen efficiënter werken. Er zitten uiteraard genoeg nadelen aan maar de techniek is er nu eenmaal en zal waarschijnlijk wel gebruikt blijven worden.
Mag ik dat omdraaien? Hoeveel mensen hebben een 'probleem' met samenvatten/herschrijven/suggesties geven? Hoeveel mensen doen dat soort dingen überhaupt regelmatig voor werk of omdat ze het echt nodig hebben in plaats van voor de lol?

Ik gebruik LLM's dagelijks, maar zie ze op dit moment nog steeds meer als gadget dan een echte tool. De kwaliteit is in mijn ervaring gewoon nog steeds schrikbarend laag. Gegenereerde tekst moet ik altijd voor 80% herschrijven, deels vanwege de domme/stomme fouten en deels vanwege de verschrikkelijke schrijfstijl.

Maar misschien moet ik weer eens een betaalde versie proberen om te zien wat de laatste updates gebracht hebben, een half jaar geleden was het het geld voor mij niet waard.

Maar ik moet wel toegeven dat het geen 1:1 vergelijking is, crypto's zijn idd 100% spelerij enkel met praktisch nut voor duistere zaakjes, maar op dit moment zou ik LLM's en hoe ze gebruikt worden op 80% spelerij zetten.
Nou ja, ik vraag me toch wel af welke zaken van LLM's straks nog overeind staan.

LLM's kunnen niet samenvatten, alleen verkorten. When ChatGPT summarises, it actually does nothing of the kind. AI worse than humans in every way at summarising information, government trial finds

De taalmodellen zitten volgepompt met hele dubieuze data (wie dacht dat het een goed idee was om LLM's te trainen op 4Chan!?). AI generates covertly racist decisions about people based on their dialect. Of om doodleuk de definitie van intelligentie te halen uit een berucht racistisch pamflet uit de jaren negentig. Of om zoveel pseudowetenschappers uit de eugenetica hoek input te geven AGI Researchers Stop Quoting White Supremacists Challenge. The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence. Garbage in is garbage out dus om LLMs te gebruiken om teksten te genereren over onderwerpen waar je zelf niet alles van weet is vragen om problemen. Voor veel mensen hier betekent dat dat een LLM code te laten uitspugen voor een taal of framework dat je zelf niet binnenstebuiten kent een drastische verslechtering van de codebase gaat geven en niemand die je kunt vragen waarom ze destijds deze functie zo hebben vormgegeven.

Ondertussen pompt het het internet vol met troep. Where Facebook's AI Slop Comes From. It Looked Like a Reliable News Site. It Was an A.I. Chop Shop. "Megalopolis" Trailer Pulled After Revelation That Its "Critic Quotes" Were AI-Generated Fakes.

Ondertussen staat het energie- en waterverbruik niet in verhouding tot de matige output. A bottle of water per email: the hidden environmental costs of using AI chatbots. A.I. tools fueled a 34% spike in Microsoft’s water consumption, and one city with its data centers is concerned about the effect on residential supply.

Tot slot lijkt het voorlopig die beloofde productiviteitsgroei niet waar te maken. Het zijn managers die denken dat productiviteit omhoog zal gaan terwijl het personeel dat er mee moet werken een achteruitgang denkt te zien. From Burnout to Balance: AI-Enhanced Work Models. The Subprime AI Crisis. En bedrijven beginnen dat te merken. AI is effectively ‘useless’—and it’s created a ‘fake it till you make it’ bubble that could end in disaster, veteran market watcher warns. Disillusioned Businesses Discovering That AI Kind of Sucks. Study Finds Consumers Are Actively Turned Off by Products That Use AI. Big Tech Fails to Convince Wall Street That AI Is Paying Off.

Ik vind het nog moeilijk om te zeggen welke delen van LLM's over vijf jaar nog in gebruik zijn maar ik verwacht dat het een stuk minder gemeengoed is dan wat sommige mensen roepen.

[Reactie gewijzigd door Maurits van Baerle op 20 september 2024 11:19]

Je snapt dat dit nieuwe techniek is ? Als je bijvoorbeeld kijkt na een mobiele telefoon ontwikkeling in 20 jaar tijd, aardig ontwikkeld. Als je het ai model vraagt voor een html canvas snakegame, je die ook krijgt. Dus over 5 a 10 jaar krijg je dat ook met alle code, de developer zoals we die nu kennen wordt minder waard, want met de ai kan je dat ook bereiken. Dus dankzij opensource kun je straks elk scherm / process door ai laten omschrijven. Als je het dan werkend hebt zou je het kunnen laten toetsen door een developer, maarja dan weer 10 jaar verder en dat zal dan ook wel klaar zijn.
Is dit de fake it till u make it houding waar Maurits over sprak?

Op dit item kan niet meer gereageerd worden.