Europese AI-verordening is ingegaan

De Europese AI-verordening is van kracht. De wet die het gebruik van kunstmatige intelligentie moet reguleren gaat per 1 augustus in, maar er is wel een overgangsperiode van twee jaar waarin bedrijven en overheden aan de regels moeten voldoen.

De AI-verordening, of Verordening 2024/1689, werd in mei door de Raad van Europa aangenomen aangenomen en is per 1 augustus actief. De AI-verordening is vergelijkbaar met andere Europese techwetten zoals de AVG, maar is bedoeld om kunstmatige-intelligentiemodellen te reguleren. De wet maakt onderscheid in verschillende risicocategorieën voor AI waarbij modellen alleen onder bepaalde omstandigheden mogen worden ingezet. De voorwaarden waaraan die systemen moeten voldoen, verschillen ook per categorie.

Zowel bedrijven als overheden moeten zich aan die voorwaarden houden. Daar wordt toezicht op gehouden door een nationale toezichthouder. Lidstaten moeten zelf zo'n toezichthouder opzetten, waar de komende twee jaar voor zijn bedoeld. In Nederland komt het toezicht waarschijnlijk te vallen onder de Autoriteit Persoonsgegevens, met bijvoorbeeld een aparte toezichtafdeling. De AP schreef eerder samen met de Rijksinspectie Digitale Infrastructuur een aanbeveling dat het AI-toezicht daar komt te liggen, al heeft de toezichthouder dan wel veel meer geld nodig.

Net als onder de AVG kan een bedrijf hoge boetes krijgen als het niet voldoet aan de AI-verordening. Die zijn zelfs hoger; de maximale boete ligt op maximaal 35 miljoen euro of zeven procent van de jaaromzet van een bedrijf.

Door Tijs Hofmans

Nieuwscoördinator

01-08-2024 • 07:25

74

Lees meer

Reacties (74)

74
72
32
3
0
29
Wijzig sortering
@TijsZonderH: Het zou interessant zijn om wat meer te duiden wat "ingegaan" nou eigenlijk betekend. Het betekend bijvoorbeeld niet dat er vanaf nu volgens de AI-Act gewerkt word of dat er op gehandhaafd word.

Dingen die in ieder geval nog moeten gebeuren voordat hij echt effect heeft:
  • Toezichthouder aanwijzen: zoals gezegd in het artikel is nog niet duidelijk wie de coördinerende toezichthouder is en hoe het stelsel van toezicht in NL moet gaan werken. Bijvoorbeeld, de AP kan kennis hebben over AI in technische zin, maar als het toegepast wordt in de landbouw is ook domeinexpertise nodig om de impact te bepalen. Gaat de NVWA dat dan doen of moet de AP zelf die kennis gaan krijgen?
  • Vaststellen normering: Het is nog niet duidelijk wanneer je aan de verschillende eisen in de AI-Act voldoet. BV: in de AI-Act staat dat je een "risico management systeem" moet hebben voor hoog-risico AI-Systemen. Maar wat is dat dan? Waar moet dat systeem aan voldoen? Daar is nog geen duidelijk over, dus hebben organisaties dit nog niet opgenomen in hun bedrijfsvoering.
  • Er zijn onderdelen van de AI-Act die pas de komende 3 jaar actief worden. Zo wordt de AI-Act volgend jaar van toepassing op general purpose AI, en over 2 jaar op AI-Systemen incl. annex 3. (zie bv https://www.alexanderthamm.com/en/blog/eu-ai-act-timeline/ voor een makkelijk overzicht.)
Er is dus nog wel wat te nuanceren op basis van deze titel ;).

[Reactie gewijzigd door Electrowolf op 1 augustus 2024 13:53]

De wet is wel ingegaan. Wanneer welk deel van de wet actief wordt is onderdeel van die wet:
This Regulation shall enter into force on the twentieth day following that of its publication in the Official Journal of the European Union.
It shall apply from 2 August 2026.
However:
(a)
Chapters I and II shall apply from 2 February 2025;
(b)
Chapter III Section 4, Chapter V, Chapter VII and Chapter XII and Article 78 shall apply from 2 August 2025, with the exception of Article 101;
(c)
Article 6(1) and the corresponding obligations in this Regulation shall apply from 2 August 2027.
This Regulation shall be binding in its entirety and directly applicable in all Member States.
Done at Brussels, 13 June 2024.
Het klopt dat hij officieel is "ingegaan".

Wat ik bedoel met nuanceren is dat "ingegaan" over het algemeen geïnterpreteerd wordt dat hij van kracht/in effect is en dat iedereen zich aan alles wat er in staat moet houden. Die interpretatie klopt in de praktijk niet omdat er nog dingen gedaan moeten worden voordat hij effectief werkt.

De tijdslijn dingen zijn precies wat je mooi quote uit de AI-Act, maar er zijn ook nog wat praktische aspecten die effect hebben op de werking van de AI-Act ;).
https://www.digitaleoverh...jn-volgend-jaar-verboden/
Vanaf februari 2025 moet het allemaal in werking gaan treden. De AP was al toezichthouder: https://www.autoriteitper...ie-toezicht-algoritmes-ai

Helaas hebben zij het nogal druk en zijn er nog geen concrete handvatten voor toezicht (komen later dit jaar pas)

[Reactie gewijzigd door Ac0 op 2 augustus 2024 11:56]

Electrowolf Moderator Aboforum @Ac02 augustus 2024 12:56
Ja en nee.

Verboden: dat gaat dus over hoofdstuk 1 en 2 in 2025, effectief alleen de general purpose AI. Het gaat daarbij dus niet over de andere categorieën (zie reactie van svenk91 svenk91 in 'Europese AI-verordening is ingegaan').

Rol AP: Als we de bijbehorende kamerbrief pakken (https://www.rijksoverheid...atie-algoritmes-bij-de-ap) zien we dat DCA bij de AP coördinerend is voor nationaal toezicht en initiatieven (zoals het nationale algoritmeregister). Voor zo ver ik weet loopt de discussie nog wie in het kader van de AI-Act (Europees) het beste de rol coördinerend toezichthouder krijgt. Dit hangt ook samen met de Nederlandse implementatiewet van de AI-Act die nog naar de Kamer moet.

Daarnaast is nog veel ruimte om te discussiëren over hoe veel impact een dergelijke rol bij de AP op de werking van de overheid gaat hebben. De verschillende auditors kijken ook naar verantwoord gebruik van AI en algoritme en rapporteren hierover. Een daarvan is een Hoog College van Staat (Algemene Rekenkamer) en kan daarmee meer gezag toebedeeld krijgen dan een AP.

Het maakt het in ieder geval allemaal niet makkelijker om grip te krijgen hoe het nou allemaal samenhangt :P.
Heeft iemand een idee wat de lange termijn effecten hiervan kunnen zijn? Ik kan me goed voorstellen dat andere landen een grote voorsprong krijgen op gebieden zoals wetenschappelijk onderzoek, economie en automatisering, vooral omdat ze geen rekening hoeven te houden met de privacy van hun burgers.

Zelf denk ik dat bedrijven zoals Apple de EU niet zullen negeren, omdat het een te grote economische markt is, vooral nu ze veel gebruikers in China verliezen.
Of juist dat de EU een voorsprong krijgt op andere landen omdat hier AI-Systemen worden ontwikkeld die positievere effecten hebben op een maatschappij.

Waar het in China meer gaat om controle en toezicht, in de VS om geld verdienen, worden AI-Systemen op basis van andere KPI's ontwikkeld. Dit zou vervolgens een exportproduct kunnen worden naar andere plekken waar deze aanpak ook gewaardeerd wordt. Hiermee kan het gaan lijken op het Brussels-effect dat je ook zag bij de GDPR/AVG (dat andere landen buiten de EU effectief de GDPR/AVG overnemen).

Daarnaast zijn er nu al veel overheden druk bezig om straks te voldoen aan de AI-Act. Op dit moment kan je daar van buiten nog weinig van zien, maar er zal over een paar jaar een stuk meer inzicht in en overzicht van AI-Systemen zijn bij (Nederlandse) overheden. Als een toezichthouder (zoals een audit dienst) dan langs komt om te kijken hoe er met AI-Systemen wordt omgegaan valt er dan daadwerkelijk wat nuttigs te zeggen over hoe ze het doen.

Een ander ding dat nog mee kan spelen is de kern van de AI-Act: het is een harmonisatiewet. Dat wil zeggen dat het er voor zorgt dat in de hele EU de zelfde regels gelden voor AI-Systemen, we "harmoniseren onze wetgevingen" (tja, die term heb ik ook niet bedacht... :P). Daardoor hoeft een bedrijf niet voor elk EU land los uit te gaan zoeken hoe het moet voldoen aan de wetgeving. Als je in een EU land aan de wetgeving voldoet, kan je je product in de hele EU gebruiken. Zo kan de AI-Act het gebruik (en verkoop) van AI-systemen juist makkelijker maken.

Maar we gaan het zien...

[Reactie gewijzigd door Electrowolf op 1 augustus 2024 10:10]

Op korte termijn zullen bedrijven de EU even links laten liggen bij het uitrollen bij bepaalde AI toepassingen.
De wetenschap zal er geen last van hebben. De wetenschap wil un-biased onderzoek doen en zal van nature al aan de nieuwe wet willen voldoen.
In economie en automatisering zal er misschien even een achterstand ontstaan, maar uiteindelijk is de kans groot dat bedrijven gewoon standaard aan de Europese wetgeving gaan voldoen. De hele wereld kan dan meeprofiteren van de Europese regels. De AI industrie heeft er ook zelf baat bij, want de wet zorgt ervoor dat de AI-toepassingen uiteindelijk van een betere kwaliteit worden.
De wetenschap zal er geen last van hebben. De wetenschap wil un-biased onderzoek doen en zal van nature al aan de nieuwe wet willen voldoen.
Academia was en is niet de grootste bron van vooruitgang binnen machine learning. De meeste papers en de beste papers komen over het algemeen niet van universiteiten, maar bijvoorbeeld van Microsoft Research, Facebook AI Research, Google DeepMind, of Google Brain. Wanneer een universiteit betrokken is, is een groot tech bedrijf vaak ook betrokken. Sinds de LLM-hype is de industrie minder open over de beste ideeën, maar zeker niet minder aan het onderzoeken.

Uiteindelijk gaat machine learning over een machine laten leren van voorbeelden. Rekenkracht en data zijn hier niet van los te trekken en de industrie is daarom in een veel betere positie om onderzoek te doen.

Het veel genoemde argument dat de wetenschap wel op kleinere schaal onderzoek kan doen is verleidelijk, maar statistiek is preciezer en duidelijker op grotere schaal. Bovendien kan de industrie dezelfde ideeën op kleinere schaal veel sneller verifiëren en daarna bij potentie meteen doorgaan naar de grotere schaal. Industrie en academia hebben uiteindelijk ook precies dezelfde doelen voor ogen: een model dat zoveel mogelijk leert van zo min mogelijk data en zo min mogelijk rekenkracht gebruikt tijdens dit proces.
Het ontwikkelen van AI in een zeer rudimentaire vorm komt van een aantal universiteiten, maar de verdere ontwikkeling is door de commerciële bedrijven overgenomen. Dit staat eigenlijk los van het feit of universiteiten last zullen hebben van de nieuwe wetgeving.

Universiteiten zullen nu gewoon AI toepassingen inkopen en deels zelf ontwikkelen. Bij de eigen ontwikkeling hebben ze nauwelijks last van de nieuwe wetgeving, omdat een goed uitgevoerd onderzoek daar in principe al aan hoort te voldoen. In specifieke gevallen kan een onderzoek domweg niet aan de wet voldoen, maar dan heeft men ook nu al de expliciete toestemming van betrokkenen om hun privacy gevoelige data te gebruiken.
De langetermijneffecten zullen wel meevallen. De AI act grijpt alleen in op hoogrisico-applicaties, dat zijn er niet zoveel. Voor het overige legt het eigenlijk gewoon minimale standaarden op qua transparantie en documentatie. Bovendien zijn er heel wat uitzonderingen ingebouwd voor interne ontwikkeling, research en development, wetenschappelijk onderzoek, defensie, authenticatie en veiligheidstoepassingen, ...

Issues met betrekking tot privacy of copyright vallen onder andere wetten die al veel langer gelden, eventuele nadelige aspecten daarvan zijn allang gebeurd of gaande, en de AI Act voegt op die vlakken eigenlijk nauwelijks iets toe.

Het enige grote competitief nadeel lijkt mij de nog in te vullen details van de Act. Op verschillende plekken staat dat het AI Office bepaalde dingen zal uitwerken, terwijl dat office nog in de steigers staat. Bovendien geeft de Commissie zichzelf het recht om sommige vereisten later te amenderen op basis van toekomstige ontwikkelingen. Dat is weliswaar flexibel, maar lijkt me in de praktijk toch voor nogal wat onzekerheid te kunnen zorgen.
Ja, we gaan achterlopen, en ja, we gaan erop vooruitlopen. Het één sluit het ander niet uit in dit geval.

Als de VS en China deze restricties niet heeft hebben zij de mogelijkheid om ongebreideld met AI te experimenteren zonder rekening te houden met rechten en vrijheden van burgers.

Dergelijke wetgeving, netzoals de AVG kan meer impact hebben op kleine bedrijven omdat in verhouding de kosten om compliant te zijn veel hoger liggen. Kleinere bedrijven zullen dan minder snel geneigd zijn om AI toe te passen. IMO moet de EU specifiek naar de impact op MKB kijken, en die ondersteunen zodat ze de race niet mislopen.

Op de langere termijn zal het kunnen leiden tot juist meer vooruitgang, meer vertrouwen en meer veiligheid . Kwaliteit en hogere etische standaarden maken een product op veel andere vlakken beter.

Daarnaast is de kans groot dat EU regelgeving wereldwijd naar beneden druppelt, zo word de AVG door veel bedrijven ook toegepast op andere regio's, zeker als privacy een selling point is of onderdeel van hun merkidentiteit.
Dat is nu ook al. VS en China lopen ver voor op Europa omdat ze gewoon doen wat ze willen.
Heeft iemand een idee wat de lange termijn effecten hiervan kunnen zijn?
Aangenomen dat hetzelfde gebeurd als bij de privacy-wetgeving, dan duiken de toezichthouders slechts op en paar grote spelers, die grote boetes krijgen en wat dingen moeten aanpassen, terwijl de rest van de markt er niks van merkt.
Ik kan me goed voorstellen dat andere landen een grote voorsprong krijgen op gebieden zoals wetenschappelijk onderzoek, economie en automatisering, vooral omdat ze geen rekening hoeven te houden met de privacy van hun burgers.
In de EU hebben we allang een grote achterstand opgelopen, en dat heeft allerlei oorzaken. Ik denk niet dat dit het significant slechter maakt, maar ook niet beter. En we moeten de achterstand eigenlijk gaan inhalen, want anders is het risico groot dat we steeds verder afzakken ten opzichte van de VS en China.
Het is maar wat je een achterstand noemt.
De eerste AI ontwikkelingen komen juist van universiteiten uit Europa (met name Nederland en België). In Amerika zijn vooral de taalmodellen verder uit ontwikkeld. Die hebben AI de grote vlucht gegeven die we nu zien. Meer rudimentaire vormen van AI worden al meer dan 20 jaar in de wetenschap gebruikt. In het begin werden dan nog zelflerende algoritmes en modellen genoemd. Die ontwikkeling gaat gewoon door.

Aan de andere kant kan je ook stellen dat Europa nu een grote voorsprong neemt. AI die getraind wordt met privacy gevoelige gegevens gaat die gegevens op den duur ook gebruiken. Een aantal van die gegevens zijn juist heel discriminerend. Ik bedoel het eigenlijk in wiskundige zin, maar ook de andere betekenis gaat hier op. Je krijgt dan fouten zoals bij de belastingdienst, waarbij mensen met een bepaalde achtergrond en inkomen boven gemiddeld werden gecontroleerd, terwijl rijke mensen met een Nederlandse achternaam naar hartelust konden frauderen. De AI beschouwde die combinatie immers als betrouwbaar.

De AVG is inmiddels breed geaccepteerd, al proberen een aantal bedrijven wel de randjes te verkennen of wat op te rekken, maar dat kan je zien als bekende kat en muis spel. Met AI zal dat vermoedelijk nog sneller zo zijn.
De AI beschouwde die combinatie immers als betrouwbaar.
Dit is helemaal niet waar, want er werd bij de belastingdienst helemaal geen AI ingezet. Dit is ook het grote probleem in de discussie. Van alles en nog wat wordt maar AI genoemd, terwijl dat helemaal niet zo is.
De AVG is inmiddels breed geaccepteerd, al proberen een aantal bedrijven wel de randjes te verkennen of wat op te rekken, maar dat kan je zien als bekende kat en muis spel.
De AVG wordt massaal overtreden. Jouw optimistische kijk erop is totaal absurd.
Aan de andere kant kan je ook stellen dat Europa nu een grote voorsprong neemt. AI die getraind wordt met privacy gevoelige gegevens gaat die gegevens op den duur ook gebruiken.
Tsja, dit is in de categorie: we hebben een voorsprong omdat we achterlopen. Puur Luddisme.
De belastingdienst gebruikte een algoritme wat zelfstandig leerde van de input. Dat mag je dus AI noemen. Probleem is dat ze het algoritme trainde met een dataset van bekende fraudeurs uit een aantal wijken. Fraudeurs is overigens niet correct, er zaten ook een aantal gevallen tussen waarbij de belastingpapieren niet juist waren ingevuld door onvoldoende begrip. De rijke Nederlander zat niet in de set die voor de training is gebruikt, evenmin als minder rijke inwoners van buitenlandse origine die de belastingpapieren wel goed invulden.

De AGV wordt inderdaad nog veel overtreden. Acceptatie en overtreden zijn niet helemaal aan elkaar gekoppeld. De verkeersregels worden ook breed geaccepteerd, maar ook die worden massaal overtreden. Bijna iedereen zet de cruisecontrol liever iets boven de maximale snelheid, maar we accepteren de max. snelheid wel, al zijn we er niet altijd mee eens.
Heeft iemand een idee wat de lange termijn effecten hiervan kunnen zijn? Ik kan me goed voorstellen dat andere landen een grote voorsprong krijgen op gebieden zoals wetenschappelijk onderzoek, economie en automatisering, vooral omdat ze geen rekening hoeven te houden met de privacy van hun burgers.
Bij deze een samenvatting:
https://ec.social-network...ission/112886250482740387

TL;DR Het is nu verboden om mensen te misleiden met AI. Je moet weten dat je met een chatbot praat of dat een afbeelding gegenereerd is. Dit is meestal al het geval. Alleen bij kwade bedoelingen niet.

Voor de rest krijgen vooral systemen die potentieel gevaarlijk kunnen zijn (denk aan bijv. toeslagenaffaire) strengere eisen.

Al met al lijkt het me niet dat het innovatie in de weg zit. Alleen verkeerde innovaties die we toch niet willen.

[Reactie gewijzigd door Wolfos op 1 augustus 2024 14:57]

Benieuwd hoe dit gaat aflopen. AP heeft het al veel te druk en ook hier aangegeven, en krijgt er nu nog een flinke taak bij. Ik ben erg blij dat een verordening is getroffen, maar ik vraag mij sterk af tot in hoeverre het controleren gaat gebeuren. Als ik even een simpel voorbeeld pak zoals de cookiebanner, dan is dit in de meeste gevallen ook niet zoals hoe het hoort te zijn. Daarnaast hangen er bij steeds meer individuen mooie "smart" deurbellen bij de voordeur welke vrolijk de rest van de buurt 24/7 filmen.
Wat betreft die deurbellen, de AI-verordening verbiedt ook het gebruik van AI voor ongericht scrapen van internet of CCTV-beelden voor gezichtsopnamen om databanken op te bouwen of uit te breiden.
Tsja, het is fijn dat het de verordening dat verbiedt, maar hoe streng zal daar op gecontroleerd worden, als vrolijk overal te pas en te onpas camera's en deurbellen worden opgehangen? Dat maakt me daarnaast ook benieuwd wanneer het onder gericht danwel ongericht scrapen valt.
Precies. Niet dus, we hebben het over duizenden, misschien wel miljoenen camera's alleen al in NL en dat weten ze zelf natuurlijk ook wel. En als ieder land dat zelf moet gaan regelen, dan weet je ook al genoeg.

[Reactie gewijzigd door vgroenewold op 1 augustus 2024 09:04]

En altijd nog de vraag: hoe gaat de overheid hier zelf mee om? Geeft dit ook mogelijkheden als een ander onderdeel van de overheid dit toch verkeerd doet? In het recente verleden (afgelopen weken) lukt het waakhonden van de overheid zelf al niet om andere departementen naar ander gedrag te krijgen (op de radio was het informeren van mensen die afgeluister zijn even een onderwerp, dat moet wel van de wet en het gebeurt niet en ze gaan het ook niet doen).

Aangezien de overheid zelf waarschijnlijk de grootste exploiteur van cameras en data is.

Op psychologisch niveau zou ik al stellen: De beloning is zo groot, die wordt wel gepakt. Nog los van dat als de de grote beloning pakt je het gewoon voor het zeggen hebt. Op alle beloningsniveaus zit wat.

Ik had een wat doordachtere reactie verwacht dan een boete. De overheid doet mensen tenslotte al eeuwen. Je zou zeggen dat ze enige voorbeelden hebben van hoe mensen reageren...
Volgens de letter van de wet mogen die vaste camera's inderdaad niet de openbare weg filmen. Maar... Je mág wél de openbare weg filmen, alleen dus niet met een vaste camera, maar dus wel met een mobiele camera.

Wanneer je je dus op de openbare weg begeeft, is er sowieso niet echt sprake van privacy: je kunt tenslotte door iedereen gefilmd worden en dat mag ook gewoon. Ik vermoed dat er daarom een soort niet officieel gedoogbeleid is. De AP heeft het druk genoeg met échte privacyschendingen en datalekken.
Ik vermoed dat er daarom een soort niet officieel gedoogbeleid is.
Het gaat wel iets verder dan gedoogbeleid. Je kunt je beveiligingscamera's aanmelden bij de politie en die zullen ook komen vragen om opnames als er iets in de straat aan de hand is geweest.
Doordat de camera's geregistreerd staan zou de impressie kunnen ontstaan dat de camera's correct geïnstalleerd zijn en 'toevallig' ook de openbare weg filmen terwijl iedereen wel weet dat dat in veel gevallen niet zo is en ook niet gecontroleerd wordt.

Het is overduidelijk dat die privacywetgeving en het overal gefilmd kunnen worden elkaar op punten tegenspreken en het privacy aspect blijft een probleem zolang niet duidelijk is wat er met de beelden gebeurd. Er is namelijk geen enkele garantie dat de opnames van een 'bewakingscamera' bijv. niet op Youtube verschijnen in een fail-compilation of in een dossier worden opgenomen van een justitieel onderzoek dat jaren loopt.
De AP heeft het druk genoeg met échte privacyschendingen en datalekken.
En dat is het zoveelste teken dat aangeeft dat overheidsinstellingen qua wetgevingen en werkzaamheden steeds achter de feiten aanlopen en/of verkeerd inschatten wat de effecten zijn van moderne ontwikkelingen en daarmee ook de tegenstrijdigheid creëert in het aan de ene kant willen beschermen maar aan de andere kant die bescherming overboord willen gooien als de omstandigheden er naar zijn.
Je kunt je beveiligingscamera's aanmelden bij de politie en die zullen ook komen vragen om opnames als er iets in de straat aan de hand is geweest. Doordat de camera's geregistreerd staan zou de impressie kunnen ontstaan dat de camera's correct geïnstalleerd zijn en 'toevallig' ook de openbare weg filmen terwijl iedereen wel weet dat dat in veel gevallen niet zo is en ook niet gecontroleerd wordt.
Dat kan (en is in veel gevallen ook waar), maar hoeft niet natuurlijk. Ik heb zelf ook een slimme deurbel én een beveiligingscamera die mijn oprit filmt, maar door de plek van mijn voordeur en oprit ten opzichte van de openbare weg, film ik niet de openbare weg. Enkel een klein stukje van de oprit van mijn buurman (en die heeft toestemming gegeven om dit te filmen. Sterker nog, hij is er blij mee. Scheelt hem een dure camera kopen).

Prakijk:
Er is ooit een oudere dementerende man uit de buurt verdwaald en die bleek door mijn straat gelopen te zijn. De politie is toen langsgeweest voor mijn camerabeelden, maar daar was, zoals verwacht, niets op te zien (de man is later die dag gevonden overigens, 12km van zijn huis. Alzheimer is een ellendige ziekte).

Kortom, je hebt gelijk hoor, veel slimme bellen en camera's filmen (onnodig) de openbare weg, maar zeker niet allemaal. Ik vind privacy ook heel erg belangrijk, maar tegelijkertijd ben ik bereid daar wat van op te geven als dat mijn leven (en dat van anderen) veiliger maakt. Waar je dan de grens trekt is gewoon heel erg lastig.
Wellicht kunnen ze AI gebruiken...
Ze hebben al een algoritme om datalekmeldingen automatisch in te schalen op ernst dus dat is helemaal geen raar idee.
AuteurTijsZonderH Nieuwscoördinator @BoerBart1 augustus 2024 08:30
Zondag verschijnt er een interview met Aleid Wolfsen op de site waarin ik dit aanstip. Tl;dr: hij verwacht dat er dit jaar veel meer geld beschikbaar komt, maar dat horen we al vijf jaar.
Ik zou er met dit kabinet toch niet echt op rekenen, eerlijk gezegd.
Ik ben vooral benieuwd hoe Apple hier op gaat reageren. De getoonde AI in iOS zag er tijdens de WWDC echt fantastisch uit. Beter dan al die losse initiatieven die je overal ziet. Maar Apple's keuze om het eerst alleen in Engels en vervolgens ook niet in de EU te releasen was me een doorn in het oog.
Ben benieuwd of deze verordening duidelijkheid schept voor partijen om die keuze te heroverwegen.

Wat ik in het artikel wel mis is een tl;dr samenvatting van de verordening. Gemiste kans Tweakers.
Maar Apple's keuze om het eerst alleen in Engels en vervolgens ook niet in de EU te releasen was me een doorn in het oog.
Het komt ook naar de EU, alleen niet meteen. Dit is voor Apple niks bijzonders. Zie de Vision Pro die je nog steeds niet eens kan kopen in Nederland. De iPhone en iPad kwamen ook eerst in Amerika uit. Siri kwam ook eerst in het Engels. Wat je hier noemt aan de talen zal gewoon een veel belangrijkere reden zijn om te wachten. Het kost gewoon veel tijd een model te finetunen voor elke taal.

Let wel dat Apple ook helemaal niet met een vingertje naar deze verordening heeft gewezen als excuus, dat deed Meta wel en we weten allemaal dat die minder om privacy geven. Dus die hebben zich ook meer zorgen te maken.

Bovendien gaat de verordening veel meer over het gebruik van de modellen. Om te zorgen dat een model bijvoorbeeld niet wordt ingezet in een situatie waarbij het kan discrimineren voor bijvoorbeeld controles of sociale scoring systemen (denk aan wat China doet).

Het zal net zo gaan als met de GDPR, dingen komen hier wat later maar wel eerlijker en zorgvuldiger.

We hebben met Mistral ook best een behoorlijk grote speler op AI gebied in de EU zelf trouwens. Die wordt hier toch ook niet echt door afgeschrikt. Natuurlijk komt de ontwikkeling vooral vanuit Amerika maar dat komt meer doordat daar meer durfkapitaal beschikbaar is en dat heeft meer culturele redenen.

[Reactie gewijzigd door Llopigat op 1 augustus 2024 08:13]

Vision Pro, net als de Apple Watch en HomePod, is net wel iets anders dan een major feature in iOS. En dat terwijl AI met LLM in vrijwel alle talen werkt. Ik vind die keuze dus opmerkelijk. Dat was overigens net als met Siri, die toen alleen in Engels werkte. Maar die draaide niet op LLM's.
Vision Pro, net als de Apple Watch en HomePod, is net wel iets anders dan een major feature in iOS.
Ik vind dat helemaal niet iets anders. Het is een nieuw produkt. Het komt echt wel, alleen je zal er even op moeten wachten. Zonder deze wet was dat niet anders geweest.
En dat terwijl AI met LLM in vrijwel alle talen werkt.
Juist niet! Het kost veel tijd om die modellen te finetunen voor elke taal en genoeg trainingdata te verzamelen. Bijvoorbeeld Facebook's Llama model ondersteunt officieel ook geen Nederlands, ondanks dat het wel een beetje werkt. Maar de performance is veel minder omdat er veel minder training data voor is en je ziet dat hij dan regelmatig terugvalt op Engels. Er zijn zelfs nog zeer weinig kleine modellen (<10 miljard parameters) die je lokaal kan draaien en Nederlands officieel ondersteunen. Ik heb hier lokaal veel van die modellen geprobeerd (llama3/3.1, gemma2, phi3, mistral enz) en Nederlands is bij allemaal vooralsnog ondermaats. Zelfs Brits Engels is al een stuk minder dan Amerikaans Engels.

Met hele grote modellen als ChatGPT is dat minder een probleem, maar Apple focust hier vooral op lokaal draaiende AI modellen. Het kan wel ChatGPT gebruiken maar dan moet je elke keer toestemming geven.

Apple is gewoon wat zorgvuldiger met invoering en die willen eerst zorgen dat het goed werkt voordat ze het op de markt gooien. Dat doen ze altijd, en zelfs toen ging het wel eens mis zoals met Apple Maps dat een drama was in het begin. Daar hebben ze ook van geleerd.

[Reactie gewijzigd door Llopigat op 1 augustus 2024 08:23]

Vision Pro, net als de Apple Watch en HomePod, is net wel iets anders dan een major feature in iOS.
Die producten moeten allemaal aan de lokale wetgeving voldoen, en het kost tijd (en dus geld) om dat te regelen. In dat opzicht is er dus geen verschil.
Klein beetje goed nieuws: Apple Intelligence komt wél naar de Mac in de EU, alleen nog niet naar de iPhone en iPad. De enige beperking is dat je je Mac moet instellen op Engels (VS) en regio Verenigde Staten.

[Reactie gewijzigd door SoldierOfOrange op 1 augustus 2024 07:49]

Helaas. Hiermee geef je aan dat je niet in de eu bent en ga je akkoord met de voorwaarden voor die regio.

Simpeler uitgelegd ben je voor Apple een Amerikaan die op vakantie in een ander land is.
Nou, niet echt. Je Apple-account blijft gewoon Nederlands.
De enige beperking is dat je je Mac moet instellen op Engels (VS) en regio Verenigde Staten.
Dat betekent dus dat het niet naar de EU komt en dat je moet liegen dat je in de VS zit. :+
Weet je waarom dat is?
BNR had er een kort nieuwsstukje over op de radio, het had volgens BNR te maken met wetgeving hier [in Nederland en Europa].

[Reactie gewijzigd door Siaon op 1 augustus 2024 09:06]

Wat ik in het artikel wel mis is een tl;dr samenvatting van de verordening. Gemiste kans Tweakers.
Heel lullig: die kun je genereren met AI :+

[Reactie gewijzigd door StackMySwitchUp op 1 augustus 2024 07:50]

De kans is klein dat Apple Intelligence (AI) naar de EU gaat komen, helemaal als de EU straks met een DMA boete gaat komen.
In de tekst staat Raad van Europa, dit moet Raad van de Europese Unie zijn. Daar zit wel een wezenlijk verschil tussen, daar de laatste een orgaan is van de Europese Unie, is de Raad van Europa dat niet.
Zijn dat het soort wetten die cookie walls veroorzaken en ervoor zorgen dat ik in google search geen google maps resultaten meer mag krijgen?
Oh is dat de reden dat dat tegenwoordig zo irritant is, en waarom het op vakantie in de VS wel gewoon werkte? Ik moet zeggen dat ik het een beetje snap, maar het is gewoon echt onhandig dat je niet meer google maps direct kan bekijken vanuit google zoekresultaten.
Is er bekend welke modellen verboden of gereguleerd/getempt gaan worden? Ik gebruik GPT-4o en Claude 3.5 Sonnet dagelijks tijdens web development en heb in 1 jaar tijd meer voor elkaar gekregen dan de afgelopen 10. Als ik hier toegang tot verlies zou dat op zijn lichtst gezegd, jammer, zijn.
VPN en je kan weer door. Dus zou mij daar nu zeker niet druk om maken en lekker doorgaan zoals je nu doet.

[Reactie gewijzigd door ASNNetworks op 1 augustus 2024 10:16]

Eigenlijk veel te laat.

De EU had een verbod op AI moeten instellen direct toen ChatGPT naar buiten kwam met hun eerst werkende model. En vanaf een verbod regelgeving moeten ontwerpen. Nu hebben alle AI modellen onze Europese data al gebruikt voor trainingen en analyses en is het een gevalletje; we dempen de put nadat het kalf is verdronken.
Die zijn zelfs hoger; de maximale boete ligt op maximaal 35 miljoen euro of zeven procent van de jaaromzet van een bedrijf.
En dit is natuurlijk een lachertje. Een maximale boete van 35 miljoen euro. Want al die bedrijven weten met boekhoudkundige trucs de jaaromzet kunstmatig laag te houden zodat ze minder/geen belasting hoeven te betalen. De maximale boete had gewoon op 1000 miljoen moeten liggen.

[Reactie gewijzigd door Genosha op 1 augustus 2024 09:46]

De maximale boete is 7% van je wereldwijde concernomzet (dus niet je Ierse bv, je gehele concern), dat is significant meer dan 35 miljoen. Daarnaast kunnen marktverboden opgelegd worden.
Een werkelijke 7% op omzet van Meta zal 2,8 miljard zijn. Wanneer is de laatste keer dat de EU een boete heeft opgelegd die zo groot was? Eigenlijk nooit. Het is allemaal maar makke woorden in regelgeving "35 miljoen of 7%". Het schrikt niemand af om zich aan de regels te houden, het roept juist erg op om op de kantjes van de regels te werken, ze geregeld te breken en dan te claimen "oops, sorry, dat wisten we niet".

Zoals ik al zei; de EU is eigenlijk weer veel te laat.
De zoveelste wet waarvan we bij de introductie al weten dat die onuitvoerbaar is. Ik zie hier verschillende positieve reacties, maar vraag mij werkelijk af waarom mensen blij zijn met wetten die niets meer zijn dan loze beloftes.
Eigenlijk een best lange periode als je in ogenschouw neemt hoeveel er al aan real-time toepassingen met AI is waarbij dingen ook misgaan. Daar zal nog wel iets van extra maatregelen overheen komen.

Op dit item kan niet meer gereageerd worden.