Europese Commissie wil fabrikanten aansprakelijk stellen bij schade door AI

De Europese Commissie wil de aansprakelijkheidsregels moderniseren. Daarbij wil het onder meer fabrikanten van apparaten met kunstmatige intelligentie aansprakelijk stellen voor schade. De voorstellen moeten nog worden goedgekeurd door de Europese lidstaten.

De huidige aansprakelijkheidsregels zijn ruim veertig jaar oud, meldt de EC. De vernieuwde regels moeten duidelijk maken wie aansprakelijk is wanneer er schade is veroorzaakt door een apparaat of software dat gebruikmaakt van kunstmatige intelligentie.

Er liggen twee voorstellen van de Europese Commissie klaar. Het eerste voorstel gaat over 'het moderniseren van bestaande regels inzake de risicoaansprakelijkheid van fabrikanten voor producten met gebreken, van slimme technologie tot geneesmiddelen'. Wanneer consumenten bijvoorbeeld schade ondervinden van 'onveilige producten die van buiten de EU zijn geïmporteerd', dan kunnen ze zich voor schadevergoeding tot de importeur of de vertegenwoordiger van de fabrikant in de EU wenden, meldt de commissie. Verder moeten de nieuwe aansprakelijkheidsregels de bewijslast meer bij de fabrikant neerleggen, in plaats van de consument. Die moet bewijzen dat zijn producten veilig zijn voor gebruikers en aan alle wettelijke eisen voldoen.

Het tweede voorstel gaat specifiek over 'het harmoniseren van de nationale aansprakelijkheidsregels voor kunstmatige intelligentie, waardoor slachtoffers van AI-gerelateerde schade gemakkelijker schadevergoeding kunnen krijgen'. Hierbij kan het gaan om verschillende soorten vormen van schade, waaronder privacyschending of het verlies van gegevens. Een persoon die bijvoorbeeld gediscrimineerd is tijdens een sollicitatieprocedure door het gebruik van bepaalde algoritmes kan door de nieuwe regels ook makkelijker in aanmerking komen voor een schadevergoeding, zegt de EC.

Omdat de voorstellen nog moeten worden goedgekeurd, is het niet zeker of en wanneer de nieuwe aansprakelijkheidsregels worden ingevoerd.

Door Loïs Franx

Redacteur

28-09-2022 • 18:48

68

Submitter: mmniet

Reacties (68)

68
68
24
1
0
41
Wijzig sortering
Goed dat er duidelijkheid gaat komen, zal wel een remmende werking hebben op ontwikkelsnelheid, het zal beter getest op de markt komen.

[Reactie gewijzigd door MarcelGo op 23 juli 2024 09:27]

Van de andere kant: daar gaan onze autonoom rijdende auto's.
Hoezo, Volvo heeft allang aangegeven, via een persbericht dat Volvo de volledige verantwoordelijkheid op zich neemt als de autonome rijdende auto een ongeluk veroorzaakt.
Dat wordt gewoon bij de prijs ingecalculeerd.
Of je Volvo rijdt heel voorzichtig.
Dan gaan anderen ongelukken maken...
Dan is je Volvo daar niet voor aansprakelijk. :z
Heb je nogal veel aan als je jaarlijks in de kreukels wordt gereden...
Ik las het juist als: Daar komen de zelf rijdende auto's ;)
Ik vermoed dat autofabrikanten sowieso al uitgingen van hun aansprakelijkheid bij autonome systemen (of eventueel de soft- of hardwaremaker achter de autofabrikant). Als er een fabrieksfout zit in de remmen, de boordcomputer of de cruisecontrol dan is de autofabrikant ook aansprakelijk. Volgens mij gaan deze voorgestelde wetten over minder klinkklare gevallen van aansprakelijkheid, in andere gebieden waar AI wordt gebruikt.

[Reactie gewijzigd door geert1 op 23 juli 2024 09:27]

Als zoiets gebeurt blokkeert die functie gewoon. ‘U kunt niet verder rijden want het profiel van uw banden is niet meer zoals wij vereisen, bestel hier nieuwe banden’
Net niet. Nu kunnen ze eindelijk de baan op.
Daar geloof ik niets van. Je steekt het product in een postbusbedrijf. Gaat het mis, gaat je postbusbedrijf failliet en ga je als groot techbedrijf verder met je leven.
Neem aan dat ze verder kijken dan enkel BVs. En dat holding of UBO hier ook onder gaan vallen, anders is dit zo lek als een mandje.
Tja, welkom in de wereld van juridische entiteiten. Zo werkt 't niet met een bv. Alleen als je er overduidelijk opzettelijk een bende van maakt en de boel beflikkert kan je als bestuurder aansprakelijk worden gesteld. Maar dan moet je denken aan zaken als het niet bijhouden van een administratie of het voor eigen gewin aan-/verkopen vlak voor faillissement. In bijna alle gevallen is dat niet te bewijzen, dus gaat alleen de bv omver.
In bijna alle gevallen is dat niet te bewijzen, dus gaat alleen de bv omver.
Het is wel te bewijzen alleen de curator kijkt er naar als: "Hoeveel poen valt er (voor mij) te halen?". De curator word betaald uit de pot geld die uit de failliete boedel komt.

Als er uiteindelijk een bestuurder als persoon zit valt daar niet zoveel te halen. Best case hoest die persoon 50K op en is daarna persoonlijk failliet. Dat kost de curator waarschijnlijk meer uren dan het gaat opleveren. Daarom kan je je misschien zelfs maar beter niet verzekered zijn tegen wanbestuur als bestuurder (ja, daar kan je je tegen verzekeren). Want zodra de curator erachter komt dat dat het geval is komt ie zeker achter je aan.
Mooi is dat inderdaad. Maar helaas.

Als vereniging doe je iets fout en ben je als bestuur persoonlijk toch aansprakelijk. Maar als bedrijf mag je miljoenen verduisteren. Froude plegen dat maakt niks uit want persoonlijk ben je zo goed als onschendbaar.
Alleen gaat de aansprakelijkheid verder door de hele keten. Dus niet alleen de fabrikant kan aansprakelijk gesteld worden, juist ook de importeur of de verkopende partij. En voordat de hele keten failliet gaat... Bovendien gaat het hier niet om Amerikaanse taferelen waarbij massaclaims worden gedaan, maar gaat het om daadwerkelijk geleden schade. De uitbreiding zit hem vooral op een verduidelijking rondom AI/software. De andere regels omtrent aansprakelijkheid bestaan al langer (en zijn in Nederland nog wat beter geregeld dan Europees.
Mjah vind het lastig, hangt er bij mij ook een beetje vanaf wat de aard van het beestje is en of je ook bepaald gebruik dan mag uitsluiten of niet
Bij de zelf rijdende auto, duur ding, redelijk duidelijk, al is bepaald gebruik dan wel de vraag, mag de fabrikant zeggen alleen op snelweg daarbuiten geen dekking etc.

Maar bij iets als een vertaaldienst, die relatief weinig in rekening kan brengen, als je dan aankomt met een verkeerde vertaling van een verbintenis / contract waarbij in de vertaling iets mis is gegaan met enkele tonnen als gevolgschade en vervolgens zou je dat niet kunnen uitsluiten, einde vertaaldiensten zou ik zo zeggen.
Als je zegt dat het alleen op de snelweg mag, lijkt me dat je moet zorgen dat het ook alleen daar werkt.
Hm misschien dat dit soms kan, maar neem bv de auto sector, dat zal niet makkelijk onder een andere verantwoordelijke vallen.
Grote afnemers hebben vaak eisen als dat bijvoorbeeld de leverancier kapitaalkrachtig genoeg is en dat het hoofdconcern aansprakelijkheden accepteert juist om dit soort onzin te voorkomen.
Beter getest is voor mij snellere ontwikkelsnelheid. De 'bugs' laten ontdekt worden door de consument vertraagt in plaats van versnelt innovatie en ontwikkelsnelheid. Zeker wanneer het gaat over semi-autonomie zoals systemen die een vorm van intelligentie nabootsen of beslissingen maken.
Goed dat er duidelijkheid gaat komen,
Dat komt er waarschijnlijk niet gezien zelfs de term 'AI' al ter discussie staat. Wat is AI? Is het echt zelfdenkend? Is het bewustzijn? Is het simpelweg zelfstandig beslissingen nemen? Is Deepmind AI? Kan ik Google aanklagen omdat ze kunst generen? Hoe zit het met open-source? Is dan iedereen verantwoordelijk?

Duizenden vragen enkel al omtrent de term AI...
Dit is, zeer waarschijnlijk (ik ga er niet in een hopeloos politiek artikel duiken), gewoon weer een onderwerp waar men wetgeving probeert te maken voor een probleem dat men helemaal niet begrijpt.. Zie als voorbeeld de cookiewet. Het heeft geleid tot frustratie bij de burger, er is geen handhaving en het echte probleem is totaal niet opgelost.

zal wel een remmende werking hebben op ontwikkelsnelheid,
Het resulteert in het punt dat ontwikkeling hier in de EU totaal wegvalt. Waarom zou ik hier gaan ontwikkelen als ik in de US of China gewoon mijn gang kan gaan? De administratieve overhead is het alleen al niet waard. Zie ook als voorbeeld de drone wereld....

het zal beter getest op de markt komen.
Dat is vaak het argument dat voorstanders van deze wetgeving geven maar dat is helemaal niet zeker. Het enige dat met zekerheid te zeggen is, is dat wanneer men er hier mee begint, andere landen een grote voorsprong hebben.
Ik snap niet zo goed wat het probleem is. De AI is geen partij in de zaak, maar de eigenaar van het apparaat. De eigenaar kan de aansprakelijkheid doorschuiven vanwege een ondeugdelijk product, maar dat doet voor de hele schadezaak eigenlijk niet mee. Als ik met mijn auto tegen een andere auto aanrijd omdat mijn rem het niet doet, dan ben ik aansprakelijk voor de schade maar ik kan proberen de garage of leverancier aansprakelijk te stellen. Ik zie de toegevoegde waarde van dit gebeuren niet. Het gaat puur over aansprakelijkheid en of het nu jouw auto, kind, hond, fiets, goudvis, robotstofzuiger of tandenborstel betreft: de eigenaar kan aansprakelijk worden gesteld bij schade.
In bijna alle software EULAs staat juist dat je geen eigenaar bent ervan. Je bent alleen eigenaar van de hardware.
Maakt dus niet uit. Als mijn hardware door een softwarefout schade veroorzaakt (neem robotstofzuiger als voorbeeld) ben ik aansprakelijk. Dat ik die kosten ook weer kan verhalen en zelfs de aansprakelijkheid kan verleggen doet voor de schadeafhandeling eigenlijk niet ter zake.
De AI is geen partij (uiteraard), maar de maker of importeur van de AI is dat wel. En potentieel is de gebruiker van de AI zelf óók aansprakelijk; denk aan het genoemde voorbeeld van een sollicitant die gediscrimeerd wordt.
Heeft juist de toeslagaffaire niet laten zien dat met name de partij die het systeem toepast aansprakelijk is voor de schade? Een algoritme kan niet discrimineren, je kunt het wel voeden met onjuiste waarden waardoor het gaat discrimineren. Zo denk ik dat in het geval van een sollicitant een AI prima een selectie kan maken en zelfs een gesprek kan voeren, maar dat de partij die de AI inzet donders goed moet opletten dat de juiste variabelen zijn meegegeven.
Het grote voordeel van een AI is dat je altijd een rapport kunt opvragen en je vrij binair kunt zien waarop je al dan niet bent afgewezen. Veel duidelijker dan bij een mens van vlees en bloed waarbij je van die slappe redenen krijgt zoals bedrijfscultuur en 'past niet binnen het plaatje'. Een AI kan je keihard vertellen dat ze eigenlijk op zoek zijn naar een blanke jongeman met een rijbewijs die niet al te ver uit de buurt woont, die trouw blijft aan z'n werkgever en niet al te hoge salariseisen stelt.
Die AI levert exact wat er wordt gevraagd. Dat het niet mag is op zich niet het probleem van de AI, maar van degene die de AI heeft afgericht. En dan wordt het dus uitzoeken of de AI 'af fabriek' leert om de wet te breken of dat het door degene die de AI inzet wordt geleerd.
Als de EU nou zou afdwingen dat een AI zich moet houden aan de lokale wet- en regelgeving, dan is dat veel makkelijker bij de importeur/producent/maker/ontwikkelaar neer te leggen dan wat er nu wordt gedaan.
Je kunt hier behoorlijk diepgravend op in gaan, dieper dan hier makkelijk kan.

Zo is "algoritme" een probleem. Zo is een staartdeling een algoritme, maar een neuraal netwerk is dat niet. Het algoritme dat gebruikt is om het netwerk te trainen is zelf wel een algoritme, maar bestaat ook uit simpelere algoritmes. Algoritmes zijn dus niet redelijk te tellen.

Wat betreft je "explainable AI", voor sollicitaties: nee: dat kan een AI je niet vertellen. Een AI kan wel een bepaalde set van hypotheses testen: "als je 2000 euro minder had gevraagd, dan was je er wel doorgekomen" maar je kunt niet alle combinaties evalueren. Dat zou neerkomen op het bepalen van de hoogdimensionale grens tussen wel en niet aannemen. En het hele punt van AI's is nu juist dat ze zo'n grens kunnen vinden, beter dan mensen, en zonder dat een mens die grens opstelt. Een moderne AI is geen expertsysteem.

Expertsystemen werken zoals jij veronderstelt, dat een expert van de werkgever de grens programmeert en dat de software die zelfde grens dan toepast voor alle sollicitanten. Op z'n minst ben je dan niet afhankelijk van het humeur van de interviewer, maar expertsystemen zijn al zo'n 20 jaar uit de mode.
Ik probeer het ook maar een beetje plat te slaan. ;) In de huidige markt is het sowieso niet echt een probleem om een baan te vinden, maar goed.

Hoe goed je AI ook is, het moet op z'n minst gevoed worden met een aantal beginselen. Stel je zoekt een bakker, het liefst voor het weekend. Dat is vrij simpel maar de AI zal wel moeten weten welke competenties en vaardigheden bij dat vak horen. Discriminatie gaat over onderscheid maken op basis van zaken waarvan wij vinden dat je geen onderscheid mag maken zoals afkomst, huidskleur, religie, seksuele voorkeur en zo nog een paar. Dat kun je in de basis meegeven aan de AI. Een AI zonder moreel uitgangspunt slaat binnen no-time los en wordt een neonazi, zoals we eerder hebben gezien bij oa chatbots.

Stel dat een leverancier een AI bouwt en er één verkoopt aan China en één aan een hotelketen hier, dan moet hij er voor zorgen dat de morele basis van die AI's aansluit op de wet- en regelgeving van het land van de afnemer. Een AI is nog steeds een product wat moet passen binnen het land waar het werkzaam is.
Het is inderdaad geen probleem om een baan te vinden, zeker als je werkervaring hebt in het AI gebied. In welk geval: ook ons bedrijf is op zoek, stuur me een DM :D

Het idee van AI is juist dat je'm niet vertelt welke competenties er nodig zijn. Dan kom je terug bij de expertsystemen van de vorige eeuw. Je wil dat de AI zelf uitzoekt welke competenties er nodig zijn. Het grote voordeel is dat een AI combinaties van compenties kan vinden: A en B en C zijn wenselijk, maar X en Y zijn een alternatief voor B mits 5 jaar werkervaring met X.

Nu zal een AI niets weten van huidskleur, dus zal die daarop discrimineren? Zeker niet, als de AI uverhaupt die data nooit ziet. Een AI kan alleen de aangeboden gegevens gebruiken. Het is dus vrij triviaal om de afwezigheid van directe discriminatie te bewijzen.

De lastige is indirecte discriminatie. Er is een sterke correlatie tussen iemands nationaliteit en type diploma - de meeste mensen met een VWO diploma zijn Nederlanders, of althans EU burgers. En discriminatie op diploma is expliciet wél toegestaan.
Ja, indirecte discriminatie is een lastige maar ook net zo lastig om aan te tonen gelukkig. Met een beetje geluk valt zo iets als een diploma onder de eerste schifting en kom je weg met een simpel algoritme wat het kaf van het korden scheidt. De AI wordt daarna aan geslingerd om de echte pareltjes eruit te vissen.
Nu zal het met een bakker wel los lopen, maar ik maak me toch wel een beetje zorgen met waar een AI mee aan kan komen als je h'm los laat in het wild. Ik heb kunst gezien, gedichten, vertolkingen van boeken, de onderlinge gesprekken en een collega was erg druk met een AI receptioniste... En ik moet zeggen dat ik nog niet erg onder de indruk ben.
Duidelijk maken dat bedrijven die AI inzetten verantwoordelijk zijn voor schade klinkt overbodig. Niet omdat de verantwoordelijk niet nuttig of nodig is, maar sinds wanneer is een bedrijf niet verantwoordelijk bij inzet van middelen? Je hebt toch ook niet aparte wetgeving nodig om te stellen dat als een bedrijf een stuk gereedschap verkeerd inzet ze verantwoordelijk zijn voor de schade die ze bij anderen veroorzaken?
Ik denk dat rijke bedrijven zonder concrete regels een omweg vinden om er onderuit te komen, dus een duidelijke regel kan geen kwaad zou ik zeggen
Ik denk dat het niet heel anders is dan nu. Als er aantoonbaar een structureel probleem is met de auto, dan is de fabrikant toch ook verantwoordelijk? Er zijn niet voor niks terugroep acties juist om te voorkomen dat er ernstige ongevallen gebeuren. Dat het nu ook voor AI gaat gebeuren zie ik dan ook als een logisch gevolg. Al verwacht ik wel wat grijze gebieden hier een daar, dus wel goed dat hier naar gekeken gaat worden.
Nu zou de fabrikant nog kunnen schuilen achter een EULA waarmee je akkoord bent gegaan zodra je het apparaat (/auo) gebruikt. En dan kan er in juridische taal in staan dat je zelf verantwoordelijk bent in praktisch alle gevallen omdat jij geacht wordt toezicht te houden op de werking en moet ingrijpen om schade te voorkomen.
Alleen zijn dat soort EULA's in veel gevallen ondergeschikt aan het geldend consumenten recht.
Anderzijds, gelijk hebben en gelijk krijgen is soms bijzonder tijdrovend, gecompliceerd en kostbaar.

Daar proviteren helaas grote partijen nog wel eens van.
Dat is denk ik wat de EU nu gaat vastleggen, wat is AI gerelateerd en wat is dat niet. Dat kan nogal een gedoe zijn bij "tegenstrijdige" acties. De AI remde af terwijl de bestuurder snel van baan wisselt om een aanrijding te voorkomen met je voorganger die ineens hard remt. Je krijgt een ongeluk omdat door het remmen (AI) en door de snelle baan wissel een auto achter je aanknalt. Zowel de AI als de bestuurder proberen een ongeluk te voorkomen maar door de gecombineerde acties krijg je alsnog een ongeluk. Wie is schuldig? Grijs gebied...
Diegene die op je inramt van achteren is verantwoordelijk waarschijnlijk.
Nee, niet als je van baan wisselt èn hard remt.
Ga jij echt nog bijsturen in een zelfrijdende auto? Dan ben jij aansprakelijk voor wat de gevolgen zijn daarvan, lijkt me niet zo grijs eerlijk gezegd. Indien ik een autonoom rijdende wagen bezit zal ik het stuur nooit meer aanraken, het schiet anders wel z'n doel voorbij. Een AI kan veel beter dan een mens inschatten wat er te gebeuren staat dus daar ingrijpen lijkt me vrij lomp.
Zolang er een stuur is en van de bestuurder wordt verwacht dat deze de handen op het stuur moet houden (zoals nu het geval is) dan blijft het een grijs gebied ja. Zie ook reactie hieronder. Genoeg ruimte voor interpretatie en dus goed dat hier duidelijke definities voor komen
Wanneer je aannemelijk kan maken dat het ongeluk is gebeurd vanwege ingrijpen van de AI hoef je niet te bewijzen dat de schade causaal is. De producent of leverancier moet dan bewijzen dat de schade niet door de AI kwam.

De kwestie is dus of het aannemelijk is dat de AI een rol speelde.
Bijvoorbeeld doordat het ingrijpen van de bestuurder onmogelijk maakte. Door te remmen.

Voor die afweging is m.i. niet echt een formule te geven. Want het komt aan op de details van het geval en dat we er aannemelijk gemaakt kan worden.
Een persoon die bijvoorbeeld gediscrimineerd is tijdens een sollicitatieprocedure door het gebruik van bepaalde algoritmes kan door de nieuwe regels ook makkelijker in aanmerking komen voor een schadevergoeding, zegt de EC.
Klinkt leuk maar in de praktijk verwacht ik hier ieder geval weinig van. Hoe zien ze dit voor zich? Ik ben niet aangenomen dus mag ik de algoritmes bekijken waarom ik (en andere mensen) niet aangenomen zijn en waarom persoon x wel is aangenomen? Dan weet ik of ik jullie kan aanklagen voor algoritme discriminatie.

Om te kunnen bewijzen moet je dus informatie krijgen die je dus eigenlijk nooit zal krijgen.
De bewijslast is echter omgedraaid. Het bedrijf moet bewijzen dat het niet zo is.

Kortom, heb je het gevoel dat er discriminatie in het spel is? Dan kun je ze aanklagen en moeten ze maar aantonen dat het niet zo is.
De bewijslast is niet omgekeerd:
A) Je moet aannemelijk maken dat er iets mis is met / door bv. de AI in het product.
B) En dat er schade is geleden door het product.

Vervolgens vervalt het causaliteitsvereiste. Zodat je niet hoeft aan te tonen dat de schade het causale gevolg is van de AI in het product.

De producent of leverancier moet dan aantonen dat de schade niet door de AI komt.

Als zij daarin niet slaagt volgt een schade vergoeding, begrenst met de risico aansprakelijkheidsgrens. De schadevergoedingen bij risicoaansprakelijkheid zijn doorgaans beperkter dan bij een onrechtmatige daad.

Omdat de aansprakelijkheid 'ruimer' is wil de overheid de omvang van het risico beperken, om innovatie niet te ontmoedingen.
Dan zorg je als bedrijf zijnde dat bij de aantekeningen over de kandidaat iets staat zoals 'kwam over als een betweter' en gooi je het daar op, problem solved.
Nee, dat is alleen nu bij de Belastingdienst aan de gang. Normaal gesproken moet je nog steeds kunnen aantonen dat je bent gediscrimineerd. Dat is met een AI trouwens in theorie een stuk eenvoudiger want je kunt zo een rapport uitdraaien. Anders dan bij een HR medewerker die met smoesjes als 'past niet binnen het plaatje' komt.
Het grote voordeel van een AI is dat je vrij eenvoudig een rapport zou kunnen opvragen. Dat is bij mensen van vlees en bloed nog wel even anders. Bij een AI zou je zo kunnen zien waarom ze je niet willen hebben.
Data kan ook vervalst worden natuurlijk als de rede bijvoorbeeld is dat je vrouw (of man in sommige gevallen), homo, kleur heb, ect valt dit natuurlijk gewoon te veranderen naar niet sociaal genoeg, niet genoeg werk ervaring, we hebben andere sollicitaties gekregen beter opgeleid zijn.

Dus ja leuk dat je daar een rapport van kan krijgen maar ik voorzie niet in dat het het nuttig zal zijn. Daarnaast moet je ook maar weten dat dit door een AI is behandeld in plaats van een mens.
Het zou me niets verbazen als over een tijdje de verplichting komt dat een AI zich als zodanig herkenbaar moet maken. En ja, alles is te vervalsen. Als je echter voor de rechtbank staat lijkt me dat alleen niet de meest handige oplossing.
Welke AI's moeten dat allemaal?

"Sorry, je sollicitatie werd door het AI email spamfilter genegeerd" is een probleem wat nu al relevant is, en de meeste HR afdelingen beseffen niet eens dat er een AI aan het werk is.
Misschien wel verstandig vanuit de gedachte dat men dan wel drie keer nadenkt om iets op de markt te brengen. Misschien niet helemaal een correcte vergelijking maar denk aan de Furby die de hele wereld in je huis liet meekijken (AI was niet de bottleneck maar de beveiliging).
Een apparaat moet voldoen aan de lokale wet- en regelgeving. Dat kunnen ze veel makkelijker afdwingen dan wat ze nu proberen met aansprakelijkheid. Een Furby (de producent/maker/uitgever) moet zich nu houden aan de AVG, een AI moet zich houden aan Artikel 1 etc. Voldoet het niet, dan komt het niet op de Europese markt. Dat is toch veel eenvoudiger? De EU moet 'gewoon' veel strakker de eigen wetten en regels handhaven.
Lijkt mij geen slecht idee, al is het om voor de consument duidelijkheid te scheppen. Als een machine uit zichzelf iets doet wat niet door inmenging komt van de gebruiker en dit schade of letsel oplevert. Dan moet er toch iemand aansprakelijk zijn lijkt mij.
Een machine heeft altijd een eigenaar die de machine inzet. Die lijkt me eerder aansprakelijk dan de AI in de machine. Voldoet de machine (of AI) niet aan de wet- en regelgeving dan is het een ondeugdelijk apparaat en is de maker/importeur/ontwikkelaar aansprakelijk en kan het zelfs van de Europese markt gehaald worden. Maar dat is niets nieuws. Ik zie de toegevoegde waarde van deze aansprakelijkheid niet.
Just on time en beter iets dan niets.

Het grootste issue met AI en ML is dat het proces niet "auditable" / volgbaar is. Alleen de input en output.
Zodoende kiest men ervoor en terrecht, dat ontwikkelaars/producenten ten alle tijden aansprakelijk zullen zijn.
Dit is goed.

Had men ook met data privacy in een vroeg stadium moeten afdwingen. De wereld zou veel mooier zijn geweest. .
De hamvraag blijft echter of de ontwikkelaar/producent verantwoordelijk is of degene die de AI en ML inzet. Een fout in de AI is een ondeugdelijk product, dus kan de producent/ontwikkelaar aangeklaagd worden. Maar degene die AI/ML inzet is mijns inziens verantwoordelijk voor de effecten van het gebruik van dat ondeugdelijk product. Tenzij natuurlijk de ondeugdelijkheid aantoonbaar is, dan is de eigenaar niet verwijtbaar en wordt de producent aansprakelijk gesteld.

Maar dat is nu toch ook al zo? Wat is het nieuwe dan?

Op dit item kan niet meer gereageerd worden.