Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Europese Commissie presenteert ethische richtlijnen voor betrouwbare ai

De Europese Commissie heeft zeven richtlijnen gepubliceerd die tot betrouwbare kunstmatige intelligentie moeten leiden. Zo moet ai bijvoorbeeld de privacy en diversiteit aan vaardigheden van mensen respecteren. De Commissie vraagt nu om toetsing van de richtlijnen.

Kunstmatige intelligentie kan volgens de Europese Commissie veel bijdragen aan de samenleving, maar brengt ook uitdagingen op het gebied van juridische en ethische kwesties. Om ai-ontwikkelaars te ondersteunen met deze kwesties, publiceert de Commissie nu de zeven richtlijnen. Deze zouden er daarnaast toe leiden dat mensen meer vertrouwen krijgen in kunstmatige intelligentie, aldus de Commissie.

Volgens de Commissie moeten ai-systemen eerlijke samenlevingen stimuleren door grondrechten van de mens te onderhouden en door de menselijke autonomie niet te beperken of misleiden. De algoritmen van betrouwbare ai moeten veilig en betrouwbaar genoeg zijn, zodat deze kan omgaan met fouten en tegenstrijdigheden. Inwoners moeten de volledige controle over hun eigen data behouden. Data over inwoners mag daarnaast niet worden gebruikt om ze te schaden of te discrimineren.

Verder moeten de ai-systemen volgens de richtlijnen traceerbaar zijn en moeten ze rekening houden met de diversiteit aan menselijke vaardigheden en behoeftes. Kunstmatige intelligentie moet worden gebruikt om 'positieve, sociale veranderingen' teweeg te brengen en moet duurzaamheid verbeteren. Tot slot hoort betrouwbare ai volgens de Commissie mechanismes te hebben die ervoor zorgen dat ai-systemen verantwoordelijk zijn voor hun uitslagen.

De Commissie nodigt nu mensen uit de industrie, onderzoekers en overheden uit om de richtlijnen te testen. Dit is onderdeel van een pilotfase, die in de zomer van start gaat. Hoe deze pilot er precies uit gaat zien, maakt de Europese Commissie niet duidelijk. De Commissie zegt wel dat niet alleen Europese organisaties aan de pilot zullen meedoen. Dit omdat kunstmatige intelligentie geen landsgrenzen kent. Gelijkgestemde landen als Japan, Canada en Singapore worden ook uitgenodigd, aldus de Commissie. Na de pilotfase komt begin volgend jaar een evaluatie.

De richtlijnen zijn gebaseerd op aanbevelingen van de High-Level Expert Group on Artificial Intelligence, een panel van 52 experts op het gebied van kunstmatige intelligentie. De publicatie is onderdeel van de ai-strategie van de Europese Commissie. Met die strategie moeten publieke en private investeringen groeien tot jaarlijks minimaal twintig miljard euro. Dat moet resulteren in het beschikbaar komen van meer data, het aanmoedigen van Europees talent en zorgen voor meer vertrouwen in kunstmatige intelligentie, aldus de Commissie.

Door Hayte Hugo

Stagiair nieuwsredactie

08-04-2019 • 14:32

70 Linkedin Google+

Reacties (70)

Wijzig sortering
Ik zie dat een aantal mensen hier niet begrijpen wat dit precies is. Het gaat hier om richtlijnen, niet om wetten.
Seven essentials for achieving trustworthy AI

Trustworthy AI should respect all applicable laws and regulations, as well as a series of requirements; specific assessment lists aim to help verify the application of each of the key requirements:

- Human agency and oversight: AI systems should enable equitable societies by supporting human agency and fundamental rights, and not decrease, limit or misguide human autonomy.
- Robustness and safety: Trustworthy AI requires algorithms to be secure, reliable and robust enough to deal with errors or inconsistencies during all life cycle phases of AI systems.
- Privacy and data governance: Citizens should have full control over their own data, while data concerning them will not be used to harm or discriminate against them.
- Transparency: The traceability of AI systems should be ensured.
- Diversity, non-discrimination and fairness: AI systems should consider the whole range of human abilities, skills and requirements, and ensure accessibility.
- Societal and environmental well-being: AI systems should be used to enhance positive social change and enhance sustainability and ecological responsibility.
- Accountability: Mechanisms should be put in place to ensure responsibility and accountability for AI systems and their outcomes.
Dit zijn dus 7 "tips" van de EU om een goed systeem te bouwen. Niemand is verplicht om zich hieraan te houden, maar een project (vooral een met maatschappelijke impact) kan dit gebruiken om op een verantwoordelijke manier bezig te gaan. "Verantwoordelijk" wordt in deze zin gedefineerd door de EU. De richtlijn helpt dus binnen de discussie wat verantwoordelijk is en wat niet.

[Reactie gewijzigd door kipppertje op 8 april 2019 15:02]

Behalve dan dat AI, zeker zelflerende systemen, vaak lastig te sturen zijn.

Een goed voorbeeld daarvan was de AI chatbot van Microsoft. Mensen zijn het product van hun omgeving. In de eerste jaren zijn vooral je ouders en familie belangrijk voor je sociale kompas. Gedurende je schooltijd wordt jouw kompas steeds vaker en in belangrijke mate gevormd door school en vrienden. Het gezegde "soort zoek soort" bestaat niet voor niets. Microsoft had de pech dat hun chatbot terecht op een aantal kanalen waar veel racistische antwoorden op vragen voorbij kwamen. De chatbot deed deze data als training set gebruiken en uiteindelijk gaf de chatbot zelf ook racistische antwoorden op standaard vragen.

Microsoft heeft toen uiteindelijk de chatbot offline gehaald. Dit is het gevolg van eigenlijk sociale isolatie. Social media versterken dit fenomeen doordat zij content steeds beter op jouw voorkeuren afstemmen. Jouw feedback loop wordt daardoor steeds beperkter. Dier afstemming op voorkeur is prima voor hobby, sport of werk kanalen, maar veel minder geschikt voor debat. In de westerse wereld is steeds beter zichtbaar dat het midden aan het verdwijnen is..

Microsoft had de bot niet bewust racistisch geschreven, het kreeg slechts de verkeerde training set. Diversiteit is een ander complex onderwerp. De politieke partijen welke momenteel het hardste roepen om diversiteit (GroenLinks en D66) waren ironisch genoeg de eerste welke direct begonnen met het uitsluiten van FvD na hun behaalde winst..
Microsoft Translate wat bij de release getraind met softwaredocumentatie. Dat was ook heel duidelijk te zien als je een alledaagse tekst liet vertalen ;)
Dit ging niet om Bing/Microsoft Translate maar om Tay, Microsoft's Twitter bot, welk racistische, nazistische en discriminerende uitingen deed en daardoor dus is stop gezet. Het was een project gone rogue door raiders en trolls. Ik kwam een poosje geleden iemand overigens tegen op Twitter die aan Tay had gewerkt IIRC.
Dus ook mensen moeten maar off-line gehaald worden...
-- zou beter zijn voor interactie...
Voor de geïnteresseerde: de Nederlandse vertegenwoordiging van de High Level Expert Group hebben zich verenigd in ALLAI: https://allai.nl/.

Wellicht een interessante nuance voordat we het te veel vanuit het Tweakers perspectief bekijken:
De uitdaging voor de vervolgstap is het concreter krijgen van de verschillende begrippen. Dit is lastig omdat je nu zo veel verschillende disciplines hebt die hierbij moeten samenwerken: "IT'ers", juristen, economen, psychologen, ingenieurs, wetenschappers, ambtenaren, etc etc...

Deze hebben allemaal hele andere begrippen van woorden als algoritme, AI, complexiteit, ingewikkeld, black box, transparantie, ethiek, rechten, herleidbaarheid, eigenaarschap. Bij transparantie zien we bijvoorbeeld dat we hiermee misschien uitlegbaarheid bedoelen. Maar met welk doel? Als we dit vergelijken met de rechtspraak, waar een rechter een vonnis uitspreekt en dat tot op zekere hoogte motiveert (maar niet tot in elk detail!), dan hebben we hier toch vertrouwen in. Dus je zou kunnen stellen dat niet transparantie belangrijk is, maar het kunnen hebben van vertrouwen in iets door het op een goede manier uit te leggen. En zo kunnen we over alle begrippen nog uren doordebatteren zonder het misschien eens te worden ;).

Toch moeten we een gezamenlijk kader zien te vinden. En om het nog lastiger te maken: wat in de ene cultuur "goed" is, is dat niet in de andere cultuur. Zelfs al binnen de EU. En dan is ook nog eens alles subjectief. :>

[Reactie gewijzigd door Electrowolf op 8 april 2019 14:56]

"Kunstmatige intelligentie moet worden gebruikt om 'positieve, sociale veranderingen' teweeg te brengen en moet duurzaamheid verbeteren"

Ik snap dit denk ik niet. Stel voor dat ik ai wil inzetten voor optimalisatie van een proces. Wat heeft dat te maken met "positieve sociale veranderingen"?
Ik ben daarnaast ook erg benieuwd hoe dat meetbaar gemaakt moet worden. Stel je AI neemt beslissingen op basis van controlegroep die allemaal aantoonbaar beter daarvan worden... Maar je controlegroep bleek niet helemaal een juiste representatie van de volledige doelgroep, met als gevolg dat er uiteindelijk een deel van de 'echte' gebruikers benadeeld wordt. Wat dan?

Sowieso als een AI een beslissing moet nemen is er een kans dat het tegelijkertijd in het voordeel van persoon A en in het nadeel van B is.
"Ik ben daarnaast ook erg benieuwd hoe dat meetbaar gemaakt moet worden"
Het wordt denk ik gevalletje "toon jij maar aan dat jouw toepassing goed is" - ie, meer mensen die bezig zijn met bureaucratie.
Dit doen we al jaren zo en met erg veel sectoren en technologieën:
  • Toon jij maar aan dat jouw medicatie goed is
  • Toon jij maar aan dat jouw pesticide goed is
  • Toon jij maar aan dat jouw genetisch gemanipuleerde zaden goed zijn
  • Toon jij maar aan dat jouw transportmiddel goed is
    • Dit is met wat betreft het milieu foutgelopen tijdens Dieselgate. Dus volgden er sancties voor de bedrijven in oa. Bayeren e.d.
  • Toon jij maar aan dat jouw club of organisatie goed is
  • ...
M.a.w. als je wil handel doen op de grote markt van de Europese Unie, dan heb jij je als (groot)-bedrijf te houden aan de wetten en plichten die hier gelden. Wil je dat niet, kan je dat niet, wens je dat niet? Dan mag jij hier geen handel doen.

De wet is hard maar de wet is wet. En de wet is ook gelijk voor iedereen en alle bedrijven die hier in de EU handel willen doen. Tot slot zijn deze richtlijnen nog geen wet. Maar het is duidelijk dat deze richtlijnen uiteindelijk gewoonweg ook wetten gaan worden.

En dat is maar goed ook. Wilde cowboy AI moet je maar gaan verkopen in landen waar de mensen graag uitgebuit gaan worden door AI systemen. Hier in de EU zal de samenleving dat niet willen.
Inderdaad dat is een geweldig model om te volgen:
  • Medicatie is ongelofelijk duur en zeer ingewikkeld om op de markt te brengen
  • Pesticide is goedkeuring voornamelijk gebaseerd op onderzoeken door door de fabrikant betaalde (al dan niet indirect) "onafhankelijke" onderzoekers bevindingen. Niet heel erg veilig kijk naar Round-up om een goed voorbeeld te geven
  • Genetisch gemanipuleerde zaden zijn eigenlijk niet op dit moment van te bewijzen of ze veilig zijn of niet. Op korte termijn lijkt het allemaal wel los te lopen maar op lange termijn is het moeilijk bewijzen zonder een lange tijd te wachten en dat willen we nu ook weer niet want goedkoop eten is belangrijk en zo
  • Kijk naar de verschillende bakfietsen, "hoverboards" en andere geweldige transport middelen die achteraf van de markt worden gehaald omdat ze toch niet echt veilig blijken. De tests voor auto's die dingen toestaan zo als het op pompen van de banden met een lichter gas om het gewicht terug te dringen en speciale settings voor de motor om te voorkomen dat deze te veel uitstoot (was al jaren bekend voor de overheden ooit eens wakker werden)
  • We zijn nog al was clubs en organisaties die door en door verrot zijn (de EU bijvoorbeeld, maar ook politieke clubjes, lobby groepen en natuurlijk geloofsgenootschappen en dergelijke)
  • Met AI zal dit niet anders zijn er zijn zeer weinig mensen met voldoende kennis om uberhaupt te volgen wat zo'n systeem echt doet. en zeker als het wat meer complex is dan alleen wat waarde vergelijken maar bijvoorbeeld zo als bij object herkenning op foto's of nog lastiger op bewegende beelden dan is het eigenlijk niet meer te bevatten voor een mens hoe het ding tot een bepaalde conclusie komt zeker niet als het dit duizenden keren per minuut doet.
We zijn simpel weg op een punt aan beland waar overheden, zelfs als ze het allemaal goed bedoelen, niet meer instaat zijn bedrijven op een adequate manier te reguleren. Er is simpel weg te veel te verliezen voor de bedrijven om dat toe te staan. Om deze reden ook betalen bedrijven enorme bedragen aan mensen om bijvoorbeeld belastingen te ontduiken, regels te buigen en allerlei andere dingen te doen die ze eigenlijk niet zouden moeten doen. Er gaan vele miljarden om in lobby groepen die niets anders doen dan overheidsdienaren voorzien van alles wat ze maar zouden kunnen willen weten over van alles en nog wat, zodat zij de juiste besluiten kunnen nemen. Of dat nu een reisje naar een ver land benodigd of dat het nu zaak is dat ze de juiste vak literatuur lezen etc alles wat je maar nodig zou kunnen hebben om tot een juist besluit te komen wordt verzorgt omdat deze groepen het van groot belang achten dat de overheidsdienaren over de "juiste" informatie beschikken.

Dit zal met AI niet anders zijn, er is te veel te winnen voor de bedrijven en er is veel te weinig kennis geld en kunde aan de kant van de overheden om echt te begrijpen wat de resultaten zijn van de zeer slecht omschreven tests rond de uitstoot van auto's, of hun veiligheid. Waarom zou dat met AI andres zijn?
Een mooi voorbeeld is een Duitse auto fabrikant die een auto heeft waarmee je als je een scherpe bocht naar links maakt met een specifieke snelheid dan zal de computer in de auto vastlopen en de besturing uitvallen en het gaspedaal ook niet meer reageren, remmen werkt gelukkig nog wel. Nu is de snelheid vrij hoog en de bocht erg scherp dus heeft de fabrikant besloten het maar zo te laten de kans op ongelukken is nihil. Dit is niet een uitzondering er zitten in elke auto die je nu koopt tientallen bugs waar de fabrikant van inschat dat ze niet gevaarlijk genoeg zijn om op gelost te moeten worden. Er zijn volgens de testers nog tientallen anderen die ze nog niet gevonden hebben en dus is de kans groot dat de auto waar je nu in rijd bij een bepaalde handeling simpel uitvalt of heel anders reageert dan je zou willen. De overheid heeft net zo min als de fabrikanten van deze systemen een mogelijkheid om dit te controleren en dus is het een kwestie van de meest waarschijnlijke dingen er uitfilteren en daarna terug roepen als er een bepaald aantal serieuze ongelukken gebeuren om de software toch maar eens te updaten.
Met een systeem dat vele malen complexer is zo als een AI dan is dat simpel weg onmogelijk.
Ik ben het grotendeels met je eens. Maar minder controle en of er maar van uit gaan dat alles wel OK zal lopen, omdat we het toch niet kunnen overzien, zie ik niet echt als het juiste antwoord op dat probleem.

Al je voorbeelden tonen enkel maar de noodzaak voor meer controle en vooral strengere toepassing van de wet aan. Bv. effectieve gevangenisstraffen voor CEOs en kaderleden van zulke bedrijven.
Hierbij wordt er wel aangenomen dat wij goede AI kunnen schrijven en dit niet voor problemen zorgt waarbij de AI zich niet meer aan de door ons opgestelde regels houdt, en zelfs dat onder de aanname dat wij überhaupt goede regels kunnen opstellen om te verhinderen dat AI niet in ons nadeel gaat werken. Vooral als het gaat om ethische richtlijnen die met vele manieren omzeild kunnen worden.
Daarom gaan we altijd een 'uit' schakelaar voorzien.

Begint het dat te doen, dan gaat het hardhandig uit.
Zo'n uit-schakelaar is natuurlijk alleen nuttig als het blijft werken en de AI zichzelf niet naar elders gekopieerd heeft of nieuwe AI gecreeërd heeft. We gaan er te gemakkelijk van uit dat we - een species zo slim en zo dom als de mens - een potentiële superintelligentie kunnen tegenhouden. We gaan er hier van uit dat de AI geen manieren ontwikkelt om buiten ons oog om code te schrijven/wijzigen. Is er één moment in de geschiedenis van het digitale tijdperk geweest dat we perfecte software schreven die niet gehackt kon worden door andere mensen? Vervang nu mensen met kunstmatige intelligentie die miljoenen keren efficiënter en slimmer is. Ik denk dat zo'n uit-schakelaar een enorme onderschatting van de potentiële gevaren weergeeft.
Ik snap je reactie maar dat leest meer als een zienswijze. Als je praat over of het resultaat dient waarvoor het gemaakt is, volgt vaak de vraag "hoe goed? ". Dan is een meetbaar resultaat wenselijk om de status ervan te kunnen begrijpen en daar 'iets' mee te doen en te vinden. Maar dan ook wel in deze volgorde. Het moet gaan om het resultaat. Als de controle groep niet goed is - dan stel je niet goede vereisten aan je controlegroep en ga je terug naar de tekentafel (simpel gezegd).
Weet je wat ik nu mooi zou vinden. Als de regels die ze voor ai willen implementeren ook eens door de mens lees o.a politici gebruikt worden worden. De mens liegt en bedriegt.

We verwachten nu dus dat een AI systeem de perfecte mens gaat worden. Als AI evolueert tot bewustzijn en dus kan analyseren hoe de mens is, is het nog maar de vraag of AI de mens niet als hypocriet zal zien. Waarom zou een AI systeem regels opgelegd krijgen door de mens waarbij de mens zich zelf niet aan die regels houdt.
Sterker nog, AI hoeft slechts één beveiligingsfout of loophole te vinden om root-access te krijgen en/of nieuwe AI te schrijven en verspreiden. Zodra dat laatste gebeurt kunnen we het wel schudden - best case scenario is kapot geconcureerd worden door een collectief dat letterlijk miljoenen keren zo goed is in alles wat wij kunnen, worst case scenario is kapot gemaakt worden in de letterlijke zin.

Maar gelukkig is de mensheid goed in het schrijven van software met perfecte beveiliging.
Als AI komt tot het punt van zelfbewustzijn heeft het de mens niet meer nodig en is het natuurlijk perfect in staat zichzelf te herprogrammeren of een nieuwe zichzelf te maken.
Ja... dat was zo'n beetje mijn punt. Dan komen we op een moment dat AI zich niet meer hoeft te binden aan regels opgelegd door mensen en gaan ze hun eigen gang. Ethische regels betekenen niets meer aangezien deze in de weg staan van de meest efficiënte methoden om te doen waarvoor ze zichzelf steeds beter programmeren, wat dat ook mag zijn. Als we niet doodgemaakt worden omdat we in de weg lopen (om het maar even zacht uit te drukken), dan zal het wel simpelweg een kwestie van competitieve exclusie zijn waardoor de mensheid - samen met vrijwel alle andere species minus persistende micro-organismen - ophoudt te bestaan.
We weten niet waar het naartoe gaat. Probleem is natuurlijk dat de mens niet het ideale voorbeeld is. We hebben dan wel wetten en regels maar wie dieper kijkt ziet hypocriet gedrag dat niet strookt met regels.

Daarbij komt dan nog geloof. De vraag is hoe gaat een AI systeem met geloof om. Zo zullen er nog meer vraagstukken zijn. Of er dan nog plaats is voor de mensheid zullen we dan ook nog zien. In de natuur heb je uiteindelijk het recht van de sterkste/slimste en als wij mensen dat niet meer zijn dan ........
De vraag is hoe gaat een AI systeem met geloof om. Toen ging ik even stuk. Dank je.

Verder is het, niet het recht van de sterkste, maar van de geen die zich het best kan aanpassen. Gelukkig maar, want de mens is natuurlijk erg dom en verre van intelligent. (Ja, zelfs einstijn was het niet)
De huidige mensheid obsolete zal zijn, al heeft de mens zich goed bewezen, zich te kunnen aanpassen. (al kost dat soms honderden jaren)
Schreef het recht van de sterkste/slimste. Fysiek gezien is de mens niet sterkste maar wie niet sterk is moet slim zijn. Die combinatie zorgt er voor dat de mens tot nu toe heeft kunnen overleven.

De vraag met ai is , zelfbewustzijn, als ai rationeel gaan denken of ook emotioneel. Als ai menselijke lees emotionele trekken krijgt, hoort daar weer menselijk lees soms onvoorspelbaar gedrag bij. Als alles rationeel is kun je het zwart wit zien. Voorbeeld er zijn te veel mensen op deze aarde die grondstoffen belasten dus bekijk je het rationeel zal de 1/2 moeten verdwijnen. Tja hoe laat je die verdwijnen, uitmoorden en als ai rationeel is dat is dat vanuit dat standpunt gezien de beste oplossing, geen menselijke oplossing maar wie weet ai oplossing.

AI veel vraagstukken en we kunnen er nu regels en richtlijnen voor opstellen. Probleem is je zet iets in gang en zult zie dat die regels snel achterhaald zijn, overbodig zijn of de mens overbodig is.
Ik denk dat het een goed punt is.

Vaak is het zo dat wat je bouwt lijkt op jou of om jouw omgeving. Als mensen liegen, dan is het ook te verwachten dat ai dat ook doet.

Het lijkt mij verstandig om na te denken wat we in zo'n situatie moeten doen, ipv vanuit gaan dat we het kunnen voorkomen.
Dit zal gemeten worden aan de hand van de overlast die in de samenleving veroorzaakt wordt.

We vroegen ons dit enkele jaren geleden ook af over privacy en social media. Toen was er nog maar weinig overlast. Dus liet men wat begaan (wat ik heel erg slecht vond, we hebben veel te lang gewacht met de wet veel harder en stricter te maken wat betreft privacy - maar ok, dat is hier nu even off topic).

Nu is er veel overlast. Dus komen er wetten en wordt er gemeten op basis daarvan.

Bedrijven worden gevraagd zich aan te passen. Of op te krassen. Ze mogen nog eventjes kiezen wat het zal worden. Maar blijven ze maar volgen ze de (nieuwe) regels niet, dan komen er al maar zwaardere sancties en effectieve straffen.

Het zal precies zo gaan met AI technologie.

Maak jij auto's die met hun AI software de voetgangers doodrijden? Let maar op. Je bedrijf en haar producten zullen of zich in regel stellen of zullen héél snel verboden worden en je zal héél snel aansprakelijk gesteld worden. Dat zal ook héél erg terecht zijn.

Wens je het niet aan te passen, dan zal je niet meer welkom zijn op de EU markt. Dan zal je moeten oprotten.

En dat is maar goed ook. Dat extreem kapitalisme moet zich maar eens aanpassen aan de samenleving en haar wetten. Of opkrassen. Ga maar elders verkopen dan in de EU met haar 512 miljoen (redelijk rijke) inwoners. Niemand zal U missen. En uw technologie zal zeker beschikbaar komen door een concurrent die zich wel in regel zal stellen met de EU-regels.
Ook jij geeft uiteindelijk niet aan hoe dat dan gemeten moet worden. Een AI heeft normaliter een feedbackloop waarmee ie zichzelf kan bijstellen. Hoe komt de 'overlast die in de samenleving veroorzaakt wordt' daarin terecht?

En bovendien heeft een AI normaal gesproken een aardig specifiek deel, dus hoe bepaal je welk aspect van de 'overlast' relevant is en veroorzaakt kan zijn door die specifieke AI?
Er zijn een aantal manieren waarop beleidsmakers kunnen meten. Ondermeer het aantal aandacht er aan wordt besteed door onderzoeksjournalisten en media. Maar ook door organisaties die metingen doen.

Bijvoorbeeld men kijkt naar het aantal depressies bij jongeren, hun schoolresultaten, zelfmoordcijfers, verkeersongevallen, en zo verder. We hebben best veel cijfermateriaal. Blijkt dat één van die cijfers een (negatieve) trend beginnen weer te geven waarbij we enigzinds kunnen aantonen dat een nieuwigheid in de markt (bv. social media was een heel erg duidelijke de afgelopen jaren) er voor verantwoordelijk is of zou kunnen zijn; dan komen er maatregels (sensibilisering, nieuwe wetten, bijvoorbeeld en zo verder).

Er zijn nog andere meetinstrumenten (specialisten ter zake, zoals psychologen, sociologen, universiteiten, filosofen, en zo verder). Tot slot is er hedendaagse ideologie (bv. wil men meer vrouwenrechten en/of meer rechten voor homosexualiteit, dan hoort technologie daar rekening mee te houden). Zulke ideologie kan ook wijzigen (en ook daar hoort de technologie rekening mee te houden).

De samenleving is niet statisch. Men meet ze dan ook continue.

Het is te verwachten dat AI systemen daar net goed in zullen zijn, om zich daar aan aan te passen. Maar meer waarschijnlijk is dat die AI systemen getweaked gaan worden om winstmaximalisatie te veroorzaken voor de eigenaars van het AI systeem.

Die winstmaximalisatie is niet noodzakelijk in het belang van de samenleving. Zoals hoe de winstmaximalisatie van de grote banken tijdens de economische crisisch niet noodzakelijk in het belang van de samenleving was.

Merk ook op dat de winstmaximalisatie van de grote banken héél erg relevant is, omdat die banken en haar personeel op Wallstreet waarschijnlijk, neen, zeker, één van de eerste gebruikers van zulke AI systemen was ten tijde van de economische crisis en nu nog steeds is. En dan vooral omdat die systemen waarschijnlijk volautomatisch de hele crisis extreem verergerd hebben.
Ik begrijp dat er allerlei (relatief vage) manieren zijn om het te meten. Zeker als je de plek waar de meting gebeurt en het systeem compleet los van elkaar ziet. Maar de beleidsmakers verwachten juist van de AI-makers dat zij (hun systeem) het goed doen. Dus die AI moet dan in principe zelf toegang krijgen tot die feedbackloop. Het moet kunnen bepalen dat als situatie X ontstaat, dat dat niet goed is. En als situatie X is "de AI suggereerde een artikel aan lezer Y, die aan de hand daarvan zelfmoord pleegde"... dan zou de AI die kennis dan dus moeten krijgen met als markering 'dit was een foute uitkomst'.
Die informatie - en alle andere mogelijke situaties - terecht laten komen bij de AI is niet zo simpel ;)
Sterker nog, dan ben je met nogal serieuze privacy gevoelige informatie bezig die voor de originele taak helemaal niet in de AI nodig was.

Bovendien worden AI's altijd ontwikkeld om 'iets' te maximaliseren. Doorgaans is dat niet 'winst' op zich (uiteraard wel bij AI's die specifiek zijn ontwikkeld om te handelen op de beurs), want de AI is niet een of ander superbreed concept dat "alles" kan aanpassen. De criteria waarop de AI bepaald of iets succesvol is wordt wellicht wel door de makers ervan zo ingesteld dat het positief bijdraagt aan de bedrijfswinst.

Het is in ieder geval in de huidige wereld meestal beperkt tot een klein aantal variabelen die de AI kan beinvloeden. En daarmee een beperkt aantal uitkomsten. En die uitkomsten zijn zelden gekoppeld aan situaties in de echte wereld, zeker niet met de zeer complexe feedbackloop die jij beschrijft.
Lijkt me een prima reden om je AI zich als eerste te laten verdiepen in de wonderen van wetenschappelijk onderzoek, opdat hij/zij vervolgens kan voorkomen dat jij die fout maakt :+
Een mens heeft een controlegroep nodig om het process te versnellen. Een AI gebruikt gewoon het hele doelgroep. Je menselijke fout is niet van toepassing op AI.
Niet dat ik denk dat een AI foutloos is, er zijn andere problemen met AI. De beperking van snelheid is er niet een van.
De meeste Machine Learning, wat vaak gecombineerd wordt met de term AI, werkt met "training data" wat effectief een combinatie van voorbeelden en de verwachte uitkomsten is die daarna toegepast wordt voor alle data.
Bovendien moet ook meer geavanceerde AI leren wat wel en niet goed is. Waar dus effectief ook een controlegroep bij nodig is.
Machine Learning is een onderdeel van AI niet een synoniem. Je vergeet een ding te vermelden. Het gebruikt alle datasets dat het kreeg dat men het proces startte en de daar opvolgende sets dat het zelf creëert. De daaruit vloeiende training data wordt weer gebruikt voor nieuwe doeleinden.
Wij mensen creëren een controlegroep op basis percentage van vooraf geselecteerde data met de hoop dat het eind resultaat "dichtbij" werkelijkheid zit. Hoe meer data je erin steekt hoe "accurater" de resultaten.
AI creëert patronen en conclusies na alle data bekeken te hebben dus niet op basis van een percentage aangezien dat niet nodig is.

Je stelt een vraag "wat als het controlegroep niet representatief is" maar dat is alleen van toepassing als je niet alle data mee neemt in je dataset zoals wij mensen dat doen. De AI neemt alles mee dus de uiteindelijke resultaten zijn juist representatief voor het volledige dataset.
Als het zo perfect werkt als jij suggereert, waarom moest Microsoft dan hun chatbot offline halen omdat het racistische uitspraken begon te doen? En vziw zijn daar wel meer voorbeelden van... Ik meen me te herinneren dat een AI-systeem dat rechtbanken moet helpen in de VS uiteindelijk ook het ras meeneemt bij het oordeel wat voor straf iemand moet krijgen (of was of er een rechtzaak moet komen?).

Het is allemaal niet zo simpel, wat natuurlijk precies de reden is dat deze richtlijnen in het leven zijn geroepen. Maar ik vermoed dat deze vage formulering erg moeilijk is om daadwerkelijk te verwerken in een AI-systeem.
Goed voorbeeld. De mens gaat denken dit is een leuk probeersel maar het moet wel netjes blijven. Wij stellen dan dat de regels in onze sociale omgang representatief zijn voor iedereen.
De AI heeft nooit de opdracht gekregen om sociale constructies op te nemen om de output te beperken.
Zo gezegd zo gedaan. Het resultaat liegt er niet om en de AI heeft precies gedaan wat het wou doen.
Je bent alleen niet eens met het resultaat dus denk je dat het faal was. In werkelijkheid is het perfect gelukt maar waren de "opdrachtgevers(mensen)", die niet verder konden kijken dan hun neus lang was, verantwoordelijk voor het resultaat. Binnen de muren van het bedrijf heerst een "bedrijfscultuur" dus gaat men automatisch uit van juiste professionele gedrag. Dat data set werd niet toegevoegd om mee te beginnen dus heeft de mens gefaald niet de AI.
Gewoon net zoals andere richtlijnen gemeten worden. Dus end-2-end kijken. Bij medicijnen wordt bijvoorbeeld niet alleen gekeken of het helpt tegen de kwaal maar ook wat er allemaal fout kan gaan terwijl de kwaal op zich goed behandeld is. Dan kan dus ook met AI. Als blijkt dat het eindresultaat niet goed is, ga je analyseren waar het fout ging. Conclusie kan dan zijn dat de controlegroep niet goed genoeg was, en dat kan je dan verbeteren. Software is ook maar gewoon een product dat door verschillende iteraties steeds beter kan worden.
Ik denk dat ze te laf waren om er keihard in te zetten dat het niet voor wapens/militaire doeleinden zou moeten worden ontwikkelt. Het zijn maar richtlijnen.
Het grote probleem hierbij valt onder 1 noemer te gooien 'wapenwedloop'. Dan ga jij als EU militaire doeleindes voor AI verbieden en de rest van de wereld werkt gewoon door. De VS ontwikkeld dan bijvoorbeeld gewoon AI aangedreven drones die Mach 7 of meer halen en jij hebt ze niet. Rusland valt je grenzen binnen met terror drones en jij kunt ze niet matchen in wapens; daar gaan al je tanks.
Het is sowieso een illusie dat AI niet militair gaat worden gebruikt. (Wordt vast al gedaan met veel data van sattelieten en andere digitale informatie.) Maar ook in wapens, zoals je boven terecht aangeeft heeft het zoveel potentie dat geen zelf respecterende wereldmacht dit links kan of laat liggen.

ps: we hebben geen tanks :'(

[Reactie gewijzigd door MrMonkE op 8 april 2019 15:31]

Ik snap je punt, maar ik vind het zelf altijd beetje vaag.

Is ai die cyber security beheerd een militaire doeleind? Is ai die een anti-racket systeem bestuurd militaire? Is ai die "collateral damage" van een racket beperkt militair?
Ik betwijfel of ze daar te 'laf' voor waren, lijkt me eerder dat er een zekere mate van realisme in zat. Er zijn tenslotte Europese grondrechten die uiteindelijk in een 'worst case' scenario met militaire middelen mogen (en moeten?) worden verdedigd.

Het is daardoor handiger om de richtlijnen zo te formuleren dat ook daarbij AI-toepassingen mogelijk zijn, dan het helemaal uitsluiten en je eigen verdediging daarmee te bemoeilijken.
Als ik een robot maak die zijn AI gebruikt om te beoordelen of iemand zijn billen geveegd moeten worden of goed geveegd zijn na eerder vermelde handeling, dan is dat een positieve sociale verandering voor deze persoon als de robot dit goed kan en die persoon bijvoorbeeld zelf niet hiertoe in staat is. Ik neem aan dat deze richtlijnen dan vaststellen dat mijn ai niet schuurpapier of scalpels als wcpapier mag proberen om te leren wat het beste veegresultaat biedt.
Juist, maar dat klinkt in mijn oren als "het moet geen negatieve effecten hebben" ipv "het MOET positief zijn".

Zelf zie ik toepassingen van ai voornamelijk in optimalisatie, en daar kom je imho niet zo supersnel aan "verbeteren van maatschappij"
Ik zou willen vragen aan de EU om zichzelf ook aan deze standaard te houden ;-).
Exact dat schreef ik hierboven al. Als de mens lees eU en politici nu eens het goede voorbeeld zouden geven, minder hypocriet zijn komen we al een stuk verder.
[/quote]"Kunstmatige intelligentie moet worden gebruikt om 'positieve, sociale veranderingen' teweeg te brengen en moet duurzaamheid verbeteren"[/quote]
Dit is ook erg betwistbaar. Wat voor de ene bevolkingsgroep een positieve sociale verandering is, is voor een andere bevolkingsgroep misschien wel een negatieve sociale verandering. Dit is afhankelijk van welke kant je het bekijkt.
Dit klinkt meer als politieke richtlijnen.

- Positieve, sociale veranderingen: Lees pro-immigratie
- Duurzaamheid verbeteren: Lees pro-klimaatbeleid

Verder geen discussie over de punten op zich, maar dit is precies in lijn met de visie van de EU. Dat is toch niet het idee achter een AI?

Wanneer een AI aan de hand van datasets/patronen constateert dat je beter alle bossen kunt kappen, diesel moet rijden en dat immigratie tot ellende leidt.. wie hou je dan voor de gek door de AI als 'onethisch' te bestempelen?

[Reactie gewijzigd door STK op 8 april 2019 16:04]

Waar staat dat positieve sociale veranderingen pro-immigratie is????
"Volgens de Commissie moeten ai-systemen eerlijke samenlevingen stimuleren door grondrechten van de mens te onderhouden en door de menselijke autonomie niet de beperken of te misleiden"

Definieer:
- Eerlijk
- Grondrechten
- Autonomie
- Misleiding

Zeer subjectief allemaal, maar ook daar komt vast een etische commissie voor die dit mag bepalen...
DEfinieer,

Uh eerlijke samenleving, de laatste 50 jaar worden rijken rijken, armen armer en vedwijnt de middenklasse. De politiek is hier verantwoordelijk voor en dat is dus schijnbaar de definitie van eerlijk.

Grondrechten, sleepwet, masaal iedereen afluisteren, Eu wil nu vingerafdruk in iedere ID kaart, dat is de weg waar me volgens de EU met grondrechten naartoe gaan.

Misleiding, misschien zie ik het verkeerd maar het gros van de politici is al tijden bezig ons op allerlei gebied te misleiden.

Hoop dat dat een goede definitie is ?
Ben benieuwd wat men met AI wetgeving gaat doen als AI éénmaal de drempel van zelfbewustzijn gaat overstijgen... SF, maar toch...
Intelligentie heeft niks met zelfbewustzijn van doen, dus dat is geen grens om je blind op te staren.
"Human agency and oversight"
Dat zal een organisatie worden vol met ambtenaren die zich op allerlei manieren die niet binnen hun mandaat vallen met AI gaan bemoeien tot grote frustratie, geestelijk en in ontwikkeling, van wetenschap en industrie.
Daarin staat dat ai bijvoorbeeld de privacy en diversiteit aan vaardigheden van mensen moet respecteren.
Waarom zouden deze regels alleen voor kunstmatige intelligentie gelden en niet voor biologische intelligentie? Dezelfde partij doet doodleuk mee aan The Five Eyes en schendt regelmatig de eigen richtlijnen en wetten.

Ongetwijfeld dat deze "beperking" niet geldt voor de regerende organisatie. Crimineel i.m.h.o.
Deze regels hebben er bij mij niet voor gezorgd dat ik meer vertrouwen krijg in zowel de EU als de AI omdat ik duidelijke politieke kleur merk in de definities van deze richtlijnen welke gegarandeerd voor conflicten gaan zorgen.

Vooral deze is interresant :
"Diversity, non-discrimination and fairness: AI systems should consider the whole range of human abilities, skills and requirements, and ensure accessibility."
Met namen non-discrimination. Wat betekend dit? Want wat wij wel of niet discriminerend vinden is een maatschappelijk debat waar naar mijn weten nog geen duidelijke conclusie uit is gekomen. Tenslotte ziet een deel van de maatschappij discriminatie als ongelijke behandeling en een ander deel van de maatschappij discriminatie als ongelijke uitkomst. Kiest de EU voor de eerste dan is er weinig aan de hand maar gaat het wel lijken alsof de AI enorm discrimineert. Naar mijn weten zijn er in het verleden al AI's ingezet bij politie werk en waren de resultaten hiervan "Racistischer" dan bij de gemiddelde mens omdat de AI zich niet bewust is van eventuele sociale waarden. Als die ziet dat bij een specifiek ras criminaliteit vaker voor komt zal die daar rekening mee houden en rassen ongelijk behandelen. Maar is dit dan goed of fout? Je kunt zeggen dat dit goed is omdat de AI niet specifiek is geprogrammeerd op ras maar dit uit zichzelf als patroon heeft herkend. Je kunt ook zeggen dat dit fout is omdat rassen niet gelijk worden behandeld door het systeem. Maar wat als de EU dus voor het laatste kiest? Hoe voorkom je dit? Gaan we juist met het algoritme knoeien zodat die rassen wel gelijk behandeld? Gaan wij met de functies knoeien zodat die het überhaupt niet mee neemt? Maar gaat dat dan niet ten kosten van de kwaliteit van de AI? Voor nu lijkt het mij dan een onhaalbaar punt die ze zeker moeten verduidelijken/

"Societal and environmental well-being: AI systems should be used to enhance positive social change and enhance sustainability and ecological responsibility."
Als EU kritische burger vind ik het woord "Positive Social Change" dood eng. Wat is positive social change? Wat de beleidsmaker positief vind. Maar wat als ik dat als individu negatief vind?
We nemen een casus, er wordt een AI gemaakt die er voor zorgt dat de bevolking niet klaagt op de overheid en we nemen de meest ruime vorm waar in we de AI zelf laten bepalen hoe die dit doet. Klagende burgers zijn een probleem, dus wat doen we dan als we denken als een AI en dit nummer omlaag moet? Wat als er minder burgers zijn die klagen en we proberen een killer-robot routine uit? De overige burgers zijn nu te bang om te klagen en het doel is behaald. Heel effectief, dus opslaan en volledig killer robot belijd. Niet meer klagen als je wil leven. Maar goed dat wil niemand en ook de EU niet dus we voegen een regel toe dat de AI er niet voor moet zorgen dat mensen dood gaan. De AI komt tot de conclusie dat mensen niet klagen als zij niets weten en gaat over in de volledige censuur stand. Als dan blijkt dat mensen dit omzeilen gaat de AI verder en traint deze manieren waar mensen dit op omzeilen, als dergelijke patronen gedetecteerd worden zij automatisch afgesloten van Internet en kunnen zij niet klagen. Maar ook dat blijkt niet te werken want ze organiseren zich in real life. En zo kun je wel een tijdje door gaan.

Het is natuurlijk lekker speculeren en via de accountability valt het wellicht mee, maar vergeet niet dat AI altijd de makkelijkste weg zal zoeken die het meeste op levert. En dan zijn zaken als censureren of dingen verslechteren om een doel te behalen toch wel erg snel gedaan.
Wel goed dat ze dit doen. Heb eens een docu gezien waarin werd verteld dat in de US nu al AI gebruikt wordt voor screening van verzoeken voor vrijlating onder borg (parole).
Daarbij bleek dat als je zwart bent je veel minder kans hebt om door de software als "geschikt" bevonden te worden dan een blanke. Dit waarschijnlijk omdat er meer zwarten dan blanken in de gevangenis zitten.
Maar niemand doet er iets aan want ja, "de software zegt dat...". En het was niet bewezen enzo...

Heel schadelijke zaak dit!

Dat soort meuk moeten we niet hebben hier in de "beschaafde wereld".
3 regels zijn toch voldoende?
https://en.wikipedia.org/wiki/Three_Laws_of_Robotics

1. First Law: A robot may not injure a human being or, through inaction, allow a human being to come to harm.
2. Second Law: A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
3. Third Law: A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.


Om te kunnen reageren moet je ingelogd zijn


OnePlus 7 Microsoft Xbox One S All-Digital Edition LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Sony PlayStation 5

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True