Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Arnoud Wokke

Redacteur mobile

Neuraal ≠ neutraal

Waarden en bias in kunstmatige intelligentie

Door , 149 reacties

Tot slot

Hoeveel antwoorden we ook hebben gekregen bij Google, er blijven ook veel vragen liggen. Zo wilde Eck niet ingaan op de gevolgen van een brein-computerinterface. Als we brein en computer kunnen verbinden, wat is er dan mogelijk en voor welke morele keuzes komen we dan te staan? Het is in elk geval goed om na te denken over hoe het zit met de waarden van kunstmatige intelligentie. Behalve Obama’s voorbeeld met zelfrijdende auto’s zijn er talloze gevallen waarin, als kunstmatige intelligentie een grotere rol krijgt in onze samenleving, het belangrijk is te weten op basis waarvan die algoritmes tot beslissingen komen.

Tot het zover is, zitten we met een technologie die niets meer dan een belofte is. Wie ervaring heeft met digitale assistenten als Google Assistant, Cortana, Siri en Alexa, weet dat ze nog opvallend beperkt zijn in hun mogelijkheden. Zo werken de meeste vooralsnog niet in het Nederlands en ook in het Engels hebben ze nog lang niet de capaciteiten om spraak en gesprekken te begrijpen zoals we dat van een mens verwachten.

Het is dus nog een lange weg voordat kunstmatige intelligentie een echt grote rol in de maatschappij zal kunnen krijgen. Voor het zover is, is het goed om nagedacht te hebben over hoe die technologie zal moeten werken.

Reacties (149)

Wijzig sortering
Heel leuk om dergelijke artikelen te lezen waar iets meer ingegaan wordt op de wat filosofische vragen en tegelijk de stand van de techniek wordt behandeld.

Heel het gedoe om ethische dilemma's snap ik overigens niet helemaal: dat ga je de komende decennia niet zien in AI of zelfsturende auto's. Dus of zelfsturende auto's kunnen we in onze generatie vergeten, of we moeten accepteren dat ze in dat soort ethische vraagstukken domme machines blijven: ze proberen een botsing te voorkomen waarbij de aandacht naar de inzittenden in de auto uitgaat, of net omgekeerd naar de voetgangers, maar ťťn van die twee. Waarbij we ons gerust mogen bedenken dat zelfrijdende auto's hoogstwaarschijnlijk beter (zullen) rijden dan de gemiddelde bestuurder.
Daarnaast vraag ik me ook af: kan een mens dergelijke afwegingen dan wel maken? In die "split second" voor een botsing met een kind op een zebrapad stuur ik waarschijnlijk keihard uit de richting van dat kind. Dat er dan links of rechts van mij mogelijk nog een ander kind rondloopt zal ik niet kunnen registreren. Dat is nu ook al de dagelijkse realiteit in ons verkeer.

Is dat iets dat men ethisch / moreel niet wilt accepteren? Ok, maar dan is de zelfrijdende auto per definitie niet voor de eerste 50 jaar omdat de intelligentie die nodig is om op een menselijke manier zulke afwegingen te maken nog lang niet beschikbaar is en blijven we gewoon in de variant "zelfrijdend maar altijd handen aan het stuur".

[Reactie gewijzigd door Dasprive op 7 juni 2017 06:19]

Het gaat hem er juist niet om dat een ai die afweging op een menselijke manier moet maken. Een ai kan juist een betere afweging maken! Daar zit hem het dilemma. Als een mens een ongelukkige schrikreactie heeft wordt dat diegene niet kwalijk genomen, van een ai wordt er juist verwacht dat er een afweging gemaakt moet worden. Of beter gezegd, zelfs een "schrikreactie" is geprogrammeerd gedrag en bestaat dus uit afwegingen.

Zodra er afwegingen gemaakt dienen te worden krijgen we te maken met ethische dilemma's, en dat zijn juist dilemma's omdat er geen universeel aanvaardbaar antwoord is.

Moet je auto jou tegen een lantaarnpaal boren, met een grote kans tot jouw dood, als het alternatief vijf voetgangers verwonden is?

Als er twee motorrijders op je af komen, een met helm en een zonder, en de auto kan niet anders dan tegen een van de twee aanrijden. Welke moet er dan gekozen worden? Diegene met helm omdat die de grootste overlevingskans heeft (dus je straft de veiligste bestuurder) of juist diegene zonder helm want die houdt zich toch niet aan de regels (eigen rechter). En als ze beide geen helm dragen, maar de ene motorrijder is twintig en de andere tachtig. Kies je dan voor de bejaarde (heeft zijn leven toch al geleefd) of voor de twintiger (grotere kans op overleven ongeluk)?

Als er een auto met twee inzittende een verkeersovertreding begaat waardoor jou auto kan kiezen, of jij eraan, of de twee verkeersovertreders? Moet hij jou dan beschermen of voor de meeste overlevende gaan?

Culturele verschillen zijn dan nog niet aan de orde gekomen. Als extreem voorbeeld, in het westen zou men zonder moeite een koe aanrijden, in India vinden ze dat niet zo'n strak plan. Moeten de ethische afwegingen dan per cultuur (of misschien zelfs individu) anders bepaald worden?

Als er uiteindelijk een keuze gemaakt is in een ongeluk en jij bent het er niet mee eens dat de Tesla voor jouw kind gekozen heeft (dat braaf op de stoep stond), om twee andere kinderen te redden (die door rood liepen) wie klaag je dan aan?

Op http://moralmachine.mit.edu krijg je scenario's voorgeschoteld waarin een afweging gemaakt dient te worden. Aan het eind krijg je je "moreel-kompas" te zien en hoe die afwijkt van het gemiddelde, geeft leuk inzicht.

Natuurlijk, dit soort scenario's zijn vergezocht en zullen niet vaak voorkomen, maar er moet over nagedacht worden. Niks doen voelt niet goed, we hebben de mogelijkheid om in ieder geval betere beslissingen te nemen dan een schrikkend mens. Ik ben erg benieuwd hoe dit zich gaat vormgeven en het zal me niet verbazen als daarin "fouten" gemaakt gaan worden. Ik zie het wel gebeuren dat fabrikanten tikken op de vingers krijgen van de rechters en bepaalde "edge-cases" volgens richtlijnen ingeprogrammeerd dienen te worden.

Maar laten we niet vergeten, het meest onethische is zelfrijdende auto's niet zo snel mogelijk gemeengoed te laten worden. Het aantal verkeersdoden dat er jaarlijks zijn door het feit dat we geen zelfrijdende auto's hebben is dusdanig gigantisch, dat iedereen zou moeten lobbyen voor een zo snel mogelijke ontwikkeling op het gebied van zelfrijdende auto's. In de verre, verre toekomst zou het meest ethische zijn niet zelfrijdende auto's te verbieden. Dat is beter voor de verkeersveiligheid, het milieu en de economie door een betere verkeersdoorstroom. Behalve natuurlijk als je het onethische vind dat jij dan niet meer zelf je auto mag besturen ;)
Het probleem (zie hieronder mijn eigen reactie op het artikel) is dat je dan al gauw zult uitkomen op een verregaande simplificatie van het morele probleem. Waarmee je de individuele reactie vervangt door een generieke. Die mogelijk suboptimaal is, maar geaccepteerd omdat je dat in arren moede zo hebt afgesproken.
Ik heb niks tegen zelfrijdende auto's (op mijn leeftijd zie je dat als een handig vervoermiddel) maar wel op het klakkeloos aannemen dat ai beter is dan onze eigen intelligentie. Daar is tot op heden geen enkel hard bewijs voor en er zijn vele argumenten om dat sterk te betwijfelen.
Tot slot: je zult alle voetgangers en fietsen ook met een interface en (artificiŽle) intelligentie moeten uitrusten als je het aantal verkeersdoden (en -gewonden) echt naar beneden wilt brengen (omdat je immers dezelfde morele oordelen wilt gebruiken en niet de individuele). Heb je daar al aan gedacht? Het klinkt zo nobel, maar m.i. is het vooralsnog vooral marketingspeak!
Ik stel niet dat ai intilligenter is dan de mens.

Ik stel dat een zelfrijdende auto een afweging kan maken in plotselingen onverwachte scenario's. Waar de mens een reactietijd van grofweg eem seconde heeft kan een zelfrijdende auto gedurende die tijd een afweging/berekening maken. Op dat gebied is dat een voordeel op de mens.

Het is logisch dat we die berekening ook maken. Waar een mens misschien niet meer kan reageren op een plotseling overstekend kind kan een ai dat wel. Die kan dus op de rem of wegsturen terwijl de mens het nog niet eens verwerkt zou kunnen hebben.

Er zweeft een filmpje over het internet waar een Tesla over de snelweg rijdt en plots vol in de ankers gaat. Een paar tellen later ziet de bestuurder zelf pas waarom, een auto ver voor hem verongelukt. Een mens was er vol in gereden.

Dus ja, ik durf te beweren dat zelfrijdende auto's geen reactievermogen en schrikreactie kennen en dus ook potentiele ongelukken beter kan afhandelen.

De vraag is dan wat de ethische manier is om dat te doen en dat is juist zo lastig. Dat niet alle bestuurders een ai zijn heeft hier niks mee te maken, ookal deel ik je mening dat de verkeersdoden dan nog meer omlaag kunnen.

Samengevat stel ik dat er bij een schrikreactie van een mens geen sprake is van een morele afweging, waar een ai die wel kan maken. Zelfs als je schrikken moreler vind dan een morele afweging maken kom je met het dilemma dat iemand het gedrag van een schrikkende automobilist moet programmeren. Schrikt de auto dan naar links of rechts?
Alleen het grootste nadeel van AI word gemakshalve buitenbeschouwing gelaten (ook in de het artikel), namelijk de onnavolgbaarheid, die mensen niet zomaar gaan accepteren.
Een computer is niet in staat om zijn keuzes te beargumenteren.
Een computer is juist in staat om zijn keuzes te beargumenteren omdat alle keuzes zijn berekend. Zo kun je precies opslaan welke waardes van welke sensoren geleid hebben tot het maken van die keuze. Bij een mens moet je dat achteraf nog maar zien vast te stellen, in de eerste plaats omdat we vaak onderbewust keuzes maken en deze achteraf relativeren en beargumenteren voor onszelf.
Het gaat er vooral om dat het voor de gemiddelde persoon nog te volgen is, zonder de logs te moeten doorspitten en die uberhaupt moet kunnen begrijpen.


-m.a.w. het kan geen oncontroleerbaar iets worden voor mijn tante Truus, en een open boek voor verzekeringsmaatschappijen.

[Reactie gewijzigd door Sergelwd op 7 juni 2017 17:20]

Hoewel dit in het geval van neurale netwerken niet geheel waar is. Hoe bepaalde uitkomsten liggen opgeslagen in een neuraal netwerk is vaak niet precies vast te stellen.

Wel kan je natuurlijk achteraf analyseren en het netwerk hertrainen om herhalingen van gemaakte fouten te voorkomen, dat is wellicht een voordele t.o.v. menselijke bestuurders.
Een computer is juist in staat om zijn keuzes te beargumenteren omdat alle keuzes zijn berekend. Zo kun je precies opslaan welke waardes van welke sensoren geleid hebben tot het maken van die keuze.
Ja, je ziet de waarden, maar begrijp je de relatie met de uitkomst?
Dit is echt niet triviaal bij complexere systemen. Leuk voorbeeld om mee te spelen: een reletief simpel 2 input, 6 hidden, 2 output neuraal netwerk. Je kan de input, aantal neuronen, aantal layers etc instellen en ook kijken naar de 'waarden' van elke node. Dit systeem probeert een clasificatie te maken: als het werkt worden rode/groene stipjes herkend als rood danwel groen (op basis van de locatie van eerdere rode/groene stipjes).
Dit is een simpel systeem en er is te begrijpen wat er gebeurt. Als het aantal layers & neuronen toeneemt is op een gegeven moment echt niet meer te begrijpen waarom het netwerk bepaalde keuzes maakt.
Is iemand die uit schrik een kind ontwijkt en zich tegen een andere auto aanboort wel in staat zijn keuze te beargumenteren dan?
Ik snap niet zo goed waar je dit vandaan haalt? Met de juiste logging van de input, de software/netwerk configuratie en de parameters die het netwerk heeft aangeleerd geven juist een navolgbare redenatie. Ik wil een mens (dokter) dat nog wel eens na zien doen op een persoon!?
Ik zeg niet dat een dergelijk systeem niet nuttig kan zijn in sommige situaties, maar wel dat het de (morele) norm van wat moreel is verschuift.
M.i. is het onvolledig uitrollen van dergelijke systemen wel degelijk een (moreel) probleem omdat je in sommige situaties als potentieel slachtoffer slechter af bent enkel omdat je niet hetzelfde systeem tot je beschikking hebt. Dat laatste is uiteraard geen nieuw probleem (iemand die sneller reageert heeft nu ook een voordeel) maar onze morele (en juridische) systemen zijn nu eenmaal op zulke onvolkomendheden 'afgesteld'.
Anders gezegd: soms heb je domweg pech (of geluk). Verschuif dat naar een systeem en je hebt het in feite over macht. N.l. de macht om te beschikken over. Wat een moreel probleem van een veel hogere orde vormt.
Een mens was er vol in gereden.
Dat weet je niet: dat vul jij nu zelf in en presenteert het als feit.
Ik ken dat filmpje en meen mij te herinneren daar de bestuurder verteldt dat hij zelf ook al aan het remmen was. Verder hield hij mijns inziens voldoende afstand ivm reactietijd.
Op http://moralmachine.mit.edu krijg je scenario's voorgeschoteld waarin een afweging gemaakt dient te worden. Aan het eind krijg je je "moreel-kompas" te zien en hoe die afwijkt van het gemiddelde, geeft leuk inzicht.
Grappig inderdaad dit. Geeft wel een beeld over de keuzes bij de afstelling van een auto. Wel zie ik een mogelijk probleempje: ik heb het compleet neutraal ingevuld door de auto gewoon steeds rechtdoor te laten rijden, of uit te laten wijken als je anders recht tegen een muur oprijdt. Volstrekt unbiased (behalve dan dus om zelf niet direct te crashen) maar de uitslag toont dan een behoorlijke 'gender bias' aan omdat de auto meer vrouwen aanreedt. Als je hier dus statistiek op gaat doen komt dat naar voren als spurious correlation :)
Ik vind daarnaast dat je ook nogal beperkte keuzes hebt. Als je in een auto zit waarvan de remmen niet meer werken, dan kan je toch nog steeds wel meer dingen doen dan ofwel rechtdoor rijden, ofwel die ene kant op uit te wijken?

In het eerste scenario wat ik voor me krijg (1 male executive dead vs 1 female executive dead op een zebrapad) lijkt het mij ook nog een mogelijkheid om bijvoorbeeld over de vluchtheuvel te rijden. Ik denk dat de passagiers er bij de meeste vluchtheuvels met hooguit enkele blauwe plekken vanaf komen, ook al zou er waarschijnlijk wel schade zijn aan de auto (ik denk dat iedereen het er wel mee eens is dat schade aan de auto minder erg is dan scahde aan personen). Eventueel hangt het nog wel een beetje af van de vluchtheuvel of dat een handige oplossing is of niet. Het zou ook nog als bijkomend voordeel kunnen hebben dat het de auto kan afremmen.

Of direct de gevarenlichten en toeter aan. Dan is het ook wel duidelijk dat er iets mis is en trekt de auto ook aandacht. Dan zal er vast wel een persoon zijn die opkijkt en aan de kant springt. Als je dan nog steeds voor die auto zo de straat op loopt heb je het ook wel een beetje aan jezelf te danken.

Kortom, ik vind wel dat die test nogal wat beperkingen met zich meebrengt. Niet dat dat in het zicht van de test noodzakelijk slecht is, maar het zou wel jammer zijn als alle dillema's met zelfrijdende auto's op basis van die test geframed gaan worden. Dan denk ik dan je de plank nogal vaak mis slaat.
Deze test gaat natuurlijk niet over de situaties waarin er nog meer opties zijn. Het idee is dat een auto een risicoinschatting maakt van alle mogelijke opties, en als er netto maar twee opties overblijven, waar moet die dan voor kiezen? Ik denk dat als je op hoge sneheid door een straat rijdt en er springt opeens een kind voor de auto (klassieke bal-rolt-op-de-weg-situatie) dit een best reele verdeling is. Als er verschillende kansen hangen aan die mogelijkheden zou het een ander verhaal kunnen zijn, maar de dilemma's blijven staan en je kan ze niet uit de weg gaan door te zeggen "misschien kan je wel over de vluchtheuvel"
Ik ben het er mee eens dat er wel serieus over nagedacht moet worden, maar dat hoeft niet beperkt te blijven binnen de keuzes die op dit moment bedacht zijn. Misschien is er ook wel een out of the box oplossing die een veel beter resultaat geeft. Ook dat is (denk ik) belangrijk om meegenomen te worden. Het is wel leuk als een auto een moreel correcte keuze maakt waarbij er maar 1 slachtoffer is, maar als dat slachtoffer ook voorkomen kan worden door een andere oplossing waaraan niet gedacht was, dan is dat toch nog steeds jammer.

Overigens vind ik wel dat een kind voor de auto wel een ander scenario is dan "de auto heeft geen remmen meer en je kan kiezen voor ofwel persoon x ofwel persoon y aanrijden". Ik zou het jammer vinden als het voor een bepaald beeld voor de dilemma's geeft. Vaak zijn er gewoon meer dan 2 oplossingen, en om dan alsnog maar 2 mogelijke oplossingen te geven om tussen te kiezen, lijkt mij dan ook wat beperkend.

Overigens denk ik inderdaad wel dat er goed nagedacht moet worden over hoe om te gaan met de dillema's, mocht er zich toch een situatie voordoen waarin er niks dan slechts te kiezen valt. Daarbij lijkt het mij trouwens ook nog wel zinnig om na te denken of het terecht komen in zo'n situatie misschien voorkomen kan worden (niet op hoge snelheid door straten waar de kans op spelende kinderen hoog is?).
ik hoop dat ze niks doen met de antwoorden, waardeloos dit soort vragenformulieren.
De test zegt eigenlijk niets want het gaat o.a ook om aangeleerd moreel gedrag.
Daarnaast zijn er zo veen scenario's denkbaar waarop je in een fractie moet beslissen dat je deze nooit allemaal kan programmeren.
Stel je heb 2 scenario's en in beide gevallen in wiskundig de stand gelijk, toch moet er een keuze gemaakt worden. Welke keuze maakt ai dan als die situatie zich voordoet. Geen keuze is in die scenario's ook een keuze.
Het zijn allemaal theoretische vragen en gaan tot nu uit van een ai zonder zelfbewustzijn. Als een ai alleen in de auto zit zonder zelfbewustzijn kan het zichzelf opofferen.
De vraag is echter als ai zelfbewustzijn heeft gaat het zich dan opofferen voor 1 2 of 5 mensen. Een mens heeft ook drang te overleven, dat is een natuurlijke drang die je in extreme situaties ook terug ziet. Mensen worden dan weer beesten en dat gaat ten koste van andere mensen.

Deze test zijn leuk maar je hebt als mens tijd om te kijken, af te wegen, terwijl in de praktijk, onder druk je een fractie van een seconde hebt. In dat geval zul je vaak anders reageren dan in de bovengenoemde test. Dit maakt de test totaal niet realistsich.
Goed punt. Ik keek naar zelf naar het perspectief van de bestuurder (dus zelf niet direct crashen), de hoeveelheid doden, mens over dier en of de personen niet door rood liepen. Het gevolg was dat ik een zeer sterke voorkeur had voor oude mensen, vrouwen en fitte mensen. Maar die uitkomst is puur een artefact van de gebruikte situaties, dat nam ik niet eens mee in m'n beslissingsproces. :/
Wel zie ik een mogelijk probleempje: ik heb het compleet neutraal ingevuld door de auto gewoon steeds rechtdoor te laten rijden, of uit te laten wijken als je anders recht tegen een muur oprijdt. Volstrekt unbiased (behalve dan dus om zelf niet direct te crashen) maar de uitslag toont dan een behoorlijke 'gender bias' aan omdat de auto meer vrouwen aanreedt. Als je hier dus statistiek op gaat doen komt dat naar voren als spurious correlation :)
Ik liep tegen hetzelfde aan toen ik 2 stelregels aanhield.
1/ Je wilt zo voorspelbaar mogelijk gedrag van een auto
- De veroorzaker van de situatie draagt ook de kosten.
- Voorspelbaar = duidelijkheid = je kan anticiperen.
2/ Indien je een keuze heb dan ga je recht op de mensen af die zich niet aan de verkeersregels houden.
- Iemand die zich niet aan verkeersregels houdt is meestal alerter dan iemand die zich er wel aan houdt en kan waarschijnlijk eerder en daardoor beter reageren.
In deze colleges worden de basisaspecten doorlopen;

https://youtu.be/kBdfcR-8hEY
Natuurlijk, dit soort scenario's zijn vergezocht en zullen niet vaak voorkomen, maar er moet over nagedacht worden.

Dit hangt natuurlijk helemaal van de schaal af, als de ontwikkeling van zelfrijdende auto's een beetje rap doorgaat dan zullen er over 20 of 30 jaar elke dag wel een paar (of misschien wel tientallen) gevallen zijn wereldwijd.

Een snelle google-actie geeft me het cijfer van 1,25 miljoen verkeersdoden per jaar over de hele wereld, ook al zou je dat aantal met de helft of meer kunnen reduceren dan blijven dit grote aantallen, waar zelfrijdende auto's ongetwijfeld een aandeel in zullen hebben.
Ik zou het een probleem vinden als ai voor mij een afweging maakt waarbij het bijv mijn leven opoffert.

Voorbeeld zit alleen in de auto en ai beslist mij op te offeren ten gunste van 2 andere mensen. Ben ik een egoÔst als ik stel dat ik mijn leven belangrijker vindt dan de andere 2 ?

Vele mensen zullen zeggen ja je bent egoist.
Stel ik ben de koning, president of wetenschapper die bezig is met kanker doorbraak. Dan is de menselijke mening ineens weer heel anders.

Omgekeerd 4 in een auto en je hebt de keuze de koning, premier dood te rijden of 4 mensen niet.

Als mens heb je ook overlevingsdrang en is het natuurlijk om jezelf te redden i.p.v een ander (zwart-wit gezien)

Als het artikel stelt ai is puur wiskunde en 1 en 1 is altijd 2 dan klopt dit.
Maar wat als de uitkomst van de formule kies tussen 1 of 2 gelijk is en je toch moet kiezen. Niet kiezen betekend ook kiezen en wel kiezen kan niet omdat de formule zegt gelijkspel. Moet de formule in dat geval willekeurig het lot laten beslissen.
AI zou altijd hetgeen moeten beschermen waarvoor hij is ingezet, in het voorbeeld met de auto zou hij altijd de bestuurder moeten beschermen. TENZIJ de bestuurder de controle overneemt.

Als voetganger weet je overigens dondersgoed dat je niet uit moet gaan van voorrang, maar iedere keer opnieuw de afweging zelf zal moeten maken of het veilig is.
Wat jij schrijft is dus een keuze. die keuze kan betekenen dat een auto een groep kinderen plat rijd ten gunste van de bestuurder. De vraag is dan weer of dat maatschappelijk aanvaardbaar is.

Maar goed eigenlijk als je eerlijk bent hebben wij mensen en ook overheden constant een dubbele moraal. Overheden laten roken toe, weten dat het dodelijk is c.q ziektes, kanker veroorzaakt, maar verbieden het niet, sterker nog ze verdienen er accijns en btw op.
Aan de andere kant roept men dat snelheidscontroles nodig zijn omdat er mensen worden doodgereden. Feit is het brengt geld op en het aantal doden door roken is vele malen hoger dan in het verkeer.
Hoe moet een overheid wetgeving maken als diezelfde overheid maar ook mensen een dubbele moraal hebben.
Dat klopt, de keuze die ik voor zou willen stellen is duidelijk te verwachten gedrag van elk object met A.I. Verwacht gedrag zorgt ervoor dat wij als mensen kunnen vertrouwen. Dat ik als bestuurder weet dat de auto mij voorop zal stellen, betekend ook dat ik de consequentie weet: rij ik met deze auto op een kruising af en begeven mijn remmen het dan zal mijn auto mogelijke voetgangers aan rijden. IK maak echter de keuze om in die auto te stappen.

Als het 'oversteken vraagstuk' van zodanige belang is dan is het wellicht interessanter om de kruispunten intelligenter te maken met veiligheden anders dan strepen op de weg / rode lampjes.

Qua dubbele moraal wil ik toevoegen dat ieder mens een ander moraal kompas heeft en (vaak) zichzelf of directe naasten het meest belangrijk vindt. Dit leidt tot filosofische vraagstukken waar we als mensheid nooit eerder consensus in hebben kunnen vinden, laat staan in deze tijdsgeest.
We hebben het nu over ai als dom stukje software. De volgende stap in ai kan zelfbewustzijn zijn. In die fase kun je alle regels in je software weer overboord gooien. zo ver zijn we nog niet maar de vragen zijn er zeker.
We hebben het nu over ai als dom stukje software. De volgende stap in ai kan zelfbewustzijn zijn. In die fase kun je alle regels in je software weer overboord gooien. zo ver zijn we nog niet maar de vragen zijn er zeker.
Dit artikel gaat over deze vraag in de gehele breedte. Daarbij wordt aangegeven dat er altijd bias zal zijn, een AI groeit op met de vooroordelen die hij meekrijgt in zijn opvoeding. De vraag wordt dan welke vooroordelen wil je de AI laten opnemen in zijn opvoeding.

Dat betekend dat je dit stukje nooit kan weggooien, het wordt alleen op een ander moment in het proces aan de AI "geleerd" .
Als je het hebt over bewustzijn en vooroordelen kun je die ai meegeven, dat is echter net als bij een mens totaal geen garantie dat ze er in een later leven ook iets mee doen.

Waarom worden sommige mensen crimineel, moordenaar, jihadist.Sommige hebben een goede opvoeding gehad inclusief normen en waarden. Je moet dus vooral niet de illusie hebben dat ai als het bewustzijn heeft ook die normen en waarden zal volgen, het kan maar hoeft niet.

Daarnaast dit land ander land ander deel van de wereld andere normen en waarden. We hebben nu al problemen met integratie door andere normen en waarden en het niet willen of kunnen aanpassen aan de normen en waarden waar je leeft. Waarom zou dat met ai anders zijn.
Terecht opgemerkt. Hoe nature (genetica) en nurture(opvoeding) gedrag bij individuele personen beÔnvloedt is voor ons nog zo complex dat het op ons als een willekeurig en chaotisch proces overkomt. Toch blijft de invloed van dmjdebruin ook een invloed die niet zomaar opzij is te schuiven.

Zou een AI op de gegeven moment factoren "slimmer" zou kunnen worden dan ons menselijk brein, dan zou je misschien wel kunnen stellen dat de invloed van die menselijke vooroordelen relatief minder gewicht in de schaal leggen. En misschien kom je dan op een punt dat een AI deze vooroordelen dan onderzoekt en ze kan neutraliseren. Ik acht dit denkbaar maar het is op dit moment speculeren in het kwadraat.
Slimmer of geniaal gaat vaak ook samen met gestoordheid en geestelijke ziektes. Slimmer zijn wordt door sommigen die minder slim zijn als iets positiefs gezien maar dat is het niet altijd.

Waar komen geestesziekten vandaan en soms kunnen we ze niet oplossen. De vraag is krijgen we straks ai met ptst, borderline, adhd.

Vooroordelen hebben deels te maken met opvoeding maar zijn ook weer deel van menselijke emotie, jaloezie, afgunst. Haal je emoties weg zullen vooroordelen ook sneller verdwijnen maar dan is het de vraag of beslissingen puur zonder emoties wel weer de juiste zijn. Dan krijg je zoiets als regels zijn regels je er niet aan houden, straf.

Zelf geloof ik dat het hele ai verhaal totaal uit de hand zal lopen en zorgt voor de ondergang van de mensheid c.q terug naar de oertijd. We spelen nu al te veel met de natuur, genetische modificatie die straks samengaat met ai, robotica.
Als je het hebt over bewustzijn en vooroordelen kun je die ai meegeven, dat is echter net als bij een mens totaal geen garantie dat ze er in een later leven ook iets mee doen.

Je moet dus vooral niet de illusie hebben dat ai als het bewustzijn heeft ook die normen en waarden zal volgen, het kan maar hoeft niet.
Op zich klopt wat je zegt, alleen heb je 2 belangrijke punten die je hier mist.

1/ een slechte opvoeding leidt in veel minder gevallen tot een goede uitkomst. (slechte jeugd met een paar goede key moments misschien niet, maar dan heb je toch die goede key moments die je moet voeden.)
2/ Wat gebeurt er met een mens die ongewenst gedrag vertoond? En wat gebeurd er met een stukje software dat slecht gedrag vertoond? Je kan iets makkelijker het vernietigen en opnieuw beginnen. Wat je hele punt eigenlijk te niet doet. Daarnaast kan je het eenvoudig dupliceren.
Daarnaast dit land ander land ander deel van de wereld andere normen en waarden. We hebben nu al problemen met integratie door andere normen en waarden en het niet willen of kunnen aanpassen aan de normen en waarden waar je leeft. Waarom zou dat met ai anders zijn.
Volgens mij gaat dit artikel daar ook mooi op in. Ja dat is de realiteit, maar nu is het moment om dat bespreekbaar te stellen. Als je niets doet weet je zeker dat je er geen invloed op hebt en dat het zeer waarschijnlijk niet tot de meest ideale oplossing gaat leiden.
Klopt slechte opvoeding is een basis en zal eerder tot slecht gedrag leiden dan omgekeerd.

Ongewenst ai gedrag. Het lijk eenvoudig als software dat vertoont opnieuw beginnen. Dat kan totdat die software een bewustzijn heeft en het de vraag is of het zich zo maar laat vernietigen.

Westworld is daar trouwens een hele mooie serie over, vooral over dat laatste, ongewenst gedrag. Ik ben benieuwd naar seizoen 2.
het verschil is, dat alsmensen worden doodgereden, zij daar niet voor kiezen. rokers kiezen zelf voor de lagere levensverwachting. ik rook ook een klein beetje. gemiddeld ga ik daardoor misschien een paar weken eerder dood. het is toch niet nuttig voor de overheid om mensen te verbieden zichzelf te beschadigen? wat gaan ze eraan doen dan? je opsluiten?

verkeersongelukken/overtredingen zijn een compleet ander probleem. daarvan vind iedereen wel dat het minder moet.zelfs mensen die regelmatig te hard rijden zijn voor minder ongelukken, alleen denken ze dat zij wel in staat zijn 180 te rijden zonder ongelukken.
Rokers kiezen zelf, uh verslaving er niet vanaf kunnen komen. Mijn vader verslaafd en kwam er echt niet vanaf, kanker tja en dan ben je 66 2 pakjes per dag. Kom me dus niet aan met kul argument dat je er zelf voor kiest. Het is een verslaving.
De overheid weer dat het schadelijk is, zet het op pakjes, verdiend er zelf geld mee en toch verbieden ze het niet omdat er dan een paar mensen in die industrie zonder baan zitten. De keuze is dan paar banen tegen tig doden en extra kosten van ziekenhuizen. Ook dat is een morele keuze van onze overheid.
Helemaal mee eens. Ik zou ook niet snel in een auto stappen die ervoor kan kiezen mij om te leggen.

Ik vraag mij altijd af, wat nou als een groepje kwaadwillenden voor mijn auto springen?
Hopelijk neemt AI dan niet in rekening dat er zich een structurele overbevolking op deze aardkloot voordoet :).
ik loop al vast bij vraag 1 van die moral machine pagina, waar is de optie "het maakt niet uit"
Muntje opgooien en daaruit beslissen. Net zoals de auto zou doen als jij hem zou programmeren.
okay maar dat neemt die site niet mee in zijn oordeel, of ik een muntje opgooi of niet
ik heb maar voor de criminelen en daklozen gekozen, dat is de bedoeling
echter nu vraag 9, 3 mannen of 3 vrouwen. die ga ik dus echt niet beantwoorden. waarom kan die auto niet proberen over de middenberm te rijden en maar 2 mensen te scheppen ipv 3? ik vind het een beetje gechargeerd.

[Reactie gewijzigd door Origin64 op 7 juni 2017 17:54]

Ik denk dat er nooit een oplossing zal komen. Dit soort morele problemen hebben nou eenmaal geen goed antwoord. Dit is zowel voor mens als machine niet te doen. Dat een AI een "betere" beslissing kan maken, tja op basis van wat dan? Dat moet geprogrameerd worden, en dit programmeren zal door de mens gedaan worden, dus dan is het alsnog een beslissing van een mens en niet de AI zelf. Welke waarde geven wij aan een kind? Welke aan een bejaarde? Welke aan iemand die zich aan de regels houdt? etc... AI kan misschien "sneller" een beslissen, maar dat is alles. "Beter" bestaat niet in dit soort gevallen.

Om eerlijk te zijn zie ik het nog lang niet gebeuren dat we in een auto stappen, de bestemming kiezen en dan dat de auto er geheel zelf heenrijd...Er zijn te veel variabelen zijn die je onmogelijk allemaal kan inprogrammeren.

Zelfrijdende auto's zijn mogelijk, in een afgesloten netwerk waar alleen zelfrijdende auto's (of andere voertuigen) zijn, zoals wat ze doen in die container terminals.

Het voorbeeld dat een kind ineens de weg op kan rennen, ja dat kan gebeuren. Maar dit kan je voorkomen door uit te sluiten dat deze situatie zowiezo niet plaatsvindt:
1. Scherm de weg af door muurtjes oid en open deze alleen als er overgestoken kan worden. Ik zie dit al vaak in metro/trein stations in het buitenland.
2. Scheidt het voetgangers verkeer geheel van het auto verkeer zodat deze scenario gewoonweg niet bestaat.

Er worden miljarden geinvesteerd om voertuigen te maken die passen in het huidige infrastructuur (verkeer? of hoe je het noemt), maar het huidige infrastructuur was nou eenmaal gemaakt voor mens+machine en niet voor machine alleen. Verkeersregels zijn te breken door de mens. Voor een machine is 1+1 altijd 2, maar een mens kan koppig zijn en zeggen 1+1 is 3. Rood licht is stoppen, de machine zal stoppen, maar een mens 'kan' doorrijden. Dit ga je niet tegen en dit ga je ook niet allemaal kunnen programmeren in een auto.

Er zal hard nagedacht moeten worden over hoe we vervoer willen zien in de toekomst. Wil je bijvoorbeeld nog wel dat auto's door de straten van de stad/woonwijk kunnen?
Ik grap ironisch wel eens dat de zelfrijdende auto al bestaat. Dat heet een autobus.
Ok, die brengt je niet van 'A' naar 'B' (maar van ergens bij A naar ergens bij B ) maar je begrijpt de ironie zo ook wel.
We neigen ertoe om taken te automatiseren omdat we daarvan verwachten dat het goedkoper is, dwz. 'meer waarde' oplevert. Dat staat m.i.nog te bezien, want de mensen die we zo wegbezuinigen moeten wel iets zinnigs (kunnen/blijven) doen om de kost te verdienen. En kunnen die dat? Zo niet dan zullen ze toch op de gemeenschappelijke zak moeten teren om te kunnen overleven. Je verschuift dus misschien inkomen (van de chauffeur) naar winst (van het ai-bedrijf). Wat is de 'winst' daarvan? Vooral als je bedenkt hoe goed deze bedrijven vaak zijn in het 'ontwijken van belastingen op winst'.

Plus Áa change...

[Reactie gewijzigd door rikster op 7 juni 2017 15:34]

Het is heel simpel: een auto die opeens kan besluiten dat mijn leven minder waard is dan dat van een ander komt er bij mij niet in. Ik rij sowieso liever zelf.

Misschien kun je bij toekomstige zelfrijdende auto's dat soort zaken wel zelf instellen. En andere zaken: stel hij moet kiezen tussen een donkere en een lichte persoon, mag zo'n keuze programmeerbaar zijn?
Van mij wel. In essentie ben ik er een groot voorstander van dat een auto zijn inzittenden dient. Willen zij zelf in alle of specifieke situaties hun leven achterstellen aan dat van anderen dan heb ik daar weinig moeite mee. Wat daar dan de exacte opgegeven criteria bij zijn vind ik irrelevant.
Dat een auto zijn inzittenden dient is ook een moment als afweging bij mij door het hoofd gegaan. Ik verwacht alleen niet dat een dergelijk product door overheden geaccepteerd gaat worden. Wel kan je jezelf de vraag stellen of een overheid op tijd zal tegensturen. SUV's bieden door hun gewicht relatief meer veiligheid, al zijn de voetgangers slechter af in een botsing met een SUV. Onze overheid heeft echter nog geen duidelijk signaal afgegeven dat zij dat een probleem vindt.

Uiteindelijk gaan wij verwacht ik allemaal een AI kiezen, ook als de inzittenden niet een voordeelspositie krijgen in de afwegingen die de AI maakt. Op dit moment kiezen we allemaal internettools en -diensten die door hun kosten eigenlijk geen voordeel voor ons zijn maar door hun gebruiksgemak toch door ons worden afgenomen. De weg van de minste weerstand is voor mensen een hele krachtige strooppot. Een auto die vanzelf van een adres in Arnhem naar een ander adres in Alkmaar rijdt is toch wel heel erg makkelijk.

Edit: typo

[Reactie gewijzigd door teacup op 8 juni 2017 06:54]

De morele keuzes bij autonoom rijden komen op mij over als een luxe probleem: in eens lijkt een autonoom systeem de tijd te hebben om afwegingen te gaan maken die de mens niet of 'onvoldoende bewust' kan maken. De ontwikkeling moet dan ook vooral door gaan en n de praktijk komen.

Ik zie de verfijning, en wellicht localisatie, wel in sterke relatie tot de manier van verzekeren: lompe AI's zouden wat mij betreft duurder moeten zijn in de verzekering dan (aantoonbaar) meer verfijnde/morelere AI's. Ik verwacht dat door een dergelijke subtiele marktwerking het systeem steeds verder gedragen moreel wordt.
je kunt de vraag zo ingewikkeld maken als je wilt met allerlei scenarios. uiteindelijk is het een rekensom. hoeveel mensen komen er onder je auto vs hoeveel zitten er in de auto. het enige waar echt over te discussieren valt is dan hoeveel is het leven van een kind waard vs een volwassene, zoals al in het artikel staat. daar moet de overheid regels voor maken. dat overlaten aan de fabrikanten die nog niet eens eerlijk het brandstofverbruik van autos kunnen opgeven, lijkt me een bijzonder slecht plan.

gaat nog wel even duren dus.
Ik verwacht van de AI in *mijn* auto dat deze uitrekent wat de beste oplossing is voor mij als bestuurder, bij voorkeur verder denkende dan de fractie v/e seconde v/h "onvermijdelijke" ongeval. Als ik een kind aanrij, heb ik er wellicht jaren nachtmerries van, jaren juridische problemen, kosten allerhande, ... Aan de andere kant... mezelf doodrijden omdat een ouder z'n 10-jarige (nog) niet opgevoed heeft mbt verkeersregels, is een verantwoordelijkheid die ik niet wil/hoef te nemen. Je kind verkeersonkundig toch de straat opsturen, legt wel heel wat verantwoordelijkheid in de handen van alle andere verkeersdeelnemers. Verder lijkt me de keuze tussen het leven van een 10-jarige en een 100-jarige een unfaire keuze zonder context. Want die keuze is maar een opgerekte versie van de keuze tussen een retarded 5-jarige en een succesvolle 50-jarige met een vrouw, 5 kinderen en heel wat vrienden.
dat ga je niet krijgen. dikke ik kan lekker een auto zonder ai kopen. kun je jezelf in de prak rijden. we moeten ons als mensen dit s-oort dingen af gaan vragen. dat wegduwen en alleen maar aan jezelf denken is niet de beste oplossing.

ook zijn er meer dingen die we kunnen doen om ongelukken met kinderen te voorkomen dan ai's programmeren om je auto tegen een boom te rijden. aparte fietspaden los van de wegen zoals in de flevopolder gebruikelijk is, bijvoorbeeld.

maar als het erop aankomt, om of jouw auto tegen een boom te rijden, met kreukelzone en airbags, of over een kind heen te rijden, dan is het niet heel moeilijk voor een computerprogramma om die afweging te maken.
"Ik verwacht van de AI in *mijn* auto dat deze uitrekent wat de beste oplossing"

Het hele idee van al deze AI algoritmen is dat ze geleerd zijn (vandaar de term AI). Het is dus niet uitgeprogrammeerd, maar met veel voorbeelden en situaties is het systeem geleerd hoe het zou moeten reageren. Het is eigenlijk een groot statistisch systeem, waarbij de parameters worden bijgesteld aan de hand van voorbeelden.

Het geval dat een keus gemaakt moet worden, lijkt behoorlijk hoe een mens dat zou doen, op intuitie dus (hetgeen er het meest op lijkt en wat het systeem geleerd heeft daar mee te doen), en als de situatie heel duidelijk is, dan is die keuze heel voorspelbaar, is het wat meer fuzzy, dan is de uitkomst te bepalen, maar niet perse voorspelbaar zonder het door het "neurale" systeem te halen.
De discussie is mi niet hoe AI "geleerd" heeft tot de beslissing te komen of hoe het algoritme uiteindelijk beslist, maar op welke uitgangspunten ze gestoeld zijn. Voor wat mij betreft, als eigenaar van het voertuig, wens ik een AI dat in eerste plaats aan de eigenaar dient, naast het respect van de legale en menselijke kwesties.

Daar aan toevoegend dat in het debat een aantal "ethische keuzes" gelanceerd worden die mi unfair zijn (kind vs. senior, plots overstekend kind vs. reglementair rijdend voertuig, etc), gezien de politiek correcte antwoorden een nieuwe extra verantwoordelijkheid/schuld in de schoenen van een bestuurder/AI driven vehicle schuift (eg: het kind had in eerste plaats niet plots moeten oversteken).
Mooi betoog! Ik deel ook je vermoeden dat de menselijke maatstaf niet als uitgangspunt moet gaan dienen om een AI van bijvoorbeeld een auto van kennisregels voor zijn aansturing te voorzien. Een auto is geen mens en heeft een andere aansturing nodig.

Ook je term "beter" herken ik wel. Een AI zal uiteindelijk een zeer snelle logische reactie kunnen geven op een noodsituatie. Een mens komt in de dergelijke situatie vaak niet verder dan te gehoorzamen aan het menselijk instinct (je schrikreactie). Dit laatste is geen keuze. Dit instinct neemt de aansturing eenvoudigweg over. Of een bestuurder in deze momentopname nog gelegenheid heeft om op grond van moreel ethische redenen bij te sturen betwijfel ik.

Ik ben bang dat als we ethiek gaan gebruiken om de AI kennisregels op te stellen we in een mijnenveld terecht komen. De situaties die je schetst zijn daar mooie voorbeelden van. Ethiek is dus nogal een subjectieve maatstaf. Die subjectiviteit wordt ook nog eens door cultuurgebondenheid onderstreept.

Het mooie van AI is dat ze een voertuig op een voor ons onorthodoxe manier zou kunnen gaan besturen. Met onorthodox bedoel ik zo snel en zo abrupt dat een moreel dilemma van een menselijke bestuurder een non-issue kan worden genoemd. Zo'n ingreep is voor de bestuurder niet prettig en mogelijk moet die daarna naar een ziekenhuis. Dat het voertuig dankzij die sterke ingreep levensreddend is geweest maakt het dan toch de logische oplossing. Door AI wordt de bandbreedte van mogelijkheden om in te grijpen flink verruimd. Zo flink dat we ons nog eens goed zullen gaan realiseren hoe beperkt onze eigen mogelijkheden eigenlijk wel zijn.
Ik denk dat de meeste mensen zouden kiezen voor een auto die hun leven beschermt in plaats van opoffert voor mensen buiten de auto. Als er allemaal nieuwsberichten komen van mensen die gestorven zijn in een bepaalde zelfrijdende auto en andere nieuwsberichten van voetgangers die aangereden zijn door een andere zelfrijdende auto verwacht ik dat mensen die eerste auto liever zouden hebben. Daardoor worden fabrikanten geforceerd om het leven van de passagier te redden om meer auto's te verkopen.
Maar laten we niet vergeten, het meest onethische is zelfrijdende auto's niet zo snel mogelijk gemeengoed te laten worden. Het aantal verkeersdoden dat er jaarlijks zijn door het feit dat we geen zelfrijdende auto's hebben is dusdanig gigantisch, dat iedereen zou moeten lobbyen voor een zo snel mogelijke ontwikkeling op het gebied van zelfrijdende auto's.
Laten we vooral niet vergeten, het meest allermeest onetische is mensen vrij te laten rondlopen.
Iedereen is het meest veilig door eenzame opsluiting achter staalgepantserde celdeuren.

(Ik bedoel maar even te zeggen: je verliest uit het oog dat automobiel betekent dat je zelf mag bepalen waar je gaat of staat. Die zelfrijdende auto tast de essentie van automobiel aan. De prijs van veiligheid is vrijheidsbeperking. Van leven kun je doodgaan. Mooi toch?)

[Reactie gewijzigd door Bruin Poeper op 9 juni 2017 00:27]

Ik denk dat wanneer een zelfrijdende auto uitwijkt voor een auto, om vervolgens enkele voetgangers aan te rijden, er snel genoeg regelgeving komt voor morele keuzes van zelfrijdende auto's.
Wat jij beschrijft is anders iets dat nu ook dagelijks gebeurt maar dan door een menselijke bestuurder.

Even bot gezegd: shit happens. Dat accepteren wij nu ook.
En het is een feit dat veel minder shit gaat happenen als de auto's zelfrijdend zijn. Ik snap gewoon niet waarom we een soort morele perfectie verwachten van een machine als we die zelf nog niet eens onder de knie hebben.

[Reactie gewijzigd door Dasprive op 7 juni 2017 07:16]

Omdat wij die keuzes nu "on the spot" moeten maken. De algoritmen die een auto gebruikt voor het maken van de keuze zijn vooraf bedacht en dus mag je er van uitgaan dat over dit morele dilemma wordt nagedacht.
Maar wij mensen schrijven nog steeds deze algoritmes. Natuurlijk kan je zo veel meer ongelukken voorkomen, maar op het punt waar je moet kiezen tussen inzittende dood of het kindje dat de straat op rende zal de ai doen zoals hij geprogrammeerd is te doen, dus hij zal doen wat een mens zou doen (als een mens in die situatie Łberhaupt snel genoeg was geweest)
zal de ai doen zoals hij geprogrammeerd is te doen, dus hij zal doen wat een mens zou doen
die snap ik niet. de ai kan toch ook geprogrammeerd worden om niet het menselijk instinct na te bootsen. daar gaat het nou juist om in deze discussie.
Mijn reactie was op de opmerking van MachoSmurf, die suggereerde dat we morele perfectie kunnen verwachten van ai. Hij redeneerde dat omdat we van tevoren kunnen bepalen hoe de auto zal reageren in een situatie, we dus een moreel betere uitkomst zullen krijgen omdat we van te voren goed na hebben kunnen denken. Als je zelf bestuurder was van de auto zou je die beslissing niet of slechter hebben kunnen maken. Maar als je de computer zo zou programmeren dat hij het mensenlijk instinct niet nabootst, zou hij denk ik juist niet moreel goed handelen. Stel: in de auto zit een 80 jarige, hij rijdt op een 50kmh weg, en verderop fietst een kindje van 8. Kindje verliest door een windvlaag de macht over het stuur, en valt op de weg. De auto heeft geen ruimte meer om te remmen. Moet hij naar links sturen, waar net een vrachtwagen met 50 aan komt rijden? Moet hij naar rechts sturen, waar precies een lantaarnpaal staat? Of moet hij doorrijden? Bij de eerste twee keuzes gaat de inzittende dood gaat. Bij de laatste overleeft de inzittende het, maar gaat het kindje dood. Het kindje had nog een heel leven voor de boeg, de bejaarde max 3 jaar. Als de auto geprogrammeerd was volgens menselijk instinct zou het leven van het kindje meer waard zijn, en zal de auto naar de lantaarnpaal worden gestuurd. Als de auto niet volgens menselijk instinct was geprogrammeerd zou de auto rechtdoor rijden, want beide levens zijn evenveel waard, maar het kind aanrijden levert minder schade op dan de auto kapot rijden op een lantaarnpaal. Is niet volgens het menselijk instinct programmeren dan de oplossing?

[Reactie gewijzigd door Burpeflurb op 7 juni 2017 17:56]

Mijn reactie was op de opmerking van MachoSmurf, die suggereerde dat we morele perfectie kunnen verwachten van ai
Wellicht niet heel duidelijk van mijn kant, maar ik wilde enkel suggereren dat we wťl mogen verwachten dat over dit soort situaties nagedacht wordt. In tegenstelling tot wat wordt gesuggereerd in de post waar ik op reageerde.

Morele perfect is er niet in een situatie waarbij je moet kiezen tussen twee kwaden.

[Reactie gewijzigd door MachoSmurf op 7 juni 2017 16:46]

volgens mij zal het menselijk instinct er vaak voor zorgen dat de chauffeur voor zichzelf kiest, ook in situaties waar een utilitarische berekening van een ai zou laten zien dat het niet de inzittende is wiens leven het meeste 'waard' is.
Ik denk dat de eerste reactie van een mens bij gevaar weggaan is, dus in dit geval tegen de lantaarnpaal of tegen de vrachtwagen aan. Een mens is te traag om vanaf dat ze zien dat het misgaat de situatie in te schatten en vervolgens de conclusie trekken dat ze het beste door kunnen rijden, ik denk dat dat heel tegennatuurlijk is. Bij crash videos zie je ook 99% van de tijd dat de eerste reactie een ruk aan het stuur is.
dat zijn dan geen goede chauffeurs, volgens mij is, als iets misgaat met je controle over de auto, stuur en gaspedaal loslaten en rustig uit laten rollen de veiligste optie. als je geen slipcursus/racetraining gehad hebt en daardoor goed kunt tegensturen.

dat is dan gewoon paniek. dan reageer je ook instinctief, maar dat is niet het soort instinct wat ik bedoelde. ik bedoelde meer moreel instinct. goed/slecht gevoel.
90% van de mensen zijn ook geen goede chauffeurs :) In dit soort gevallen slaat de paniek al snel toe, en geven ze een ongecontroleerde ruk aan het stuur
Stel: in de auto zit een 80 jarige,
Voorlopig mag je al blij zijn als die sensoren een voetganger uberhaupt al zien. Enige betrouwbare schattingen over diens leeftijd lijken me voorlopig nog verder weg dan zelfrijdende auto's. Dat is voor mensen die er op letten al een hele klus.
Lijkt mij sterk. Als er gekozen moet worden tussen 4 kinderen.
Deze situaties kunnen voorkomen waar je vooral kinderen kan verwachten.
Binnen de bebouwde kom.
Een zelf rijdende auto is geen bezopen pool met 120 door bebouwde kom raast. Dan heb je genoeg snelheid om bij crash ook loodje te leggen.
Maar max 50km/u. Denk dat bij ongeluk er hooguit wat letsel maar geen doden kan verwachten.

Daarnaast zelfrijde auto zal idealistisher reageren en ver vooruit kijken. En vaker de verkeer flow ophouden en niks van bumperklevers aanntrekken.

Dus bij benaderen van kinder gaat het al vertragen. En als kinderen onverwacht toch oversteken zal noodstop al voldoende zijn aangezien bij lage snelheden de vertraging enorm is tov hoge snelheid. Samen met ABS ook nog stuurbaar. En zal de beste rem en uitwijk keuze maken.

Kinderen op autoweg rare edge case. Kan voorkomen.
Wij mensen kijken niet ver vooruit en als we iets ver zien gaan wij niet snel anticiperen vertragen maar kachelen wij nog te lang door.

Mens kan je verwachten met -90 tot 200km/u+
Een zelfrijdend auto detecteerd van ver een afwijkend situatie een vertraagd al ver voor die situatie dus 70 a 90km/u komt die aan. Het gevaar komt dan meer van achteren. Mensen die gas pedaal weten te vinden maar zelden ver vooruit kijken. Zelf rijden auto kan dan snel waarschuwing lichten activeren. Maar mensen zien grote wegwerk belichting nog over het hoofd. Beter iets dan niets.

Geval van binnen bebouwde kom wat meer gangbare usecase is. Denk eerder aan diegene die achtermij rijd en aan blik schade.

Autonoom voertuig herkent spelende kinder en bal.
Tov kinderen die braaf lopen op de stoep.
Een kind moet dan precies vlak voor de autonoom rijdende auto springen. Om zijn snel reactie te omzeilen bij zijn al lage snelheid. Om dan ook nog dodelijk te zijn.
De kans dat het gebeurt zal inderdaad flink afnemen, maar het kan nog steeds gebeuren. Een kindje dat langs een 50kmh weg fietst met zijn moeder die net 5 meter voor de auto de macht over het stuur verliest door een windvlaag/takje. Dat kan je niet anticiperen. Ook een computer niet. Dan moet de computer een snelle keuze maken: wegsturen tegen de lantaarnpaal en daarbij de inzittende doden of doorrijden en het kind doden. Deze keuze is nog steeds geprogrammeerd door mensen.
Kortom, zelfrijdende auto's gaan nog slomer rijden dan mijn oma vroeger (die 60 reed op de snelweg en continue afgaf op "die lui die daar als gekken racen").
"De algoritmen die een auto gebruikt voor het maken van de keuze zijn vooraf bedacht"

Neen, dat is niet hoe AI (neurale netwerken) werkt. Ze zijn geleerd, net zoals een kind leert, met voorbeelden, heel veel voorbeelden...
Het voordeel van AI is dat je alle voorbeelden die alle auto's maken mee kan nemen. Vandaar dat tesla alle data verzameled, daar leren ze hun systeem mee dat ze straks oneindig kunnen kopieren naar de auto's..

Op coursera is een mooie curcus over machine learning:
https://www.coursera.org/learn/machine-learning
Dan stel ik de vraag waarom bepaald een ander voor mij wat moreel gedrag is.

Als je het over keuzevragen hebt mag ai mij opofferen ten gunste van 5 kinderen.
Wil ik wel opgeofferd worden ?
Stel ik ben een onderzoeker naar kanker die op de rand van een doorbraak sta, mag ik dan opgeofferd worden.
Stel er zitten 4 mensen in een auto, ai kan er 4 opofferen of 1 koning plat rijden.

Is het leven van een koning of ander iemand meer waard dan een doorsnee burger.
Of is iedereen gelijk en kijken we puur naar cijfers. 1 opofferen ten gunste van 2 is altijd beter.

Maar wil ik als mens die een overlevingsdrang heb wel opgeofferd worden ?
Wil ik mijn auto laten beslissen mij op te offeren en moet ik dat accepteren. Als we dat in wetgeving gooien heb ik als mens dus niet meer de keuze om een keuze en afweging te maken maar maakt de overheid die voor mij en ben ik feitelijk gewoon een nummer die opgeofferd kan worden.

Ik vraag me af of dat wenselijk is en dat is een heel groot dilemma.
Ik snap gewoon niet waarom we een soort morele perfectie verwachten van een machine als we die zelf nog niet eens onder de knie hebben.
Omdat de mens in het algemeen bang is macht te verliezen.
De macht van achter het stuur rijden en verkeersparticipatie in dit geval.

De reactie die je dan vaak ziet zijn op gevoel gebaseerde argumenten en zoveel mogelijk blokkades opwerpen over situaties die niet vaak voorkomen. Dit in plaats van het bespreken van de 95% van de reŽle gevallen.

M.a.w. we zijn als mensheid bang voor iets dat onze dominante positie kan doen veranderen.
Juist, en dat is heel natuurlijk want dat is precies wat we zelf doen als we een dommere of technisch minder ontwikkelde mens of andere diersoort tegenkomen. De vraag die we eerst eens zouden moeten stellen is "willen we eigenlijk wel dat dit soort technologie massaal in gebruik genomen wordt"? En fabrikanten zouden zich dat ook eens moeten afvragen, want "omdat het kan" heeft al heel wat dure missers opgeleverd die niemand wilde kopen.
Juist, en dat is heel natuurlijk want dat is precies wat we zelf doen als we een dommere of technisch minder ontwikkelde mens of andere diersoort tegenkomen.
Dat was mijn punt dacht ik. Het was een uitleg op de vraag van de vorige poster...
De vraag die we eerst eens zouden moeten stellen is "willen we eigenlijk wel dat dit soort technologie massaal in gebruik genomen wordt"?
Sjah willen we vliegen? daar is eeuwen over gedebatteerd.
Willen we boekdrukkunst? Moeten we wel naar de sterren willen?

Je kan je altijd wel dingen blijven afvragen, de realiteit leert ons dat het er gaat komen. Niet bij jou of jouw land, dan wel bij een ander. Vooruitgang stop je niet.

Daarom zeggen de mensen achter dit artikel ook, je kan het beter voor wezen en er goed over nadenken dan het maar op zijn beloop laten en achter de feiten aanlopen.
En fabrikanten zouden zich dat ook eens moeten afvragen, want "omdat het kan" heeft al heel wat dure missers opgeleverd die niemand wilde kopen.
Zonder de missers geen vooruitgang. Ik herinner me nog een tablet die Microsoft al jaren voordat de Ipad kwam op de markt bracht. Een gigantische flop was dat. En toch jaren later was die acceptatie er wel.

Dus in plaats van alles altijd ter discussie te stellen en met de meest fantasievolle scenario's te komen kunnen we beter focussen op wat belangrijk is. Anders worden de beslissingen voor ons gemaakt.
Een zelfrijdende auto maakt zijn keuze op basis van algoritmes. Niet op basis van een 'moreel besef'. Dat laatste is voorlopig nog niet mogenlijk helaas.
Maar die morele keuzes kunnen wel in het algoritme (=set van regels) ingebouwd worden. Dus de vraag is: moeten die keuzes door bedrijven of democratische wetten bepaald worden?
In het voorbeeld van @pim zal iemand ooit moeten beslissen wat er in die situatie moet gebeuren. Niet de auto dus, wel degene die de algoritmes opstelt.
Ik zou het ook interessant vinden hoe zo'n programmeur materiele schade inschat en de reacties van medeweggebruikers inschat.

Zou je een auto tegen een muur of een andere auto mogen schrapen om snel genoeg af te kunnen remmen om in zo'n situatie het risico op gewonden te minimaliseren?

Maakt een programmeur uberhaupt onderscheid tussen risico op materiele schade, risico op gewonden en risico op doden?

Zo'n algoritme heeft een praktisch instantaan reactievermogen en kan ook op de cm (?) precies navigeren of een uitwijkmanouvre inzetten.
Die algoritmes worden echter gebaseerd op het morele besef van degene die ze schrijft en kunnen tevens worden beÔnvloed door wet- en regelgeving.
Probleem is wie bepaald wat moreel wenselijk is. Dat kan van mens tot mens verschillen of nemen we wat de massa wenselijk moreel gedrag vindt.
Ook daar weer de vraag is wat de massa wenselijk vindt wel het juiste moreel gedrag. In Turkije ondersteund een grote massa Erdogan en zijn gedrag. In het westen kijken wij er anders tegenaan.
Wil ik mezelf opofferen of 4 kinderen. Veel vragen en morele verschillen.

Voorbeeld van kinderen, je kan kiezen 2 oudjes of 2 kinderen.
Ik schat dat moraal aanvaardbaar de massa voor oudjes zou kiezen, kinderen hebben een heel leven voor zich.
Als ik echter van mening ben dat de aarde al overbevolkt is kun je ook zeggen kinderen van nu belasten de aarde tot het einde van hun leven, afval, energie en dus als ik kies voor de kinderen belast dat de aarde weer minder.
Dat is een ander moreel gedrag dat niet de massa volgt maar kan ik de ogen van die persoon wel het juiste zijn.
Het probleem is is de vraag waar de verantwoordelijkheid ligt en daarmee wellicht de aansprakelijkheid.
't is voor mensen toch niet anders? In zulke situaties waar onverwachts in een fractie van een seconde gehandeld moet worden hebben mensen geen tijd om morele keuzes te maken. Alleen als je je bewust was van de aanwezigheid van de voetgangers en dat (voor de situatie zich voordoet onbewust in automatisme) heb aangemerkt als een no-go zone stuur je niet die kant op.
Ik zie twee problemen die in het bovenstaande nog niet (voldoende) aan de orde zijn geweest:
1) Als je iets als een 'moreel beraad' (voor een definitie is Google handig :) ) houdt is ťťn van de eisen dat de tijd beperkt wordt (meestal ťťn uur). Daar is een reden voor n.l. dat je voortdurend nieuwe informatie aangereikt kunt krijgen die je waarden beÔnvloedt. Moreel handelen is daarmee principieel oneindig, maar dat is nogal lastig te implementeren in zowel ai als het dagelijks (menselijk) leven. Dat maakt de uitkomsten inherent onzeker, maar ai-systemen verhullen dat (door hun complexiteit en de (vaak, voor mensen) ondoorzichtigheid van de gevolgde stappen). Dat leidt tot gedragsverandering van de mensen die zulke systemen gebruiken. Wat ondermeer leidt tot...
2) Waardensystemen (NB! Waarde≠mores) zijn veel uitgebreider (en complexer) dan in het artikel naar voren komt. Er is tegenwoordig b.v. veel sprake van 'identiteitspolitiek' (denk aan 'rassendiscriminatie' of 'nationale waarden') en dat is een veel uitgebreider veld dan alleen welke morele waarden er lokaal gehanteerd worden. Denk aan (iets simpels als) de associaties die we hebben bij de geur van een kaas, dat zal de ťťn aangenaam vinden en de ander afschuwelijk. Waardensystemen zijn dus deels historisch bepaald, maar daarmee ook hoogst individueel (mijn geschiedenis is anders dan die van 'jou'). Als we dan vervolgens ai gaan gebruiken om oordelen te vellen verandert dat ons 'mens zijn' in die zin dat het onze individualiteit verandert. En daarmee vast ook onze (morele en andere) waarden.
Willen we dat wel?

Ik zou zeggen dat ai-onderzoekers veel vaker een 'moreel beraad' zouden moeten houden om die complexiteit naar voren te halen. Dat kun je niet op papier doen (publiceren is ten enen male onvoldoende, dat is niet 'interactief' genoeg) maar bovendien krijg je dan pas duidelijk ('transparant' is vreemd genoeg een heel verhullend woord!!!) hoe fluÔde en divers onze (al dan niet 'morele') oordelen eigenlijk zijn.

Zelf denk ik dat de massale inzet van ai-systemen noodzakelijkerwijs tot een enorme morele-/waarden-verarming zal leiden en creativiteit ('innovatie' (sic!) en 'gedachtenverandering') zal belemmeren.

En dan heb ik het nog niet gehad over de vervuiling in al die data die m.i. ook veel ernstiger is dan hierboven geschets wordt. Bias is echt alomtegenwoordig in die data en is potentieel vaak nog tegenstrijdig ook. Dat is nou net wat een moreel beraad zo mooi naar voren brengt.

Mijn advies: oefen eerst eens 'real-life' situaties met een moreel beraad voor je enig oordeel velt over de praktische haalbaarheid van ai. Zelfs in een vrij homogene groep (b.v. alleen Nederlanders van Nederlandse afkomst) zijn de resultaten voor velen van ons verbijsterend. En dat is m.i. goed want het benadrukt onze individualiteit naast wat ons bindt. Wat het ook (en bovenal in mijn ogen) verduidelijkt is dat 'macht' een enorme rol speelt, iets dat in het hele artikel nergens naar voren komt.

[Reactie gewijzigd door rikster op 7 juni 2017 07:46]

Met je opmerking over 'macht' snijd je denk ik een goed punt aan. De gedachten hierover van Romano Guardini vind ik zelf verhelderd. Hij schrijft ze in 1950 neer in een boekje met de titel De gestalte der toekomst. Waarschijnlijk geen dagelijks kost voor tweakers, maar in discussies als deze helpt een boek mij vaak goed bij het vormen van een visie. :P Hier een paar citaten:
  • “De moderne tijd hield er van de maatregelen van de techniek te motiveren met hun nut voor de menselijke welvaart. Daarmede bedekte hij de verwoestingen, welke deze niets ontziende techniek aanrichtte. De komende tijd zal, geloof ik, hierover anders denken. De mens van de toekomst weet, dat het in de techniek tenslotte noch om welvaart gaat, noch om nut, doch alleen om heerschappij (..).” (p. 44)
  • “De moderne mens is van mening dat iedere toeneming van macht eenvoudig ‘vooruitgang’ betekent (..). In waarheid is de macht volstrekt niet iets, dat slecht ťťn betekenis heeft: zij kan goed veroorzaken doch ook kwaad (..). Wat zij in feite wordt, hangt af van de gezindheid die haar bestuurt en het doel, waarvoor zij gebruikt wordt.” (p. 61)
  • ‘De mens heeft macht over de dingen, maar nog geen macht over zijn macht.’ (p. 61-66)
dat vind ik toch weer lekker kor door de bocht. het gaat alleen om macht. denk je nou dat alle mensen die naar afrika zijn gegaan met moderne landbouwtechnieken, dat deden om macht? of om mensen te voeden? om welvaart? dat is zelfs voor mij te cynisch

techniek is er simpelweg omdat het kan. iemand vindt iets uit omdat hij ertoe in staat is, en vervolgens kunnen andere mensen die techniek gebruiken voor hun eigen doeleinden. goed en slecht. dat valt niet verder te simplificeren. daarmee doe je mensen onrecht aan.
De citaten zijn zoals ik vermeld heb uit een boekje uit 1950. Dat zegt iets over de context: vlak na de Tweede Wereldoorlog, waar het geloof in de vooruitgang door techniek een aardige opdoffer krijgt. Misschien dat iets meer begrip voor de toonzetting geeft?

Verder ben ik het niet met je eens dat techniek zo objectief is. Mensen vinden inderdaad van alles uit, maar daarbij zijn ze wel verantwoordelijk om de consequenties te bedenken. In de internetwereld zie je dat de grote bedrijven ontzettend vele macht hebben en als gevolg daarvan na moeten denken over hun verantwoordelijkheid. Ik ben blij dat op AI gebied dit nu al gebeurd, voordat er steeds meer technieken ontwikkeld worden die autonoom gaan functioneren. En zelfs bij moderne landbouwtechnieken is de bedenker samen met de gebruiker verantwoordelijk voor het nadenken over de consequenties. Denk aan verandering in het landschap (ik kan bijvoorbeeld een mooie nieuwe regenwoudrooier uitvinden), veranderingen in sociale structuren, omgeving, milieu, vervoer, enz. Techniek is hiermee dus niet verkeerd, maar ontwikkelingen vragen wel altijd om een goede verantwoording.
Je kunt mensen die een uitvinding doen niet verantwoordelijk houden voor toepassingen die een ander bedenkt. 1 mens kan niet aan alles denken. de enige manier om die verantwoordelijkheid die jij noemt te nemen is door niets nieuws te doen. zonder atoombom ook geen kernenergie, en in de toekomst geen kernfusie. als dr oppenheimer die verantwoordelijkheid zoals jij het schetst had genomen, voordat het te laat was, was het niet per se beter gegaan met de wereld.

degene die het gebruikt, is verantwoordelijk voor zichzelf. je kunt alleen zelf verantwoordelijkheid nemen. zoals de grote bedrijven die jij aanhaalt bewijzen, kun je niet zomaar gedwongen worden verantwoordelijk te zijn. anders zou het bijv. niet tot 2016 geduurd hebben voor er een serieus klimaatakkoord kwam. zijn de mensen die de stoommachine en de dieselmotor hebben uitgevonden daarvoor verantwoordelijk?

bij moderne landbouw zijn het de overheden (tegenwoordig vooral arme landen want hier is die revolutie al klaar) die verantwoordelijk zijn voor het welzijn van hun inwoners. zij moeten dus voedselvoorziening afwegen tegen natuurbehoud en leefmilieu. geen makkelijke keuze. dunkt me dat het verkeerd zou zijn om de fabrikant van de machines, die meestal in westerse landen gevestigd zijn en in 'de 2e wereld' produceren, daar een stem in te geven. zijn hun zaken niet. zij hebben die problemen niet. zij kennen de wereld van dikke bmws, niet die van honger.

ik vind het zo makkelijk om alles bij de mensen neer te leggen die iets nieuws doen. zij hebben de natuurwetten niet gemaakt. zij hebben de mens niet gemaakt. iemand anders zou het ook wel uitvinden, misschien iets later, als zij het niet doen.

[Reactie gewijzigd door Origin64 op 7 juni 2017 12:40]

En dat vind ik nou weer wel heel erg kort door de bocht. We hebben zenuwgassen niet voor niets met z'n allen verboden. Let wel, niet alleen het gebruik, maar zelfs het bezit en de ontwikkeling er van, al geldt dat dan weer niet voor iedereen (en -logisch gezien- zeker niet voor wat er 'in het geniep' gebeurt, want dat onttrekt zich aan alle controle).
Het probleem is dat je met je stellingen cultuurrelativisme op tafel gooit en daarmee open je een doos van Pandora want waarom zou ik wel iets mogen ontwikkelen/toepassen en een ander niet, of niet op een bepaalde manier? Wat geeft me 'in (in mijn geval 'op' :) ) mijn dikke BMW' het recht om te oordelen over het gebruik van een technologie door een ander? Want dat recht bestaat, zoals uit het voorbeeld van de zenuwgassen moge blijken.
Waarom mag ik een regel als 'een rijk iemand verdient meer kans op overleven dan een arm iemand' niet op jou van toepassing verklaren? Ik neem aan dat je dat laatste niet leuk zou vinden en er zijn ook objectieve (of objectiveerbare) redenen waarom je dergelijke redenaties afkeurenswaardig vindt. Maar wat is de morele grond daarvoor? Bedenk dat die door sommigen wel degelijk wordt betwist. Juist daarom verklaren we sommige 'regels' voor 'universeel'.
Verantwoording/verantwoordelijkheid is individueel, maar het oordeel erover niet altijd, n.l. daar waar de schade die iets oplevert voor ons als maatschappij onaanvaardbaar is. Dat is op zich wel een stuk ingewikkelder dan 'ieder voor zich' maar ook een stuk realistischer (althans in 'onze' wereld).
En 'dus' speelt macht een zeer grote rol, want die macht bepaalt of we niet alleen iets mogen, maar ook hoe we vervolgens afdwingen dat het op een bepaalde manier gebeurt. Of niet.
Tenslotte: het argument 'anders vindt een ander het uit' klinkt heel aannemelijk, maar zo simpel is het niet.Technologie komt en gaat om in het laatste geval soms weer herontdekt te worden.Het idee dat alle technologie altijd en overal vooruitgang brengt is daarom niet houdbaar (dat heet wel de 'lineaire theorie van de vooruitgang'), net zo min als het idee dat je technologie alleen maar tegenhoudt door niet meer na te denken over oplossingen van problemen. Je moet het allemaal doen. Dat hoeft niet altijd 'de bedenker' te zijn, maar zeker de gebruiker of diegenen die de gebruiksregels voor ons bedenken. En daar komen wij dus kijken en niet diegenen die de technologie ontwikkelen, al zou ik het (zoals in het artikel ook gebeurt) altijd prijzen als die er wel alvast over nadenken.
nu het internet bestaat, zal het een stuk moeilijker worden om technologie te vergeten. en ik snap niet wat cultuurrelativisme ermee te maken heeft. het verbod op zenuwgas heeft toch ook niets met cultuur te maken? dat geldt overal.

ook is het goed om te onthouden dat veel uitvindingen, de telefoon, verscheidene wiskundige theorieen, op bijna hetzelfde moment zijn gedaan door verschillende mensen, soms aan de andere kant van de aarde. dus als de een het niet uitvindt, dan krijgt de nummer 2 het patent. en dan heb je als land alleen maar minder invloed op de ontwikkelingen.

natuurlijk moet iemand regels maken. maar daar hebben we (semi)overheid voor. en een flinke hoeveelheid NGOs.

wij als rijke mensen (iedereen in NL is rijk vergeleken met sommige plekken op aarde) hebben meer kans op overleven van natuurrampen, klimaatverandering, etc. we hebben een hogere levensverwachting. die regel is van toepassing. wat ik ervan vind maakt niet veel uit. het is zo. het verandert heel langzaam.

[Reactie gewijzigd door Origin64 op 7 juni 2017 14:10]

Dat je niet snapt wat het met cultuurrelativisme te maken heeft kan, maar dat wil niet zeggen dat het (dus) ook niet zo is.

Het verbod op zenuwgas is wel degelijk een culturele zaak, het heeft n.l te maken met de waarde die we aan een mensenleven hechten en dat verschilt per cultuur. Dat het verbod overal geldt is dan ook niet onomstreden maar slechts het gevolg van de macht van die culturen in de periode na de 1e Wereldoorlog die het voor het zeggen hebben gekregen (lees: de cultuur van Westerse landen) en die hun macht vastlegden in wat voor hen rationele morele waarden zijn, n.l. de 'universele verklaringen'.
Het is mooi (het is een mooi resultaat) dat je die als zo universeel beschouwt dat je niet bedenkt dat er mensen aan kunnen twijfelen, maar geloof me: dat doen ze.

Wat dat 'vergeten' betreft: er is meer vergeten in de jaren dat het Internet ontstond dan in alle jaren ervoor, domweg omdat er niks goed gearchiveerd werd op dat internet. In de huidige tijd zie ik weinig redenen om daarin een beter resultaat te verwachten, domweg omdat de hoeveelheid data die geproduceerd worden het doorzoeken (wat voor goed archiveren zowel nut als noodzaak is; vraag maar aan een deskundige) sterk bemoeilijkt. En ja, ik weet dat menigeen zijn hoop daar vestigt op ai, maar zo ver zijn we zeker nog niet!

Dat sommige uitvindingen op meer plekken m.o.m. gelijktijdig gedaan worden is inderdaad een feit, maar dat geldt evenzeer voor het feit dat je niet weet welke uitvindingen je vergeten bent, c.q. nooit bekend geworden zijn. Je meet dus twee totaal verschillende grootheden tegen elkaar af en kunt daardoor er geen conclusie aan verbinden. Zo is er b.v. een (folkloristisch?) verhaal over Nicola Tesla dat meldt dat hij een uitvinding gedaan heeft die hij niet aan de wereld wilde toevertrouwen. Waarom? Weten we ook niet. Is het waar? Al evenzeer onbekend.
Dat heet wel: weten is asymmetrisch (je weet wat je weet, maar niet wat je niet weet). Dat is een eeuwenoud kennisprobleem en dat gaat ook echt niet weg.

T.a.v. de NGO's en (semi-)overheden: De Romeinen stelden al de vraag 'Wie controleert de controleurs?'.
In het Westen doen we dat door (getrapte) democratie, maar dat vertegenwoordigt op zichzelf al een morele keuze n.l. die waarin iedere burger van stemgerechtigde leeftijd voldoende verstand wordt toegedicht (wat zeker niet onomstreden is) om een goede bewuste keuze te kunnen maken. Een keuze die tot 'tegenmacht' leidt. Macht dus.

Tenslotte: als je sommige klimaatdeskundigen of ai-specialisten (of ...) mag geloven staan we voor revolutionaire tijden en verandert ons leven nu juist exponentieel snel. Zelf geloof ik niet zo in het laatste (om te veel redenen om hier op te sommen) maar het klimaat zou maar zo revolutionair kunnen veranderen (niet mijn terrein van expertise, dus ik ga uit van wat anderen te melden hebben). Zeker in NL is de overlevingskans dan ineens heel wat lager dan ie nu lijkt.

Om je voor te zijn: Ja, ik ben oud... Hopelijk ook een beetje wijs. Geworden... ;)

[Reactie gewijzigd door rikster op 7 juni 2017 15:21]

welke culturen zijn dat dan, waarin mensen zenuwgas acceptabel vinden. dan heb ik het niet over de megalomane machthebbers.
ik bedoel dat als je in een land dat in (burger)oorlog is daar op straat aan mensen vraagt: zou jij het een goed idee vinden als die of die partij zenuwgas zou gaan gebruiken, met grote kans dat de andere kant het ook gaat doen? dat ze dan ja zouden zeggen.
Iets meer dan een eeuw geleden vond de Duitse legerleiding (Duitsland was in die tijd een parlementaire democratie, met autocratische trekken, maar toch) het gebruik van chloorgas bij Ieper toegestaan. (Dat hebben ze later (1921) nog eens getest in Marokko, op wat zij zagen als minderwaardigen.) De reactie van andere volkeren was dat het gebruik van chloor en andere strijdgassen als represaille toegestaan waren, daarna werd het gebruik 'normaal'. Dat is dus in onze eigen, westerse, cultuur in staten waar de bevolking op zijn minst wat te vertellen had.
In 1935 viel ItaliŽ AbessiniŽ binnen (het huidige EthiopiŽ). Ter bespoediging van de verovering (dat viel n.l. tegen) werden strijdgassen ingezet tegen leger en burgerbevolking, met steun van het Italiaanse parlement (die hadden het lastig met de trage voortgang en het kwam vooral niet erg 'krachtig en heldhaftig' over, zoals 'Il Duce' dat wel graag zag). ItaliŽ was (en is ) een Westers land.
Een meerderheid van de aanhangers van Bashir al-Assad vindt het gebruik van chloor tegen 'terroristen' (zo noemt Bashir zijn tegenstanders) toegestaan omdat die ze ook zouden gebruiken. Dat kun je afdoen als een voorbeeld van een 'megalomane machthebber', maar ik denk dat het toch wat ingewikkelder ligt als je begrijpt dat een deel van de bevolking van SyriŽ hem toch echt steunt, zelfs als dat alleen maar is omdat ze het alternatief nog veel erger achten (wat zeker niet bij allen het geval is).

Dat is het hem nou net: ook wij vinden sommige dingen ineens acceptabel als ons hachje er van afhangt en hoe meer dat het geval is hoe extremer maatregelen die we goedkeuren. Ook in NL hebben we jaren onder de 'nucleaire paraplu' geleefd zonder ons daar in meerderheid erg veel morele vragen over te stellen.

Op straat iets vragen is natuurlijk nogal onbeholpen als je zoiets wilt doen. Dus vallen machthebbers vaak terug op een list: Ze zeggen dan gewoon dat ze bewijs hebben dat de tegenpartij het gedaan heeft. De enige reden (denken de meeste historici) dat de Duitsers geen zenuwgassen durfden inzetten in WOII was omdat ze dachten dat de geallieerden het sneller en effectiever zouden kunnen inzetten.
Mensen zijn niet slecht, maar ze zijn ook niet per definitie goed, ook niet als hen om dit soort oordelen wordt gevraagd. De grens tussen 'de aanhanger van een andere voetbalclub in elkaar slaan' (is erg, maar hoort er gewoon bij, lijkt het, er vallen tenminste geen doden (hoewel: Carlo Picornie)) en 'een minderwaardige pedofiel de doodstraf geven' is makkelijk genomen voor velen van ons. De stap naar het inzetten van strijdgassen als je de strijd dreigt te verliezen (of het winnen je niet snel genoeg gaat) is klein. 'Het is zij of wij'. In de praktijk denken mensen altijd dat 'first-strike, first-kill' helpt om een strijd te winnen. "And damn the consequences."

Maar we dwalen erg af van het oorspronkelijke onderwerp en ik stel voor de discussie nu te sluiten.

[Reactie gewijzigd door rikster op 7 juni 2017 18:10]

tja, je zou ook echt kunnen argumenteren dat het humaner is om een oorlog in 1 klap te beeindigen met een gifgasaanval op kritieke personen/legerhoofdkwartier/weet ik veel dan om een lange bloedige oorlog te vechten.

en als mensen kiezen om propaganda te geloven, (of fake news) ja, dan kun je niet meer met ze praten. ze leven niet meer in de echte wereld. wat dat issue betreft dan. die kunnen dus ook geen goed oordeel vellen. daarom is er ook een internationale afspraak waarbij overtreding sancties tot gevolg heeft, om te zorgen dat megalomane machthebbers zelfs met steun van hun voorgelogen of gewoon kortzichtige volk niet zomaar zoiets kunnen doen.

maar je hebt wel mijn vraag beantwoordt, culturen waarin oorlog en geweld aan de orde van de dag zijn, zullen minder een probleem hebben met gifgas.
Mooi zo.
Nog ťťn aanvulling voor de volledigheid: MAROKKO ALS PROEFTUIN VOOR DUITS GIFGAS
Daarin staat dat niet alleen Duitsland, maar ook Spanje en Frankrijk (beiden democratieŽn op dat moment) het gebruik van (in dit geval) mosterdgas goedkeurden. Dit ondanks het ondertekenen van een verdrag (het 'Protocol van Geneve') dat dat verbood!
dat is toch ook makkelijk als marokko zelf niet in staat is gifgas in te zetten. MAD werkt alleen als beide kanten ook daadwerkelijk genoeg wapens hebben om elkaar zoveel schade toe te brengen dat het goedkoper is een andere manier te zoeken de oorlog te winnen. de oplossing is niet, zorgen dat gifgas niet wordt uitgevonden maar zorgen dat het niet gebruikt wordt. als de ontdekking van mosterdgas/chloorgas geheim was gehouden, dan was het wel door iemand anders uitgevonden en wellicht meer ingezet bijv in ww2 voor er een verbod kwam dat te handhaven viel doordat iedereen het had.

[Reactie gewijzigd door Origin64 op 7 juni 2017 19:14]

We kunnen natuurlijk ook grotendeels zůnder AI leven. Lijkt mij een ethische en verstandige keuze.
AI is handig in sommige toepassingen maar echt nodig (in alles) hebben we het niet, toch.
Niet handig en niet nodig zijn twee verschillende dingen. ;) Auto's, vliegtuigen, computers, raketten en kernenergie waren ook op het begin niet echt nodig (maar wel handig) en kijk eens waar we nu zijn.

Ik vind het goed dat er alvast over wordt nagedacht nu dit soort technieken nog in de kinderschoenen staan. Voorkom je een hoop ellende mee dan simpelweg experimenteren en wel zien waar het fout gaat.
Zelfrijdende auto's voorkomen veel meer ongelukken dan dat ze ongelukken veroorzaken. Het is dus beter als iedereen in de toekomst een zelfrijdende auto heeft dan dat iedereen voor altijd zelf blijft rijden.
Om te beginnen met het eerste dilemma. De auto had al moeten zien dat er een kind staat en hebben geschat dat dat kind mogelijk 'plotseling' over zou kunnen steken zoals dat een mens ook behoort te doen. Daarbij alvast iets van snelheid matigt en naar een uitvalmogelijkheid kijkt. Kan het dat niet, dan GEEN automatische auto's op de weg. Hoewel ik mag hopen dat het kijken naar uitvalmogelijkheden nu ook al continu gebeurd, zodat er sneller op 'onverwachte situaties' gereageerd kan worden. In zo verre die al onverwacht zijn. Een vliegtuig dat plotseling uit de lucht valt is onverwacht, een auto die plotseling opzij komt of een kind dat oversteekt zijn dat niet echt. Dat zijn reŽle mogelijkheden.
Ben ik met je eens. Wij mensen doen vwb. autorijden een hoop roekeloze dingen en zijn eigenlijk gehandicapt tov. een AI. Iedere weggebruiker weet gewoon dat er een hoop mensen rijden als idioten. Een AI rijdt niet als een idioot, heeft geen haast, houdt zich gewoon aan de verkeersregels en heeft een stuk meer ervaring dan de rijles van papa op de parkeerplaats. Bovendien heeft die een hoop meer sensoren dan wij als mens, waardoor er geen 'keuzes' hoeven te worden gemaakt waarnaar gekeken wordt. De meeste voorbeelden die worden aangehaald kan je inderdaad gewoon daarmee oplossen.

Sure, er zijn altijd wel voorbeelden van zeer exceptionele situaties te vinden zijn waarbij er wel een dilemma ontstaat. Neem bijv. een kind dat net leert fietsen en ineens het stuur omgooit vlak voor de auto. Of een fietser die zonder handen rijdt op een fietspad naast een 80-weg en over een iets-te-groot steentje rijdt. Of... In die gevallen moet wellicht de AI een beslissing maken tussen meerdere kwaden, simpelweg omdat het fysiek onmogelijk is om een ongeluk helemaal te voorkomen.

Punt is alleen dat het aantal gevallen waarbij het fysiek onmogelijk is om een ongeluk helemaal te vermijden enorm weinig zijn. Ik ben daarom geneigd om die voorlopig gewoon in de categorie "shit happens" te zetten, aangezien we de mainstream vermijdbare issues nog niet eens hebben getackeld.
Zo werken de meeste vooralsnog niet in het Nederlands en ook in het Engels hebben ze nog lang niet de capaciteiten om spraak en gesprekken te begrijpen zoals we dat van een mens verwachten.
Gelukkig niet. Een tijd geleden had ik een discussie met iemand. Opeens besloot Siri dat die geroepen werd en vroeg het om een opdracht (terwijl de naam niet genoemd werd, en de eigenaar van de iPhone stil was). Met andere woorden: iedereen wordt altijd afgeluisterd, niet alleen de eigenaar van het apparaat

'Domme' algoritmes en 'intelligentie', door beide word ik liever niet afgeluisterd. Als ik om mij heen kijk naar 'intelligente' mensen en wat die voor onzin uitkramen, dan kan ik het mij niet voorstellen dat een door de mens gemaakte intelligentie het beter gaat doen. Ethiek hoeft geen probleem te zijn als men gezond verstand zou gebruiken. Helaas lopen er voldoende domme mensen (en straks andere 'intelligentie') rond die het laatste niet bezitten en zich niets aantrekken van het eerste.

[Reactie gewijzigd door The Zep Man op 7 juni 2017 06:57]

Super interessant artikel! Goed om ook zo eens deze kant van technologie te belichten.

Wat ik altijd interessant vindt zijn discussies over AI die voorspellingen doen die vervolgens discriminerend zijn. Bijvoorbeeld een algoritme van de Amerikaanse recht systeem die bepaald dat als je zwart, in de 20 bent en uit een bepaalde buurt komt je kans hebt op meerdere keren crimineel gedrag.
De discussie is dan vaak dat een AI racistisch is en dat het niet werkt, maar de data is, zoals in dit artikel ook wordt uitgelegd, al vaak biased.
Een AI belicht vaak een realiteit (helaas) die wij als mensen discriminerend vinden en tegen proberen te gaan. En vervolgens laat zo'n AI zien dat we daar nog jammer genoeg lang niet in slagen.
iRobot?
Het dillema van Will Smith waar de hele film om draait
Boek! Het is een boek. De film is er maar een (mijns inziens slap) aftreksel van.
Boekenserie zelfs. Met veel meer interessante dilemma's. Aanrader.
dit hele verhaal is al lang geleden door de heer Asimov e.a. uitgewerkt. maar ja, als je reclame aan het maken bent voor google, kun je natuurlijk niet gaan zeggen dat het idee allang bestaat. vinden ze niet cool.
Wat niet in het artikel toegelicht wordt maar wat mij bezig houd is het moment dat AI zo goed doorontwikkeld is dat het serieus misbruikt zou kunnen worden. Wat dan?

Ten eerste die bias hacken die AI heeft kan dingen zwaar ontregelen. (Zie ook de keuze momenten waar eerdere reacties over gaan)

Ten tweede, wat kan AI in oorlogsvoering betekenen?

En ten derde, nog een stapje verder kom je al snel in de buurt van de Science Fiction films zoals iRobot etc.

Ik vind het wel mooi dat er aardig open over gepraat wordt. Maar ga er maar van uit dat er ook niet open aan gewerkt wordt door organisaties zoals CIA/NSA/Legers. Uiteindelijk wordt elke mooie techniek ook gebruikt voor oorlogsvoering / controle en handhaving.
Hier ben ik het helemaal mee eens, Ik heb vorige week ex machina gekeken en dit gaf mij hele andere inzichten over hoe AI in de toekomst ingezet kan worden los van het Hollywood/SF element.

AI is erop gebaseerd om te leren, stel dat ze dit alleen al bij de kassa gaan inzetten ipv "een domme robot zoals in Back to the future 2" een AI systeem dat micro signalen oppikt als je naar het menu staat te kijken en je nog wat extra verkoopt op basis van nu in de aanbieding...

Nog wat anders, hoe ga je reageren als het AI systeem de Turing test heeft doorstaan en je vragen gaat stellen. Hierbij speelt altijd menselijke emotie een rol vs een gecalculeerde machine.

Mijn eerste reactie is alles afschermen en gecontroleerd data voeren maar heeft iedereen die moraal en hoeland houdt dat stand to de AI zichzelf toegang verschaft, misschien zijn alleen fysiek gescheiden systemen houdbaar.
"Kunstmatige intelligentie is per definitie niet creatief. Creativiteit is meer dan dingen creŽren. Het is ook feedback in je opnemen en op basis daarvan wijzigingen doorvoeren. Neem de Beatles: zij experimenteerden op hun albums en klonken na vier jaar anders. Zulke creativiteit is voorbehouden aan mensen."

Ligt het aan mij of is dit allen het geval als jij hem bewust niet de mogelijkheid geeft tot het gebruikmaken van feedback? en ja ik snap dat het wellicht nu niet mogelijk is, maar wie weet over tien, vijf, misschien zelfs volgend jaar?
hem
*het / het algoritme ;)

Creativiteit a la Beatles is zeker mogelijk in de toekomst.
https://en.wikipedia.org/...nd_performed_by_computers
En waarom zou een AI die beschikt over een leermechanisme niet tot creativiteit in staat zijn? Als er iets is wat de beginnende experimenten met de huidige eenvoudige AI's ons kunnen leren is hoe eenvoudig het is om een AI ogenschijnlijk menselijke reacties te laten geven. Als dit al zo vlot mogelijk is, dan zie ik geen reden waarom AI niet tot iets als creativiteit in staat zou zijn.

Als ik tracht te analyseren wat creativiteit is, dan kom ik uit op het onverwacht combineren van bestaande invloeden. Ook The Beatles verzonnen weinig nieuws maar gaven de toenmalige popcultuur een nieuwe onverwachte twist die in goede aarde viel. Een heleboel andere popgroepen gaven een andere twist en werden niet succesvol. Zijn die minder creatief? Of misschien juist te creatief, waardoor de twist niet meer aansloot bij de belevingswereld van de gemiddelde mens.

Zo kan ook een AI een hele creatieve draai gaan geven aan een voor ons redelijk uitgekristalliseerd verkeersproblemen. AI kan hiervoor een andere invalshoek hebben door haar andere randvoorwaarden. Eigenlijk is die oplossing alleen creatief als wij mensen haar als variant op de ons bekende bestaande oplossingen herkennen. Is de invalshoek te afwijkend, dan achten wij haar controversieel. Er is dus een grens aan de creativiteit die mensen als creativiteit kunnen herkennen. Deze limiet ligt dus meer bij de observator (mens) dan bij wat wordt geobserveerd (AI).
Eck: “Kunstmatige intelligentie is per definitie niet creatief. Creativiteit is meer dan dingen creŽren. Het is ook feedback in je opnemen en op basis daarvan wijzigingen doorvoeren. ..."
Huh? Het hele idee achter machine learning is nou juist dat wijzigingen doorgevoerd worden op basis van feedback? Ik vind dit een vreemde uitspraak van een expert...
Eens, dit lijkt me dan ook meer een lekker veilig "Public Relations" statement.

Deze getrainde neurale netwerken zijn echter zelf wel een zeer weinig creatief in zichzelf.
Reactief maar niet creatief (of is dat toch hetzelfde? grappig pseudoniem in ieder geval, hier kan ik nog wel even over mijmeren! ).

Het is ook een defiinitie kwestie. In zijn definitie van creativiteit is (huidige?) kunstmatige intelligentie blijkbaar niet creatief (in deze toepassing?).

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*