Oprichters eBay en LinkedIn steunen fonds voor ethisch ai-onderzoek

LinkedIn-oprichter Reid Hoffman en de stichting van eBay-oprichter Pierre Omidyar hebben elk tien miljoen dollar gestoken in een fonds dat ethisch ai-onderzoek moet steunen. Op die manier moeten negatieve gevolgen van kunstmatige intelligentie voorkomen worden.

Reid zegt dat het belangrijk is dat kunstmatige intelligentie de maatschappij ten goede komt en dat schade wordt beperkt. Hoewel beslissingen op basis van deze intelligentie veel invloed kunnen hebben op bijvoorbeeld de zorg, het transport en het strafrecht, zijn de code en de data achter deze beslissingen grotendeels onzichtbaar, zo stelt hij. Een van de leidende organisaties van het fonds, dat in totaal beschikt over 27 miljoen dollar, is het Amerikaanse MIT.

De directeur van het Media Lab van MIT, Joi Ito, stelt dat de snelle ontwikkeling van kunstmatige intelligentie verschillende vragen opwerpt. Een van de meest belangrijke vragen daarbij is op welke manier voorkomen kan worden dat kunstmatige intelligentie aan dezelfde vooroordelen of vooringenomenheid onderhevig is als de maatschappij. Hij wil bereiken dat nog te ontwikkelen systemen niet alleen slim zijn, maar ook maatschappelijk verantwoord handelen.

Het fonds met de naam 'Ethics and Governance of Artificial Intelligence Fund' moet onderzoek in deze richtingen ten goede komen door verschillende projecten van financiële steun te voorzien. De Knight Foundation, die het project steunt met vijf miljoen dollar, vermeldt dat het belangrijk is dat ai-onderzoek niet alleen door ingenieurs en bedrijven wordt vormgegeven. Momenteel doen veel verschillende partijen onderzoek naar kunstmatige intelligentie, waaronder Google, Apple, Facebook en OpenAI. Die laatste organisatie is opgericht door verschillende techbedrijven en richt zich op de ontwikkeling van kunstmatige intelligentie zonder directe commerciële toepassing.

Door Sander van Voorst

Nieuwsredacteur

11-01-2017 • 10:36

47

Reacties (47)

47
47
21
6
1
24
Wijzig sortering
Het grootste probleem lijkt me niet eens de definitie van "ethisch", maar de definitie van "AI". We hebben al 40 jaar simpele AI's, bijvoorbeeld die de postcodes op brieven lezen. Zo'n AI kan alleen maar A-Z en 0-9 produceren, en ik denk dat iedereen het met me eens is dat zo'n AI geen ethisch onverantwoorde beslissingen kan nemen. De ethiek-vraag komt nu naar boven aangezien AI's veel gangbaarder worden, maar fundamenteel zijn het dezelfde soort AI's, met nog steeds geen enkele mogelijkheid om (on)ethische beslissingen te nemen.

Dat staat overigens los van de mogelijkheid van mensen om een AI te trainen met onethische data - dat is een menselijke beslissing.
AI is iets dat in mijn ogen net zo gevaarlijk kan zijn als de mens.

We bekenden nu systemen die zelf beslissingen kunnen nemen maar het uiteindelijke doel van ai zal veel verder gaan. Een systeem gaat zichzelf zaken aanleren, de vraag is welke invloed heb je daarom.

Verder in de toekomst kijken zie we nu al ideeën van computer en biotechnologie samenkomen. Men werkt aan het simuleren van onze hersenen, waarvoor nu nog te weinig capaciteit en snelheid is maar over x jaar niet.

Wat is me afvraag van ai is, hoe ver gaat ai als we zelf de complexiteit van het menselijk brein nog niet eens goed begrijpen. Krijgen we dadelijk narcistische ai systemen, of systemen die last hebben van ptst of andere hersenaandoeningen.

De heren in dit artikel willen schijnbaar beperkingen aanbrengen in ai zoals je die in film als robocop ziet, je mag geen mensen doden en nog meer van die zaken. De vraag is echter als iets echt ai is en zelflerend of dat niet buiten de beperkingen zal gaan.
Sorry, maar je beargumenteert helemaal niet waarom de capaciteit om te leren gevaarlijk zou zijn.

Neem weer die postcode-AI. Die maakte fouten. Die fouten werden teruggekoppeld, en daar leerde de AI beter van lezen. Had de mogelijkheid om bij te leren dus enige invloed op ethische beslissingen? Nee, de invloed was beperkt tot het beter lezen van postcodes.

En de nieuwe AI's die luisteren in plaats van lezen? Uiteindelijk proberen die ook alleen maar analoge input in ASCII te vertalen, niet wezenlijk verschillend dus. Technologisch waren er doorbraken nodig, maar ethisch is het exact hetzelfde.
Als je ai vergelijkt met poscode database en opzoeken denk ik dat ik toch aan heel iets anders denk bij ai en het artikel waar het hier om gaat ook.

Bij kunstmatige intelligentie denk ik eerder het zelfstandig nemen van beslissingen op basis van een leerproces, Vergelijkbaar met de opvoeding van de mens.
Dat is de essentie van mijn betoog! Jij ziet twee soorten AI, de postcode en die andere AI. Die twee groepen bestaan niet, je kijkt naar twee voorbeelden uit dezelfde groep.

Omdat er geen fundamentele verschillen zijn, kun je dus stellen dat of alle, of geen enkele AI ethisch kan handelen.

Overigens kan ik wél een ander filosofisch onderscheid maken, namelijk tussen intelligenties met en zonder zelfbewustzijn. Er valt iets voor te zeggen voor de claim dat ethisch handelen zelfbewustzijn vereist. Een muis kan niet onethisch handelen, een mens wel, en een chimpansee is een grensgeval. De AI's van vandaag hebben géén zelfbewustzijn, dus kunnen niet onethisch handelen.
Waarbij je weer op de vraag komt wat is ethisch en wat niet. Ethisch is een door de mens bedachte vorm hoe we wel of niet met zaken zouden moeten omgaan.

De geschiedenis laat vreselijke dingen zien die wij als onethisch zien maar anderen weer niet. Ethiek blijft dus een discussie waar denk ik nooit een einde aan gaat komen.
Dat staat overigens los van de mogelijkheid van mensen om een AI te trainen met onethische data - dat is een menselijke beslissing.
Het punt is denk ik dat data geen ethiek hoeft te hebben. De ethiek ontstaat pas bij het handelen van de AI.
Met name als de datasets groot zijn krijg je een mix van ethische en niet-ethische input. De vraag is dan hoe je een AI zover krijgt die data goed (maar ja, wat is goed) te filteren.
whahahaha, wat een farse! De filosofie buigt zich al zo'n zes eeuw over zuivere ethische besluitvorming. En dan gaat een denktank dat nu wel ff oplossen met een paar miljoen op zak? Don't think so! Bovendien, waarom zou je een AI beslissing willen laten nemen met zulke sterke morele implicaties dat je daar daadwerkelijk een kader voor moet scheppen? Een besluit is niet lauter logisch, maar emotie, context (tijd) spelen hierin ook een rol. De enige ethische beslissing die de commissie kan maken is door de output van een AI mee te nemen in een door mensen gemaakte afweging en nooit andersom. Degene die die afweging maakt moet zich a verantwoorden aan derden, b hebben aangetoond de complexiteit (van) / het vraagstuk te doorgronden. Ben benieuwd naar hun bevinding.
De enige ethische beslissing die de commissie kan maken is door de output van een AI mee te nemen in een door mensen gemaakte afweging en nooit andersom.
Dit is leuk en aardig waar competitie geen rol speelt maar zodra er ergens een oorlog o.i.d. uitbreekt krijgt de AI meer beslissingsbevoegdheid. Want in een oorlog kan snel beslissen doorslaggevend zijn.

[Reactie gewijzigd door tuXzero op 22 juli 2024 15:58]

Anoniem: 138895 @tuXzero12 januari 2017 12:38
Niet alleen oorlog, al is er een reden dat DARPA een van de grootste investeerders is in ai en robots en dus zeker de intentie hebben Amerikaanse soldaten te vervangen door slimme robots die zelfstandig gaan beslissen wie ze doodschieten.

Maar wat zeker ook gaat gebeuren is dat verzekeraars op basis van allemaal risicoprofielen gaan beslissen welke premie jij gaat betalen. En voordat ai de rechters gaat vervangen zullen ze misschien bij de Amerikaanse grens al je gegevens, etniciteit, social media etc door een ai engine halen om te bepalen of je een hoog of laag risico vormt. Zolang 95% statistisch klopt zullen ze individuele rechten van 5% onder de voet lopen. Dat zijn we in China beland, waar de meerderheid ook dik tevreden is met deze regering en de schouders ophaalt over die enkelingen die onschuldig worden vastgezet.

Get grote probleem met ai is dat je als ontwikkelaar zelf geen zicht meer hebt op die beslissingsboom, de bedrading, en je dus net als bij mensen niet meer in het hoof kan kijken, alleen maar statistisch Black box testen maar dan kun je dus nooit in de praktijk de fouten herkennen en de betrouwbaarheid of onbetrouwbaarheid bewijzen van individuele beslissingen.

En wanneer ai op deze manier zichzelf traint (zelf eigen input verzamelt bijvoorbeeld via berichtgeving) en eigenzinnig wordt, is het de vraag of de maker nog aansprakelijk gesteld kan worden, want zijn invloed op zelflerende ai is beperkt, helemaal als deze straks bestaat uit tig externe libraries en misschien hercencentra die gekoppeld worden, gaat bestaan.

Zo luchtig hoef je over ai niet te doen, dat is kortzichtig. Het probleem is niet ai, biedt veel kansen, ik heb het vroeger ontwikkeld zonder libraries, en beperkte cpu/gpu, nu met de rekenkracht en kant en klare libraries als tensorflow en café wordt het verwerkt in 'gewone' software zodat gebruikers niet eens gewoon en ai kunnen onderscheiden en het dus ook voor mensen lastiger zal worden om te beslissen want ze weten niet waar die cijfers die zij als input hebben gekregen op gebaseerd zijn en hoe betrouwbaar ze zijn.

In de praktijk heb je nu al tal van niet ai voorbeelden waarbij het systeem, zoals de administratiefout bij de gemeente door iedereen als meer waar beschouwd (zogenaamde feiten) dan wat jij te melden hebt bij een balie, want als de computer het zegt, dan is dat zo. Dat vertrouwen in die virtuele werkelijkheid zal met ai alleen maar toenemen en steeds lastiger worden om fouten bewezen en hersteld te krijgen. Maar dat probleem bestaat dus al zonder ai en zal met ai vele malen erger worden. Steeds vaker zullen mensen hun schouders ophalen over hoe ze aan die cijfers komen, want ai hoeft zich nergens voor te verantwoorden en de leverancier heeft geen zich en controle op de inputdata in de praktijk en zal evengoed zijn schouders ophalen.

Dus je moet nadenken over zulke zaken zodat ai op de juiste en niet verkeerde wijze wordt toegepast en gewogen. En dat moet nu al omdat de techniek sneller gaat dan wetgeving want anders gast het ons overvallen wanneer het over enkele jaren wel zover ik dat rechters blijken ai systemen te gebruiken terwijl de wetgeving hier geen oordeel over heeft. Net als met leugendetector.

Wijziging: typfouten door autocorrectie telefoon.

[Reactie gewijzigd door Anoniem: 138895 op 22 juli 2024 15:58]

Anoniem: 138895 @tuXzero12 januari 2017 12:48
En nog belangrijker, we moeten niet alleen maar techniek-geil zijn en op basis van ons in verhouding tot de rest van de wereld, een zorgeloos en lux bestaan, om de naïeve optimist uit te hangen.

Het grootste korte termijn probleem zal zijn de er op nog snellere wijze dan bestaande automatisering er banen verloren gaan. Als dat sneller gebeurt dan ons aanpassingsvermogen met nieuwe onderwijs, en arbeid- en belastingregels, zal er enorm veel werkeloosheid ontstaan en die salarissen allemaal naar de broekzakken van een kleine groep stromen. Amerika zal vrijwel zeker ai toepassen in oorlog voordat de democratie daar aandacht voor heeft, en de VN kans krijgt er iets van te vinden.

Het risico van ethische onderzoeksclubs is dat het slagers zijn die hun eigen vlees gaan keuren.
Maar wat sterke morele implicaties zijn staat toch ook niet vast? En wat die dan ook mogen zijn, dat vormt op zichzelf al een kader.

Hoe dan ook is het inderdaad mooi dat ze een dilemma even denken op te lossen met een zak geld. Vooral gezien het probleem nog niet eens bestaat.
farce *
Onderzoek kost geld dus lijkt het mij een goede zaak te zijn dat er extra middelen voor vrij gemaakt worden.
whahahaha, wat een farse! De filosofie buigt zich al zo'n zes eeuw over zuivere ethische besluitvorming.
Wie heeft het over zuivere besluitvorming?
Het gaat denk ik in eerste instantie om hoe je uberhaupt zoiets als ethiek in een AI kunt coderen.
Zes eeuwen? Maak er maar gerust 25 eeuwen van. Ethiek komt van het oud-griekse " hē ēthikē tekhnē".

Overigens, je beantwoord blijkbaar onbewust je eigen vraag. " Waarom zou je een AI beslissing willen laten nemen [..]? Een [menselijk] besluit is niet lauter[sic] logisch, ". Logica is dus precies de reden om een AI besluiten te laten nemen.

En als je denkt dat je een lerende AI kunt laten vetoen door mensen, dan heb je een probleem. Wat gebruik je dan als leerstof? Als je de AI laat leren van zijn eigen oordeel, wat mensen ervan hebben gemaakt, en het uiteindelijke resultaat, dan zal de leerfunctie van de AI gaan optimaliseren voor de fouten die mensen maken.

Stel, je ontwerpt een AI om het goede nivo van sociale voorzieningen te bepalen, je laat politici dat oordeel vervolgens aanpassen, en de AI leren van het effect op de economie. De AI ziet dan misschien wel dat de politici er structureel 10% extra bij doen. Dan is de leerfunctie dus dat de AI 10% minder aan de politici moet adviseren dan wat objectief verstandig is. Je zou het onethisch kunnen noemen, maar wat er feitelijk onethisch is is dat de politici een optimaal resultaat liet de-optimaliseren.
Overigens, je beantwoord blijkbaar onbewust je eigen vraag. " Waarom zou je een AI beslissing willen laten nemen [..]? Een [menselijk] besluit is niet lauter[sic] logisch, ". Logica is dus precies de reden om een AI besluiten te laten nemen.
Ik denk het niet. Ff voor de duidelijkheid, computatie werkt dus zo: link. De logica die een computer volgt wijkt af van menselijke logica omdat die niet onderhevig is aan linguistische interpretatie en daarmee ook traditie, maar aan het afhandelen van mathematische bewerkingen. Je kan dus zeggen dat mensen in hun wiskunde / logica tekort schieten, maar juist die tekortkoming definieert ons ethisch spectrum.

Twee scenario's, eerste: omdat AI belangrijk is (o.a. voor AI), stelt de AI (van de 3e/4e graad, slimmer dan mensen, uber geavanceerd, nagenoeg sentient etc.) als doel AI beter te maken. Loopt de AI dan niet direct tegen het probleem van Heidegger aan dat AI zijn doel voorbij streeft? Wanneer en ten koste van wat houdt het op?

Tweede scenario: om het menselijk ras te beschermen tegen global warming, nucleaire oorlog, hongersnood, watertekort, etc. stelt AI voor een paar miljard mensen dood te maken (lost immers bijzonder logisch het probleem op in afwezigheid van ethische richtlijnen). A la terminator. Een reden om AI niet het besluit te laten nemen.

Point being: input >< output! Je kan niet alles in de AI stoppen dus zal een besluit gebaseerd zijn op een model. Dat schiet in ethische zin te kort. Je kunt imho een AI daarom geen besluit laten maken zoals je mensen dat kan laten doen. Je kan het advies wel meenemen in een overweging en de input zo groot mogelijk maken. Met AI ben je denk ik ook wel beter af dan zonder.
Ik werk zelf aan AI toepassingen, dus termen als "AI van de 3e/4e graad" heb ik weinig mee. We zijn nog ceen centimeter dichterbij gekomen, en om dus nu een onderzoeksfonds voor "ethische AI" te beginnen is onzinnig.

Het reële probleem met AI voor de samenleving is niet dat AI's zo slim zijn, maar dat ze zo goedkoop zijn.
De filosofie buigt zich al zo'n zes eeuw over zuivere ethische besluitvorming.
Dus? Wie zegt dat men verwacht dat het volledige vraagstuk in 1x wordt opgelost? Niemand. Met een doel moet je hoog inzetten.

Transport buigt zich ook al eeuwen om zo snel mogelijk van A naar B te komen. En toch wordt het transport steeds veiliger, sneller, enz.

Het is overigens 'farce', en 'louter'.
Moeilijk onderwerp. Wie bepaalt wat ethisch goed of slecht is?
U, ik en iedereen om ons heen.
In de praktijk zal dit neerkomen op een aantal groepen / denktanks die daar hun plasje over mogen doen in combinatie met regeringen / VN.
Dan nog blijft het probleem het vinden van een goed gemiddelde. Wat voor ons in het "beschaafde" westen ethisch onacceptabel wordt geacht, is voor een stam in het tropisch regenwoud volledig geaccepteerd, en omgekeerd.
Dichter bij huis neem de verschillen tussen aanhangers van een bepaald geloof en hoe die naar de wereld kijken.

Zelf al zal de ene groep zeggen dit is ethisch wil dat niet zeggen dat men er ergens anders hetzelfde over denkt. Er zijn bovendien altijd overheden met een eigen agenda die zich niets van ethiek aantrekken.
Je mag hopen dat de VN erbuiten blijft, als je ziet dat de VN geen moeite heeft met Saudi-Arabie in de mensenrechtencommissie.
Jammer genoeg wel ja.
Oh welnee, geloof je daar nou zelf in?
Wie dat bepaalt zijn de mannetjes in de grote wolkenkrabbers met heel veel nullen op hun rekeningen, onder andere de families Rockefeller, Rotschild en vele andere rijke joden die aan de touwtjes trekken op deze aardbol.
Dus u heeft geen eigen mening?
Eigenlijk maar nauwelijks tegenwoordig, wij lachen om Noord Koreaanse propaganda maar hier is het niet anders, het wordt alleen op een andere manier aan de bevolking overgebracht.
Er zijn meerdere manieren, maar het gaat hier niet zozeer om ethiek als geheel, maar of de AI maatschappelijk verantwoord handelt. Dat is een makkelijkere vraag om te beantwoorden en dan ga je er al vanuit dat maatschappelijk verantwoord ethisch goed is.
Is dat zo? Kijk eens naar hollywood voor dit soort interessante vraagstukken. Het is ontzettend maatschappelijk verantwoord om misdaden te voorkomen voordat zij begaan zijn. Is het ook ethisch verantwoord om mensen op te pakken voordat zij een strafbaar feit begaan hebben? (Minority Report) Wat blijft er dan over van ons huidige systeem van rechtspraak?
Anoniem: 341936 @Kraay8911 januari 2017 11:42
Ik zeg niet dat het zo is. De onderzoekers hebben die conclusie al getrokken door ethiek en maatschappelijk-verantwoord aan elkaar te linken. Ik ben het ermee eens dat het wat kort door de bocht is, maar als limitatie is het goed genoeg.
Nee joh. Of heb je dan de clou van Marvel's Civil War II gemist?

Het voorkomen van misdaden voor ze zijn begaan geeft slechts een van de mogelijke realiteiten aan.
tja, en wat is dan weer 'maatschappelijk verantwoord'? (just a rethorical question).

[Reactie gewijzigd door SuperDre op 22 juli 2024 15:58]

Inderdaad, heel lastig vraagstuk Ethiek. Wat voor de een wel ethisch is is dat voor de ander misschien weer niet, er zitten altijd 2 kanten aan elk verhaal. Ben benieuwd wat dit gaat opleveren.
Dat ligt aan hoe je bent opgevoed en hoe je dingen bekijkt. Beoordeel je op de bedoeling of het gevolg.

Stel je bevind je je in een situatie waarbij je uit eigenbescherming iemand vermoord (had even geen beter voorbeeld). Ga je vanui de bedoeling (je zou dood zijn geweest) of het gevolg (iemand is dood)

Moeilijk onderwerp
Dat is het juist. Wat in het ene land(deel) etisch correct is, is ergens anders weer incorrect.
Blijkbaar komt er een groep boven die de etische normen gaan bepalen voor de AI.
Juist, want ethiek is in the eye of the beholder. Wat jij misschien ethisch verantwoord vindt, hoeft een ander weer niet te vinden, en natuurlijk andersom.

Gister nog de film 'The machine' gekeken, en dat is best een goed voorbeeld.

[Reactie gewijzigd door SuperDre op 22 juli 2024 15:58]

Klinkt als een contradictio in terminis.

AI is niet natuurlijk niet biologisch en kan per definitie niet ethisch zijn.


Titel van artikel klopt niet.
How can we best initiate a broader, in-depth discussion about how society will co-evolve with this technology, and connect computer science and social sciences to develop intelligent machines that are not only ‘smart,’ but also socially responsible
Het woordje co-evolve is heel erg eng en onethisch.

Ze willen ontwikkeling gaan overzien en investeren in meer voor mensen acceptabele interface van hun handelingen en keuzes.

Niet specifiek dat AI ethisch gaat worden.

Verder eindigen discussies over ethiek dat er geen umiversele uitwisselbaar ethisch referentie kader is. Wat ik normaal vind, vind een amder niet en vice versa.

Het is jammer dat er steeds meer geld gaat naar ontwikkeling van maar niet naar preventie van gebruik van AI.

[Reactie gewijzigd door totaalgeenhard op 22 juli 2024 15:58]

AI is niet natuurlijk niet biologisch en kan per definitie niet ethisch zijn.
Waarom vind jij dat ethiek alleen voort kan komen uit natuurlijke en/of biologische processen?
Ik bedoel, veruit het meeste leven op aarde kent geen ethiek. Het zijn voornamelijk de complexe diersoorten, met mens als uitschieter, die enig ethisch besef hebben. En laat mensen nou juist het meest ver van de natuur af staan...
Ik zie dus geen noodzakelijk verband tussen biologie en ethiek.
Het woordje co-evolve is heel erg eng en onethisch.
Waarom vind je dit eng en onethisch?
Computers en AI zijn een feit. AI zal, zoals elk gereedschap dat doet, de menselijke evolutie raken.
Verder eindigen discussies over ethiek dat er geen umiversele uitwisselbaar ethisch referentie kader is. Wat ik normaal vind, vind een amder niet en vice versa.
Maar er zijn ook vrij brede begrippen waar de meeste mensen het wel over eens zijn. Zo zullen de meeste mensen moeite hebben met een AI dat geen respect heeft voor het leven van anderen. Daar kun je dus best wel iets mee.
Het is jammer dat er steeds meer geld gaat naar ontwikkeling van maar niet naar preventie van gebruik van AI.
Wat bedoel je met preventie van het gebruik van AI? In welk opzicht moet het tegengehouden worden? Of bedoel je dat AI in zn geheel niet kan/mag?
Ik bedoel, veruit het meeste leven op aarde kent geen ethiek
Deze zinsnede klopt.

Mensen zijn de enige diersoort die andere dieren waaronder mensen lastigvallen/irriteren en doden zonder noodzaak om het te eten of zelfverdediging.

Zelfsbewustzijn is geen voorwaarde voor ethisch besef instinct of gedrag gebonden kan dat ook al zijn.

Maar iets kunstmatig kan alleen geprogrammeerd ethisch gedragen.
Maar iets kunstmatig kan alleen geprogrammeerd ethisch gedragen.
Waarom?
Volgens mij kun je dingen programmeren die data produceren die niet makkelijk terug te leiden zijn naar het programma zelf. Je kunt bijvoorbeeld een kunstmatige evolutie simuleren. Waarom zou daar geen ethiek in kunnen ontstaan?

Ik snap wel dat dit niet is hoe we ethiek gaan implementeren in machines. Maar het gaat me hier even om het principe. Wat is de grens tussen begrippen als 'natuurlijk' en 'kunstmatig'?
Anoniem: 704848 11 januari 2017 11:41
Defineer 'Maatschappelijk verantwoord handelen'. Voordat je daar uit bent. ;-) Om antwoord te geven op de vraag wie bepaalt wat ethisch goed of slecht is mbt AI: Iedereen die iets met de code van de AI doet. Dat is overigens ook het antwoord op de vraag wie niet bepaalt wat ethisch goed of slecht is mbt AI. Met andere woorden: het gaat het meer om de vraag wie de poortwachter is mbt codewijzigingen. Wie gaat de pull requests goed of afkeuren? ;-) En dan is er nog de vraag over het zelflerende effect van een AI.

[Reactie gewijzigd door Anoniem: 704848 op 22 juli 2024 15:58]

Mooi om te zien! In de serie Person of Interest werd hier ook al enigzins aandacht aan besteed. Als een computer of ai alle problemen alleen maar met een kosten/batenanalyse af doet, dan kunnen er nog wel eens rare uitkomsten uit komen. Dit zelfde geldt als mensen problemen analyseren.
Anoniem: 636203 11 januari 2017 16:03
Bedoelen ze dat AI racistische trekjes gaat vertonen of zo? Bizar dat men daar over nadenkt.

Racisme heeft voornamelijk te maken met seks (als in voortplanting). En sinds AI daar niet aan doet (?) kan deze ook niet racistisch worden.
Stel een creditcard verstrekker wil een AI inzetten om te bepalen welke klant een creditcard mag. De AI wordt getrained met eerdere beslissingen.

Voorheen werden mensen met een buitenlandse naam uitgesloten, de AI leert het ook zo te doen. Voila daar is je discriminerende AI.
Zo werkt dat niet. AI wordt getraind op basis van data en het lijkt mij sterk dat ze de naam daar laten meespelen. Los daarvan is er geen creditmaatschappij die mensen met een buitenlandse naam uitsluit, dat zou illegaal zijn en rampzalig voor de publiciteit.
Anoniem: 669783 11 januari 2017 16:35
Dan zouden veel mensen opgeruimd worden schat ik. Het merendeel van de bevolking in deze wereld zorgt niet voor daadwerkelijke progressie. We zijn slechts werkmieren voor corporaties. Intellectuelen en topsporters zorgen voor fysieke en mentale vooruitgang. Als alleen de beste over blijven zal je een harde stijgende lijn krijgen in ontwikkelingen. Nou is het gelukkig wel zo dat mensen ontzettend kneedbaar zijn en als ze op jonge leeftijd de juiste voeding en informatie toegediend krijgen enorm kunnen ontwikkelen. Ik neem mezelf als voorbeeld zoals het niet moet. :p Het is de medische wetenschap die degenen die genetisch inferieur zijn in stand houden. Begrijp me niet verkeerd, ik vind de vooruitgang prachtig. We leven in een wonderlijke tijd en er komt alleen maar meer. Ik vind zelf dat elk mens een plek heeft in de wereld. Het leven word je tenslotte gegeven.

[Reactie gewijzigd door Anoniem: 669783 op 22 juli 2024 15:58]

Op dit item kan niet meer gereageerd worden.