Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

IBM stopt met gezichtsherkenning vanwege mogelijk gebruik voor massasurveillance

IBM stopt met zijn producten voor algemene gezichtsherkenning en de analyse hiervan vanwege de mogelijkheden hiervan voor massasurveillance en inbreuken op mensenrechten door de politie. Het bedrijf wijst op de gevaren van bias.

IBM-directeur Arvind Krishna meldt in een brief aan het Amerikaanse Congres dat zijn bedrijf niet langer gezichtsherkennings- en analysesoftware levert en tegen The Verge verduidelijkt het bedrijf dat het deze techniek ook niet langer ontwikkelt. IBM spreekt van het stoppen met general purpose gezichtsherkenning, dus voor brede algemene toepassing, waarmee het wel de deur openhoudt voor levering van specifieke toepassingen met gezichtsherkenning.

Volgens IBM is het moment aangekomen dat er een nationale dialoog in de VS op gang komt over de inzet van gezichtsherkenning door de politie, en zo ja hoe dat dan moet gebeuren. Tegelijkertijd spreekt het bedrijf zich uit tegen de inzet van gezichtsherkenning door andere leveranciers als deze techniek gebruikt wordt voor massasurveillance, etnisch profileren en het maken van inbreuk op mensenrechten.

Technologie kan de politie helpen bij hun taak om burgers te beschermen, stelt IBM, maar het gevaar is dat technieken ongelijkheid en discriminatie bevorderen. Wat kunstmatige intelligentie betreft moeten leveranciers daarom garanderen dat getest is op bias, systematische afwijkingen en vooringenomenheid die in de technologie kunnen sluipen en die versterkt kunnen worden.

Zorgen over de ontwikkeling van gezichtsherkenning en de inzet ervan zijn er al langer bij techbedrijven. Microsoft, Alphabet en Amazon riepen al eerder op de technieken te reguleren. Het onderwerp is hernieuwd op de agenda gekomen omdat politiediensten gebruik bleken te maken van een dienst van ClearView, dat afbeeldingen op sociale media gebruikte voor een omvangrijke database voor gezichtsherkenning, in combinatie met de kritiek die er in de VS is op grensoverschrijdend gedrag door de politie.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Olaf van Miltenburg

Nieuwscoördinator

09-06-2020 • 07:44

77 Linkedin

Reacties (77)

Wijzig sortering
LOL, lees: gezichtsherkenning van IBM werkte belabberd, nog steeds frame based waardoor tracking tussen frames nauwelijks goed werkt, video's voorbewerkt moesten worden en er behoorlijk veel meer reken capaciteit nodig is dan bij de concurrentie.

Het is dus te duur en werkt niet goed genoeg.

Daarnaast gebruikt IBM bewust geen publieke training sets van concurrenten (Facebook, Google), zelfs niet voor validatie.

Gevolg is dat ze met die aanpak steeds verder achter gaan lopen als gevolg van navelstaren en te weinig trainingsdata.

Het product en de aanpak is dus simpelweg niet concurrent in de markt en heeft geen perspectief voor verbetering.

Ook generieke herkenning van bijvoorbeeld leeftijd kan makkelijk 25% afwijken, zelfs bij goede belichting en natuurlijke opnames (dus geen make-up of acteerwerk). Hierdoor werkt bijvoorbeeld het snel filteren van personen ronduit slecht.

Dus ik vermoed eerder een financiële noodzaak, ook gezien de impact van Covid op IBM, dan een MVO beweging.


@Olaf
... Of wellicht nog erger (speculatie): zou de agent die nu terecht staat verkeerd zijn geïnformeerd door de gezichtsherkenning van IBM? Gezien dat het bericht spreekt over bias, systematische afwijkingen en vooringenomenheid..
... Dat IBM wellicht 'geadviseerd' is door de politiek om te overwegen te stoppen met dit product? Het is op z'n minst opmerkelijk dat je een brief aan het Congres schrijft als je stopt met een product.

[Reactie gewijzigd door djwice op 9 juni 2020 09:04]

Heb ook nog weinig goede software gezien van IBM, het is meestal oudbollig, werkt brak en je hebt vervolgens dure consultants van hun nodig om het werkende te maken.
Dus ik vermoed eerder een financiële noodzaak, ook gezien de impact van Covid op IBM, dan een MVO beweging.
Maar wel een goede timing voor een schouderklopje op eigen schouder en te laten zien aan de wereld hoe goed ze bezig zijn. PR op z'n best.
Het bedrijf heeft geen populaire media berichten nodig. Het is een bedrijf dat zich focused op de zakelijke markt en onderzoeksinstellingen. Die hebben geen behoefte aan blije berichtjes en lief gedrag. Zij kijken naar het product en het product alleen. Als het product en/of bedrijf maar een betrouwbare reputatie heeft dan is het goed. Dit heeft niks te maken met Black lives matter of wat dan ook. Dit is ook Tweakers en geen Twitter, hier bespreken we technologie, maar het lijkt hier steeds meer op de comment sectie van nu-jij op nu.nl 8)7
Het is niet zo gek dat je een brief schrijft aan het congres als je voornamelijk voor het leger met die dingen bezig bent.
Het is erger dat er nu andere minder openlijke bedrijfjes met de contracten aan de haal gaan.

[Reactie gewijzigd door Xfade op 9 juni 2020 13:08]

Privacy discussies zijn leuk maar uiteindelijk gaat het allemaal gewoon door. Over 20 jaar vliegen er allemaal drones over ons heen. :X Op zich niet erg als het gebruikt wordt om zakkenrollende Roemeense kinderen te redden van criminele bendes, minder leuk als Dolf en de Zwarte Kraaien partij aan de macht komt.
Mooie timing. Paar dagen terug heb ik al aangegeven waarom je alles te verbergen hebt:
1. Overheden willen alles weten: kijk wat naar Snowden jaren geleden heeft laten publiceren, kijk naar het gedoe om de sleepwet (WiV) en naar hoe vaak de overheid de regels niet volgt.
2. Incompetentie: dit, plus vele, vele andere voorbeelden zijn er te vinden waarin een overheid data zeer slecht verwerkt.
3. Onethische intenties: kijk naar SyRI. Op het moment dat onschuldige burgers gekenmerkt worden als potentieel fraudeur, stopt de overheid zelf niet, maar moet een rechter het project laten stoppen.
Ook al krijgt IBM kritiek op dat ze er nu mee stoppen doordat er zoveel in de media over te doen is, is het een goede zet. We moeten niet willen dat we technieken ontwikkelen die overheden veel macht geven. Dat kan ethisch heel onjuist zijn. Waar ligt namelijk de grens van burgers beschermen en burgers onderdrukken? Daar zit misschien onbewust wel wat overlap tussen.

Naast dat we moeten willen dat we technieken ontwikkelen die overheden kunnen gebruiken, is dat ook zo met (grote) bedrijven. Kijk eens naar Google en Facebook: ze zijn vooral groot geworden door onze gegevens. Vergeet niet dat het onze gegevens zijn en behalve de diensten die ze aanbieden, ze ook veel winst maken. Ik denk dat mensen het prima vinden dat hun gegevens worden gebruikt om een dienst of product mee te betalen, maar ook winst? Want daarmee is het ook een prikkel om nog meer data te verzamelen. Waarom is er geen eenvoudige wet die verbiedt dat bedrijven winst mogen maken met onze gegevens? Dat lijkt mij vele malen belangrijker en relevanter voor een politieke partij dan de etnische samenstelling die ik in de supermarkt tegenkom (en heel eerlijk, het geklaag over immigratie is de afgelopen 20~25 jaar volgens mij weinig veranderd) ...
Komt ie nog een keer:
Nee, je hebt wél wat te verbergen

In discussies over privacy duikt steeds dit argument op: 'Ik heb niets te verbergen'. Waarom zou je je dan zorgen maken over de NSA of Facebook? We geven elf redenen waarom dit een fundamenteel verkeerd argument is.

[Reactie gewijzigd door Stranger__NL op 9 juni 2020 09:12]

Volgens mij was Nas T het met u eens lol
Ik val 'm bij; niet aan. :)
Tsja, IBM heeft vaker met dit bijltje gehakt natuurlijk, vooral hun ponskaart database systemen ;)
En in dat opzicht vind ik dit een goede stap van IBM, ook al is het misschien alleen bedoeld voor reclame.

De overheden en de VN zouden hier veel sterker tegen op moeten treden. We zouden moeten leren van de geschiedenis. In plaats daarvan zie je dat ze zich langzaam maar zeker herhaalt. En als je ooit dingen als deze ponskaartmachines of de GBA in Nederland er bij haalt dan doe je een Godwinnetje en is je hele geloofwaardigheid meteen weg.

Je ziet al steeds meer overheden die richting een politiestaat gaan om hun burgers te beschermen. Jammer genoeg beseffen overheden niet dat ze de burger ook dienen te beschermen tegen een te grote macht van de overheid (of andere entiteiten wat dat betreft).

We zien data als het zwarte goud, hoe meer hoe beter. Dan kun je immers nóg beter terroristen opsporen en nóg beter die pedofielen vinden. Als je tegen bent ben je al bijna een crimineel. Terwijl de waarheid is dat al deze informatie nooit weer weggaat en continu evolueert. Als je het over 20 jaar niet eens bent met de dictator die op dat moment aan de macht is heb je een groot probleem om je te verstoppen: overal staan camera's (gezichtsherkenning kan er altijd zo bij op), metadata moet door providers worden vastgehouden en end-to-end encryptie is tegen die tijd wel verboden. Probeer dan nog maar eens je stem te laten horen...
Ik heb het al vaker gezegd, er komt een dag dat regeringen de verzamelde data bij social media platformen gaan opeisen en dit verplicht word om af te staan.
Als je ziet hoe men nu al met noodwetten in de Covid-19 tijd bezig is en zelfs in de wet zelf op willen laten nemen.
We gaan steeds meer naar een moderne slavernij toe.
Komt inderdaad erg overeen met hoe op Wikipedia is beschreven hoe in oud-Duitsland de toestemming van de burgers werd verkregen voor data analyse op persoons niveau.

Het concept bestaat dus al even zoals je aangeeft. Een vorm van behoefte aan controle en wellicht macht.

Wat zouden we kunnen veranderen zodat die behoeftes gevoed worden zonder de vergaarbehoefte te voorzien?
Wat zouden we kunnen veranderen zodat die behoeftes gevoed worden zonder de vergaarbehoefte te voorzien?
Als je bedoelt wat we kunnen doen om de behoefte aan controle en macht te voeden dan heb ik daar maar één antwoord op: die moet je niet voeden. Die moet je vervangen door vertrouwen en samenwerking. De enige die dat kunnen doen zijn we zelf.

Jammer genoeg heb je mensen die macht willen en er (al dan niet onbewust) zoveel mogelijk aan doen om dat te vergaren (controle, meer mogelijkheden tot ingrijpen, etc.). En je hebt de overgrote meerderheid die volledig blind door het leven gaan omdat ze absoluut geen problemen wensen te zien die hun comfortabele leventje in de war zou kunnen schoppen.

Het jammere is dat als het gaandeweg ergens fout gaat, en dat gaat het, je al te laat bent. Die data gaat nooit meer weg. En vroeger had je dan nog verzetsstrijders die de papieren archieven gingen vernietigen, tegenwoordig is dat een stuk lastiger in de digitale wereld. Je mag hopen op goede IT'ers...

Privacy is niet iets dat toe te schrijven is aan enkele punten van je leven, zoals je vingerafdruk, je dna en je gezicht. Privacy heeft te maken met ALLE data die ooit over jou is verzameld. Als je datasources aan elkaar gaat knopen dan weet de gemiddelde analist meer over jou dan jezelf. Even een voorbeeld welke nu al prima mogelijk is:

Je locatiegegevens (smartphone, emergency call auto en cctv camera's).
Hiermee weten ze dus ook welke politieke bijeenkomsten je hebt bijgewoond of met welke groepen mensen je contact hebt.

Je uitgaven patroon (bankrekeningen, credit cards, spaarpassen en contante betalingen waarbij gevraagd wordt om je postcode).
Dan weten ze dus ook welke partijen je steunt. Wat je eetgewoonten zijn. Waar je gevoelig voor bent (houdt van dure merk artikelen of coole gadgets). Maar ook: welke medicijnen je koopt en welke ziekte je mogelijk onder de leden hebt.

Je surfgedrag.
Welke sites je bezoekt, hoe lang je daar bent, welke reacties je hebt op bepaalde onderwerpen. Vrienden, influences, etc. En natuurlijk of je mensen aan het ronselen bent voor de freedom movement...

Je kijkgedrag.
Welke zenders kijk je en wanneer. En wat is dan je reactie daar weer op op internet.

De mildste scenario's over wat je met al die informatie kunt doen gaan over direct marketing, verzekeringspremies op basis van levensstijl en misschien een beetje afpersing.

Ga je wat verder dan kun je al zien dat je ook heel makkelijk mensen kunt uitsluiten van bepaalde diensten: je leeft niet gezond genoeg, je rijstijl is niet goed, dus geen autoverzekering meer. Oh: je bent lid van een atheïsten groepering, we willen je niet in deze kerk. We zien dat je vaak in de bible belt komt en regelmatig vraagtekens zet bij vaccinatie: wij willen je kinderen niet meer op onze school in verband met gevaar voor besmetting.

En als je het doortrekt in het kader van een toekomstige dictatuur dan wordt het pas echt leuk: al die informatie over je _hele_ bevolking kun je echt super gebruiken voor onderdrukking, angst zaaien en controle. En natuurlijk wat subtielere beïnvloeding. Infiltrantje in kanaal X van de vrijheidsbeweging die af en toe stomme dingen doet doet flink afbreuk aan de geloofwaardigheid.

Natuurlijk, dit is allemaal alu hoedjes en complotten en heel cynisch. Maar feit is wel dat we van beïnvloeding, spionage en zelfs marteling al voldoende bewijs hebben, ook in het "verlichtte" westen. Feit is ook dat we niet weten hoe de wereld er over 20 jaar uit ziet. Feit is ook dat alle informatie die je ooit aan bits en bytes hebt toevertrouwd weer teruggevonden kan worden, zelfs van je pa, opa en tante...

Wat ik maar wil zeggen is dat we op dit moment veel te laconiek doen over wat er met de data van mensen, en dus de mensheid, kan gebeuren zonder voldoende safeguards. Ik zie namelijk niet gebeuren dat de mens al zo verlicht is dat er geen machtsstrijd meer is tegen de tijd dat alles over iedereen bekend is. We lijken ook niet te leren van de geschiedenis.

* Mecallie hoopt dat we nog een keer zover evolueren dat we dingen doen omdat het goed is. Niet omdat we er beter van worden.

[Reactie gewijzigd door Mecallie op 9 juni 2020 22:14]

Klopt allemaal. Was alleen benieuwd of je inzichten had hoe we - gegeven dat er dit soort mensen zijn - iets kunnen doen om die mensen én ons het naar de zin te maken. Zodat er een symbiose ontstaat zonder die risico's.

Want het is maar al te gemakkelijk wél data te koppelen.
Je bedoelt het vast en zeker als een grapje, en ziet vast het kwaad niet van wat je zegt, maar ik ben sterk van mening dat we dat verhaal van meer dan 70 jaar geleden wel kunnen laten rusten. Buiten het feit dat het management van dat bedrijf al wel een paar keer veranderd is en de huidig zittende directie hier dan ook totaal geen verantwoording voor kan afleggen geef jij hier eigenlijk aan dat rehabilitatie een totale onmogelijkheid is. (Denk heel even na over wat de gevolgen zijn van het niet kunnen rehabiliteren. Niet alleen voor bedrijven, maar ook voor landen, groeperingen en individuen)

Trek een Hugo Boss shirtje aan en zet een lekker kopje koffie op je krupps apparaat. stap vervolgens in je Audi,(of in de NS trein, of in je Volkswagen, of in je Porsche, of in je BMW) naar het vliegveld om met de KLM naar een vakantie land te vliegen. In het vliegtuig neem je een lekkere boterham met Nutella van Nestlé, drink je een lekker glaasje Coca Cola en luister je naar je Philips koptelefoon. Na een heerlijke vakantie waarbij je van weet ik veel hoe veel vaudte bedrijven hebt genoten heb je geen zin om te koken en neem je als klap op de vuurpijl nog een Dr. Oetker Pizza.

Laten we de huidige digitale problematiek ajb niet vergelijken met de verschrikkingen van toen, en laten we vooral leren van de dingen die toen gebeurd zijn zonder de huidige generaties hier van de schuld te geven. (let wel, ik ontsla ze niet van terechte schade betalingen daar ze nog wel voordelen kunnen hebben van toen opgedane commerciële voordelen (inclusief persoonlijke vergoedingen voor persoonlijk opgelopen schade)).

Laten we wel kijken naar hoe we dingen die we nu nog niet kunnen voorzien kunnen beschermen tegen de informatie-verzamel-drang die overheden nu lijken te hebben, en hoe we ons kunnen wapenen als een slecht willende wereldleider opstaat en deze informatie wil misbruiken tegen de volgende onderdrukte minderheid. In mijn nooit erg bescheiden mening zit IBM zeker wel aan de verkeerde kant van deze lijn. IBM is overduidelijk geen bedrijf dat normaliter dingen doet voor het algemeen goed (althans, zo ken ik ze niet), en ik denk dat de hierboven genoemde beslissing eerder te maken heeft met het feit dat ze in deze space niet goed kunnen concurreren door hun inferieure product-set.
IBM doet wel dingen voor het algemeengoed. Niet in de zin van geld weg geven aan goede doelen. Maar IBM doet wel veel research and development, een zaak dat wij als burgers zeker als een goed iets kunnen zien! IBM is de vader van de computer wereld, IBMs invloed op de moderne tijd van computers is erg groot, tegenwoordig zitten ze niet meer in de particuliere markt, zoals 'vroeger' maar dat komt omdat het niet meer winstgevend voor hun was. Hun focus ligt nu het het verbeteren van technologie en de zakelijke markt. Dit is ook goed voor de gewone burger, want de technology die zij ontwikkelen voor de zakelijke markt, komt vaak later tevoorschijn in de markten van gewone burgers
Ik las de reactie van Zoijar niet als een beschuldiging, maar eerder als een reden waarom IBM aangeeft hiermee te stoppen. Misschien hebben ze geleerd van hun eigen geschiedenis en grijpen ze nu op tijd in.

Moet zeggen dat ik je mening deel: ik denk dat ze niet kunnen concurreren. Maar wat mij betreft is elk stukje publiciteit die dit soort dingen aan de kaak stelt meegenomen. Wat de beweegredenen ook zijn.
Misschien is het gewoon dat ze zich eindelijk realiseren dat dit soort software onmogelijk betrouwbaar kan werken? Op het moment dat je miljoenen gezichten met elkaar gaat vergelijken worden de verschillen, die eenzelfde gezicht van dag tot dag kan vertonen, groter dan de verschillen tussen verschillende gezichten. Dat is een onoplosbaar probleem en daar moet je als een bedrijf van weg blijven.

[Reactie gewijzigd door rijnsoft op 9 juni 2020 10:46]

het lukt mensen nochtans heel goed om dat onderscheid te maken, ik zie geen reden waarom computers dat (in de toekomst) niet net zo goed zouden kunnen
Volgens mij berust dit op een aantal misvattingen. Mensen hoeven nooit 1 persoon uit miljoenen, met een aan zekerheid grenzende betrouwbaarheid, te herkennen. Hoe vaak heb je trouwens niet dat je denkt dat je iemand herkent, maar bij nader inzicht is het toch iemand anders? Je kunt er als mens even om heen lopen, je ziet in 3D i.p.v. 2D, je gebruikt je oren en je ervaring: Pim draagt nooit een bril dus dat zal hem wel niet zijn. Kortom, computers zijn geen mensen. Tenslotte overschatten mensen heel snel hun eigen capaciteiten.
Mensen hoeven nooit 1 persoon uit miljoenen, met een aan zekerheid grenzende betrouwbaarheid, te herkennen
computers ook niet
Je kunt er als mens even om heen lopen, je ziet in 3D i.p.v. 2D, je gebruikt je oren en je ervaring
kunnen computers ook dankzij AI en meer sensoren
Dat moeten computers juist wel, alleen niet per se miljoenen inderdaad, maar misschien wel miljarden. Als je in 1 land al 1.300.000.000 inwoners hebt die je allemaal in de gaten wilt houden, dan is dat lastiger.

Een mens kent maar een beperkt aantal verschillende gezichten. Dit zijn er niet snel meer dan duizenden of hooguit tienduizenden. Daarnaast zijn wij heel erg goed in context. (wat je de computer ook aan kunt leren) Als jij denkt je buurman te zien terwijl je 400KM verderop op vakantie bent dan geven je hersenen al aan dat het toch wel niet zo zal zijn. Je kijkt dan minder nauwkeurig naar alle gezichten omdat je niemand verwacht.

De computer moet misschien alles wel verwachten, want zeker bij een verdachte activiteit wil je dat die ene persoon wel heel snel geïsoleerd kan worden, nog voordat die verdacht gedrag laat zien. Dat is het hele doel van de massa surveillance.

En die match is dus eigenlijk continu: waar komt deze ene persoon in mijn database van 1.300.000.000 mensen voor? En de berekening erna is: waarom is deze persoon daar en is dat logisch?
En dat voor iedereen. False positives kunnen extreem gevaarlijk zijn.
Ik wil hier geen pleidooi geven voor mass-surveillance, ik reageerde enkel op de stelling dat "dit soort software onmogelijk betrouwbaar kan werken".
Los daarvan en in het geval van mass surveillance: als een agent een verdachte ziet rondlopen op straat, of een computer die zou herkennen in een massa, zijn de gevolgen toch gewoon hetzelfde? Een agent/beveiliger zal de verdachte om identificatie vragen, het is niet zo dat "de computer" die verdachte zomaar even zal neutraliseren in de massa met een gerichte aanval van immobilisatieschuim of zo. Ik zie niet in waarom een computer dit - in het geval van massa surveillance dan nog, iets wat in Europa niet wettelijk is volgens mij - beter zou moeten zijn dan een mens die nooit zoveel mensen in het oog kan houden. Ik zie niet in waarom de computer dat plots 100% correct zou moeten doen.
Je haalt er ook verdacht gedrag bij, daar ging het helemaal niet over, het ging over gezichtsherkenning.
Voor een deel.

Er zijn best veel zaken bekend waarbij een foutje in de computerdata leidt tot jaren van procedures om het weer goed te krijgen. Juist omdat het geautomatiseerd is.

Een computer maakt in principe minder fouten dan een mens, maar de gevolgen van een fout kunnen wel groter zijn.

De politieagent die zich vergist ziet de ID en laat de persoon weer gaan zonder extra gevolgen. De computer heeft een foutief 1-tje of 0-lletje achter de persoon gezet waar hij zelf nooit meer wat aan kan doen en wat pas jaren later tegen d epersoon gebruikt kan worden als je pech hebt. En probeer er maar eens achter te komen wat er gebeurt is.

Een Chinees die een foute 1 heeft staan omdat de computer dacht dat die persoon in Hong Kong was om te protesteren, kan dat over x maanden of jaren erg moeilijk bewijzen als er iets anders voorvalt in Chongqing waar hij foutief door rood licht loopt. De gevolgen van die "1" bij Hong Kong kunnen dan opeens extreem gaan tellen.
Allemaal goed en wel, maar dit heeft niets meer met de technologische kant van gezichtsherkenning te maken. Wel met de manier waarop met die technologie wordt omgegaan.
nee, juist niet.

Als de gezichtsherkenning niet 100% betrouwbaar kan worden, dan heb je toch echt een probleem. Dan worden de problemen te groot als het daadwerkelijk ingezet gaat worden. Dat kan prima een reden te zijn om het niet verder te ontwikkelen, omdat je er van overtuigd lijkt te zijn dat de technologie niet goed genoeg gaat zijn. Daarbij ga je er ook vanuit dat je het doel had goed genoeg te worden om voor X-toepassing in te zetten.
Dat gezichtsherkenning verkeerd gebruikt kan worden is overduidelijk, daar hoef je niet voor gestudeerd te hebben. Het stuk kunstmatige intelligentie vind ik veel interessanter in dit artikel. Wat ik wel opvallend vind is dat het volgende geschreven wordt:
Wat kunstmatige intelligentie betreft moeten leveranciers daarom garanderen dat getest is op bias, systematische afwijkingen en vooringenomenheid die in de technologie kunnen sluipen en die versterkt kunnen worden.
Ik ben het er mee eens dat een systeem (of dat nu een orgaan van de overheid is of een CCTV systeem) neutraal moet zijn. Maar wanneer een organisatie zoals IBM een toepassing ontwikkelt die volledig neutraal is en zichzelf traint op basis van data die het toegereikt krijgt en daaruit komt dat groep X die aan profielen Y en Z voldoen een hogere risicofactor hebben is daar toch niets racistisch aan? Wel moet er een harde lijn getrokken worden omdat dit over gemiddelden gaat en niet over feiten die van toepassing zijn op ieder individu. Een erg interessante discussie dit.
De gezichtherkenning van IBM deed het structureel slechter op vrouwen en mensen van Afirkaanse afkomst, vandaar de opmerking over bias. De foutpercentages liepen uiteen van 2% tot 34%. Dat gaat dus nog niet eens over risico's, het product zelf werkte slecht.
Er is vast wel een een of ander Chinees bedrijf waar je het voor weinig kan inkopen.
Die hebben er ook nog het meeste ervaring mee.
Gezichtsherkenning die wel werkt, kan juist heel goed zijn om de veiligheid van de burgerbevolking te garanderen in een tijd van terroristen die vaak doorgelaten worden door menselijk falen.

Dat de gezichtsherkenning van IBM niet zo nauwkeurig is en bij hen het gevaar bestaat dat de technieken ongelijkheid en discriminatie bevorderen, wil nog niet zeggen dat dit bij andere bedrijven ook zo is.

IBM wil gewoon goedkoop scoren in het huidige klimaat van 'discriminatie en ongelijkheid ligt op de loer'. Prima dan dat ze zelf het bijltje erbij neergooien. Als je dit zelf van je eigen software vindt, kun je idd maar beter stoppen.
Gezichtsherkenning die wel werkt, kan juist heel goed zijn om de veiligheid van de burgerbevolking te garanderen in een tijd van terroristen die vaak doorgelaten worden door menselijk falen.
Zou dom zijn om hier op te vertrouwen denk ik.
Wil je iemand herkennen dan moet je die eerst kennen. Met zo'n ai kun je dus alleen de terroristen herkennen die je al eerder bent tegengekomen.
Dat de gezichtsherkenning van IBM niet zo nauwkeurig is en bij hen het gevaar bestaat dat de technieken ongelijkheid en discriminatie bevorderen, wil nog niet zeggen dat dit bij andere bedrijven ook zo is.
De techniek is bij andere bedrijven nagenoeg hetzelfde. Zij zullen dus ook last hebben van biasen. En de bias zit over het algemeen in de trainingsets.
Als je dit zelf van je eigen software vindt, kun je idd maar beter stoppen.
Ik denk dat je dan het probleem niet snapt. Het ligt niet aan de software zelf maar aan de wereld waarin die getrained wordt. Aangezien onze wereld in bepaalde mate gebiased is, is de data die we aan zo'n ai voeren om van te leren ook gebiased. En vervolgens zal die ai dus ook de bias overnemen.
Het is niet zo dat IBM de enige is die hier last van heeft. Dan zouden ze volgens jou dus allemaal moeten stoppen.
Onwaarschijnlijk verhaal. Alsof ze daar nu ineens achter komen. En alsof de hele wereld er nu mee gaat stoppen omdat IBM tot dit besef gekomen is.

[Reactie gewijzigd door breakers op 9 juni 2020 07:53]

Dus omdat ze ooit gekozen hebben te starten is stoppen geen oprechte keuze? Beter ten halve gekeerd dan ten hele gedwaald. Als ze er mee doorgaan zijn ze Evil Corp, als ze er mee stoppen is het hypocriet en zinloos, klassiek gevalletje 'damned if you do, damned if you don't'. Laat zo'n grote partij maar eens dit statement maken, dan kunnen we er allemaal over nadenken wat we er mee willen.
Dit statement wordt al decennia gemaakt, dus hoezo zou men er nu ineens over na gaan denken?

En nog wel door IBM, die zijn geld verdient met dit type ontwikkelingen. Begrijp me goed: Daar is het een commercieel bedrijf voor, dus prima, maar dan ben je niet geloofwaardig meer om kritisch te zijn qua ethiek op het moment dat je zelf stopt. En dan ook nog met één specifiek onderdeel, terwijl mensen volgen natuurlijk niet alleen met gezichtsherkenning kan.

Het is alsof een banketbakker stopt met chocoladecake omdat hij er deze week achter is gekomen dat daar veel verzadigd vet in zit. Maar wel gewoon moorkoppen en donuts blijft verkopen.
IBM stopte met dit product omdat ze er geen nut meer van inzagen. Waarschijnlijk zou het te duur zijn geworden om het te fixen en er zijn al genoeg andere bedrijven die ook al bezig zijn met deze software. Hierdoor nam IBM waarschijnlijk het besluit hun tijd en geld te steken in een project dat wel een toekomst had, waar ze zelf wel winst in konden nemen. Dit heeft niks te maken met een verminderen geloofwaardigheid, in tegenstelling hebben ze meer geloofwaardigheid, ze zagen in dat het geen zin meer had om R&D te steken in een stuk software dat door veel kleinere bedrijven al aan gewerkt wordt. Misschien denkt u anders maar u moet inzien dat IBM geen bedrijf is die producten of diensten aan de gewone man verkoopt(ten minste niet als belangrijkste afzet markt) maar aan bedrijven en onderzoeksinstellingen, dus je moet er met een meer rationeel oog naar kijken
Dat is precies wat ik zeg ;)

Alleen wordt IBM, precies nu ze zelf stoppen met massa-surveillance, kritisch op deze toepassing:
[…]spreekt het bedrijf zich uit tegen de inzet van gezichtsherkenning door andere leveranciers als deze techniek gebruikt wordt voor massasurveillance, etnisch profileren en het maken van inbreuk op mensenrechten.
Dat is gewoon hypocriet. En intussen wel zelf verder gaan met ‘specifieke toepassingen’ van gezichtsherkenning. LoL
Iedereen kan een change of hart hebben, het is zeker curieus
Met welke reden dan ook, stoppen met gezichtsherkenning omdat het de privacy van mensen negatief kan beïnvloeden is een goede zaak.
Het lijkt mij eerder een reclame uiting dan wat anders :D
De humor ligt op straat. Net als de hypocrisie, de ironie en de WC-Eend 😏
Waarschijnlijk is hun software niet concurrerend genoeg...
Verstandig van IBM, gezien hun (onbedoelde) verleden in '39-'45 met enorme gevolgen.

[Reactie gewijzigd door Trommelrem op 9 juni 2020 08:53]

Opvallend dat zoveel mensen hier mee reageren en hoewel het imho kolder is dat IBM nu ineens ethisch verantwoord zou gaat doen, vind ik dat dan weer een beetje gezocht.

Dat is gebeurt met de tweede wereldoorlog door de nazi’s. Er zijn zoveel bedrijven die ingezet zijn door de oorlogsmachine, maar bij pakweg BMW, Audi, Bayer of BASF hoor je nooit iemand spontaan opmerken dat ze uit moeten kijken dat hun oorlogsverleden weer ter sprake komt.
pfff das proberen goedkoop te scoren in de huidige situatie, maar IBM er zijn genoeg bedrijven die dit gat moeiteloos opvullen... vooral israelische bedrijven zijn hier goed in.
IBM heeft niet zo'n hele goeie reputatie wat databases met persoonsgegevens betreft. Iets met 2e Wereldoorlog en zo. (Zoek maar eens op Dehomag, de 'koude kant' van de IBM-familie).

Het is dus niet zomaar 'goedkoop scoren' maar meer zo van 'misschien moeten we dit niet nóg eens verkeerd doen'.

[Reactie gewijzigd door DigitalExorcist op 9 juni 2020 08:30]

Of wat dacht je van de mogelijkheid dat IBM er achter is gekomen dat de concurrentie een dermate voorsprong heeft op dit specifieke gebied, dat het voor IBM niet meer in te lopen is?

Anderen hebben betere producten en patenten. Dus nog meer geld er tegenaan gooien, heeft voor IBM geen zin. Ergo, de stekker gaat uit dit project. Een duur geintje want er zit al veel geld in.

Wat doe je dan, om er toch nog iets aan te hebben? Je spint het in de media als een goede daad.

Overigens perfecte timing nu met die ophef over politiegeweld, dat moet ik ze nageven.

Een maand geleden was dit nog heel anders gevallen, met 100% aandacht voor Corona.
En dat terzijde, IBM heeft helemaal geen baat bij het hebben van populaire media aandacht, de particuliere markt is al lang niet meer hun belangrijkste afzet markt. Ze zijn al tientallen jaren volop met onderzoek en ontwikkeling bezig en vooral gefocust op de zakelijke en wetenschappelijke markten. Daar kijken ze niet echt naar dit soort nieuws, is voor hun niet van belang. Zij zullen zelf wel naar de hardware en software van IBM kijken en IBM is zo'n grote jongen in de industrie, net als Google hebben ze allemaal projecten lopen en als die niet gaan als ze gedacht hadden en het project loopt vast, of is nutteloos geworden trekken ze gewoon de steker eruit.
IBM (en alle andere multinationals) trekken alleen de stekker uit een project als het geen geld oplevert of als ze gedwongen worden vanwege juridische redenen.
Het is wel erg naief om te denken dat IBM dit doen omdat ze denken dat dit beter voor de mensheid is.

Disclaimer: ik heb jaren voor IBM gewerkt (net zoals jij waarschijnlijk Micahve)
Dat is oprecht wat ik zeg?
And I quote
"IBM is zo'n grote jongen in de industrie, net als Google hebben ze allemaal projecten lopen en als die niet gaan als ze gedacht hadden en het project loopt vast, of is nutteloos geworden trekken ze gewoon de steker eruit." end quote

Hier beschrijf ik wat u net beschreef.
Maar daarom is het toch juist goedkoop scoren? De nadelen van gezichtsherkenning door de overheid(sorganen) worden al besproken sinds het fictie in films is. Het is al jaren bekend dat herkenning alleen goed werkt op de dataset die getest wordt (meestal blanken). Mogelijke bias in de algoritmes is ook al jaren bekend. Dat weet ik, en ik werk niet eens in dat veld én ik heb ook geen techbedrijf dat miljarden waard is.

In dit artikel worden nota bene links gezet van drie grote techbedrijven die al publiekelijk oproepen om dit te reguleren. Microsoft in 2018 al!

En nu komt IBM nog een keer de wijze partij uit te hangen, toevallig een week na protesten en rellen? Als ze begaan waren met de zaken die in dit artikel genoemd werden dan hadden ze jaren geleden de boel gesloten of uberhaupt nooit begonnen. Wanneer er ook geen rellen waren.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True