'Gezichtsherkenningsalgoritmes maken onderscheid tussen zwarte en witte mensen'

De meeste gezichtsherkenningsalgoritmes hebben meer moeite met het herkennen van zwarte en Aziatische mensen dan met witte gezichten. Dat blijkt uit een onderzoek onder 189 algoritmes van grote bedrijven. Ook zijn er meer verschillende resultaten tussen vrouwen dan bij mannen.

De studie van het Amerikaanse National Institute of Standards and Technology keek naar 189 algoritmes van 99 verschillende ontwikkelaars. Het gaat daarbij om systemen van grote bedrijven, zoals Microsoft en Intel. Het onderzoek keek met name naar empirische resultaten, maar trekt geen conclusies over de oorzaken van de vooroordelen van de algoritmes. In het onderzoek werd zowel gekeken naar het matchen van een gezicht met één specifieke foto, zoals bij de inzet van een biometrische gezichtsscanner op een telefoon, als naar het matchen van een foto uit een grote collectie van foto's zoals vaak bij opsporing gebeurt. De onderzoekers merken op dat met name in die eerste groep de verschillen tussen zwarte en witte mensen groot zijn. Bij het matchen van één gezicht met meerdere gezichten verschillen de resultaten. "Niet alle algoritmes hebben zo'n hoog cijfer van false positives. Verschillende algoritmes leveren verschillende resultaten op", schrijven zij.

Uit het onderzoek blijkt dat er zwarte en Aziatische mannen in sommige gevallen honderd keer zo vaak onterecht worden aangemerkt als match met een foto als witte mannen. Ook andere etnische groepen, zoals native Americans en mensen met een Polynesisch uiterlijk worden significant vaker uitgelicht in de algoritmes dan witte mensen. De algoritmes maken daarin ook onderscheid in leeftijd en geslacht. Vrouwen worden vaker onterecht uitgelicht, net als ouderen en kinderen. Volgens de onderzoekers is dat zeker bij opsporingsalgoritmes een gevaar. "In een één-op-één vergelijking is een false negative slechts een ongemak waarbij je bijvoorbeeld niet in je telefoon kunt. Maar bij een false positive waarbij wordt vergeleken met andere afbeeldingen kan een incorrecte match leiden tot nader onderzoek", schrijven de onderzoekers.

Er is de laatste tijd veel te doen over gezichtsherkenning, met name door de politie en andere opsporingsdiensten. Verschillende politici van onder andere CDA en D66 willen bijvoorbeeld dat daar een tijdelijke stop op komt, iets dat ook wordt onderschreven door minister Grapperhaus van Justitie en Veiligheid en de Europese Commissie. Het zou dan gaan om het gebruik van gezichtsherkenning voor het opsporen van criminelen, maar ook door techbedrijven die het in hun producten en diensten bouwen.

Door Tijs Hofmans

Nieuwscoördinator

20-12-2019 • 19:08

251

Reacties (251)

251
194
55
3
0
14
Wijzig sortering
Ik vind de titel van dit artikel nogal misleidend. "Onderscheid maken" klinkt, zeker in deze context, alsof er een bewuste keuze is voor geprogrammeerd voor zwarte en witte mensen, of dat die anders behandeld worden. Dat is dus niet zo lees ik in het artikel.

De algoritme's hebben kennelijk meer moeite om verschillende zwarte mensen van elkaar te onderscheiden, dan dat ze moeite hebben om witte mensen van elkaar te onderscheiden.
Iets heel anders maar het is wel zo. Ik licht vaker artiesten uit en het is een gegeven dat als er een donkerder persoon on stage is deze wat meer front licht nodig heeft. Dat valt zeker op bij de fotos die terug gekeken worden of als het gefilmd word.
Het is zeker een factor dat het simpelweg technisch moeilijker is om donkere texturen correct vast te leggen -zowel analoog als digitaal.

Maar dat verklaart niet het in het artikel vermeldde verschil tussen blanken en Aziaten, of mannen en vrouwen.

Er is simpelweg een bias in de algoritmen dat er in is geslopen bij de ontwikkeling, hoogstwss omdat de trainingsdata meer/betere samples bevatte van een bepaald type persoon. Of dit bewust is of niet staat daar nog los van, maar in beide gevallen is het reden tot bezinning, vind ik.

Ik moet nu denken aan analoge filmrolletjes, die ook decennia lang simpelweg ongeschikt waren om goede foto's van zwarte mensen te maken. Ook hier geldt dat het simpelweg moeilijker is, en dit verklaart een deel van het verschil, maar de grootste factor was dat de makers van de filmrolletjes er simpelweg geen rekening mee hielden: de reference shirly kaart was de foto van een blanke vrouw. Filmrolletjes werden getest en kregen hun rating qua kleurprecisie op basis van enkel en alleen dat ene huidtype. Kwaad opzet? Nee. Racisme? Zou ik het persoonlijke niet noemen (al zijn de meningen erover verdeeld en snap ik mensen die dit racisme noemen). Een enorm teken van tunnelvisie? Vind ik wel.

[Reactie gewijzigd door kiang op 23 juli 2024 01:46]

Dat probleem zie je ook bij pantys. Daar heb je ook verschillende kleuren waaronder soms ook 'huidskleur' want natuurlijk niet een enkele kleur is in onze samenleveving. Dat zouden ze best eens mogen aanpassen qua naam.

Bij gezichtsherkenning zou ik verschil tussen mannen en vrouwen niet verwachten, maar tussen europese en aziatische mensen zit nou eenmaal een verschil. Wat voor effect dat heeft als je van beide etnische achtergronden een systeem evenveel sampledata aanbiedt weet ik niet maar dat kun je nu juist mooi onderzoeken.

In het geval van opsporings mechanismes is het logisch dat er voornamelijk mannen van middelbare leeftijd het beste herkend worden, dat is ook de groep waar de meeste criminaliteit plaatsvind. Wat heb je aan een onderzoeksfilter wat perfect het onderscheid kan zien tussen 2 kinderen van 4 jaar oud als je een moordonderzoek doet?

Mensen zijn nou eenmaal biologisch verschillend. Maar daar lijkt soms in de media geen ruimte meer voor te zijn. Met name in de discussie rond transgenders die geboren zijn als man en nu meedoen aan de vrouwencompetities zie je dat dit een vrij lastig onderwerp is.
Een zwarte kat is ook lastiger op de foto te krijgen dan een overwegend witte.
Hij ligt wel eens op een bureaustoel onder het bureau pas als de ogen open gaan zie je hem.
Glimlachen doet hij niet.
[ beetje late comment maar het kan nog ;-) ]
Haha. Daarom heb ik een hond. Maar precies dat. Ik denk als ie op een donkere bank ligt en je er een lampje op schijnt het ook niet echt opvalt. Die beestjes zijn er om niet gezien te worden als ze dat niet willen.
Tja ik zie in het donker ook minder. Klinkt gek, maar als je schaduw moeilijker ziet (donker op donker) heb je mogelijk datapunten om vergelijkingen mee te doen. Ook in het donker valt een blanke huid minder op.
Het is ook een vreselijke open deur. De huidskleur is gewoon een gezichtskenmerk!
Ik vind het voor geschtsherkennignssoftare eigenlijk wel handig dat ze het verschil zien.
Klopt, wat ook het mooie is dat zodra je als AI progameur op pad gaat om een algoritme te maken bij voorbaat niet veel invloed gaat hebben op het uiteindelijke resultaat, want je progameerd het algorithme niet, je maakt allemaal random algorithmes die het bijna altijd fout hebben, gooit er honderden duizenden plaatjes naartoe en selecteerd de algorithmes met de hoogste succes rate en veranderd ze weer random, ga zo door(evolution bases) uiteindelijk als je een onderscheid zou willen maken is door een van deze 2 dingen te doen 1: geen plaatjes van: zwarte, Aziatische of andere ethische groepen voeren aan het systeem of 2: het percentage blanke mensen plaatjes die je voert flink hoger houden.

Ik vraag me ten zeerste af waarom je dit zou doen, want volgens mij is de stigma(en in sommige gevallen de realiteit) dat zwarte, Aziatische mensen juist vakar het gevang in gaan, dus slechte gezichts herkening gaat hem niet worden.

En niemand gaat iemand veroordelen in rechtzaak alleen op basis van een gezichts herkenings progamma, dus dat er meer onschuldige zwarten of aziaten veroordeeld worden is natuurlijk bull, want net als DNA is dit soort software gewoon geen 1ste graads bewijs materiaal
(...)

De algoritme's hebben kennelijk meer moeite om verschillende zwarte mensen van elkaar te onderscheiden, dan dat ze moeite hebben om witte mensen van elkaar te onderscheiden.
Inderdaad. Ik snap de hele politieke of "lekker racistisch van ze" opmerkingen niet echt hier. Het is puur visueel onderscheid maken binnen subgroepen. En die zijn verschillend en niet overal even sterk. En die benoemen is geen racisme. Absurd gewoon.

[Reactie gewijzigd door Mlazurro op 23 juli 2024 01:46]

Mee eens, ben een beetje teleurgesteld in de titel keuze.

Maar "Gezichtsherkennings algoritmes hebben meer moeite met donkere huidskleuren" zal minder clicks binnen slepen :+
witte mensen vind je meestal in een mortuarium.
Ik denk dat dit te maken heeft met een onevenredige verdeling bij het trainen van de modellen, maar wat ook een rol zou kunnen spelen is dat mensen met donkere huidskleur simpelweg minder licht reflecteren (per definitie) waardoor foto’s en videobeelden van donkere mensen vaak veel minder detail bevat. Hier zijn tegenwoordig voor professionele films goede oplossingen voor (insmeren met een soort vet zodat er meer licht terugkaatst), maar bij huis tuin en keukenfotografie is het nog wel lastig.
Het lijkt er niet echt op alsof je de moeite hebt genomen het rapport te lezen. Daar staan juist heel veel zaken in waar de onderzoekers allemaal rekening mee hebben gehouden, inclusief hoeveelheden foto's, contrast, licht etc. Dit soort huis-tuin-keukenredenaties over waar het mee te maken zou hebben doet eigenlijk geen enkele eer aan het onderzoek wat is gedaan.

edit:
Hoezo irrelevalt offtopic? Als je het niet met me eens bent, kom dan graag met een inhoudelijke reactie.

[Reactie gewijzigd door kodak op 23 juli 2024 01:46]

Sorry, maar deze software is bedoelt om huis tuin en keuken fotos te beoordelen en vaak nog slechtere kwaliteit ook! Maar zelfs met allemaal mooie technieken wat hierboven gezegd wordt klopt, niet discriminerend bedoelt, maar donker gekleurde mensen, hoe donkerder hoe moeilijker een foto, en al helemaal lage resolutie fotos details weer geven, want bijvoorbeeld als iemand echt donker is, dan is het contrast groot, maar op de huid zelf zijn minder ditjes en datjes te zien, terwijl ke bij iemand met een blanke huid veel sneller sproetjes en vlekjes ziet die je niet ziet bij donkere mensen die vaker een egaler huid hebben, dit is niet racistisch maar gewoon een biologisch feit, en daar kan ik helaas niks aan doen, maar dit feit maakt het dus lastig voor deze software om mensen te herkennen, want er is minder details, dus minder echt unieke eigenschappen die makelijk herkenbaar zijn.

Een crimineel met een gebroken neus zal sneller door het algoritme herkend worden dan een crimineel die er dood normaal uit ziet, juist omdat zo'n scheve neus een unieke eigenschap is
Misschien moet je eens onderzoek doen naar je stellingen, zoals de onderzoekers wel gedaan hebben ;)

De onderzoekers hebben een onderzoek gedaan en komen aan de hand daarvan tot conclusies. Dat we als tweakers dan zo onze eigen eigenwijze mening hebben over de oorzaken zonder dan zelf enig onderzoek te doen vind ik nogal kortaf en geen recht doen aan wetenschap. Stel we zijn het niet met de onderzoekers eens, dan zou ik toch verwachten dat daar een goede onderbouwing bij zit die zich richt op het werk uit het rapport of door zelf met onderzoek aan te komen.

[Reactie gewijzigd door kodak op 23 juli 2024 01:46]

Ik heb het artikel niet gelezen, maar alleen omdat onderzoekers ermee proberen rekening te houden wil nog lang niet zeggen dat ze erin zijn geslaagd dat ook daadwerkelijk volledig te compenseren. En de methodieken voor dat soort compensaties lopen ook erg uiteen en de een is de ander niet.
Sterker nog, meeste AI en data science gerelateerde "studies" doen amper moeite om daadwerkelijk rekening ergens mee te houden ookal beweren ze van wel. Heb deze niet eens gelezen en kan nu al zeggen dat ik absoluut geen vertrouwen heb in de statement "we hebben hier rekening mee gehouden" omdat het gewoon keihard door iedereen misbruikt wordt en iedereen die er wat van zegt als negatieveling wordt bestempeld met een -1. Het niveau van de pop-science artikelen tegenwoordig is echt walgelijk laag en Tweakers publiceert alle rotzooi gewoon leuk mee.

[Reactie gewijzigd door Osiummaster op 23 juli 2024 01:46]

bedoel je nu dat de acteurs ingesmeerd worden met vet? :?
Heb wel eens een professionele fotoshoot gedaan, de visagie smeert je helemaal glimmend :-)

Voor televisie wordt je doorgaans, als je langer in beeld bent, wat "vleeskleurig" geschminkt, omdat de felle lampen je anders nogal bleek maken.

[Reactie gewijzigd door Keypunchie op 23 juli 2024 01:46]

Ja, maar normaal proberen ze je ook minder glimmend te maken. Het tegenovergestelde van iemand met vet insmeren.
Klopt, matteren gebeurt veel vaker dan bovengenoemd glimmend maken.
Je wil ook niet dat iedere studiolamp reflecteert op het gezicht of op de kale knar van iemand die je in beeld zet.
Het enige wat ik me dus bij vet voor kan stellen is dat bij mensen met een heel erg donkere huid dat beetje extra glans nou juist wat highlights en contrast toevoegt. Maar dan moet je waarschijnlijk wel een hele fijne balans vinden tussen "net wat meer contrast op beeld wat niet echt opvalt" en "een vettige kop".
Klopt, en insmeren met vet gaat ook gezichts herkenning niet helpen, want het vergroot wel het contrast, maar het vergroot niet de hoeveelheid details
Nou, met meer contrast kan iets als edge detection wellicht makkelijker gaan. Veel van de technieken van gezichtsherkenning lijken me nou juist niet over details te gaan, maar over patronen herkennen.
Mwa, ze willen je glimmend maar niet reflecterend.
Daarom krijg je vaak een xentimeter makeup en dan even met de poederkwast matten ze het weer een beetje af. Maar bijv mijn voorhoofd is 6 keer zo groot en opvallend voor mijn gevoel met al die meuk op me face
En dat vind jij raar?
Weet je hoeveel makeup er op die mensen wordt gedaan?
ja, makeup verwacht je. Niet vet.
Wat denk je dat er in makeup zit dan?
Weet je hoe zeep origineel gemaakt werd? Met vet en as. Denk je dat dat hetzelfde effect had als je insmeren met vet en as dan?

Dat ergens vet als ingrediënt in zit is in de verste verte niet hetzelfde als "iemand met vet insmeren".
Als ik het artikel lees zijn ook aziaten en vrouwen moeilijker, ik denk dat de algoritmes gemaakt zijn in een wereld van blanke mannen en daarom ook beter getest zijn met de blanke man als controle.
het "ze lijken allemaal op elkaar"-spook
Dat geldt andersom ook, blanke mensen herkennen verschillen in donkere mensen slechter, maar andersom herkennen donkere mensen verschillen in blanke mensen slechter.

Dat is ook dood normaal en een biologisch en evolutienair verklaarbaar fenomeen.

Aangezien mensen echte groepsdieren zijn, had het voor onze voorouders niet veel nut om goed te zijn in het herkennen van n verschillen in andere etnische groepen dan de gene waarin zij voorkwamen
Dat is geen fabel, sorry voor de late reactie...
er is genoeg neurologische onderzoek naar geweest en het is een feit dat mensen zich als groeps-dieren gedragen en daardoor herkennen ze de verschillen in andere groepen mensen minder goed/snel.
Het stukje evolutie zal inderdaad maar heel beperkt of niet meespelen. Ik meen dat er ook onderzoeken zijn waaruit blijkt dat je simpelweg het soort gezicht van mensen die je veel ziet, beter gaat onderscheiden. Dat zal een leerproces zijn vanaf de geboorte met niet of zeer beperkt overgeërfde kennis.

Verder klopt het wel degelijk dat dat lmenselijke eerproces en AI erg op elkaar lijken. AI herkent net als de mens vooral waar je het op traint, maar in tegenstelling tot de mens kunnen er wel wat meer technische beperkingen bij komen kijken. Misschien moet je de AI een hint geven zo nu en dan, met dingen als gammacorrectie en meer verschillende punten van het gezicht om naar te kijken.
Misschien advocaat van de duivel.

Is de "kleur" van een gezicht toch ook niet een eigenschap van het gezicht?

Net als de kleur van je ogen, beharing.

Lijkt mij dat goedwerkende "gezicht herkenning software" dit juist moet kunnen.
Lijkt mij dat goedwerkende "gezicht herkenning software" dit juist moet kunnen.
No shit sherlock. Goedwerkende geeft het al een beetje weg hè?

Tuurlijk is kleur een kenmerk, maar het is niet simpel een ander kleurtje. Met het verschil in kleur krijg je er gelijk een shitload aan andere parameters bij die ze dus minder getraind hebben.
Als je even nadenkt, is het toch logisch ergens? Als een roodharig blank meisje gezocht wordt, zal zij snel herkend worden door het algoritme door haar opvallende eigenschap tussen alle andere blanke meisjes. Als een Aziatische of zwarte persoon geseind/gezocht wordt, vallen er een pak afwijkende eigenschappen weg (zwarte medemensen zijn bijv. zelden blond met blauwe ogen) waardoor je zoektocht eigenlijk moeilijker is en de kans op false positives hoger.

Je moet dus bij bepaalde etnische achtergronden het algoritme meer rekenwerk/referenties geven inzake kleine details zoals (afstand tussen ogen etc...) dan zeer duidelijk zaken zoals haarkleur, haar type, kleur van ogen etc..
Fout en correct, licht en donker zijn alleen geen kleuren en kan je dan dus ook zeker niet gaan zien alsof het een gewoon kenmerk is zoals de kleur van haar en ogen.

Het geeft contrast en hoe donkerder hoe minder details er vaak op de huid zitten, dus minder oneffenheden en dus minder verschillen en dus lastiger te herkennen
Ik durf te wedden dat de gezichtsherkenningsalgoritmes van China het juist beter doen op Aziatische gezichten, en slechter op blanken en zwarten.

Is toch gewoon een kwestie van doelgroep bias, logisch gevolg van hoe zo'n AI getraind wordt. Gaat een beetje ver om per se overal racistische motieven achter te zoeken.

Of misschien is de AI zelf gewoon een vuile racist, dat kan ook. Mensen hebben op enig moment ook uit zichzelf racisme ontwikkeld, dus waarom kunstmatige intelligentie niet. Zeg maar een soort AlphaRacist Zero.
Dus je negeert even dat een Caucasian mens véél meer verschillende trekken en kleuren kan hebben (huid, haar, ogen,...) dan een Aziatische mens? Wat is het toch met dit politiek correct gedoe toch altijd. Gaan we nu ook al pure meetbare feiten en een algoritme... racistisch gaan bestempelen?
Dus je negeert even dat een Caucasian mens véél meer verschillende trekken en kleuren kan hebben (huid, haar, ogen,...) dan een Aziatische mens? Wat is het toch met dit politiek correct gedoe toch altijd. Gaan we nu ook al pure meetbare feiten en een algoritme... racistisch gaan bestempelen?
Dat is de mode in de kranten en op sociale media. Men bestempelt alles als aanstootgevend of racistisch, zelfs het zwarte stuk van de vlag van voetbalclub NEC zou al aanstoot kunnen geven...

Zoals hierboven gesuggereerd wordt is de titel van het artikel erg misleidend en wekt het de indruk dat er opzet is, allemaal om clicks te genereren en reacties los te weken.

De pers en velen met hen vrezen de opmars van extreem rechts in europa, maar reageren zo extreem politiek correct dat de klepel naar de andere kant dreigt door te slaan (wat die opmars alleen maar zal verergeren).
Helaas reageren de mensen waar jij op reageert dan niet meer. En in een volgend artikel hoor je dezelfde onnodig polariserende argumenten van ze.
Er zal vast geen opzettelijk racistisch motief achter zitten.
Maar als je in de praktijk gezichtsherkenning wil gaan toepassen dan mag je wel verwachten dat deze aan een bepaalde norm voldoet.

Bijvoorbeeld dat het even goed getraind is op Hollanders als op Marokkanen zodat Marokkanen niet meer kans lopen om er valselijk uit gepikt te worden dan Hollanders.
Er uit gepikt worden kan namelijk ingrijpende gevolgen hebben, zoals worden aangehouden voor een misdrijf.

En dat als je ervoor kiest om een bepaalde groep niet mee te nemen in de training dat dit met een goede reden is. Bijvoorbeeld omdat er hier nauwelijks Polynesiërs zijn.
Dat 1e is wat nu.nl wel vermeldt ja
Uit de inleiding van het artikel zelf
...
False positives: Using the higher quality Application photos, false positive rates are highest in West and East African and East Asian people, and lowest in Eastern European individuals. This effect is generally large, with a factor of 100 more false positives between
countries. However, with a number of algorithms developed in China this effect is reversed, with low false positive rates on East Asian faces...
Dus chines alrotihmes doen het beter met asiatische gezichten/
Zo simpel zal het waarschijnlijk wel zijn ja.

@Tijs Ik begrijp de titel niet. De software -maakt- toch geen onderscheid tussen zwarte en blanke mensen? Dat is technisch niet de strekking van het nieuws: er wordt niet gediscrimineerd - noch in enge, noch in bredere zin. Nu is de eerste indruk die de titel wekt dat AI racistisch gedrag vertoont.

[Reactie gewijzigd door Znorkus op 23 juli 2024 01:46]

Algoritmes zijn zo goed of slecht als we ze zelf maken.

Als ze in Afrika gemaakt zouden zijn zou de kans groot zijn dat het andersom was geweest.
Voor een deel heb je gelijk. Maar hier speelt volgens mij ook gewoon fysica een rol. Kijk eens naar bv foto's van vantablack ed. Dan zie je vaak foto's van een stukje folie wat deels bewerkt is met de 'verf'. Waar de folie niet zwart is, zijn er kreuken zichtbaar, waar het wel zwart is lijkt de folie glad te zijn.
Een donker voorwerp gaat nu eenmaal veel licht absorberen, waardoor bepaalde kenmerken van het voorwerp minder zichtbaar zijn. En in het geval van een persoon, gaan die kenmerken juist belangrijk zijn om te identificeren.
Dus je bepaalt eerst de huidskleur en daarna pas je de gammacorrectie aan om de details te onderscheiden.
Precies. China heeft uitgebreide gezichtsherkenning geïmplementeerd, en dat zouden ze vast niet gedaan hebben als hun algoritme moeite heeft om onderscheid te maken.
Nja, nu lijkt mij de Chinese regering het ook niet zo veel uit te maken of ze per ongeluk de verkeerde opsluiten ofzo, dat komen wij hier waarschijnlijk zelfs gewoon nooit te weten.
Mijn Aziatische vriendin heeft zo'n face app, komt uit Korea. Is ook helemaal in het Koreaans en totaal niet gericht op andere markten.

Op haar gezicht doet het van alles; neus aanpassen, ogen aanpassen etc, bij mij helemaal niets. Het ding herkent mijn ogen en neus gewoon niet.
Een algoritme is zo goed als dat het gemaakt / getraind wordt.
Als het gemaakt is voor de Koreaanse markt kan ik me voorstellen dat het niet (goed) werkt bij blanke of donkere mensen.
Misschien heeft contrast hier een grote rol? Camera's staan niet bekend om, zoals mensen, licht op dezelfde dynamische wijze te registreren. Voor een goede HDR-foto moet je bijvoorbeeld meerdere foto's maken wat redelijk lastig is wanneer je een camera inzet om realtime berekeningen te doen.

Een donker object op een lichte achtergrond bevat altijd minder details en juist die details heb je nodig om onderscheid tussen verschillende kenmerken te maken. Wanneer je het contrast van het donkere object verhoogt dan overbelicht je als het ware de achtergrond met overbelichting als gevolg en dat vormt weer een probleem bij mensen met een lichte huidskleur (ook dan gaan er details verloren).

Zowel algoritme als de gebruikte sensor zijn belangrijk in deze. Als één van beide het beeld niet goed verwerkt dan zie je dit terug in het resultaat. Dit is al langere tijd een uitdaging, één die moeilijk op te lossen valt.

Zo lang dit niet kan worden verholpen is het uitkijken geblazen met het inzetten van AI.
Precies mijn punt dus.
Racisten heb je overal, van specifiek 1 tint huidskleur die ze niet moeten hebben tot alles wat lichter en/of donkerder is dan zichzelf.
En het ironische is waarschijnlijk dat de beste algoritmes ook racistisch moeten zijn. Ze moeten aan de hand van raciale kenmerken kiezen welke kenmerken ze hoe moeten verwerken om het beste onderscheid te maken.

Ik duim dus nu voor de SJW's (argh) die het grootschalig gebruik van gezichtsherkenning gaan saboteren om dit soort onbenullige maar hier nuttige redenen.
Gaan ze hun gezicht zwart verven. Ow... wait... }>
Heeft misschien te maken met de achtergrondkleur ( blank) waar je veel meer afwijkingen op herkent dan op een andere kleur ?
Klopt, blanke mensen hebben vaker oneffenheden zoals sproetjes en andere vlekken, terwijl zwarte mensen vaak een egale huid hebben, waardoor er minder imperfecties zijn en het gezicht lastiger te herkennen is.
Wat een onzin. Ga eens naar een Antilliaans, Kaapverdiaans of Ghanees feest en zie de honderden variaties in huidskleur effen- en oneffenheden in de huid. Sproeten, vlekken, lichte en donkere delen, pigmentloze plekjes etc.
Door te denken zoals je in je past doet krijg je nooit fatsoenlijke software.
De imperfecties zijn er soms wel, maar je moet gammacorrectie toepassen. Overigens gaat gezichtsherkenning niet uit van imperfecties, die kunnen altijd veranderen. De gammacorrectie heb je waarschijnlijk wel nodig om vormen en permanente details beter te herkennen.
misschien dat gezichtstrekken harder opvallen op een lichtere achtergrond of dat er daar meer variatie ("zichtbaar") is
No shit sherlock, dit is toch al jaren het geval? Het zou nieuws zijn als de algoritmen het opeens voor iedereen even goed doen.

Wat ik zou willen weten: hoe werkt het voor de algoritmes van de chinese overheid?
Dit nieuws komt inderdaad elke paar maanden wel een keer voorbij
Die had ik graag ook in de review gezien als vergelijking, maar ik denk dat de uitkomst vrij voorspelbaar is: die werken beter op Aziatische gelaatstrekken dan op Caucasische of Afrikaanse.
Meen dat er de nodige algo's zijn die gebruikmaken van het verloop van licht naar donker om iets te herkennen. Kan mij inbeelden dat het bij een licht gezicht makkelijker gaat dan een donker gezicht.
Ontwikkeld door westerse mensen voor de westerse wereld. En wat zijn de meeste mensen in de westerse wereld? Precies, blank. Als je de software traint op 1000 random westerse foto's zullen daar meer blanke dan donkere of aziatische mensen te zien zijn. Want er zijn nu eenmaal meer blanken in het westen...

Op dit item kan niet meer gereageerd worden.