Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gezichtsherkenning bij Champions League-finale leverde veel false positives op

De gezichtsherkenning die de politie van Wales bij de Champions League-finale van vorig jaar heeft ingezet, leverde in ongeveer 93 procent van de gevallen dat er een overeenkomst was een false positive op, waardoor een persoon ten onrechte werd geďdentificeerd als iemand op een zwarte lijst.

De politie van South Wales heeft haar antwoord op het equivalent van een Wob-verzoek gepubliceerd op haar site, waar de resultaten van de inzet van gezichtsherkenning zijn opgenomen. Daaruit is op te maken dat tijdens de finale in Cardiff in totaal 2470 gezichten een melding opleverden, waarvan 173 daadwerkelijk op een zwarte lijst voorkwamen en de gezichten van 2297 mensen niet. De politie maakt niet bekend hoeveel gezichten in totaal zijn gescand. De inzet zou bij wijze van proef gebeuren en er zou sinds de ingebruikname van het systeem in juni van vorig jaar niemand ten onrechte zijn gearresteerd vanwege een incorrecte overeenkomst met een vermelding in een database.

Het aantal juiste meldingen zou inmiddels zijn opgelopen tot 2000, waarvan 450 personen zijn gearresteerd, zegt een woordvoerder tegen The Guardian. De nauwkeurigheid van het systeem zou in de periode na de finale in juni zijn verbeterd. In het online gepubliceerde overzicht wijt de politie het hoge aantal missers aan een aantal factoren. Zo zouden de afbeeldingen die de politie van onder meer de UEFA en Interpol kreeg, van lage kwaliteit zijn geweest, werd gebruikgemaakt van een verouderd algoritme van leverancier NEC en was het de eerste grote inzet van de techniek.

Inmiddels zou de politie afbeeldingen van hogere kwaliteit gebruiken en een verbeterd NEC-algoritme inzetten. De politie heeft ook de resultaten van de inzet van gezichtsherkenning bij andere evenementen in Wales gepubliceerd. Ook daar zijn enkele uitschieters van het aantal false positives te zien, maar doorgaans niet op het niveau van de Champions League-finale.

De Nederlandse politie maakte in februari bekend dat in 2017 in totaal 93 foto's aan personen zijn gekoppeld met behulp van gezichtsherkenning. Daarbij werden in totaal bijna duizend foto's verwerkt. De politie nam het systeem, Catch genaamd, in 2016 in gebruik.

Door

Nieuwsredacteur

84 Linkedin Google+

Reacties (84)

Wijzig sortering
De gezichtsherkenning die de politie van Wales bij de Champions League-finale van vorig jaar heeft ingezet, leverde in ongeveer 93 procent van de gevallen een false positive op, waardoor een persoon ten onrechte werd geďdentificeerd als iemand op een zwarte lijst.
Deze zin klopt niet. Van alle positieve tests was 93% false positive (7% true positive 173/2470). Dat is heel wat anders dan dat 93% van de tests een false positive oplevert. Stel dat ze dat in een stadion met 100.000 mensen hebben getest, dan was het dus in slechts 2297/100000 = 2.3% een false positive, en groeit de kans dat je te maken hebt met een verdachte van 173/100000=0.17% naar 173/2470=7% (aangenomen dat het systeem 100% sensitief is (=geen false negatives). Die cijfers hebben we niet, maar zijn nog veel belangrijker voor een screeningssyteem. Als je ook nog verdachten gaat missen (false negatives), dan wordt het systeem snel minder waardevol.

Wiki over sensitiviteit en specificiteit: https://nl.wikipedia.org/wiki/Sensitiviteit_en_specificiteit

[Reactie gewijzigd door marino_centrino op 7 mei 2018 11:24]

Ik snap jouw opmerking, al is het moeilijk dit correct in een korte titel over te brengen. Ik heb eea verduidelijkt en de titel aangepast, al is hij nu wel minder specifiek. De interpretatie is ook afhankelijk van hoe je gezichtsherkenning leest, bijvoorbeeld tegenover gezichtsherkenning.
Dank. Deze titel is al veel beter. Maar nog steeds kun je zonder de cijfers over de false negatives nog niet veel zeggen over de performance van het systeem en is dit artikel is daarmee eigenlijk meer stemmingmakerij dan eerlijke journalistiek.
Bij dit soort systemen is het altijd een compromis tussen sensitiviteit en specificiteit. Het is helemaal niet slecht om een flink deel false positives te hebben, als je daarmee de sensitiviteit heel hoog (bijna 100%) kunt krijgen. Het betekent, doorredenerend op bovenstaande, dat je nog maar 2470 mensen hoeft te controleren, in plaats van alle 100.000.
100.000 bezoekers aangenomen, kun je dus ook zeggen dat het systeem het aantal te onderzoeken personen met 95% reduceert! (en aangenomen dat de sensitiviteit niet slechter is dan de traditionele methode)

Het is een moeilijke taak. Stel je voor dat er een zwarte lijst is met 1000 personen, dan is het vrijwel onmogelijk om die personen allemaal door stewards te laten herkennen. Kritiek op dit systeem is pas op zijn plaats als er redelijkerwijs verwacht mag worden dat het veel beter zou moeten kunnen presteren. Als bijvoorbeeld een concurrerend systeem bekend is met betere performance statistieken.

NB. De cijfers over false negatives hebben ze waarschijnlijk niet, daarvoor moeten alle personen op de zwarte lijst geďdentificeerd zijn en dat lukt met de traditionele methode waarschijnlijk ook niet.
Helemaal eens. Titel is dus ook onjuist.
Gezichtsherkenning bij Champions League-finale was 9 van de 10 keer incorrect
Dat is een beetje hoe je het leest. In de gevallen dat de gezichtsherkenning een melding maakte, was deze 9 van de 10 keer incorrect.
Of de gezichtsherkenning als deze geen melding maakte, correct werkte, weten we niet. En dat is inderdaad wel een belangrijk aspect.
Het is aan de redacteur om ervoor te zorgen dat een titel duidelijk is. Er kan dus ook, tot op zekere hoogte, rekening gehouden worden met interpretatie.
Interessantere vraag is hoeveel mensen wel op de zwarte lijst stonden, maar niet gedetecteerd werden (False Negative).

Dat is de parameter die je bij dit soort toepassingen naar 0 wilt brengen. Dat er af en toe ten onrechte een alarm afgaat is niet zo'n ramp en makkelijk handmatig af te handelen.
Dat wil je ook niet ! Er worden mensen aangesproken omdat ze ineens lijken op een verdachte. Vind jij dat fijn ?
Klopt. En als het volume van false positives hoog ligt, werkt het ook niet. Maar wanneer je tussen twee kwaden moet kiezen dan liever (in dit geval) een false negative dan een false positive.

Daarnaast is het zo dat de twee elkaar wellicht beinvloeden. Wanneer je voor 0 false negatives wilt gaan, moet je de parameters van het systeem wellicht zo ver oprekken dat je veel false positives creeert.

[Reactie gewijzigd door pepsiblik op 7 mei 2018 11:46]

Je bedoelt liever false positives. De politie kijkt vervolgens gewoon zelf met hun eigen ogen of het system correct was.
Fijn hoor. Door jou kickass naam (pun intended ;)) zit dat liedje nu im mn hoofd.
Dat wil je ook niet ! Er worden mensen aangesproken omdat ze ineens lijken op een verdachte. Vind jij dat fijn ?
En dat gebeurt niet als we het automatische systeem niet gebruiken!?

Het systeem is, duidelijk, geen magische oplossing. Het is een toevoeging. Dat het nogsteeds mensenwerk is moge duidelijk zijn maar de enige manier om zo'n systeem beter te maken is door het te gebruiken.

Uiteindelijk moeten er óók minder false positives zijn. Maar laten we eens beginnen met beter de mensen op de zwarte lijst buiten houden, dan gaan we daarna wel optimaliseren.
Volgens het bron-artikel heeft dat geen problemen / klachten opgeleverd:
In relation to the false positive alerts outlined above, this is where the system incorrectly matches a person against a watch list. The operator considers the initial alert and either disregards it (which happens on the majority of cases) or dispatches an intervention team as the operator feels that the match is correct. When the intervention team is dispatched this involves an officer having an interaction with the potentially matched individual. Officers can quickly establish if the person has been correctly or incorrectly matched by traditional policing methods i.e. normally a dialogue between the officer/s and the individual. If an incorrect match has been made officers will explain to the individual what has happened and invite them to see the equipment along with providing them with a Fair Processing Notice.

Since we introduced the facial recognition technology no individual has been arrested where a false positive alert has led to an intervention and no members of the public have complained.
Dat wil je ook niet ! Er worden mensen aangesproken omdat ze ineens lijken op een verdachte. Vind jij dat fijn ?
In een ideale wereld zou je graag hebben dat het niet gebeurt, maar is dat realistisch? Ook zonder dit systeem (als je agenten door het stadion rond laat lopen met een stel pasfoto's op zak!?) zullen een paar onschuldigen aangesproken worden. Zolang agenten dat op een normale manier doen denk ik niet dat dat echt een probleem is (en sowieso is het, voor zover ik in kan schatten, niet te voorkomen).
Er worden mensen aangesproken omdat ze ineens lijken op een verdachte.
Dat hoeft niet persé. Er krijgen personen een vlaggetje, zodat deze extra (persoonlijke) aandacht krijgen. Dat kan wellicht zelfs gewoon op basis van camera-beelden, of door een controlerend persoon ter plaatse. De false positives hoeven hier niet eens iets van te merken. (Of wellicht hooguit dat het opvalt dat je wat duidelijker bekeken lijkt te worden dan anderen, waarbij je dat zelf wellicht (zeker als je niks kwaads in de zin hebt, en dus niet op je hoede bent) zelf niet eens in de gaten hebt.
Dat wil je ook niet ! Er worden mensen aangesproken omdat ze ineens lijken op een verdachte. Vind jij dat fijn ?
Vind ik alvast fijner dan nadien met hooligan geweld geconfronteerd worden.
Ok, het is even een ontstellende vaststelling dat ik een ongure bakkes heb.
Je kunt eerst nog een visuele controle door een mens laten doen, evt op een scherm. Mogelijk filtert dat ook weer een hoop uit. Daarna kun je de rest even vragen om een ID bewijs te laten zien. Lijkt me niet zo'n probleem.
Ja maar hoe weet je dat als je ze niet detecteert?
Als je ze later alsnog detecteert (dubbele controle), lijkt mij niet echt uitvoerbaar in dit geval (een 2e gezichtsherkenning machine ga je niet veel mee op schieten). Of iemand moet er toevallig tussenuit springen omdat hij weer in aanraking met de beveiliging komt ofzo.
Dat is inderdaad een interessantere vraag, maar daar kom je hier dus nooit achter. Of ze moeten een fysieke 100% controle hebben gedaan naast de gebruikte techniek. Slechte kwaliteit foto's in combinatie met een verouderd algoritme en de navenante resultaten, tja, dat noemen we in de IT 'garbage in, garbage out'.
Het is onwaarschijnlijk dat je dat aantal naar nul kan terugbrengen. Dat zou al lastig zijn onder vrijwel ideale omstandigheden zoals bij een politiefoto. Bij bewegende beelden in een station waar mensen waarschijnlijk van bovenaf en onder verschillende hoeken en met verschillende belichting worden gefilmd is 100% herkenning een illusie.
Overigens is dat ook niet echt nodig.
Een belangrijk element van het gebruik van gezichtsherkenning is preventie. Als personen weten dat er een aanzienlijke kans is dat ze op een bepaalde locatie herkend kunnen worden als een verdacht persoon zullen ze ofwel die locatie vermijden ofwel zich op ie locaties rustiger gedragen omdat ze een te groot risico lopen om gepakt te worden als ze zich misdragen.
Het is onwaarschijnlijk dat je dat aantal naar nul kan terugbrengen.
Ik denk dat die opmerking was bedoeld als "zo dicht mogelijk naar nul", met andere woorden "zo laag mogelijk"; "nul" is in theorie het doel (en hoe dichter bij hoe beter), los van de vraag of het haalbaar is dat doel te bereiken.
Een belangrijk element van het gebruik van gezichtsherkenning is preventie. Als personen weten dat er een aanzienlijke kans is dat ze op een bepaalde locatie herkend kunnen worden [..]
Ook voor preventie is het belangrijk dat het goed werkt. Als de personen op die lijst elkaar continu vertellen bij hoeveel wedstrijden ze naar binnen geglipt zijn zonder gepakt te worden, dan is het hele preventie-effect meteen weg.
Om je een idee te geven, al btreffen deze lijsten meer de UK lijsten van designated persons die iets met terrorisme en/of de financiering ervan te maken hebben, bij deze: klik = Current list of designated persons, terrorism and terrorist financing.
Nu zijn er op deze pagina 5 lijsten te vinden, waarvan de meest recentste voor het laatst bijgewerkt is op 27/04/2018.
Interessantere vraag is hoeveel mensen wel op de zwarte lijst stonden, maar niet gedetecteerd werden (False Negative).

Dat is de parameter die je bij dit soort toepassingen naar 0 wilt brengen. Dat er af en toe ten onrechte een alarm afgaat is niet zo'n ramp en makkelijk handmatig af te handelen.
.

Nee, dat wil je juist niet. Nou ja, in theorie wil je het, maar in praktijk niet. Ieder systeem maakt namelijk fouten. Als ontwikkelaar moet je bijna kiezen wat voor soort fouten je wil, onschuldige mensen oppakken, of boeven laten gaan.
In een vrije samenleving proberen we straffen van onschuldige mensen zo veel mogelijk te voorkomen, zelfs als dat betekent dat we af en toe een schuldige moeten laten gaan.
Met dat verschil dat dit systeem helemaal niet straft, enkel een alarmpje laat af gaan, waarna een mens een beslissing neemt om er een 'interventie team' op af te sturen of niet. Zoals het originele artikel al uitlegt filtert die mens de meeste false positives er al uit en dat 'interventie team' gaat ook gewoon op een rustige manier te werk wat vooralsnog geen klachten heeft opgeleverd.
Met dat verschil dat dit systeem helemaal niet straft, enkel een alarmpje laat af gaan, waarna een mens een beslissing neemt om er een 'interventie team' op af te sturen of niet. Zoals het originele artikel al uitlegt filtert die mens de meeste false positives er al uit en dat 'interventie team' gaat ook gewoon op een rustige manier te werk wat vooralsnog geen klachten heeft opgeleverd.
In dit stadium.
Het ligt voor de hand dat in een later stadium steeds meer mensen met een dergelijk systeem gaan werken en daarbij steeds minder zelfstandig zijn. Uit onderzoek weten we dat mensen graag meewerken en overdreven veel vertrouwen hebben in automatische systemen. Psychologisch is het veel makkelijker om met het oordeel van de computer mee te gaan dan er tegen in te gaan.

Het ligt dus in de lijn der verwachting dat we binnen de kortste keren een systeem hebben waarbij we automatisch de computer volgen en alleen nog zelf oordelen als overduidelijk is dat de computer het helemaal verkeerd heeft. Dan is de volgende logische stap dat je het werk niet meer laat doen door goedopgeleide (en dure) professionals maar het laten doen door de goedkoopste krachten. Ze doen immers toch niet veel meer dan het oordeel van de computer volgen.

Wie wel eens op een vliegveld is geweest heeft het al van dichtbij kunnen aanschouwen. De meeste controles op zo'n vliegveld worden niet gedaan door de douane maar door medewerkers van het vliegveld en/of de vliegmaatschappijen en die komen gewoon van het eerste het beste uitzendbureau en mogen na een mini-cursus aan de slag. We zijn dan ook een hoop tijd kwijt met procedures en controles die iedereen maar moet volgen, in plaats van dat er eens iemand zelf even nadenkt of zich menselijk opstelt.

Ik ben niet helemaal tegen automatische systemen of zo, maar ben doodsbang voor hoe dom we ze inzetten. Mensen hebben nu al een blind geloof in AI en we hebben discussies over de "autopilot" van Tesla terwijl de techniek echt nog niet zo ver is.

93% false positives onderstreept mijn angst. Om daar mee om te gaan moet je personeel hebben dat niet bang is om 93% van de gevallen tegen het oordeel van de computer in te gaan én z'n eigen reputatie op het spel zet dat er geen enkele "terrorist" door komt. Dat lijkt mij een beetje te veel gevraagd; het zou niet meer dan menselijk zijn om "voor de zekerheid" maar wat meer op de computer te vertrouwen. Dan gaan we wel duizenden mensen als criminelen behandelen zonder dat daar een aanleiding toe is. Daarbij is de bewijslast erg lastig. De meeste AI-systemen werken met ontzettend vage hints. De onderbouwing van zo'n actie kan haast niet meer zijn dan "de computer zegt het". Kom er dan maar eens achter als burger waarom de politie jou toch steeds weer komt ondervragen als er iets in de buurt is gebeurd.

Technisch gezien vind ik het allemaal geweldig, maar tegelijkertijd weet ik hoe rampzalig slecht deze maatschappij omgaat met techniek en veiligheid. Ik zou liever nog wat wachten voor we al te zwaar inzetten op AI.
'Af en toe' ten onrechte is hier dus 9 van de 10 keer. Lijkt me nauwelijks bruikbaar en vrij demotiverend. Zelfs als er geen false negatives zijn denk ik dat er door de aantallen positives ook positive positives gemist gaan worden als gevolg vam capaciteits of tijdsproblemen om ze allemaal te checken..
Opzich hoeft het niet heel erg te zijn, als je dit systeem gebruikt om de grote gebruikersstroom te filteren naar een kleiner groepje mensen die met de hand door de beveiligers worden gecontroleerd.

De beveiligers zien dan snel genoeg of het wel of niet iemand op de zwarte lijst is. Als je dat probeert te doen met alle bezoekers is dat onbegonnen werk.
Als het kleine groepje mensen waar je op doelt vaak dezelfde mensen zijn omdat ze kenmerken hebben die overeenkomen met wat er in de database staat wordt het voor die mensen al snel stront vervelend er bij iedere controle uitgepikt te worden.

[Reactie gewijzigd door (id)init op 7 mei 2018 11:43]

Dus voor hen is dat hetzelfde als voorheen, waar iedereen gecheckt werd.
Daarnaast kan zo het systeem ook gewoon leren, "niet dit persoon" en dan doet die het de volgende keer beter, mits ze een lerend algoritme gebruiken.
Zeker waar, als ze maar niet ook veel false negatives hebben.
Dat is nog de vraag.


Hebben ze alleen vertrouwd op de camera’s,
of gelden aanvullende maatregelen ook nog? En hebben ze die eventueel ook uit de lijn/publiek gehaald.
Dat is wel heel erg veel. Niet verwacht..
Op zich niet heel erg vreemd: je wil in dit geval vooral false negatives uitsluiten. Dan eindig je bijna automatisch met een hele hoop false positives (of je systeem moet quasi perfect zijn).

Dit hoeft ook niet echt een ramp te zijn. Zonde dat ze niet vermelden hoeveel gezichten er daadwerkelijk gescand werden, maar ik neem aan dat dat een veelvoud is van die pakweg 2500 gezichten die een melding gaven.

In de UK heeft een gemiddeld stadium toch snel 25.000 plaatsen. Als je daar dan 500 man uitpikt met dit systeem voor verdere controle, en daar zit dan 1 of 2 man bij die werkelijk een stadionverbod hebben, heb je nog steeds een pak minder werk dan dat je effectief 25.000 man gaat controleren.
De Champions League finale werd vorig jaar in het millennium stadium in Cardiff, Wales gehouden.
Er waren bijna 66.000 mensen in het stadion. Dus er zal zeker 100.000 man extra in Wales zijn geweest op de dag van de finale.
Met die cijfers kunnen (ervan uit gaand dat de gezichtsherkenning alleen in en om het stadion actief was) we dus concluderen dat er 3.7% van de mensen in het stadion is opgepikt door de gezichtsherkenningssoftware en er slechts 0.26% van de stadion bezoekers dus daadwerkelijk op de lijst stonden.

De gezichtsherkenning zal inderdaad liever een false positive dan een false negative hebben, dus de percentages zijn niet eens zo heel vreemd te noemen.
Er vanuit gaand dat je met 25000 man controleren er ook maar 1 of 2 zou uitpikken, als dat er echter 10/100tallen zijn, dan scheelt het wellicht een hoop werk maar echt effectief is het dan niet. Daar moet je een mooie balans tussen zien te vinden.
Het hangt er nogal vanaf wat je met de detectie doet. Als het slechts een eerste screening is wil je vermoedelijk wel redelijk wat false positives accepteren (hoewel 20 keer zoveel foute als positieve resultaten wel heel wat is..), maar wanneer het over een beslissing zou gaan zijn false positives extreem onwenselijk en zit je neem ik aan eerder aan een false negative rate van 0.1 % of lager.

Eerlijk gezegd vind ik 93% echt abominabel slecht voor gezichtsherkenningssoftware.
Dat heb ik met Philips :) Onterecht natuurlijk, medische apparatuur van ze is top. Denk dat NEC ook meer over is op industriële toepassingen.
Veel interessanter om te weten is hoeveel procent van de mensen op de zwarte lijst er door het systeem is uitgepikt.
7%
Zie artikel.

[Reactie gewijzigd door chriistiix op 7 mei 2018 11:21]

7%
Zie artikel.
Nee, 7% van de signaleringen was terecht. Dat is iets heel anders.
Jij snapt hem niet helemaal geloof ik.
Als er 200 mensen op de zwarte lijst staan en ze pikken er met dit systeem 173 uit, dan is dat 86,5%

Maar hoe groot de zwarte lijst is, zeggen ze er niet bij.

[Reactie gewijzigd door DaManiac op 7 mei 2018 11:28]

En hoeveel mensen er van die zwarte lijst ook daadwerkelijk hebben geprobeerd binnen te komen.
Zegt nog steeds niks wanneer je niet weet hoeveel mensen die op de zwarte lijst zijn ook daadwerkelijk naar de wedstrijd zijn geweest en door de facial recognition geweest zijn.

[Reactie gewijzigd door ryderb op 7 mei 2018 11:37]

hoe groot die lijst is speelt hoegenaamd geen rol.
het aantal op de lijst dat binnen wou komen dat is het referentie materiaal.

als er 173 mensen van de lijst geprobeerd hebben om toch naar binnen te gaan heeft het systeem 100% gewerkt. dat er daarvoor een overhead was van een paar duizend (op 60K+ publiek) valt voor mij zelfs goed te accepteren.
Als er echter 346 mensen van de lijst geprobeerd hebben is dat maar 50%, dan heeft het systeem zwaar gefaald.
nu als manuele controle er maar 85 zou uithalen werkt het systeem ondanks alles nog 2 keer zo goed als "manuele" controle.
kortom, leuk artikel, maar zonder relevante cijfers om te vergelijken.
Precies! Als er 100 mensen op de zwarte lijst staan en er zijn 1429 mensen herkend, dan "hebben we ze allemaal"!
En dan heb je ook een overbelast proces, met klagende mensen, overbelaste werknemers en wellicht mensen die het begin van de wedstrijd missen. Ook niet goed.
Als hiermee de pakkans 100% is, dan zal wangedrag afnemen, en daarmee ook de aantal false positives en daarmee ook de rest van de dingen welke je opnoemt.
Dat heet dan in de volksmond een draconische maatregel of nog beter, een paardenmiddel. Nah!
iaw; ze schieten met hagel om een kleine groep op te pakken. Wat mij betreft geen probleem toch?
Lees je eigen analogie eens even goed en beantwoord dan je eigen vraag.
Het was een retorische vraag en behoeft daarom geen antwoord
In dat geval mag ik het evengoed oneens zijn met zijn mededeling, vandaar mijn opmerking.
Dus jij bent ook voorstander van de sleepwet?
'tap de hele wijk maar af, want we zoeken 1 iemand' ?
De sleepwet en gezichtsherkenning vergelijken vind ik wl erg ver gaan.
"We scannen iedereen, in de hoop iemand te vinden die op een zwarte lijst staat. Het levert wel enorm veel bijvangst op die we niet moeten hebben."

Een betere vergelijking met de sleepwet bestaat bijna niet. Het is, in deze vorm, exact een sleepnet.
Toch zie ik dat heel anders, en vind de vergelijking met de sleepnet-wet ook krom.

Ten eerste kan een agent ter plaatse prima dezelfde taak uitvoeren. Onthoud gezichten van mensen met stadionverbod. Herken ze. Vraag ze om zich te identificeren.
Alleen heeft de agent nu hulpmiddelen om niet meer alle gezichten te hoeven onthouden. (wat op een dergelijke schaal uiteraard ook niet mogelijk is)

Deze mensen begeven zich daarnaast niet in een prive omgeving, maar bevinden zich bij een stadion in een publieke omgeving. (in tegenstelling tot thuis op internet)
De data wordt ook niet opgeslagen: system scant gezichten, geeft melding, persoon wordt gecontroleerd, data wordt weggegooid.

Dit is in die zin geen verruiming van bevoegdheden oid, maar het gebruik van technologische middelen om bestaande taken te vereenvoudigen. Het alternatief is iedereen controleren, en daar zit ook niemand op te wachten.

En om alvast de te verwachten mitsen en maren te bespreken.
  • het is uiteraard belangrijk dat data niet opgeslagen wordt
  • data moet ook niet zomaar voor andere toepassingen gebruikt worden
  • het liefst zou het ook voor iedereen bekend moeten zijn dat er gescand wordt
  • het blijft ook een kwestie van vertrouwen in de overheid, als je die niet hebt, gaat dit betoog je ook niet overtuigen. Let op: vertrouwen betekent niet blind vertrouwen, of geen kritische houding hebben.
Nee, het is een slechte vergelijking. Hoewel ze wel iedereen scannen bij bepaalde evenementen, zijn ze heel gericht opzoek naar al bekende/veroordeelde personen bij bepaalde evenementen. Dat lijkt meer op een extra toegangscontrole dan een sleepwet. Die is juist bedoelt om veel ongerichter nog onbekende personen of verdachte activiteiten te vinden in veel grotere hoeveelheden data, die ook nog veel gevoeliger is.
Neuh, niet echt.
Er wordt een grote groep mensen gecontroleerd, en hopen er enkele tussenuit te vissen.

In the basic: hetzelfde.
Er wordt een grote groep mensen gecontroleerd, en hopen er enkele tussenuit te vissen.
Aha, en hoe ga je mensen met (bijvoorbeeld) een stadionverbod vinden in de massa als je die massa niet mag bekijken, Sherlock?
Dat is toch niet het punt van deze discussie? :Y)
Dat is toch niet het punt van deze discussie? :Y)
Okee, misschien even enigszins off-topic, maar geef eens antwoord, dan ;)
Wat is dat nou, moet ik nou blaffen op commando? :? ;)

Het systeem is een hele uitkomst om de 'zwarte lijst-vullers' te vinden, mits het goed werkt.
Maar dat is door mij ook niet ontkend. Waar mijn reactie om ging was dat DeBers een behoorlijk kort door de bocht opmerking maakte dat het 'met hagel schieten en kleine groep pakken' best wel kon.
Waar mijn reactie om ging was dat DeBers een behoorlijk kort door de bocht opmerking maakte dat het 'met hagel schieten en kleine groep pakken' best wel kon.
Maar dat kan toch onder bepaalde omstandigheden best? Jouw reactie komt op mij over als dat je nogal focust op het 'met hagel schieten' en dat dat dan nooit een oplossing voor wat dan ook kan zijn, je komt zelf met de vergelijking met de sleepwet. Naar mijn idee is het observeren van een menigte om een paar kwaadwillenden eruit te pikken onder omstandigheden best acceptabel en is het daarbij, zolang het rechtssysteem naar behoren werkt, irrelevant of het alleen door mensen gebeurt of eerst met een computer en daarna door mensen.

Zo gebeurt het al eeuwen, en daar is nog nooit iemand vanuit privacy-overwegingen over gestruikeld, dus mijn vraag is meer waarom dat dan nu ineens wel een probleem is, en, als dat een probleem is (dat kan best, voortschrijdend inzicht), wat dan wčl een acceptabele methode is.

[Reactie gewijzigd door Iknik op 7 mei 2018 13:07]

Maar die grote groep mensen wordt gecontroleerd door enkel en alleen naar hun gezicht te kijken. Dat is een stuk minder privacy-gevoelig *) dan de sleepwet die lekker door de privé-communicatie en persoonlijke gegevens van iedereen gaat zitten graven. Lijkt me toch een belangrijk verschil.

*) Zeker bij zoiets als een voetbalwedstrijd, bij een demonstratie voor een politiek-gevoelig onderwerp zou je daar misschien nog anders over kunnen denken, maar zelfs daar: het is in de openbare ruimte, dus hoeveel privacy kun je verwachten...?
Er is zeker verschil van het type gegevens wat wordt verzameld. Dat heb ik ook nergens ontkend.

Overigens denk ik dat de groep raddraaiers/hoolies-die-komen-rotzooi-trappen er weer heel anders over denken, en het scannen van gezichten al een degelijke inbreuk op hun privacy is (maar meer omdat ze dan niet kunnen rellen).
Zoals altijd zijn er meerdere percepties.
En waarom?
De sleepwet is simpel gezegd het massaal vergaren en analyseren van data in de hoop er een "bad guy" uit te vissen.
Nu hangen er straks overal camera's die iedereen registreren (opslaan van data) en analyseren (gezichtsherkenning), dan kan de overheid jouw bewegingen tot in lengte van dagen/maanden/jaren terug opzoeken.
Veel hoeven ze niet op te slaan, zodra er een positive ID is vast gesteld kunnen ze dat koppelen aan locatie + BSN (52.123 x 4.123 + 1832123456)
Het gaat hier om aanwezigheid op 1 event. Niet op jou reilen en zeilen van de afgelopen maand(en).
Dat ze hier ook met cameras erken maakt het ook geen hollywood film. 1 aspect maakt nog niet de perfecte vergelijking. De sleepwet gaat veeeel verder dan alleen scannen en vergelijken met een tabel.
Je zal maar gezellig naar een voetbal wedstrijd gaan, en qua uiterlijk lijken op iemand die wel wat op zijn kerfstok heeft, om dan vervolgens te worden aangezien voor die ene persoon. Omdat een gezichtsherkenningssysteem achteraf niet goed zou functioneren. Dat lijkt mij voor de personen die dat is overkomen heel vervelend. Beschuldigd worden van iets wat je niet gedaan hebt.
Ik geloof niet dat de persoon in kwestie dan ook daadwerkelijk direct wordt aangehouden of beschuldigd van iets.
Er van uit gaande dat de gezichtscontrole alleen in en om het stadion was (dus bij de toegangscontrole) kan ik me eerder voorstellen dat de mensen bij de kaartcontrole staan, waar de camera's het gezicht registreren en wel of geen vlaggetje geven zodra het gezicht is geanalyseerd, waarna de beveiliging áchter het poortje de persoon in kwestie extra controleert en pas na de persoonlijke controle worden de gepaste stappen ondernomen (lees: false positive, dankuwel voor het meewewerken en excuses voor het ongemak, bij een juiste flag: Meneer u mag met mij mee lopen, u heeft geen toegang tot het stadion en ik ga u overdragen aan de politie).
Beter dat, en vervolgens aan de hand van een id etc gewoon naar binnen kunnen, dat dat er iemand met een stadionverbod wel naar binnen kan. Bij de meeste wedstrijden wordt je toch al gefouilleerd, dus 'verdacht' ben je toch al in zekere zin.
Dat je even gecontroleerd wordt en gevraagd wordt om je ID te laten zien is ook weer niet een groot oponthoud. Je wordt niet meteen gearresteerd en opgesloten. Althans...dat hoop ik :)
dan wordt er gewoon even om ID gevraagd ter controle, hoort nou eenmaal bij het bijwonen van deze sport.

Overigens gaan ze je huis niet direct tegen de muur douwen met "jij bent dat eikeltje uit vak F dat laatst een strijker naar de keeper van AZ heeft gegooid"
Beschuldigd worden van iets wat je niet gedaan hebt.
Waarom moet iedereen meteen totaal hysterisch worden? Herkend worden door een computer is nog wel even wat anders dan een enkeltje Gitmo, hoor. Ik zie niet echt het verschil tussen een agent die jou meent te herkennen, je id vraagt en je vervolgens een fijne wedstrijd wenst en een een agent die op basis van een computersignaal je id vraagt (of misschien dat niet eens omdat 'ie meteen al ziet dat er niks aan de hand is) en je vervolgens een fijne wedstrijd wenst.

[Reactie gewijzigd door Iknik op 7 mei 2018 12:07]

De volgende keer maar `math.random()` gebruiken, wellicht dat dit betere resultaten opleverd. ;)
Als het stadion uitverkocht was dan was dit een fout positief van 1:32 (74500 stoelen / (2470-173)) bij 1 wedstrijd). Dat is dan wel wat hoog. In principe is het natuurlijk maar een van de vele signalen waar de bewaking naar kijkt.
Tsja het is ook best moeilijk om al die booskijkende kale mannen van tussen de 20 en 35 jaar uit elkaar te houden. :Y)

Ik kan mij niet voorstellen dat het zo moeilijk moet zijn als je een xbox kinnect achtige camera op gezichtshoogte bij de poortjes gebruikt. Daar kan je bijna feitelijk een 3D scan mee maken wat de kans op false positives aanzienlijk kan verkleinen.


Om te kunnen reageren moet je ingelogd zijn


Call of Duty: Black Ops 4 HTC U12+ LG W7 Samsung Galaxy S9 Dual Sim OnePlus 6 Battlefield 5 Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*