Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Facebook traint ai met beeld politiebodycams om schietpartijvideo's te filteren

Facebook gaat beelden van politiebodycams gebruiken om ai te trainen beelden van schietpartijen te herkennen, zodat die van het platform kunnen worden geweerd. Er worden alleen beelden van trainingen gebruikt.

Facebook gaat hiervoor samenwerken met politiediensten uit de Verenigde Staten en het Verenigd Koninkrijk. Het gaat om bodycambeelden die gemaakt worden tijdens vuurwapentrainingen van de agenten en speciale politie-eenheden, en dus niet om eventueel vuurwapengeweld waar de politie in het echt mee te maken kan krijgen.

Volgens de Financial Times zal Facebook de bodycams gratis aan de politiediensten verstrekken, waarbij het socialemediabedrijf in ruil de data mag gebruiken. De Britse Metropolitan Police meldt dat het vanaf oktober de beelden met Facebook zal delen en dat de beelden ook naar het Britse Home Office-ministerie worden gestuurd, zodat ze ook met andere technologiebedrijven kunnen worden gedeeld.

Facebook zegt dat dit initiatief om kunstmatige intelligentie te trainen aan de hand van politiebodycambeelden een belangrijke stap is voor het verbeteren van zijn detectiemethoden. Daarbij wijst het bedrijf ook naar de beruchte video van de Nieuw-Zeelandse terrorist, die in Christchurch 51 mensen doodschoot en een eerstepersoonsvideo daarvan livestreamde op Facebook.

Volgens Facebook pikten de automatische detectiesystemen deze video er niet uit, omdat het naar eigen zeggen onvoldoende eerstepersoonsbeelden van geweldacties heeft om de machinelearningtechnologie adequaat te kunnen trainen. Facebook kreeg behoorlijk wat kritiek, omdat die beelden niet eruit gepikt werden en relatief lang op het platform bleven staan. In reactie daarop voerde het bedrijf eerder al een aantal extra restricties voor livestreamen in.

Door Joris Jansen

Nieuwsredacteur

18-09-2019 • 10:22

46 Linkedin Google+

Reacties (46)

Wijzig sortering
Ja, wat moet je hiervan vinden?
Van de ene kant is het natuurlijk een goede zaak dat dit soort zaken van Facebook worden geweerd, maar ik blijf het toch een gevaarlijke ontwikkeling dat Facebook van tevoren al politieagent is aan het spelen. Dit door het analyseren van content door een AI.

Daarnaast vind ik de rappe ontwikkeling van AI sowieso al eng, maar dat is weer een ander verhaal.
Maar Facebook mag haar eigen platform toch modereren?
Net zoals tweakers en andere websites dat mogen.

Daarnaast verwacht de maatschappij dit ook van Facebook.
Als terroristen het gebruiken om aanslagen te vertonen dan wordt het Facebook aangerekend dat deze er te lang op blijven staan.

AI kan dit modereren sneller/gemakkelijker maken doordat het beelden snel kan analyseren.

Een alternatief is om mensen in te huren die alles bekijken.
Het probleem daarbij is dat je er veel nodig hebt en dat dit niet per se hoogopgeleide mensen zijn die iets echt goed kunnen beoordelen.

Bijvoorbeeld:
In een documentaire een tijd terug kwam zo'n moderator aan bod die een foto uit Abu Ghraib te zien kreeg.
Ze categoriseerde deze als marteling maar wees hem toe aan IS en zou hem verwijderen.

Moet je bij het modereren kennis hebben van de context of hoef je alleen de foto an sich te beoordelen?
En zijn er misschien redenen om een schokkende foto toch te laten zien? Bijvoorbeeld omdat de wereld juist kennis moet nemen van wat een staat of leger doet met gevangenen.

Nu zal een goed opgeleid mens met een brede kennis dit beter kunnen maar de vraag is of AI het minder zal doen dan een laag opgeleid mens met weinig kennis die het voor een klein loon doet.

Een tweede probleem met het modereren door mensen is dat deze dan veel schokkende beelden te zien krijgen en daar op den duur last van gaan krijgen.
Als werkgever kun je dan of veel kosten gaan maken om deze werknemers goed te begeleiden of deze kosten afschuiven op de werknemers door ze op straat te zetten zodra ze op zijn.
(Hmm, hoe zou Facebook dit doen?)

[Reactie gewijzigd door jeroen79 op 18 september 2019 11:19]

Het zijn beelden uit het publieke domein die worden gebruik voor het trainen van een commercieel bedrijf. Dat klinkt natuurlijk goed en leuk maar het blijft een commercieel bedrijf.

De juiste manier zou zijn dat de overheid er voor zorgt dat het ai deel dat hier mee getraind wordt voor iedereen beschikbaar is, dus ook youtube en noem alle andere live streaming diensten maar op. Wil je live streamen van dit soort schietpartijen verhinderen moet het voor alle streamingdiensten beschikbaar worden en niet facebook. Als overheid help je mee een discutabel bedrijf nog mee data te geven die zo ook voor andere zaken kan gebruiken.

Het idee is goed, de uitwerking, exclusief facebook is totaal niet wenselijk en verkeerd.
Dat kan wel, maar dan zou die overheid dat ook moeten bekostigen. Facebook investeert nu in het analyseren van de beelden van de politie, waarom zou YouTube daar gratis op mee moeten liften? Als men bij YouTube ook een dergelijk filter wil hebben, dan zouden ze ofwel ook toegang moeten hebben tot dezelfde beelden als Facebook heeft, of ze moeten de technologie inkopen, net als andere technologie.

Het probleem met "de overheid" is dat internet over verschillende overheden heengaat, dus wat ik hiervoor zei, geldt ook voor landen onderling; waarom zou (bv) de VS investeren in geweldsherkenning-AI en die vervolgens vrij beschikbaar maken? Daar hebben ze geen belang bij.
Facebook stelt een paar cams ter beschikking en krijgt gratis beelden. Misschien moet je ook eens denken aan algemeen belang bij dit soort zaken. Of nog mooier woord maatschappelijke verantwoordelijkheid.
Nu is dat weer exclusief voor facebook een bedrijf dat maatschappelijke verantwoordelijkheid niet echt kent maar 1 doel heeft data data data. Sterker nog een bedrijf dat bewezen toestaat verkiezingen te manipuleren.

De overheid stelt beelden uit het publieke domein gratis ter beschikking, daar mag je dus gewoon wat voor terug eisen, delen met de rest omdat het om een maatrschappelijke taak gaat.
Dat is een goed punt.
De overheid levert Facebook nu data om mee te trainen, ogenschijnlijk zonder daar direct iets voor terug te krijgen.

Maar de overheid kan deze data natuurlijk ook delen met Google en andere partijen die AI ontwikkelen.

En de overheid moet ook verschillende belangen afwegen.
Zo heeft ze er belang bij dat populaire platforms goed gemodereerd worden.
Misbruik door kwaadwillenden is namelijk maatschappelijk onwenselijk.

Facebook helpen door data beschikbaar te stellen voor het trainen van AI ligt in lijn met dit belang.
Die data niet geven omdat Facebook een controversioneel bedrijf is gaat weer tegen dit belang in.
De juiste manier zou zijn dat de overheid er voor zorgt dat het ai deel dat hier mee getraind wordt voor iedereen beschikbaar is, dus ook youtube en noem alle andere live streaming diensten maar op.
Nee, dat zou helemaal niet handig zijn. Dan zou de overheid de kennis (en rekenkracht) in huis moeten halen om dat model te trainen en als het resultaat niet al te best is, dan kan niemand er wat mee. Wat veel beter zou zijn is als de beelden aan iedereen beschikbaar worden gesteld, zodat iedereen zijn eigen model kan trainen (en dan dus ook zelf verantwoordelijk is voor de kwaliteit ervan; niemand kan zich verstoppen achter "een heleboel video's worden niet herkend, maar ja, dit is nou eenmaal wat de overheid ons gegeven heeft"). En weet je wat de grap is? Dat is dus ook precies wat er gebeurt:
De Britse Metropolitan Police meldt dat het vanaf oktober de beelden met Facebook zal delen en dat de beelden ook naar het Britse Home Office-ministerie worden gestuurd, zodat ze ook met andere technologiebedrijven kunnen worden gedeeld.
Als overheid help je mee een discutabel bedrijf nog mee data te geven die zo ook voor andere zaken kan gebruiken.
Heb je een voorbeeld in gedachte van iets ongewenst dat Facebook (of een andere partij) met deze data kan doen? Facebook doet een hoop fout, maar het gaat wat mij betreft toch echt te ver om ze dan (puur uit gewoonte?) af te branden net die ene keer dat ze iets goed doen. Want voor zover ik in kan schatten is dit een prima aanbod van FB: het idee zelf is goed (ik geef meteen toe dat het niet in mij opgekomen zou zijn), ze nemen alle kosten op zich en toch mogen alle partijen het resultaat gebruiken. Als bonus kan de politie misschien zelfs beter trainen dankzij deze beelden (als topsporters nog net ietsje beter worden door hun trainingsvelden vol camera's te hangen, dan zou hetzelfde ook kunnen gelden voor de trainingen van anti-terreur eenheden, toch?).
Facebook doet idd een boel fout en werkt op privacy gebied totaal niet mee met overheden. In de UK worden onderzoek naar Cambridge Analytics gewoon gedwarsboomd. Is het dan niet een beetje apart dat je als overheid meewerkt met een bedrijf dat als het er op aankomt jou iedere keer gewoon een dikke vinger laat zien en schijt heeft aan regels.
Facebook doet idd een boel fout en werkt op privacy gebied totaal niet mee met overheden. In de UK worden onderzoek naar Cambridge Analytics gewoon gedwarsboomd. Is het dan niet een beetje apart dat je als overheid meewerkt met een bedrijf dat als het er op aankomt jou iedere keer gewoon een dikke vinger laat zien en schijt heeft aan regels.
Dus wat jij voorstelt komt ongeveer neer op het volgende:
FB: "Wij willen iets doen waar wijzelf, jullie en andere bedrijven voordeel van hebben. Wij dragen alle kosten en jullie hoeven eigenlijk niets te doen. Ok?"
Overheid: "Goed plan, maar we vinden jullie irritant, dus val maar omhoog."

Het argument "gister deed je stom tegen mij, dus dan wil ik vandaag niet niet met je spelen" werkt prima op de kleuterschool, maar op dit niveau moet je losse zaken (bijvoorbeeld Cambridge Analytica en bodycams) los van elkaar kunnen zien.
Idd val maar omhoog. Je maakt wetgeving waar in je facebook gewoon verplicht om te zorgen dat ze livestreams controleren, hoe dat moeten ze idd maar uitzoeken.
Willen ze data hebben kunnen we die geven maar moeten ze gewoon ook op andere gebieden meewerken.

Het argument gisteren deed je stom is voor facebook eerder facebook doet altijd stom tegen met, steekt een dikke vinger op maar wil dan wel een keer wat van jou brooddoos hebben. vul dan zelf maar in hoe je moet reageren.
Willen ze data hebben kunnen we die geven maar moeten ze gewoon ook op andere gebieden meewerken.
Dat zou als effect hebben dat FB geen toegang tot bepaalde data krijgt (die ze, objectief gezien, gewoon nodig hebben) waarmee ze video's beter kunnen filteren, omdat er (noem eens iets) nog een boel gezeik is over belastingontwijking. Met andere woorden: er blijft content beschikbaar die we allemaal eraf willen hebben, omdat "we" ruzie hebben over een totaal ander onderwerp. Wie heeft daar baat bij...!?
Idd val maar omhoog. Je maakt wetgeving waar in je facebook gewoon verplicht om te zorgen dat ze livestreams controleren, hoe dat moeten ze idd maar uitzoeken.
Dus dan staan ze voor de rechter en leggen (volkomen eerlijk) uit:
  • Het is simpelweg onhaalbaar om alles met de hand te controleren
  • Om het automatisch te doen moet je een dataset hebben om op te kunnen trainen
  • Een dataset met "deze content willen we blokkeren" kun je, per definitie, niet zomaar op het Internet vinden
  • "We hebben aan de overheid voorgesteld om trainings-data van hen te gebruiken, we hebben zelfs aangeboden om alle kosten te betalen, maar daar wou de overheid niet aan meewerken."
Het lijkt mij goed mogelijk dat een rechter ze vrijspreekt omdat ze aantoonbaar alles hebben gedaan wat ze redelijkerwijs hadden kunnen doen om een zo goed mogelijk filter te bouwen.
Het argument gisteren deed je stom is voor facebook eerder facebook doet altijd stom tegen met, steekt een dikke vinger op maar wil dan wel een keer wat van jou brooddoos hebben. vul dan zelf maar in hoe je moet reageren.
Als het iets is wat ik zelf toch niet wou hebben en ze willen er mooi voor betalen? Dan vind ik het prima hoor. (En ja, ik besef dat dat vast niet is hoe jij in gedachte had dat ik het aan moet vullen.)
Als het onhaalbaar is pech, dan geen livestream hun probleem.

Ben benieuwd bij naar rechtszaak van John de Mol tegen facebook of misbruik van zijn gezicht bij coin advertenties. Facebook doet ook of haar neus bloed, niet te controleren bla bla bla. Ze zijn er na 3 maanden goed praten niet uitgekomen.

Bedrijven als facebook hebben lak aan allen dus alleen keihard aanpakken is de enige methode.
Maar Facebook mag haar eigen platform toch modereren?
Net zoals tweakers en andere websites dat mogen.
Het lastige vind ik dat zo'n beslissing wordt gemaakt door een algoritme waar niet mee te praten valt als er een foute beslissing wordt genomen.

Met soortgelijke methodes worden social media accounts geblockt en gebanned, bankrekeningen geblokkeerd bij vermoedens van witwassen, uploads van filmpjes geweigerd als het algoritme een auteursrechtenschending vermoed etc.

Vaak kan je wel vragen om het door een echt persoon te laten beoordelen, maar niet altijd. En als het kan ben je vaak snel een paar weken verder.

In dat soort gevallen beperkt het je vrijheid van meningsuiting, mogelijkheid te communiceren met een doelgroep etc.
Ik kan het verkeerd lezen maar verwar je de mate van opleiding ( hoog/laag) nu niet ten onrechte met een niveau van natuurlijke intelligentie en integriteit?
Ik zie niet direct hoe een hoog opgeleid persoon beelden per definitie beter kan beoordelen dan een laag opgeleide collega.
Het gaat me inderdaad niet per se om een papiertje en intelligentie en ervaring zijn zeker belangrijk.

Voor een oppervlakkige beoordeling zal het niet uitmaken.
Zie ik wapens, blote borsten of een hakenkruis? Klik kruisje.
Voel ik me erdoor naar of ongemakkelijk? Klik kruisje.

Maar er kan meer zijn om iets op te beoordelen.
Is iets echt of satire?
Wat is de context? Blote borsten zijn niet altijd seksueel.
Moet iets verwijderd worden omdat het mensen ophitst of juist geplaatst omdat het bepaalde zaken aan het licht brengt.
En beelden die naar zijn om naar te kijken kunnen mensen met de waarheid confronteren en activeren er iets aan te doen.

Dat lijken mij afwegingen waarvoor je wat kennis en wijsheid nodig hebt.
En die je niet in 30 seconden maakt.
Ik ben absoluut geen fan van Facebook, maar het is wel hun platform. Ze hebben alle rechten om zelf te bepalen wat jij er wel en niet op mag zetten. Dus als ze graag politie agent spelen, dan mogen ze dat gewoon, en dat ze dat automatiseren mag ook prima.

Ik zou mij eerder druk maken over wat voor andere dingen ze met die AI gaan doen.
Probleem is dat het met data gebeurt van openbare diensten. Diensten waar jij en ik belasting aan betalen, diensten die nu werken voor facebook. Die data om te leren moet als je het correct wil doen beschikbaar zijn voor alle streaming diensten. Exclusief facebook is niet wenselijk
Is het ook niet, in het artikel wordt uitgelegd dat de data ook beschikbaar is voor andere diensten die iets soortgelijks willen ontwikkelen.

De kosten die de diensten er aan hebben lijken me verwaarloosbaar, het verstoort de oefeningen niet. Camera om doen, aan zetten en de oefen ruimte in.
Kunnen ze de AI niet trainen met beelden van realistische first person shooters?
Een moderne FPS met grafische instellingen op max ziet er toch niet slechter uit dan de beelden van een bodycam?
Dat zou kunnen maar dan zouden ze scenario's moeten hebben die reflecteren met wat er echt op straat gebeurt, in videogames is het net anders. Ook moeten ze die dan gaan ontwikkelen maar dat kost weer veel tijd, moeite en geld.
Gevaar is dat je dan game video’s gaat verbieden
De bewegingen in een FPS zijn doorgaans veel vloeiender dan in het echt. Ook zien de meeste FPS games er hetzelfde uit (mikpunt midden in scherm, geweer / pistool rechts onderin, altijd goed vastgehouden etc.). Dit is iets wat in het echte leven vaak anders is.
Het korte antwoord heet bias: video games zijn geen echt geweld, maar zijn een geverfde imitatie van de realiteit, gemaakt door mensen met eigen vooroordelen. Het is onmogelijk een vertaling, zoals een film, een spel of een boek te maken die niet gekleurd is door de auteur. Dit soort vooroordelen kunnen worden "uitvergroot" door machine learning algoritmes.

Als praktisch voorbeeld zou je porno kunnen nemen: Jonge kinderen die over sex leren, kun je beter geen porno geven omdat de bias daar vrij extreem is.
Ik denk dat FB dit voornamelijk wilt om Livestreams te weren van dergelijke acties.
Dus IMHO begrijp ik deze actie wel
Daar begint het mee.
Totdat regeringen door hebben dat het ook anders gebruikt kan worden.
Een mooi voorbeeld is onze belasting dienst die inzag hoe handig dat invoeren van een kenteken bij betaald parkeren kon zijn.
Nu zullen ze een hoop slimme mensen in dienst hebben, maar dit lijkt mij een pr stunt.
Ik zie namelijk weinig overeenkomst tussen de politie situaties en een shooting, op het wapen in beeld na.
Hoe vaak traint de politie met weg duikende mensen, slachtoffers op de grond of pogingen tot ontwapening?
Daarnaast verplaatst de politie zich tactisch in groepen, en dus andere manier.

Kortom, leuk bedoeld, maar niet heel realistisch. Kan het ze verder niet kwalijk nemen hoor!
Tja voor livestreams wel goed, maar dit kan natuurlijk ook video's van misdragingen door de politie zelf blokkeren. Dat zou slecht zijn. Je moet dat soort dignen wel aan de kaak kunnen stellen.
Of gamers die 1st person streamen.
Weet iemand waarom je niet gewoon ai kan trainen op wapens? Daar heb je geen politie camera beelden voor nodig lijkt me.

Pistool/geweer in beeld, gelijk video weren.
Je vergeet dat voor heel de VS een wapen iets vrij normaal is. Hoort bij hun leven, en willen ze dus delen.
Waarom zou je dat gelijk willen weren? een Pistool of Geweer in beeld betekend niet meteen dat er iets illegaals of dat er een misdaad gepleegd gaat worden.

Sowieso heb ik me bedenkingen hierbij, want wie gaat nou echt bepalen wat wel en niet kan
Zit gevaarlijk dicht op censuur toepassen, waar ik totaal geen voorstander van ben
Pistool/geweer in beeld, gelijk video weren.
Het is dan wel handig dat het alleen gaat om wapens in de echte wereld, niet in videogames. Niet dat veel gamers streamen via Facebook, het is meer het idee dat ontspanning en vermaak geblokkeerd wordt terwijl dat niet nodig is.
"There'll be a time where we need computers to analyse computer actions; that's the moment when humans will become obsolete or at least get eliminated.".
Het citaat popte in me op, zal vast uit een film komen oid.
Maar 't artikel brengt dat toch behoorlijk dicht bij de realiteit; nog even en we hebben computers nodig om (al dan niet) gemanipuleerde videobeelden te kunnen onderscheiden van echte beelden... Leuk vooruitzicht als er geen mensen meer aan te pas komen voor controle (... De social media platforms hebben het nu al moeilijk om te reageren op false-positives... als ze al reageren).
Zie over een paar jaar maar eens de circel te doorbreken: "Ja, dit zijn echte beelden, want de computer heeft het geverifieerd."... Vul de rest van de opmerkingen maar alvast in. |:(
Ik vind Facebook ook puur kwaad over het algemeen, maar deze comment slaat bij dit artikel totaal nergens op. Dit is toch juist een goed ding?

De schietpartijen waar de AI zichzelf mee traint zijn niet eens echt...
Oké en nu even 10 jaar vooruit spoelen:
AI van Facebook is zo snel door ontwikkeld dat een geautomatiseerde pistool op tegenstanders van een regime kunnen schieten als die een schiet houding lijken te nemen tijdens demonstraties.
Dan heb je geen waterkanon maar kogelregen kanon op wagens van de ME.
Demonstraties zoals die in Hong Kong laatst waren geweest worden dan opeens heel gevaarlijk.
Die schiet houding kunnen je ook vertalen naar stenen gooiend onderdrukte volkeren en ook die elimineren.

Facebook heeft allang bewezen puur evil the zijn en uit iets duivels kan nooit goeds komen.
Ik vind censuur of "content-selectie" op een platform waar iedereen "zichzelf" zou moeten kunnen zijn, niet een goed ding.
Wat mij betreft zou iedereen alles moeten mogen plaatsen, en verantwoordelijk moeten worden gehouden voor zijn eigen bijdragen.
Ik zie eerder heil in een ID-check voor je facebook profiel, zodat je weet wie er achter welk profiel zit, dan heil in censuur.
Maar waar trek je de grens? Filmpjes van schietpartijen op een school geschoten door studenten mogen wel geplaatst worden, maar onthoofdingen niet?
De rechter mag daar een uitspraak over doen.
Een platform zou wat mij betreft niet anders moeten zijn dan een marktplein op straat;
je mag daar dingen laten zien, en dingen roepen, binnen de grenzen die de wet stelt.

Over smaak valt te twisten, dus dat moet je vooral niet gaan doen.

[Reactie gewijzigd door Zynth op 18 september 2019 10:58]

Is een platform als Facebook niet meer een van de café's langs het marktplein?
Dat wil zeggen een een privé ruimte waarin de eigenaar bepaalt wat er is toegestaan en wat niet.
Daarmee voorkom je dan dus niet dat een suicidiale gek zijn daden filmt en live vertoont. Dat de uploader van het materiaal bereid is om daar persoonlijk de verantwoordelijkheid voor te nemen houd niet in dat je dan alles maar goed moet keuren.
En als iemand bedenkt dat hij een massa-slachting gaat aanrichten, dat streamt en als laatste groet zichzelf doodschiet, hoe wil je die persoon dan daar verantwoordelijk voor houden? De beelden staan dan al online.

En een ID-check is een dubbelsnijdend zwaard; het heeft inderdaad goede kanten. Maar bedenk dat er ook minder frisse landen zijn dan ons fijne landje. Niet in alle landen kun je ongestraft alles zeggen; denk aan zaken als sexuele geaardheid of politieke voorkeur.
Volgens mij weet Facebook tegenwoordig heel veel van zijn gebruikers.
Laatste keer dat ik een fake account aanmaakte was deze binnen 24 uur geblokkeerd en wilde men een kopie van m'n paspoort hebben. Dat ging natuurlijk niet gebeuren.
Simpel. Hij bulkt van het geld.

Denk je dat iemand anders ermee wegkomt om op een senaatshoorzitting (en zelfs op onze EU hoorzitting) zulke flauwekul antwoorden te geven? Maarja hij heeft meer geld dan sommige landen.

[Reactie gewijzigd door GekkePrutser op 18 september 2019 21:13]

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Games

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True