Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Techbedrijven richten database op om online terroristische content te bestrijden

Door , 44 reacties

Facebook, Twitter, Microsoft en YouTube hebben aangekondigd dat zij een database oprichten om de verspreiding van terroristische inhoud op internet tegen te gaan. In deze database delen zij hashes van verwijderde content, zodat deze snel door anderen geïdentificeerd kan worden.

In een gezamenlijk bericht laten de bedrijven weten dat elke partij zelf onderzoekt of een bepaalde afbeelding of video in de database wordt opgenomen. Inhoud waarvan de hashes overeenkomen, wordt niet automatisch verwijderd. Op die manier moet elk bedrijf apart bekijken of de inhoud in strijd is met zijn eigen richtlijnen. In de toekomst moeten meer bedrijven zich bij de database kunnen aansluiten.

De samenwerking moet plaatsvinden 'met respect voor de privacy van gebruikers en de mogelijkheid zich vrij en veilig uit te drukken', aldus de bedrijven. Over de aard van de terroristische inhoud zeggen zij alleen dat het gaat om 'de meest extreme en ongehoorde afbeeldingen en video's, die waarschijnlijk volgens elke richtlijn zijn verboden'.

De bekendmaking van de plannen volgt kort op kritiek door de EU dat techbedrijven haatberichten niet snel genoeg van hun platformen verwijderen. Maandag reageerde Eurocommisaris Věra Jourová op een rapport dat slechts veertig procent van dat soort berichten binnen de eerder afgesproken termijn van 24 uur wordt verwijderd.

Sander van Voorst

Nieuwsredacteur

6 december 2016 08:57

44 reacties

Linkedin Google+

Reacties (44)

Wijzig sortering
Herkennen op basis van hashes ?
Werkt dat wel, in de praktijk ?

Er is een gekende tekst. Hash wordt gedeeld. Alles wat je hoeft te doen is een paar letters veranderen, of een zinnetje tussen te voegen, en de hash is veranderd. Filmpje ? Gewoon een seconde zwart toevoegen aan het eind, of ergens 10 milliseconden uitknippen of herhalen. En de hash is veranderd.

Of denk ik nu te simpel ?
Nee dat is hashing "in a nutshell". Wat al wel kan is dat je een (soort) hash genereert die niet heel erg anders is als de tekst (of de video) heel erg anders is, zodat je een diff kunt doen op de hash zelf. Zie bijvoorbeeld het Content ID systeem van Youtube, daarmee kunnen stukjes van of aangepaste versies van films e.d. herkend worden.
In het kort een video krijgt bijv 100 hashes, 1 voor iedere 5 seconden
Idem met een tekst, verdeel iedere zeg 100 woorden in 1 hash

Heeft een andere video zeg 90 van de 100 hashes van een video die verwijderd moet worden kun je stellen de inhoud komt voor een groot deel overeen en kan verwijderd worden.

Probleem is dat sommige nieuwszenders ook wel eens beelden laten zien uit haatvideo's en dus die nieuwsbeelden bij een te strak ingesteld filter ook verwijderd zouden kunnen worden.
Ik weet de details niet, maar het lijkt me dat je hash ook immuun moet zijn voor verschuivingen in de tijd, simpele lineaire transformaties, en lage hoeveelheden witte ruis.

[Reactie gewijzigd door Cilph op 6 december 2016 10:59]

Zoals ik hier al aangeef: ik denk dat je 'hash' hier een beetje moet lezen als 'fingerprint'. Een MD5/SHA1/SHA2/etc. zijn hier niet erg geschikt voor maar er zijn wel degelijk (hashing) algoritmes die juist prima bestand zijn tegen (al dan niet kleine) aanpassingen.
Precies een hash voor een password moet met 1 teken anders compleet anders zijn. Maar een hash voor een content moet juist bij kleine verschillen in de content ook maar een klein beetje verschillen.
Dat hangt maar net van het hash algoritme af. De meeste hash algoritmes zijn gemaakt om bij de kleinste afwijking in de bron een enorme afwijking in de hash te genereren. Maar dat hoeft natuurlijk niet.
Dan moet je intelligentere hashes gaan verrzinnen. Als je 1 pixel verandert dan zien wij nog steeds hetzeflde plaatje. Sterker nog: je kunt heel veel pixels verwijderen en nog steeds zien wij wat er op het plaatje staat. Daar is maar heel weinig informatie voor nodig. Computeralgoritme kunnen uiteraard ook zo worden gemaakt dat je dit kan verwerken. Shazam is toch wel een aardig voorbeeld van wat mogelijk is. Houdt je telefoon omhoog tijdens de pauzemuziek in een concertzaal en in de meeste gevallen herkent Shazam de muziek. Zulke technologie kan je ook voor andere dingen toepassen.
Dat kan niet. Dat is juist het hele principe van een hash. Elk bit van de bron wat veranderd zal ongeveer resulteren in een verandering in de helft van alle bits van de hash.
Wat je schrijft klopt deels.
Veel is copy/paste werk zonder aanpassingen.
Filmpjes zijn voor veel mensen moeilijker te wijzigen.

De belangrijkste vraag is "hoe slim is het hashen?"
Gewoon zoeken naar een 100% match of ook 'plagiaat' zoeken? http://www.plagium.com/en/plagiarismchecker
Werkt Shazamm niet ook op basis van hashes? Herkenning van een liedje in 10 seconde. Met die techniek als basis wordt het voorkomen van de juiste hash al een stuk lastiger.
'de meest extreme en ongehoorde afbeeldingen en video's, die waarschijnlijk volgens elke richtlijn zijn verboden'
Waarschijnlijk :? Wie bepaald dat het onder die richtlijnen valt? Doen de tech bedrijven dat zelf? Komt er een rechter aan te pas? In hoeverre wordt mijn vrijheid van meningsuiting beschermd? En wie heeft die richtlijnen opgesteld? En hoe is gewaarborgd dat de database onafhankelijk wordt gecontroleerd om censuur te voorkomen?

[Reactie gewijzigd door beany op 6 december 2016 09:06]

Begrijpend lezen is blijkbaar toch weer lastig zo 'vroeg' op de ochtend.
De database dient alleen om berichten te identificeren, zoals in het bericht staat betekend dat niet dat die berichten op alle platformen automatisch verwijdert wordt. De bedrijven blijven daar zelf verantwoordelijk voor.
De richtlijnen die hier bedoeld worden zijn de richtlijnen van de aangeboden diensten zelf. Mocht je op een vrije zondagochtend nog een keer zin hebben, dan lees ze maar eens na, dan zul je zien dat ze allemaal bepaalde uitingen verbieden.
(Onafhankelijke) controle van zo'n database is gezien het beoogde gebruik dan ook niet van toepassing om censuur te voorkomen. Dat zou anders worden als berichten geautomatiseerd van alle platformen verwijdert zou worden.
Waarschijnlijk bepalen die techbedrijven dat zelf. Zonder rechter, want die heeft daar vrij weinig over te zeggen. Je vrijheid van meningsuiting heeft er ook niks mee te maken, die beschermt je alleen tegen de overheid. Als de 'censuur' je niet bevalt, stap je over naar een ander.

En dat laatste is de crux. Het is helemaal niet in het belang van bedrijven om meer te censureren dan absoluut nodig, want dan zet je jezelf vanzelf uit de markt. In de praktijk betekent dat het blokkeren van terroristische propaganda en kinderporno, en niet veel meer dan dat. Ik heb nog nooit een geloofwaardige reden gehoord waarom ze meer zouden willen censureren.
"Ik heb nog nooit een geloofwaardige reden gehoord waarom ze meer zouden willen censureren."

Als bedrijven dat (evt tegen betaling) willen? Volgens mij 'censureert' google bijv sommige torrent links.
Google doet dat meer vanwege regelgeving dan dat ze dat zelf nou zo graag willen. Ze voorkomen liever rechtszaken dan dat ze die aan hun broek krijgen. Dat is niet meer dan logisch.
In de praktijk betekent dat het blokkeren van terroristische propaganda en kinderporno, en niet veel meer dan dat.
En zelfs bij terroristische propaganda zal een groot grijs gebied zitten wat ofwel onterecht wordt gecensureerd ofwel onterecht wordt geaccepteerd.

Laat die (tech)bedrijven lekker zelf bepalen wat wel en niet censuur is (aan de hand van voor hun geldende wetten), zolang wij de klanten/gebruikers het goed vinden is er niets aan de hand.
Als een Amerikaanse wet dan botst met een Nederlandse, so be it. Er zullen ook altijd wel ethische strijders blijven die niet willen dat bedrijven íets voor hun bepalen, maar tegelijkertijd gretig gebruik maken van hun producten (*kuch* google/android).

Die vrijheid van meningsuiting is tegenwoordig sowieso een wassen neus, en afhankelijk van hoe de wind op dat moment waait.

Een andere oplossing zou zijn als bedrijven als Facebook gewoon een fatsoenlijk rapportage systeem aanbieden. Ik heb in het verleden eens geprobeerd een post te melden als ongewenst, waar het proces dat je moet doorlopen uiteindelijk doodleuk aangeeft dat het niet mogelijk is ("stuur een bericht naar deze persoon"...).
Laat het 'volk' maar bepalen wat wel of niet geaccepteerd wordt d.m.v. dislikes. Tuurlijk is dat gevoelig voor botnets, fraude, etc. Maar als we niet betutteld willen worden, is dit de beste optie.
Die vrijheid van meningsuiting is tegenwoordig sowieso een wassen neus, en afhankelijk van hoe de wind op dat moment waait.
Hoezo, ben je al opgepakt door de overheid?

Overigens zeg je bijna precies hetzelfde als ik :) Er zitten alleen wat nuanceverschillen in. Ik vind het begrijpelijk dat deze bedrijven zowel vanwege imago als regelgeving sommige content per definitie blokkeren. Daar kan geen enkel moderatie-systeem mee helpen, je wil die content namelijk uberhaupt niet op de site.
Het is maar de vraag in hoeverre ze kinderporno stoppen. Er zijn een legio aan accounts op twitter/tumblr/flickr die met elkaar kinderporno delen en ik vraag mij de laatste weken echt af of dit wel of niet word bestreden, vooral na de Amerikaanse verkiezingen waar ze geen moeite hadden om foute berichten gelijk te filteren maar accounts vol met kinderporno is dan schijnbaar ineens lastig.
Ik denk wat @shadowslayer bedoelt is het censuur vanuit een bedrijf, niet de censuur die vanuit een overheid is opgelegd.
Dat begrijp ik. Het was slechts een voorbeeld omdat het effect hetzelfde is.
Zeker als de overheid om tafel gaat zitten met bedrijven om te bepalen wat echt niet kan.

Verder ben ik bang voor de glijdende schaal. Eerst alleen terroristisch materiaal. Als het systeem prima werkt waarom niet gebruiken om meer misdaden te voorkomen?
Discussies over belastingontduiking. Een demonstratie zonder vergunning.
1.Ja, in details zijn ze verschillend, zie tekst van het bericht.
2.Die bedrijven zelf, zie tekst van het bericht.
3.Ja, zie tekst van het bericht.
4.Nee, het is "self regulatory" vanwege opmerkingen van de EU, zie tekst van het bericht.
5.Als je denkt dat je vrijheid van meningsuiting hebt op bovengenoemde websites, poog dan es two girls, one cup te posten zonder consequenties.
De genoemde bedrijven handelen vanuit hun Amerikaanse cultuur, dus zelfs dingen die wij Nederlanders gewoon vinden zullen zij mogelijkerwijs blokkeren.
6.Die bedrijven zelf, zie tekst van het bericht. (Begrijpend lezen is moeijlijk, nietwaar)
7.Niet. De dB hoeft niet gecontroleerd te worden, het geeft slechts aan dat er minimaal 1 ander bedrijf is dat de inhoud verdacht vind. Dat haal ik ook uit de tekst.
Sorry dat ik mijn alu-hoedje hier eventjes op zet, maar ik lees hier "Techbedrijven richten database op om online terroristische content te bestrijden grootschalig censuur toe te passen". Wie defineert wat "terroristische" inhoud is?

[Reactie gewijzigd door Eface op 6 december 2016 09:13]

> Wie defineert wat "terroristische" inhoud is?

Alle inhoud die van de NAVO lijst van terroristische organisaties afkomstig is?
Goed punt. Er zal vast wel een keer iemand slachtoffer worden van zo'n blokkade, iemand die het feitelijk niet verdiend.
Lastige materie.
Ik denk dat ik zelf zou willen filteren wat ik wil zien en niet een of andere Tech gigant. Onthoofdings- video`s zijn niet leuk om te zien, maar geven wel beeld van wat er in de wereld gebeurd. Na eentje te hebben gezien denk ik dat je de rest niet hoeft te zien en deze achterwege laat. Echter gaat een Tech gigant dit standaard voor mij blokken, kan ik hoe gruwelijk, dan ook dit nooit meer zien.
T`is ook tevens bewijs dat dit soort praktijken daadwerkelijk in de wereld gebeuren.
Omdat die filmpjes ook propaganda zijn waardoor mensen gaan denken: "He, dat lijkt me ook wel leuk om te doen.".
Dat begrijp ik, maar mag de Telegraaf dan ook niet meer over moorden schrijven, want 1 op de 50000 lezers denkt, hee dat ga ik ook doen ?
Natuurlijk mag de telegraaf dat wel, dat heeft er alleen 0,0 mee te maken. De Telegraaf beslist zelf wat ze wel of niet publiceren. Net zoals Youtube of Facebook.
Propaganda is geen objectieve verslaggeving (en de Telegraaf zou dat wel moeten zijn).
De telegraaf zet niet (bewust) aan tot het plegen van misdaden (en dat is bij sommige terroristische propaganda wel het doel).
Dat kun je van elke video zeggen. De "fail" video's zijn ook van die dingen die, als je braaf genoeg bent, zou willen censureren omdat mensen ze na zouden doen.

Daar komt bij, ISIS heeft jarenlang kunnen recruteren op twitter en co, doen ze waarschijnlijk nu nog. Om nog niet te spreken van het far-right / populisme overal omtrent de Amerikaanse verkiezingen. Rechts-extremistische propaganda.
Daar komt bij, ISIS heeft jarenlang kunnen recruteren op twitter en co, doen ze waarschijnlijk nu nog. Om nog niet te spreken van het far-right / populisme overal omtrent de Amerikaanse verkiezingen. Rechts-extremistische propaganda.
En daar willen ze nu grotere snellere stappen tegen kunnen nemen, doet de één het dan weten de anderen dat en kunnen dan zelf beslissen of het hun voorwaarden schendt..
En inderdaad, ook het nep-nieuws is een probleem, het staat op FB dus het is waar, en daar komt ook een incidentele gek op af, helemaal als de geruchten op gang gehouden worden door een Trump-kamp........

[Reactie gewijzigd door Teijgetje op 6 december 2016 10:42]

Ik denk dat ze meer doelen op die 'marketing' filmpjes waarmee dolende jongeren worden overtuigd dat ze zouden moeten strijden voor een of andere dubieus gedachtengoed.
Vervelend voor je dan!
Dat onthoofden doet de terrorist waarschijnlijk niet zozeer omdat hij zo'n hekel heeft aan zijn slachtoffer, maar om types als jij te laten zien hoe dapper ze wel niet zijn.
Stel dat dat een bekende van je was, moest je er dan ook nog over nadenken of dat soort video's niet gecensureerd moesten worden, zodat de neiging dit soort gruweldaden te begaan alvast wat kleiner wordt - heus? En vind je het dan wel goed als je het met iemand doen die je niet kent?
Iedereen die die videos bekijkt geeft ze extra reden ermee door te gaan.

Net zo als al die mensen die liepen te janken toen prinses Diana overleed, maar er door het vreten van alle roddelbladen wel toe bijdragen dat het ongeluk gebeurt... neem vooral een abonnement op de privé....
Ik dacht dat dit ondertussen wel al lang bestond.
Het bestaat al wel een tijd voor kinderporno, PhotoDNA bijvoorbeeld. Er zijn databases met hashes van veelvoorkomend materiaal zodat mensen niet door alle filmpjes of fotos heen hoeven te zoeken om te kijken of ze kinderporno bevatten.

Niet alleen is het veel sneller als het geautomatiseerd is, je voorkomt ook dat mensen zich voor hun werk door gruwelijk materiaal heen hoeven te worstelen.

[Reactie gewijzigd door Maurits van Baerle op 6 december 2016 09:56]

Ik dacht dat dit ondertussen wel al lang bestond.
Dat zou je denken, het laat zien waar de prioriteiten liggen. Het opsporen van materiaal onder copyright is duidelijk veel belangrijker want daar bestaan dit soort databases al lang. (Contentid van youtube is precies hetzelfde).
Als alle geblokte en verwijderde informatie dan nog maar wel naar de inlichtingen diensten gestuurd wordt anders zijn deze een heeeeeele grote bron van informatie kwijt.
Maar die zullen ook nog wel een vinger in de pap hebben als ze merken dat er ineens een heleboel informatie verdwenen is.
Zal me niets verbazen als op een gegeven moment gebruikers die how-to's geven over file- of verbindingsversleuteling in die database komen.

Volgens de regering (en mainstream media) is dat toch echt iets wat terroristen gebruiken.
Nou vraag ik me af welk soort database dit wordt, welke basis moet ik dan denken. gezien de grootte zal dit terabyte (s) groot worden denk ik.

dan de boel redundant uitvoeren -> backupje erbij :)
Je hoeft natuurlijk de content (video, afbeelding, tekst, whatevs) niet op te slaan maar alleen de hash. En 'hash' is hier denk ik niet eens de juiste term (hoewel dat afhankelijk is van het gekozen algoritme). 'Hash' moet je hier meer zien als een 'fingerprint'. Maar ongeacht hoe je het noemt, het 'ding' moet kleine 'fluctuaties' in de content kunnen handlen zodat kleine aanpassingen (letter/woord, pixel(s), frame(s), verkleuringen, ruis etc. etc.) geen/weinig invloed hebben. Zo'n hash/fingerprint hoeft natuurlijk maar een "paar" bytes te zijn (again: afhankelijk van het gekozen algoritme e.d.) i.t.t. daadwerkelijke content.

En dan nog; al wordt de DB ettelijke terabytes groot: YouTube, Google, Facebook en consorten lachen om dat soort hoeveelheden, redundantie en backups incluis.

[Reactie gewijzigd door RobIII op 6 december 2016 12:06]

Lijkt mij een goede zaak, zolang er per geval bekeken wordt of het terecht verwijderd moet worden.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*