Facebook, Twitter, YouTube en Microsoft vormen samen een wereldwijde werkgroep om hun inspanningen tegen de verspreiding van extremistische content op hun platforms te bundelen. De internetbedrijven willen terroristische inhoud zoveel mogelijk verwijderen.
De werkgroep heet The Global Internet Forum to Counter Terrorism en heeft als doel om bestaande samenwerkingsverbanden tussen de bedrijven te formaliseren en te versterken. Ook zal de werkgroep meer gaan samenwerken met kleinere techbedrijven, maatschappelijke organisaties, academici, overheden en supranationale organisaties zoals de EU en de VN. Dat meldt Reuters.
De vier grote Amerikaanse internetbedrijven zullen via het nieuwe samenwerkingsverband bijvoorbeeld op technisch vlak samenwerken door samen een database bij te houden met hashes van verwijderde extremistische content, zodat deze inhoud snel door anderen kan worden herkend. Ook zullen er methodes worden uitgewisseld die zijn bedoeld om terroristisch materiaal automatisch te detecteren.
De oprichting van de werkgroep heeft waarschijnlijk te maken met de druk die allerlei nationale overheden hebben uitgeoefend op de bedrijven om meer te doen aan de verspreiding van terroristische inhoud. De Britse premier Theresa May spoorde na de aanvallen op de London Bridge en het aangrenzende Borough Market grote techbedrijven aan om het internet strenger te reguleren. Eind mei deed de G7 al een soortgelijke oproep.
In reactie op de oproep van May hebben Facebook en Twitter begin deze maand al laten weten harder op te treden tegen extremisme op hun platformen. "Met een combinatie van geautomatiseerde processen en menselijk toezicht zetten we agressieve stappen om terroristische inhoud van ons platform af te halen zodra we ervan op de hoogte zijn. En als we reden hebben om te denken dat mensen gevaar lopen, dan stellen we de autoriteiten op de hoogte," stelde een Facebook-woordvoerder in een reactie. In een andere reactie liet het socialemediabedrijf weten het niet eens te zijn met een wettelijke plicht op dit soort handhavende activiteiten.
Duitsland is tot nu toe het enige land dat een dergelijke wettelijke plicht overweegt. In april heeft de Duitse overheid een wetsvoorstel ingediend dat sociale netwerken verplicht om binnen een dag na een melding berichten die als 'haatcriminaliteit' te bestempelen zijn, te verwijderen. Doen ze dat niet, dan riskeren ze een boete die kan oplopen tot 50 miljoen euro. Waarschijnlijk stemt het Duitse parlement nog deze week over het wetsvoorstel.
De Europese Commissie heeft een jaar geleden gedragsregels opgesteld over het verwijderen van haatzaaiende inhoud op internet. Dit leidde tot kritiek van burgerrechtenorganisaties, die zeiden dat de bedrijven daarmee de macht kregen om te beoordelen welke inhoud wel en niet is toegestaan. In december van vorig jaar bleek dat de EU niet tevreden was over de aanpak en in april kwamen berichten naar buiten dat er wordt nagedacht over regelgeving op dit vlak.