Twitter schroeft de strijd tegen trolls - gebruikers die anderen lastigvallen - verder op. Het bedrijf test momenteel een algoritme dat beledigende tweets herkent en vervolgens automatisch het bereik van die berichten beperkt.
Dat maakte Twitter dinsdag bekend op zijn blog. Het bedrijf hoopt dat het algoritme eraan bijdraagt dat gebruikers zich veilig voelen op het sociale netwerk. Twitter vindt dat iedereen zich volledig zou moeten kunnen uiten zonder meteen lastig te worden gevallen door beledigende tweets.
Het algoritme dat Twitter momenteel test, houdt onder andere rekening met de context van een bericht. Daarvoor zoekt het programma naar overeenkomsten met andere berichten die in het verleden als beledigend werden gemarkeerd. Daarnaast kijkt het naar hoe lang het account bestaat. De programmatuur let niet op hoe impopulair een tweet is, beweert het Amerikaanse bedrijf.
Wie een beledigende tweet verstuurt, merkt niet dat het algoritme ingrijpt, maar onder de motorkap beperkt het programma het bereik van het bericht. Op die manier hoopt Twitter dat het programma de potentiële schade die een beledigende tweet kan toebrengen, kan limiteren.
Verder gaat Twitter zijn zogeheten violent threats policy aanpassen. Concreet betekent dit dat het bedrijf niet alleen 'directe, specifieke bedreigingen' als ongewenst ziet, maar ook het aanmoedigen tot bedreigingen die door anderen worden geuit. Volgens Twitter helpt de wijziging het bedrijf in de strijd tegen trolls.
Twitter gaat ook harder optreden tegen trolls. Een speciaal handhavingsteam onderneemt actie op het moment dat gebruikers vragen om beledigende content te verwijderen. Het team kan dit doen door tijdelijk de toegang tot een account te blokkeren. Die blokkade kan pas worden opgeheven zodra een gebruiker zijn geldige telefoonnummer geeft - en zich dus kenbaar maakt.
Twitter wil al langer harder optreden tegen misbruik op zijn dienst. Eerder zei Twitter-ceo Dick Costolo in interne documenten dat het bedrijf 'zuigt' in de omgang met misbruik. Daarom kwam het bedrijf al met de optie voor omstanders om iemand te rapporteren voor misbruik, terwijl voorheen alleen een slachtoffer dat kon doen.
Ook de wetenschap houdt zich bezig met het indammen van provocerende, beledigende of bedreigende opmerkingen. Onderzoekers van Stanford University ontwikkelden een tool die asociaal gedrag van internetgebruikers automatisch kan herkennen. Ze gebruikten daarvoor machine learning.