Onderzoekers hebben een algoritme ontwikkeld waarmee obscene beelden in videochats kunnen worden herkend. Dat zou onder meer van pas komen bij Chatroulette, waar bezoekers vaak met geslachtsdelen worden geconfronteerd.
Bestaande algoritmes die worden gebruikt om porno op afbeeldingen te vinden, zouden niet voldoen, omdat het bij bewegende videobeelden moeilijk zou zijn om bijvoorbeeld een geslachtsdeel te onderscheiden van een vleeskleurige muur. Een andere optie, gebruikers laten aangeven welke content niet door de virtuele beugel kan, zou niet rendabel zijn en te eenvoudig misbruikt kunnen worden.
Onderzoekers van de universiteit van Colorado hebben daarom een nieuw algoritme ontwikkeld dat videostreams op obscene beelden controleert, meldt Technology Review. Het algoritme controleert net als andere methoden de kleur van objecten, maar het risico op false positives wordt verkleind doordat wordt gecontroleerd of een object beweegt. Doet het dat niet, dan is het waarschijnlijker dat het object een muur is dan dat het om iemands intieme delen gaat, redeneren de onderzoekers. Ook gezichten en delen van gezichten worden door het algoritme herkend, zodat die niet als obsceen worden aangemerkt.
Op basis van de verschillende criteria wordt aan een beeld een obsceniteitsscore toegekend. Als de score te hoog is, zouden gebruikers kunnen worden afgesloten. De onderzoekers trainden het algoritme op 20.000 stills van videostreams die het van Chatroulette ontving. Het algoritme werkt goed, claimen de onderzoekers. In een video, die expliciete beelden bevat, demonstreren ze het filter.
Het algoritme zou in de praktijk onder meer bij Chatroulette kunnen worden gebruikt om gebruikers die al te veel van zichzelf laten zien, weg te filteren. Het is niet bekend of dat daadwerkelijk gaat gebeuren. Circa 20 tot 30 procent van de Chatroulette-gebruikers is volgens de onderzoekers minderjarig.