Instagram en Facebook moeten vaker gaan aanduiden dat iets AI is en makers die niet aangeven dat ze content met AI hebben gemaakt meer straffen. Dat zegt het Meta Oversight Board, een raad voor toezicht op beleid van het techbedrijf.
Zeker bij oorlogen en conflicten verschijnen er snel beelden online die het publiek misleiden omdat ze gemaakt zijn met kunstmatige intelligentie en dat is een groot risico, redeneert het Meta Oversight Board. "Meta moet een nieuwe, aparte set regels opstellen om ervoor te zorgen dat gebruikers AI-gegenereerde content betrouwbaar kunnen herkennen. Daarnaast moet het bedrijf zijn huidige beleid aanpassen om een tijdige en adequate reactie op misleidende AI-gegenereerde output te garanderen", zegt het Oversight Board.
Dat gebeurt in een beslissing op basis van klachten over AI-beeldmateriaal over de strijd tussen Israël en Iran in de zomer van vorig jaar. Nu trad Meta niet op tegen een Facebook-post die op TikTok al was gelabeld als AI, omdat het de huidige regels niet overtrad. Er was namelijk geen dreiging op concreet lichamelijk letsel. "De huidige mechanismen om zelfs het standaardlabel 'AI Info' aan video's toe te voegen (zelfmelding door de gebruiker of escalatie naar het contentbeleidsteam) zijn niet robuust en niet genoeg om de schaal en snelheid van door AI gegenereerde content aan te kunnen, met name tijdens een crisis of conflict waarbij er sprake is van een verhoogde betrokkenheid op het platform." Het is niet voor het eerst dat het Oversight Board kritiek heeft op het beleid rond AI-content.
De Oversight Board pakt zaken op die gebruikers aandragen als zij vinden dat Meta een verkeerde beslissing heeft genomen. De beslissingen zijn niet bindend. Meta heeft het Oversight Board zelf opgericht als externe toetsing voor beslissingen die het bedrijf maakt over het verwijderen of juist laten staan van content.