Facebook heeft uiteengezet hoe het moderators selecteert, en hoe deze te werk gaan bij het beoordelen van content die tegen de regels van het netwerk ingaat. De sociale-netwerksite wil onder andere laten zien hoe de moderators worden ondersteund in hun werk.
Volgens de uitleg van Facebook werken er inmiddels ongeveer 20.000 mensen bij de afdeling safety and security. Hiervan werken er ongeveer 7500 als moderator binnen de community; dit zijn de mensen die posts beoordelen wanneer deze worden gerapporteerd door andere gebruikers op Facebook. In een post op het blog van Facebook legt het bedrijf uit hoe het team van moderators te werk gaat en hoe zij worden getraind op hun taken.
Zo stelt Facebook onder meer dat er weken aan training nodig is om moderators voor te bereiden op hun taken. Zo wordt er eerst een uitleg gegeven over de taken, waarna toekomstige moderators training in de praktijk krijgen aan de hand van een instructeur. Met laatstgenoemde deel zijn de studenten minimaal 80 uur bezig. Daarnaast zijn er geregeld coachingsessies waarbij moderators feedback krijgen.
Moderators krijgen automatisch rapporten toebedeeld die zij moeten beoordelen. Daarbij wordt onder andere rekening gehouden met hun locatie en tijdzone, en de taal die zij spreken. Volgens Facebook is er ook aandacht voor de lokale cultuur: zo heeft Facebook liever iemand uit het land zelf voor het beoordelen van een post omdat zij de lokale gebruiken beter kunnen inschatten.
Facebook stelt dat er vier psychologen zijn aangesteld om moderators te helpen met het omgaan met schokkende content. Ook is er toegang tot medische zorg voor wie dat nodig heeft. Met de uiteenzetting wil Facebook waarschijnlijk inzichtelijker maken hoe het beoordelen van content in zijn werk gaat; normaal laat de sociale-netwerksite daar weinig over los. Over de persoonlijke omstandigheden van de moderators laat Facebook weinig los, voornamelijk omwille van hun veiligheid.
Eerder had het bedrijf kritiek gekregen op de wijze waarop het moderators inzet; Uit interne documenten zou blijken dat moderators te veel content moeten beoordelen, waarvoor ze soms maar tien seconden tijd hebben. Daar komt bij dat veel moderators bedenkingen zouden hebben bij de regels, die soms complex en tegenstrijdig zijn. Ook zouden zij geregeld kampen met psychische problemen. Waarschijnlijk wil Facebook met de uiteenzetting zijn kant van het verhaal belichten.