In de eerste helft van 2022 hebben Xbox-moderators 4,33 miljoen keer 'proactief opgetreden' tegen nepaccounts. Dat schrijft Microsoft in zijn eerste Xbox Transparency Rapport, dat laat zien wat het bedrijf doet tegen overtredingen op zijn gameplatform.
Microsoft wil voortaan ieder half jaar een Xbox Transparency Rapport uitbrengen. In het rapport dat onlangs is verschenen, beschrijft het bedrijf twee manieren van handhaven tegen bots, valse accounts en spelers die de regels overtreden: 'proactieve moderatie' en 'reactieve moderatie'.
Bij proactieve moderatie handelt het Xbox-team zonder dat het meldingen van spelers als aanleiding heeft. De moderators maken gebruik van technologieën die nepaccounts herkennen, waardoor deze sneller kunnen worden opgespoord. Via proactieve moderatie heeft het Xbox-team 4,33 miljoen keer actie ondernomen bij nepaccounts, wat 57 procent is van de handhavingsacties die tussen januari 2022 en juni 2022 zijn ondernomen. Zo'n actie houdt in dat het account in kwestie wordt geblokkeerd of verwijderd. In de tweede helft van 2021 werd er nog maar 461.000 keer 'proactief opgetreden' tegen bots en valse accounts.
Bij reactieve moderatie gaan de moderators in op meldingen die door spelers zijn gedaan. In de tweede helft van 2021 hebben de Xbox-moderators op basis van die meldingen 2,24 miljoen keer actie ondernomen. Tussen januari en juni van dit jaar zijn er ruim 33 miljoen meldingen gedaan door spelers. De meeste klachten gingen over andere spelers die zich zouden misdragen. Zo gingen 46 procent van de meldingen over beledigend taalgebruik en 43 procent over slecht gedrag. Verder ging 11 procent van de meldingen over de aanstootgevende handles van andere spelers.