Microsoft gaat strakkere richtlijnen opstellen voor hoe het kunstmatige-intelligentiesystemen bouwt. In die Responsible AI Standard staan regels voor stem- en gezichtsherkenning. Met dat laatste stopt Microsoft gedeeltelijk, omdat er te veel risico's aan zitten.
Microsoft zegt dat het de meest recente versie van zijn Responsible AI Standard heeft vrijgegeven. Een eerdere versie daarvan was alleen intern beschikbaar. In die richtlijn staat wat Microsoft wel en niet wil en kan doen met kunstmatige intelligentie en de tools die het daarvoor maakt. In die richtlijnen staat hoe Microsoft omgaat met zaken als privacy, beveiliging en betrouwbaarheid, maar ook inclusiviteit en transparantie. De tools die Microsoft bouwt die gebruikmaken van kunstmatige intelligentie, zoals in Azure of Windows, moeten aan al die standaarden voldoen.
Het bedrijf deelt naast de richtlijn ook voorbeelden van waar het tekort is geschoten in de voorgaande jaren. Zo haalt het bedrijf een studie aan waaruit bleek dat de spraak-naar-teksttechnologie die het bouwde, bijna twee keer zo vaak faalde bij gebruikers met een zwarte huidskleur ten opzichte van een witte. Microsoft geeft ook een voorbeeld van hoe het bedrijf extra beschermlagen inbouwde in Azure's Custom Neural Voice, toen bleek dat er een kans was dat die zou worden gebruikt om andere personen te imiteren.
In de toekomst wil Microsoft het minder makkelijk maken om AI-tools in te zetten die voor zulke zaken kunnen worden misbruikt. Een van de opvallendste beslissingen die Microsoft naar aanleiding van de richtlijnen heeft genomen, is dat het bedrijf het moeilijker maakt sommige gezichtsherkenningstechnologieën in Azure te gebruiken. Gebruikers die de Azure Face API, Computer Vision of Video Indexer willen gebruiken, moeten daar specifiek toegang voor vragen. Bestaande gebruikers hebben een jaar de tijd om dat te doen. Ze moeten in dat geval aangeven waar ze de dienst voor gebruiken, daar voorbeelden van aandragen en plannen maken om misbruik te voorkomen. Microsoft kan de toegang bij misbruik intrekken.
Het gaat niet om tools voor gezichtsherkenning in het algemeen, maar specifiek om tools die emoties uit gezichtsherkenningsafbeeldingen kunnen aflezen. Ook het achterhalen van iemands geslacht, leeftijd, lach, gezichtsbeharing of make-up op basis van afbeeldingen wordt aan banden gelegd. Nieuwe gebruikers krijgen daar helemaal geen toegang meer toe. Bestaande gebruikers hebben een jaar de tijd om het gebruik uit te faseren. Standaard toepassingen, waaronder het herkennen van bijvoorbeeld brillen op foto's of het weghalen van ruis en belichting in een afbeelding, blijven wel beschikbaar.