OpenAI heeft stilletjes de tool waarmee door AI geschreven tekst als zodanig herkend kan worden, offline gehaald. De ChatGPT-maker motiveert dat door te zeggen dat de nauwkeurigheid van de tool onvoldoende was.
OpenAI zegt op de AI Classifier-pagina verder dat het 'feedback aan het verwerken is' en 'onderzoek doet naar effectievere controlemethodes voor tekst'. Het onderstreept tot slot dat het 'een verplichting aan is gegaan om methodes te ontwikkelen en vrijgeven die gebruikers in staat stellen om te zien of audio of visuele content door AI gegenereerd is'.
Uit de praktijk bleek ten tijde van de release al dat de tool er vaak naast zat. In een challenge set van teksten waarop het model niet is getraind, zei de tool bij 30 procent van de teksten die door mensen geschreven waren, dat het 'misschien' of 'waarschijnlijk' door een AI gegenereerd was. Bij andere talen dan Engels en bij teksten van kinderen werd hij nog minder nauwkeurig.
Ars Technica's AI-redacteur tekent aan dat ook onderzoek uitwijst dat dergelijke tools niet goed werken. De site heeft daar zelf ook een achtergrondverhaal over geschreven.