ChatGPT-ontwikkelaar OpenAI heeft een bugbountyprogramma geopend. Beveiligingsonderzoekers kunnen maximaal 20.000 dollar als beloning verdienen met kwetsbaarheden in de kunstmatige intelligentie. Informatie uit prompts valt niet onder de scope.
Het bugbountyprogramma heeft betrekking op de api's van OpenAI, die van toepassing zijn op de GPT-modellen GPT 3.5 en GPT 4. Ook kwetsbaarheden in de achterliggende Azure-structuur waarop de GPT-modellen draaien, vallen in de scope van het programma. OpenAI noemt ChatGPT specifiek als onderwerp dat binnen de scope valt, maar daar geldt het alleen voor issues als authenticatieomzeilingen of bugs in de betaalmethodes.
OpenAI zegt expliciet dat informatie die uit chatbot ChatGPT komt rollen, buiten de scope ligt. De bot kan bijvoorbeeld via prompts worden misleid om malware te schrijven of andere 'slechte dingen te zeggen', terwijl dat tegen het beleid van ChatGPT is. Die informatie kan niet worden aangedragen via het bugbountyprogramma. Ook andere hallucinaties van de bot kunnen niet als bugs worden aangedragen. Daarvoor heeft OpenAI een apart beleid.
OpenAI looft beloningen uit tussen de 200 en 20.000 dollar, of 182 en 18.200 euro. Dat laatste geldt alleen in uitzonderlijke gevallen; per kwetsbaarheid wordt in de normale tiers tot maximaal 6500 dollar uitgekeerd. Het bugbountyprogramma loopt via het externe platform Bugcrowd. Onderzoekers moeten kwetsbaarheden in de basis geheim houden, tot zij toestemming krijgen van OpenAI om erover te publiceren. Het bedrijf zegt dat het dat binnen negentig dagen wil geven, maar geeft daar geen garanties op.