OpenAI heeft zijn team ontbonden dat verantwoordelijk was voor het beperken van de veiligheidsrisico's van geavanceerde AI-systemen. Volgens OpenAI wordt de groep in andere onderzoeksafdelingen geïntegreerd. Een van de leiders van het team uit op X kritiek op het bedrijf.
OpenAI bevestigt tegenover Bloomberg dat het het 'Superalignment'-team heeft ontbonden. Dit team werd in juli 2023 opgericht om de risico's van toekomstige AI-systemen, die 'veel slimmer' zijn dan mensen, te beperken. De afdeling had als doel om tegen 2027 de belangrijkste technische uitdagingen voor het bijsturen en beheersen van 'hyperintelligente kunstmatige intelligentie' op te lossen.
OpenAI zegt tegen het persbureau dat de groep niet langer blijft bestaan als een losstaande afdeling, maar in plaats daarvan 'dieper in onze onderzoeksactiviteiten wordt geïntegreerd om de veiligheidsdoelen te behalen'. De twee leiders van het team, Ilya Sutskever en Jan Leike, hebben deze week ontslag genomen bij het bedrijf. Eerstgenoemde is medeoprichter van OpenAI en stemde vorig jaar voor het ontslag van ceo Sam Altman. Hij heeft geen reden gegeven voor zijn vertrek.
Leike laat op X weten dat hij al enige tijd in de clinch ligt met de bestuurders van OpenAI over de 'kernprioriteiten' en dat er nu een 'breekpunt is bereikt'. Het team zou de afgelopen maanden niet voldoende middelen hebben gekregen om zijn 'cruciale' onderzoek voort te zetten. "Machines bouwen die slimmer zijn dan mensen is een inherent gevaarlijke bezigheid. OpenAI draagt namens de hele mensheid een enorme verantwoordelijkheid met zich mee, maar de veiligheidscultuur en -procedures zijn de laatste jaren ondergeschikt geworden aan glanzende producten."
Altman bedankt Leike in een post op X voor zijn bijdrage aan de veiligheidsonderzoeken. Ook reageert hij kort op de posts van de onderzoeker: "Hij heeft gelijk, we hebben nog veel te doen en daar willen we ons voor inzetten."