OpenAI wil dat onafhankelijke experts proberen om misbruik te maken van nog niet uitgebrachte versies van zijn GPT-platform en -diensten om ze zo veiliger te maken. Dat zegt het bedrijf tegen het Britse Hogerhuis.
OpenAI zegt in de reactie aan het Britse Hogerhuis waar The Guardian over schrijft dat het graag wil dat er regels komen om AI-systemen voor release te laten controleren door onafhankelijke experts in red teams. Dat zijn teams van beveiligingsexperts die proberen systemen te kraken, zoals kwaadwillenden dat na release zouden doen. "We vinden het belangrijk dat onze veiligheidsregels extern worden gevalideerd door onafhankelijke experts en dat onze beslissingen ten minste gedeeltelijk worden gebaseerd op onafhankelijke veiligheids- en risicobeoordelingen, zodat we passende maatregelen
kunnen ontwikkelen."
Dat red teaming gebeurt nu alleen intern, maar in veel landen zijn overheden aan het nadenken op welke manier ze AI-systemen willen reguleren. OpenAI geeft geen rechtstreeks antwoord op de vraag hoe groot het bedrijf het risico inschat dat AI een bedreiging zou kunnen zijn voor de mensheid. "Naarmate de mogelijkheden van deze modellen geavanceerder worden, neemt ook de omvang en ernst van de risico's die ze kunnen vormen toe, vooral als ze onder leiding staan van een kwaadwillende of als het model niet goed is afgestemd op menselijke waarden. Het streng meten van de vooruitgang in potentieel gevaarlijke capaciteiten is essentieel voor het effectief beoordelen en beheren van risico's. We pakken dit aan door evaluaties voor potentieel gevaarlijke capaciteiten te onderzoeken en te ontwikkelen, die variëren van eenvoudige, schaalbare en geautomatiseerde tools tot op maat gemaakte, intensieve evaluaties die worden uitgevoerd door menselijke experts."
OpenAI zegt in het document ook dat het trainen van grote taalmodellen het gebruik van auteursrechtelijk beschermd materiaal vereist. "Het beperken van trainingsgegevens tot boeken uit het publieke domein en tekeningen die meer dan een eeuw geleden zijn gemaakt, levert misschien een interessant experiment op, maar zou geen AI-systemen opleveren die voldoen aan de behoeften van hedendaagse burgers."