De Britse overheid wil meer inzage in de werking van de Large Language Models, zoals ChatGPT van OpenAI en LaMda van Google. AI-bedrijven zouden voorlopig nog niet happig zijn om gevoelige bedrijfsinformatie te delen, omdat er heel wat risico's aan verbonden zijn.
Volgens de Britse zakenkrant The Financial Times wil de overheid beter begrijpen hoe de large language models werken en op die manier ook kunnen anticiperen op de risico’s die aan de technologie verbonden zijn. De overheid zou vooral meer informatie willen over de zogenaamde model weights die de bedrijven gebruiken in hun AI-modellen; dat zijn bepalende factoren in een taalmodel die de uitkomst van een AI-berekening kunnen beïnvloeden. Bedrijven zoals OpenAI zouden momenteel nog geen inzage hoeven te geven in hoe hun taalmodellen functioneren.
Volgens een afgevaardigde van de Britse overheid zouden de bedrijven zich niet weerbarstig opstellen, maar betreft het een delicate oefening en zijn er heel wat beveiligingsrisico’s om rekening mee te houden. The Financial Times stelt dat DeepMind, OpenAI en AI-bedrijf Anthropic in juni van dit jaar al hadden aangegeven meer details te zullen delen met de Britse overheid over de werking van hun AI-modellen, maar in welke mate er bedrijfsinformatie zal worden gedeeld, is nog niet duidelijk.
Begin november vindt in het Verenigd Koninkrijk een AI-top plaats. Die samenkomst zal in Bletchley Park zijn, een landgoed tussen de universiteiten van Cambridge en Oxford waar de Britse wiskundigen, waaronder Alan Turing, de gecodeerde berichten van onder andere nazi-Duitsland hebben kunnen ontcijferen tijdens de Tweede Wereldoorlog. Tijdens de top zullen politici, academici en bestuursleden van AI-bedrijven met elkaar in gesprek gaan over het gebruik en eventuele regulering van kunstmatige intelligentie. Tweakers maakte enkele maanden geleden een video over de werking van AI-taalmodellen.