OpenAI en Microsoft zouden onderzoeken of DeepSeek de api's van OpenAI-diensten hebben misbruikt om output van OpenAI-modellen te vergaren. Daarmee zou DeepSeek zijn V3- en R1-modellen hebben getraind.
Microsoft, die clouddiensten levert aan OpenAI, wees de maker van ChatGPT afgelopen najaar op de ongebruikelijke activiteit, meldt Bloomberg. Accounts gelinkt aan DeepSeek zouden restricties omzeilen om zoveel mogelijk output via de api's te verzamelen.
Die data zou DeepSeek gebruiken om zijn modellen V3 en R1 te trainen. Dat systeem heet destillatie, waarbij het kleinere model vrijwel even goed kan presteren als het model waaruit het destilleert, maar veel minder data en training nodig heeft. DeepSeek claimt dat V3 getraind is met 2,788 miljoen gpu-uren, waarvan veruit de meeste in pretraining. Dat is uitzonderlijk weinig.
David Sacks, die voor de regering-Trump beleid rond AI en cryptovaluta overziet, claimt volgens Bloomberg ook dat DeepSeek via destillatie OpenAI-data heeft gebruikt. Doorgaans gebruiken AI-diensten destillatie alleen op eigen modellen, om zo kleinere modellen aan te bieden.
De betrokken bedrijven reageren niet inhoudelijk. OpenAI erkent wel de praktijk van destillatie door Chinese bedrijven. "We weten dat in China gevestigde bedrijven - en andere - voortdurend proberen om de modellen van toonaangevende Amerikaanse AI-bedrijven te distilleren. Als toonaangevende AI-ontwikkelaar nemen we tegenmaatregelen om ons intellectueel eigendom te beschermen, waaronder een zorgvuldig proces voor het opnemen van grensverleggende mogelijkheden in vrijgegeven modellen, en we zijn ervan overtuigd dat het van cruciaal belang is dat we nauw samenwerken met de Amerikaanse overheid om de geavanceerdste modellen zo goed mogelijk te beschermen tegen pogingen van tegenstanders en concurrenten om Amerikaanse technologie te stelen."