Anthropic claimt dat drie Chinese AI-bedrijven proberen om interacties met zijn AI-dienst Claude aan te gaan, om zo hun eigen modellen te trainen. Dat gebeurt onder meer via proxybedrijven. Het gaat onder meer om DeepSeek.
Behalve DeepSeek gaat het om Moonshot en MiniMax, zegt Anthropic. Door interacties proberen die bedrijven Claude te destilleren tot een kleiner en efficiënter model. Dat gebeurt via API-toegang tot Claude via tienduizenden accounts, waarna de bedrijven proberen om detectie te ontlopen.
Het destilleren van modellen is legitieme technologie en een manier om kleine maar toch capabele AI-modellen te maken. Dat gebeurt doorgaans binnen een bedrijf, waarbij een AI-bedrijf dus het eigen grote AI-model destilleert. Toen DeepSeek vorig jaar doorbrak, leek het er ook al snel op dat het was getraind op bijvoorbeeld ChatGPT.
Het gebruiken van data van anderen om eigen AI-modellen te trainen is iets dat alle AI-bedrijven hebben gedaan. Anthropic traint Claude bijvoorbeeld op data die het vaak ongevraagd van internet heeft gehaald. Volgens Anthropic is het gevaar dat de Chinese bedrijven AI-modellen maken die capabel zijn zonder de veiligheidsregels die Claude ingebouwd heeft rond het gebruik als bijvoorbeeld wapen voor hacking.
:strip_exif()/i/2007527598.jpeg?f=imagenormal)