AI-bedrijf Perplexity AI maakt het taalmodel R1 1776 opensource onder de MIT-licentie. Het gaat om een 'nagetrainde' versie van DeepSeek-R1, waarbij het Amerikaanse bedrijf zogenoemde biases op basis van Chinese censuur eruit zegt te hebben gefilterd.
De zogenoemde model weights passen het redeneren van een taalmodel aan maar behouden de onderliggende structuur. Op deze manier zegt Perplexity dat door de Chinese Communistische Partij gecensureerde onderwerpen weer besproken kunnen worden door het model. Tweakers testte onlangs de verschillende AI-modellen die nu prominent zijn. Daaruit bleek dat DeepSeek inderdaad niet kon reageren op bepaalde onderwerpen.
Perplexity AI zegt dergelijke onderwerpen weer bespreekbaar te hebben gemaakt. Dit deed het bedrijf door eerst op basis van menselijke experts een lijst samen te stellen met onderwerpen die door de CCP gecensureerd worden. Vervolgens werd een 'meertalige censuurclassificator' ontwikkeld waarmee in totaal 40.000 problematische prompts werden geformuleerd. Het bedrijf gebruikte deze censuurdataset om met het Nvidia NeMo 2.0 Framework het DeepSeek-model te 'decensureren'.
Het betreffende R1 1776-model van Perplexity AI is onder meer via Hugging Face te verkrijgen onder een MIT-licentie, wat betekent dat de broncode hergebruikt en verspreid mag worden, mits dat gebeurt onder dezelfde licentie. Ook het DeepSeek-R1-model is onder die licentie opensource verkrijgbaar. R1 1776 werd eerder al aangeboden voor zowel betalende gebruikers als mensen met een gratis account, maar het model was tot dusver niet opensource.