Franse AI-start-up Mistral komt met een nieuw AI-model, dat geschikt is om lokaal te draaien. Dit Mistral Small 3-model bestaat uit 24 miljard parameters en presteert volgens de makers vergelijkbaar met grotere taalmodellen. Het komt beschikbaar onder een Apache 2.0-licentie.
Mistral claimt dat zijn nieuwe Small 3-model 'kan concurreren' met grotere modellen als Meta's Llama 3.3 70B en Qwen 32B en beschrijft het ook als een open alternatief voor modellen als OpenAI's gpt4o-mini. "Mistral Small 3 is vergelijkbaar met Llama 3.3 70B Instruct, terwijl het meer dan drie keer sneller is op dezelfde hardware", claimt het bedrijf.
Mistral Small 3 komt beschikbaar als 'pre-trained model' en als een 'instruction tuned'-variant. De start-up deelt prestatieclaims van beide versies op zijn website en spreekt onder andere over een nauwkeurigheid van 81 procent in de MMLU-benchmark en een latency van 150 tokens per seconde. Het taalmodel is verder getraind zonder reinforcement learning of kunstmatige data en kan daarmee dienen als een basis voor aangepaste modellen, zegt het bedrijf.
Het Small 3-model is volgens Mistral onder andere geschikt voor gebruik in chatbots die snel antwoorden moeten geven. Het model kan daarnaast door de gebruiker verder gefinetuned worden om antwoorden over specifieke onderwerpen te geven, zoals de gezondheidszorg of juridisch advies. Nadat gebruikers het model 'gekwantificeerd' hebben, kan het volgens de makers lokaal draaien op een enkele RTX 4090 of een MacBook met 32GB ram.
Beide versies van het model worden vrijgegeven onder een Apache 2.0-licentie, waarmee gebruikers vrij zijn om het model 'op elke gewenste manier' te gebruiken en aan te passen. Mistral heeft ook een eigen MNPL-licentie. Modellen onder die overeenkomst zijn alleen gratis te gebruiken voor non-commerciële doeleinden; dat is bij Apache 2.0 niet het geval.