Het Franse AI-bedrijf Mistral komt met verschillende nieuwe Mistral 3-llm's. Daaronder valt een groot 'frontiermodel' dat multimodaal werkt en meerdere talen ondersteunt, naast een stel kleinere modellen die lokaal gedraaid kunnen worden. Ze komen allemaal opensource beschikbaar.
Mistral Large 3 wordt volgens de ontwikkelaars 'een van de beste openweightmodellen ter wereld'. De Franse start-up trainde het model zelf met 3000 Nvidia H200-gpu's. Het gaat om een mixture-of-experts-model dat bestaat uit 47 miljard actieve en 675 totale parameters.
Het nieuwe flagshipmodel kan volgens Mistral meekomen met andere populaire openweightmodellen zoals Kimi K2 en Deepseek V3.1. Daarnaast voegt het ook verschillende functies toe die al langer in gesloten AI-modellen zitten, zoals multimodale functies en ondersteuning voor meerdere talen. Het model komt beschikbaar onder een Apache 2.0-licentie.
Naast het Mistral Large 3-model komt Mistral ook met verschillende kleinere llm's. Deze krijgen de naam Ministral 3 en worden geleverd in modellen met 3, 8 en 14 miljard parameters. Van ieder model komen bovendien base-, instruct- en reasoningvarianten, ieder met de mogelijkheid om afbeeldingen te begrijpen. Volgens de makers zijn deze modellen bedoeld voor lokaal gebruik. Ook al deze varianten komen beschikbaar onder een Apache 2.0-licentie.
De verschillende Mistral 3-modellen zijn per direct beschikbaar via Mistral AI Studio en platforms als Hugging Face. Dat geldt voor zowel Mistral Large 3 als voor de Ministral 3-varianten.
Mistral Large 3-benchmarks. Bron: Mistral