Mistral brengt Medium 3-model uit en belooft groter model in komende weken

Het Franse bedrijf Mistral heeft zijn Medium 3-model uitgebracht, het middelste model van drie modellen in zijn 3-serie. Het Small-model kwam eerder dit jaar uit; het grotere model volgt binnen enkele weken.

Medium 3 presteert op 90 procent van Anthropic Claude 3.7 tegen veel lagere kosten, claimt Mistral. Bovendien wil het zijn AI-model onderscheiden door het beter beschikbaar te maken voor zakelijke klanten, die het makkelijker zouden moeten kunnen finetunen en integreren op eigen domeinen dan concurrerende modellen. Dit model is in tegenstelling tot sommige andere modellen van Mistral niet opensource.

Mistral Small 3 kwam in maart uit en het grotere model, vermoedelijk Large 3, moet in de komende weken uitkomen. Het Franse bedrijf is de bekendste Europese tegenhanger van Amerikaanse en Chinese AI-bedrijven als OpenAI, Anthropic en DeepSeek.

Mistral Le Chat

Door Arnoud Wokke

Redacteur Tweakers

07-05-2025 • 20:50

25

Reacties (25)

25
25
8
1
0
16
Wijzig sortering

Sorteer op:

Weergave:

Het duurde tot het einde van het bericht dat ik pas begreep dat het over een AI model ging. Ik dacht dat het een kleine telefoon was.
Inderdaad, ik dacht ook eerst dat het over een nieuwe smartphone ging totdat ik op het einde pas doorhad dat het om een AI model ging.
Same here.
Het Franse bedrijf Mistral heeft zijn Medium 3-model uitgebracht
Beter zou zijn om hier Het Franse AI-bedrijf Mistral van te maken.

Ik ben niet bekend met Mistral, maar ik ben wel enthousiast om te lezen dat er überhaupt een Europees alternatief is voor de bekende modellen uit de Verenigde Staten en China. Echter vraag ik mij af in hoeverre Europa nog wel afhankelijk is van Amerikaanse chips om de boel te laten draaien. Een LLM maken is op zich niet heel complex meer tegenwoordig en het vereist vooral veel rekenkracht waar je bijvoorbeeld kaarten van nVidia voor nodig hebt, toch?
Mistral gaat hier behoorlijk de mist in. Ze waren juist zo interessant omdat het efficiënte modellen zijn die je in principe lokaal kan draaien. Ik gebruik zelf Mistral Small (24b) in allerlei varianten, maar dat kan dus niet met Mistral Medium omdat de weights niet vrijgegeven worden. 'Lokaal' kan alleen voor enterprise users die de dienst afnemen (denk ik dan)... en de rest mag het met de API doen. (Dit zal ook wel de reden zijn dat ze het nu op 'Le Chat' gooien... zie de afbeelding onderin het bericht)

Ik had dit niet verwacht, omdat ze in januari nog overgestapt zijn naar de Apache 2.0 licentie met Mistral Small. Goed, zal wel, gelukkig zijn er alternatieven.

[Reactie gewijzigd door Klaas Vaak op 7 mei 2025 21:40]

Mistral heeft ook gewoon rekeningen om te betalen. De handel vrij geven voor gratis lokaal gebruik zal uit het marketing budget moeten komen, en die moeten bekijken of het het waard is of niet tov ander gebruik van dat budget.
Klopt allemaal (ook van @jordibtje). Wel jammer. Hopen dat ze toekomstige kleine modellen open houden om mee te spelen, misschien met als strategie: beter is er, maar dan als dienst.
Je kan het steeds als een service aanbieden, wil je een model fatsoenlijk kunnen draaien met grote context dan doe je dat niet zomaar zelf. Je kan prima de modellen vrij geven en een app of api aanbieden. Toch jammer dat het open karakter weer verloren gaat. Doen de chinezen toch veel beter.
Januari overgestapt naar Apache is alleen gerelateerd aan bepaalde modellen, er zullen komende tijd een mix van "open" weights or rather "available" weights + Apache license uitkomen maar ook enkele die alleen onder hun research license of "erger" :)) available zijn.

https://promptengineering...ts-vs-restricted-weights/

Er moet natuurlijk wel geld verdiend worden, ookal weet Mistral nog niet helemaal wat hun kern-product is naast model provider zijn proberen ze voornamelijk de zakelijke markt aan te boren.
Ach, volgende week is er <insert model> dat beter is.
Zo gaat dat week in week uit. Eergisteren ofzo was het QWen3.
I ram het meeste in GROK nu. Kun je een handjevol per uur gratis doen.
Voor mij prima want is meestal een bash script voor het een of ander. Dan kun je wel uit met beperkte aantal queries. Lokaal is mij te traag. Zit ik knarsetandend te wachten. Maar als je strakke hardware hebt is het misschien beter te doen.
Mistral heeft altijd al 'Le Chat' gehad. Dit was altijd al de naam van hun webinterface.

Overigens, met dark-mode aan heette dit verleden niet 'Le Chat' maar 'Le Chat Noir' wat ik wel geestig vond.
Tja, al die modellen worden uiteindelijk gewoon lokaal, al dan niet via de bekende plekken. Over 10 jaar draait het op elke wasmachine. Geduld mensen….
Over tien jaar gok ik dat mensen geeneens meer behoefte hebben aan "het zelf draaien van een eigen AI-model". Er komt de komende tijd vanzelf iemand met een operating system dat niet meer (vanaf de buitenkant gezien dan) werkt met mappen en bestanden en vensters met knoppen en invoervelden, etc, maar in plaats daarvan je scherm alleen nog gebruikt om informatie te tonen (of spellen te spelen) en de rest allemaal zelfstandig doet. Ik vraag me af of er nog veel banen zullen zijn waarbij je een computer gebruikt, voor andere doeleinden dan dat de Aai je toont hoe je iets moet doen (waarbij mensen dus opeens de assistant van de AI zijn).
Klinkt super mooi! Vraag me dan af of we doorgaans nog wel schermen nodig hebben, althans voor het gros van de zaken waar een goede AI dingen gewoon regelt..

Reis naar de bahamas? Hij legt het je voor en boekt

Je booschappen? Naast de dagelijkse spullen ligt her vanmiddag aan je deur

Etc etc, tuurlijk gamen en zo heb je (nu nog) een monitor nodig, tot ze iets bedenken om in je brein te schieten wat het doet denken dat je een scherm ziet
Ik denk dat we schermen nodig hebben bij alles waar alleen mensen een keus kunnen maken. Wil je AI een nieuwe auto laten ontwerpen, dan moet je nog steeds het eindresultaat kunnen zien (en enkele van de tussenstappen om te bepalen of dat model van 10.000 euro moet besparen op het aantal ramen of op het type stoelbekleding).
Tuurlijk, maar ik heb het nu vooral over allerdaagse dingen, dingen die nu al met stem omgaan naar tekst (whatsappje sturen, mail schrijven, dicteren) of andersom (agenda meldingen direct in je oor) of ‘complexere ‘ dingen als het boeken van een reis, je boodschappen, amazon bestelling, banksaldo etc etc waar je eigenlijk geen scherm perse bij nodig hebt.

Natuurlijk een hele hoop ‘ja maars’ maar in de essentie hoeft boodschappen niet met de picnic app maar kan je assistent over de dagen heen met je meedenken over wat je wilt eten en uiteindelijk de bestelling aan je voorleggen en doorzetten :-)
Ja maar (:P), dat kan al heel lang. Mijn eerste smartphone was ik verrast hoe goed speech to text werkte. Je kon toen al zo appjes maken door ertegen te praten. En nu, richting de 15 jaar later, gebruikt nog steeds geen hond het. En natuurlijk, het wordt gebruikt in situaties zoals als je in de auto zit. Maar het blijft een heel klein percentage van de situaties waarbij het wordt gebruikt.

[Reactie gewijzigd door Sissors op 8 mei 2025 09:21]

Ja maar ja maar :) het is opzich fijn als -wanneer je je boodschappen kiest- je opties op een scherm te zien krijgt. Dan is het ook logisch om op dat scherm je keuze aan te wijzen. Je hebt dan niet perse een reden om je stem te gebruiken.

Tot nu toe zijn (bijna) alle processen zo opgezet dat je als mens de eerste stap moet nemen. Een heel boodschappenlijstje dicteren is dan wel iets heel anders opeens, maar ik denk dat mensen het helemaal niet raar vinden dat wanneer ze de laatste appel uit de fruitmand pakken, de vraag krijgen of ze volgende week weer appels willen of liever de peren die toevallig in de aanbieding zijn. Wanneer een computer je de eerste vraag via audio stelt, voelt antwoorden met audio een stuk natuurlijker.
Ja maar ja maar ja maar… natuurlijk je hebt bij bijvoorbeeld picnic 10 soorten toiletrollen maar uiteindelijk koop ik al jaren steeds dezelfde van het huismerk.

Op basis van mijn 5-ish jaar aan bestelling-backlog snapt ai waarschijnlijk wel dat ik het huismerk liever heb dan bonduel, en liever een kilo appels koop dan 6 stuks voor dezelfde prijs

Tijd zal het leren
Ik weet niet of daar wel echt een behoefte naar is. Ik typ dit nu even snel op een scherm terwijl m'n tests draaien, maar het zou door de medegebruikers van mijn kantoor niet op prijs gesteld worden als alles wat ik op Tweakers lees hardop gelezen moet worden (want geen scherm) en ik deze reactie hardop moet dicteren (want geen toetsenbord)

Het is dan snel afgelopen met Tweakers :)
Vond zelf Mistral een stuk beter met het herschrijven van emails. Gemini is dan vaak toch wel erg zakelijk en koud, Mistral is een stuk vriendelijker.
dat zijn zaken die je heel eenvoudig zelf kan aanpassen... gewoon er bij vertellen om het meer of minder zakelijk te laten klinken bijvoorbeeld.
Uiteraard geprobeerd maar blijf het toch een erg Amerikaanse manier van communiceren vinden, daarbij is Mistral echt een stuk gevoeliger en sluit beter aan bij hoe ik bijvoorbeeld met personeel in verschillende Europese landen info wil delen.
Mistral Medium 3 is al beschikbaar op OpenRouter dot AI. Binnen een paar tellen een complete html pagina met SVG afbeeldingen laten bouwen met een andere website als voorbeeld. Claude Sonnet 3.7 deed dat ook goed met als resultaat een gelikte homepage.
Bor Coördinator Frontpage Admins / FP Powermod 10 mei 2025 18:02
Nee

Op dit item kan niet meer gereageerd worden.