Meta komt met drie nieuwe Llama 4-taalmodellen: Llama 4 Scout, Llama 4 Maverick en Llama 4 Behemoth. De taalmodellen zijn op een nieuwe 'mixture-of-experts'-architectuur gebaseerd. Meta claimt dat de nieuwe Llama 4-taalmodellen beter presteren dan concurrerende llm’s.
Uit een blogbericht van Meta blijkt dat Llama 4 Scout 109 miljard parameters heeft meegekregen en 17 miljard actieve parameters per opdracht. Dit compacte model telt zestien experts, een context window van 10 miljoen tokens en past op een enkele Nvidia H100-datacenter-gpu. Het taalmodel zou op heel wat benchmarks beter presteren dan Gemma 3, Gemini 2.0 Flash-Lite en Mistral 3.1 en is beschikbaar via Llama.com en Hugging Face.
Llama 4 Maverick telt 400 miljard parameters, 17 miljard actieve parameters per opdracht en 128 experts. Dit taalmodel heeft een context window van 1 miljoen tokens. Meta claimt dat Llama 4 Maverick in bepaalde benchmarks beter presteert dan GPT-4o en Gemini 2.0 Flash en ongeveer even goed presteert als DeepSeek v3 bij coderen en redeneren, terwijl het over ongeveer de helft minder actieve parameters beschikt. Het taalmodel is ook beschikbaar via Llama.com en Hugging Face.
Zowel Scout als Maverick zijn gebaseerd op Llama 4 Behemoth. Dit taalmodel telt 2 biljoen parameters waarvan 288 miljard actieve parameters per opdracht. Llama 4 Behemoth telt zestien experts en is het krachtigste taalmodel ooit van Meta. Het Amerikaanse techbedrijf claimt dat Behemoth in heel wat benchmarks, zoals MATH-500 en GPQA Diamond, beter presteert dan ChatGPT 4.5, Claude Sonnet 3.7 en Gemini 2.0 Pro.
Meta is Llama 4 Behemoth nog aan het ontwikkelen en heeft besloten om het daarom nog niet beschikbaar te stellen. Het Amerikaanse techbedrijf gebruikt de Llama 4-taalmodellen wel al in de MetaAI-assistent die in onder andere de Messenger-, WhatsApp- en Instagram-app is ingebouwd. Meta zal meer details over de taalmodellen delen tijdens LlamaCon. Dit evenement zal op 29 april plaatsvinden.
/i/2007381078.png?f=imagenormal)