Meta heeft Llama 3.3 70B uitgebracht. Het betreft een nieuwe versie van zijn Llama-taalmodel, dat 70 miljard parameters bevat. Llama 3.3 70B presteert volgens Meta bijna even goed als Llama 3.1 met 405 miljard parameters, maar met een lager energiegebruik.
Uit een tabel die een topman van Meta heeft gedeeld op X blijkt dat Llama 3.3 in heel wat benchmarks beter scoort dan zowel Llama 3.1 70B, Amazon Nova Pro en GPT-4o. Het nieuwe taalmodel zou ook goedkoper kunnen draaien. Llama 3.3 kan net zoals Llama 3.1 maximaal 128.000 tokens verwerken. Bij Llama 3 waren dat nog 8.000 tokens. Het nieuwe taalmodel ondersteunt acht talen: Engels, Duits, Frans, Italiaans, Portugees, Hindi, Spaans en Thais. Het Nederlands wordt niet officieel ondersteund.
Llama 3.3 is een opensourcemodel dat door iedereen gedownload kan worden. Gebruikers moeten wel data via HuggingFace delen voordat ze het model kunnen downloaden. Het gaat dan om de gebruikersnaam en het e-mailadres. Het model kan op dit moment enkel tekst genereren.