Meta heeft Llama 2 aangekondigd, een verbeterde versie van zijn open-sourcetaalmodel. Het taalmodel kan met clouddiensten zoals Microsoft Azure en AWS overweg, maar kan ook op lokale hardware zoals pc's of high-end smartphones werken.
Llama 2 is per direct beschikbaar en is gratis voor onderzoeksdoeleinden en commercieel gebruik. Meta zegt dat deze tweede versie met veertig procent meer data is getraind dan Llama 1 en sneller met antwoorden komt. Met het largelanguagemodel kunnen bedrijven en onderzoekers generatieve-AI-toepassingen maken. Meta brengt het taalmodel open source uit zodat ontwikkelaars en onderzoekers fouten kunnen identificeren, die Meta weer kan repareren.
Het taalmodel komt met model weights en startcode om er een gesprekstool van te kunnen maken. Meta introduceert het taalmodel samen met Microsoft en maakt Llama 2 per direct beschikbaar in Microsofts Azure AI-catalogus. Het taalmodel werkt ook op clouddiensten van bijvoorbeeld Amazon Web Services en Hugging Face.
Meta zegt daarnaast dat het taalmodel ook op lokale hardware gebruikt kan worden, zoals Windows-pc's. In een losse aankondiging zegt Qualcomm dat flagship-smartphones en -pc's met Qualcomm-socs vanaf 2024 ook lokaal Llama 2 kunnen draaien. Dit betekent dat gebruikers niet afhankelijk zijn van clouddiensten voor het gebruik van generatieve AI op basis van Llama 2, wat volgens Qualcomm beter is voor de veiligheid, privacy, betrouwbaarheid en kosten. Qualcomm zegt dat met dit taalmodel 'intelligente virtuele assistenten, productiviteitsapplicaties, content creation-tools en entertainment' mogelijk zijn.
Het llm is volgens Meta getest op de veiligheid door interne en externe teams. Het bedrijf zegt ook dit te blijven doen en op basis van tests verbeterde taalmodellen uit te brengen. Meta bracht Llama 1 in februari uit, dit taalmodel was alleen voor wetenschappelijk onderzoek bedoeld. Het bedrijf zegt honderdduizend aanvragen voor toegang tot dit eerste taalmodel te hebben ontvangen.