Meta brengt Llama 3 binnen een maand uit

Meta brengt Llama 3 binnen een maand uit, zo heeft een topman van het bedrijf gezegd. Daarmee volgt de release van het AI-model een jaar na Llama 2.

Llama 3 zal niet één grote release zijn, maar Meta gaat het model in delen uitbrengen, meldt Yahoo News. Het gaat niet om één model, maar om een samensmelting van meerdere modellen die samen Llama 3 vormen, zo maakt het bedrijf duidelijk. "Er zullen in de loop van dit jaar een aantal verschillende modellen met verschillende mogelijkheden uitkomen."

De vorige versies van Llama waren opensource-modellen en veel opensource-projecten werken met een Llama-taalmodel. De verwachting is dat het bij Llama 3 niet anders zal zijn, al zegt Meta daar niet iets specifieks over. Ook claimt het bedrijf nog niets over de prestaties van Llama 3 of wijzigingen ten opzichte van het huidige Llama 2.

Door Arnoud Wokke

Redacteur Tweakers

09-04-2024 • 21:16

23

Reacties (23)

23
23
10
1
0
8
Wijzig sortering
En wil je een lokale ongecencureerde GPT of llama of wizard? Hier isneen open source engine met een aantal open modellen

https://ollama.com/

En een chatgpt style web interface

https://github.com/open-webui/open-webui


Beide kunnen in docker containers naast elkaar draaien. Sel zorgen dat er een goede gpu in steekt
ik weet van Network Chuck (bron: https://www.youtube.com/watch?v=WxYC9-hBM_g) dat hij de website huggingface.co aanraadde omdat daar een hele boel gratis modellen op staan.

Ik hoop dat iemand hier iets aan heeft :)
Ik weet niet waarom je dergelijk slechte mod-score krijgt; je hebt gewoon 100% gelijk. Hugging Face is dé go-to voor AI models. Ze hebben er meer dan een half miljoen waar o.a. ook alle varianten van de grote jongens (Meta, MS, etc...) op staan. Heb je een AI doel, dan heb je hier een model. Vaak ook in vele verschillende formaten.
Je kan ervan aan dat dit gewoon de download-bron zal zijn voor llama 3 voor het gros van de AI-professionals én amateurs.

Ik heb zo een lokale AI om te helpen met coderen (llama 2); daarnaast een autocomplete AI voor code (beiden via ollama) en -wel niet van huggingface- ook een AI image generator (Fooocus). Doet allemaal netjes zijn werk.

[Reactie gewijzigd door Prince op 23 juli 2024 20:47]

Wat voor een setup heb je voor je codeer assistent?
Niets té extravagant hoor en ben met enkele zaken aan het stoeien.

Ik heb in WSL Ollama geïnstalleerd en start deze samen met VS Code als ik 'aan de slag' ga.
In VS Code heb ik dan
- 'Continue' (groen icoontje) - hier draait llama2 op
- 'Llama Coder' (met stable-code:3b-code-q4_0)
- 'Ollama Copilot' (met llama2)

Ik dacht eerst dat ik in de problemen ging komen met geheugengebruik, maar ik heb maar 32GB RAM - wat voor een workstation normaal tot laag is - en ondervind geen enkel issue met het draaien van deze modellen. De snelheid is ook meer dan ok op mijn RTX 4060 Ti - Hiervoor heb ik wel die paar euro's extra betaald om voor de 16GB variant te gaan ipv de 8GB variant.
Interessant, zal eens kijken of dit op de Macbook Pro ook wat wil draaien, mijn eerdere testen hiermee waren echter niet heel erg succesvol
Ja en er staan ook een hoop "uncensored" modellen op waardoor je niet steeds dat irritante wezelige "Daar mag ik je niet mee helpen" antwoord krijgt. Zeer aan te bevelen.
"die samen llama 3 vormen" klinkt alsof het verschillende puzzelstukjes zijn die je moet samen zetten om tot een werkend model te komen. Dat zal niet zo zijn. Vermoedelijk gaat het om verschillende versies in verschillende groottes. Zo hadden we llama 2 7B, 13B, en 70B (B = aantal parameters in miljarden). Daarnaast komen er vast basis-modellen en modellen die verder zijn getraind op chat. En, wie weet, misschien brengen ze ook multimodale modellen uit (die met bv video, afbeeldingen of audio werken).
"die samen llama 3 vormen" klinkt alsof het verschillende puzzelstukjes zijn die je moet samen zetten om tot een werkend model te komen. Dat zal niet zo zijn. Vermoedelijk gaat het om verschillende versies in verschillende groottes. Zo hadden we llama 2 7B, 13B, en 70B (B = aantal parameters in miljarden). Daarnaast komen er vast basis-modellen en modellen die verder zijn getraind op chat. En, wie weet, misschien brengen ze ook multimodale modellen uit (die met bv video, afbeeldingen of audio werken).
Ze hebben het natuurlijk over Mixture of Experts, beter bekent als MoE. Zo bestaat GPT-4 uit zo'n acht tot zestien verschillende 'expert' modellen, waarvan er maar 1 of 2 tegelijk ingezet worden.
Jeeej, meer van hetzelfde… meta loopt behoorlijk achter tegenwoordig of zie ik dat verkeerd?
Juist niet. Meta wordt bv hacknews of andere faang plekken al gezien als de goede underdog. Microsoft en Google juist als de evils. Met llama proberen ze de dominante en vooral commerciele positie van openai te breken. Dat gaat ze misschien lukken want specialistische llama versies laten echt goede resultaten zien.
WTF zijn andere 'FAANG' plekken? FAANG is toch juist 'Facebook, Amaazon, Apple, Netflix, Google'.
Ja maar het is door de jaren heen veranderd.

Netflix is niet meer zo relevant in de big tech, maar Microsoft nu wel bijvoorbeeld. Er zijn mensen die steeds het acroniem veranderen (bijvoorbeeld FAAMG of MAMAA) maar anderen zeggen gewoon FAANG maar bedoelen de nieuwe reeks bedrijven. Omdat je anders steeds weer de vraag krijgt waar het over gaat.
FAANG is al weer 2 jaartjes geleden
Het is nu "the magnificent 7": Alphabet, Apple, Amazon, Meta, Microsoft, NVIDIA en Tesla.

Er wordt overigens alleen maar naar beurswaarde en groei gekeken, het is niet een acroniem voor big tech. Apple en wellicht Tesla gaan er waarschijnlijk uitvallen en dan komt er weer een nieuw clubje met een andere naam.
FAANG is al weer 2 jaartjes geleden
Oh nee veel langer dan 2 jaar. FANG uit 2013, FAANG uit 2017.

2 jaar geleden was FAANG allang al niet meer correct, alleen al omdat Facebook toen al Meta heette :) En Netflix was toen al niet zo relevant meer.

[Reactie gewijzigd door Llopigat op 23 juli 2024 20:47]

Met "the big five" zit je al jaren goed.
Zelf zeg ik liever gewoon "big tech", het exacte aantal bedrijven doet er niet zo toe en verschilt per deelsector. NIet al die bedrijven zijn op alle gebieden actief, maar je ziet wel op alle gebieden steeds een paar van die bedrijven terugkomen.
Oke. Ik weet er te weinig van, maar bedankt voor de correctie.
Leuk, Attack of the Mutant LLama's
It Really Whips the Llama's Ass.
Ik kijk alleen uit naar iets nieuws van Llama's with Hats.
Stotter je? Waarom 2x L?

Edit: oooh volgens wiki komt dat woord uit Spanje.

[Reactie gewijzigd door Dark Angel 58 op 23 juli 2024 20:47]

Ja en de landen waar Lama's natuurlijk voorkomen zijn Spaans.

Overigens is in Spanje de dubbel L geen gewone L maar die wordt meer als de Nederlandse "J" uitgesproken. De enkele L klinkt wel hetzelfde.

In dit geval is het ook een grapje omdat LLaMa een voorbeeld is van een LLM.

Op dit item kan niet meer gereageerd worden.