Meta is bezig met het kopen van hardware om een eigen groot taalmodel op te trainen. Tot nu toe gebruikt het bedrijf daarvoor hardware van Microsoft Azure. Het nieuwe taalmodel moet GPT-4 gaan evenaren, zo schrijft The Wall Street Journal.
:strip_exif()/i/2005323308.webp?f=thumblarge)
Meta koopt onder meer Nvidia H100-chips, die vaak in gebruik zijn om AI-modellen op te trainen, schrijft zakenkrant The Wall Street Journal op basis van eigen bronnen. Het zou net als bij Llama 2 weer een opensourcemodel moeten worden, zo claimt de krant. De training zou begin volgend jaar moeten beginnen.
Het Facebook-moederbedrijf leunde tot nu toe op hardware van Microsoft Azure om modellen op te trainen, maar wil daar nu niet langer afhankelijk van zijn. Microsoft is zelf actief in de AI-community door grote taalmodellen te integreren in veel van zijn zakelijke software onder de naam Copilot en als consumentenproduct in zoekmachine Bing. Het gebruikt daarvoor een aangepast GPT-model van OpenAI. Llama 2 van Meta kwam deze zomer uit.
Terugkijken: uitlegvideo over grote taalmodellen