GitHub laat gebruikers met Models meerdere AI-taalmodellen uitproberen

GitHub maakt het mogelijk voor gebruikers om verschillende AI-modellen uit te testen in een sandboxomgeving. Met GitHub Models kunnen ontwikkelaars taalmodellen als Llama, GPT-4o en Mistral uittesten vanuit software zoals Codespace of Visual Studio Code.

GitHub noemt het project GitHub Models. Dat is voor alle gebruikers beschikbaar, ook die zonder een betaald abonnement. Met Models kunnen programmeurs AI-modellen van Meta, Mistral, Microsoft en 'anderen' uitproberen vanuit GitHub en aanverwante software. GitHub geeft geen definitieve lijst van AI-modellen die worden ondersteund, maar noemt als voorbeelden in ieder geval OpenAI's GPT-4o en GPT-4o mini en Mistrals Large 2. Ook staan Cohere en AI21 Labs in een screenshot genoemd.

De Models kunnen worden gestart vanuit de webinterface van GitHub. Daarnaast is er een integratie voor Codespaces, waarbij programmeurs de code makkelijk kunnen importeren in hun projecten. Ook is er integratie voor Visual Studio Code en is het mogelijk een project direct bruikbaar te maken door het te koppelen aan Azure AI als gebruikers daar klant zijn.

GitHub zegt dat prompts en resultaten van de tools niet worden gedeeld met de makers van de modellen. Ook worden die niet gebruikt om de modellen te trainen. Het gaat voorlopig nog om een bètafunctie, maar GitHub wil in de toekomst naast algemene beschikbaarheid ook nieuwe modellen toevoegen.

Update: in het artikel ontbrak het woord 'niet': de prompts en resultaten worden niet gedeeld met makers van modellen.

GitHub Models

Door Tijs Hofmans

Nieuwscoördinator

02-08-2024 • 08:05

13

Reacties (13)

13
13
6
2
0
5
Wijzig sortering
GitHub zegt dat prompts en resultaten van de tools worden gedeeld met de makers van de modellen. Ook worden die niet gebruikt om de modellen te trainen.
Het wordt allemaal gedeeld met de makers maar we moeten erop vertrouwen dat het niet wordt gebruikt om de modellen te trainen?

Ah, uit het gelinkte artkel:
no prompts or outputs in GitHub Models will be shared with model providers, nor used to train or improve the models.
Er mist een redelijk essentieel woordje in dit artikel.

[Reactie gewijzigd door Jolijter op 2 augustus 2024 08:14]

Het blijft een goed punt.

Immers, omdat het gedeeld wordt met de makers is het lastig te verifieren of het echt niet gebruikt wordt om te trainen. Veel van deze AI model bouwers hebben ook allerlei andere data gebruikt waar ze geen recht op hadden.

Ik zou er redelijk voorzichtig mee zijn met wat ik er in stop in elk geval.

Edit: Oh okee ik zie nu dat de prompt niet gedeeld wordt, okee. Maar alsnog. MS (eigenaar van GitHub) is zelf ook een model ontwikkelaar (denk aan phi3 bijvoorbeeld).

En hoe winnen ze de kosten dan terug?

[Reactie gewijzigd door Llopigat op 2 augustus 2024 09:19]

Precies, hoe verdienen ze er aan. Natuurlijk wordt alle data opgeslagen en uiteindelijk echt wel gebruikt om ai te trainen. De acties van mensen zijn hier goud waard - je ziet de prompt en dan de code die gekopieerd wordt en daarna hoe het wordt aangepast. Betere training feedback krijg je niet.
Ik denk dat de uitbetaling van deze feature vooral is dat mensen meer aan het ecosysteem van GitHub vast komen te zitten, en de overstap naar bijvoorbeeld GitLab of een self hosted solution moeilijker wordt.
Zeker, lock-in zal ook wel een rol spelen. Maar dat ze die data niet opslaan lijkt me gewoon enorm sterk. Of ze wachten gewoon een half jaartje en veranderen dan stilletjes de regels zodat de data toch met OpenAI gedeeld wordt, dat kan natuurlijk ook.
Het punt is dat de makers helemaal niet willen dat iedereen illegale data toevoegen.
De maker is en blijft eindverantwoordelijk voor hun eigen model.
En hoe winnen ze de kosten dan terug?
Het gaat niet om geld, het is allemaal opensource en jij mag het zelf koppelen aan je eigen flow tool om te controleren of te gebruiken mits je akkoord gaat dat alles wat je doet je eigen verantwoordelijkheid is.
Ja maar de kosten voor de compute en de OpenAI API natuurlijk (die laatste is niet opensource).
De compute doe je op je eigen systeem.
Het is al jaren beschikbaar met sites als Git en Civit.
Q: In het geval dat er verschillen zijn met een (andere) AI wrapper zoals LibreChat.ai, welke verschillen zijn dat? Of is dit gewoon een AI wrapper/"Model" van GitHub zelf?

A: Ah, code georienteerd of niet...
LibreChat zelf is puur een UI waarbij je de modellen of lokaal moet hebben draaien of APIs naar externe partijen configureert. Dus je moet zelf een account hebben bij openAI, openRouter, whatever.

Dit laatste lijkt GitHub dus nu ook voor jou te regelen.
Er zijn al verschillende sites waar je gratis en zonder registratie prompts kunt draaien op de verschillende grote (gehoste) modellen om de uitkomst en qualiteit met elkaar te vergelijken. Opzich is dit dus niet heel bijzonder, maar meer een actie van GitHub om die andere partijen de wind uit de zeilen te nemen? Ik weet nu niet echt of dit iets is dat bij de core business van GitHub hoort?

[Reactie gewijzigd door Skit3000 op 2 augustus 2024 08:26]

Dit lijkt op een voorbereidende stap, wellicht bestaat er uiteindelijk een online dienst waarop iedereen direct zijn eigen model kan deployen of zelfs trainen.

Ze zijn steeds meer freemium services aan het aanbieden als deel van CI en CD, maar zonder het zoals vele bedrijven een “Github Cloud” te gaan noemen. Onder de motorkap zal het vast allemaal op Azure Cloud gebouwd zijn.
"GitHub zegt dat prompts en resultaten van de tools worden gedeeld met de makers van de modellen. Ook worden die niet gebruikt om de modellen te trainen."
Eigenaardige zinnen. Kloppen deze?

Op dit item kan niet meer gereageerd worden.