Elon Musk-bedrijf xAI maakt Grok AI opensource

Het bedrijf xAI van Elon Musk heeft Grok AI opensource gemaakt. Het gaat om een versie van Grok voor finetuning en het model is dus niet geoptimaliseerd voor een bepaalde toepassing.

Het model heeft volgens xAI 314 miljard parameters en is een mixture-of-expertmodel. Grok 1 is te vinden op GitHub. Daar staat een Magnet-link om via een torrentclient de gewichten van het model te downloaden.

Elon Musk had al eerder gezegd dat hij Grok AI opensource wilde maken en vindt dat andere bedrijven dat ook zouden moeten doen. De release is onder het Apache 2.0-model en maakt dus commerciële toepassingen mogelijk. Grok was als eerste beschikbaar voor betalende klanten van X, het voormalige Twitter. De bedoeling van Musk is dat het een taalmodel is met zo min mogelijk regels rondom wat de output wel en niet mag zijn.

Door Arnoud Wokke

Redacteur Tweakers

18-03-2024 • 08:38

71

Submitter: JapyDooge

Reacties (71)

71
67
35
7
0
11
Wijzig sortering
Musk's definitie van "open source" is natuurlijk ook nogal tegenstrijdig met veel van de principes ervan, en dat zie je ook weer in deze repository. Het is gewoon een code dump (met 2500 lijnen op zich wel een kleine, maar het gaat hier om het principe) met 260 GB aan nog meer dump, en als we naar de repo van het Twitter Algorithm mogen nemen als een voorbeeld van wat de toekomst inhoud zal dit waarschijnlijk ook gewoon niet bijgehouden worden en is dit puur en alleen om eens te kunnen roepen "dat van ons is open-source" om dan geheel te negeren dat ze het een keer hebben gedumpt en nooit meer hebben bijgewerkt.

Er ontbreekt ook nogal het een en ander om het echt "Grok is open source" te noemen. Dit lijkt vooral de gewichten te zijn, maar dat is belangen na niet genoeg om een functioneel gelijkend model te maken als Grok. Het is niet reproduceerbaar, iets wat ik persoonlijk toch wel verwacht voordat we het "open source" noemen.

[Reactie gewijzigd door Loller1 op 22 juli 2024 13:40]

Een van de meest innovatieve ontwikkelingen van deze tijd zijn LLM's. Nu gooit een groot bedrijf een aardig presteren de LLM's online, voor gratis en niks, en is het alsnog niet goed.

Je kan ook denken, Musk voegt de daad bij het woord en gooit het duurste onderdeel (de weights als resultaat van een training) voor gratis en niks voor iedereen om te gebruiken online. Hij is bang dat grote partijen, zoals Google, maar ook Microsoft, of Apple of Nvidia het gaan gebruiken om nog veel machtiger te worden. Door dit online to gooien wordt het gebruik meer democratisch ipv gesloten. Dat is toch in ieder geval volgens de geest van open source?

Daar mag iemand toch wel wat credits voor krijgen.
Uhm...uh... ze zeggen toch heel erg duidelijk dat het om de gewichten gaat op hun blog:

"We are releasing the weights and architecture of our 314 billion parameter Mixture-of-Experts model, Grok-1."

Het lijkt dus niet alleen maar dat het vooral om de gewichten gaat, daar gaat het volgens de X.AI announcement vooral dus ook over. Begrijp niet helemaal waar de teleurstelling van komt.

Je zou eens kunnen kijken naar wat 'open-source' betekent. Het betekent dat de source code beschikbaar wordt gesteld om 'in te zien'. Het betekent verder niets anders. Er is nergens bepaald dat het moet 'werken', wat dat ook moge betekenen. Er is zelfs nergens bepaald dat het 'gratis' is of dat je het mag gebruiken.
Sterker nog, X.AI heeft expliciet een license eraan gekoppeld, de Apache 2.0, wat inhoudt dat jij en ik de code mogen gebruiken op praktisch iedere wenselijke manier voor praktisch iedere wenselijk doel.
Dat kan ook heel anders, bv door er licentie aan te hangen die vereist dat wanneer je het gebruikt, je jouw source code ook open-source moet maken met dezelfde licentie.
Eens. je zou dit beter gewoon het vrijgeven van de sourcecode van de huidige versie kunnen noemen.

Feit dat er ook 0 history in die repo zit zegt ook wel genoeg.
Niet alleen dat, er is geen enkele documentatie over hoe dit zou moeten draaien of wat voor hardware er nodig voor is. In de repo zijn diverse issues hiervoor aangemaakt, waar gespeculeerd wordt dat je zo'n 8 A100 kaarten nodig hebt, welke 8000 euro per stuk zijn. Dan heb je het alleen nog maar over de videokaart zelf. Zelfs al zou je het willen proberen, dan heb ik nog steeds mijn twijfels of het zo simpel gaat zijn als wat er in de README.txt staat:
pip install -r requirements.txt
python run.py
Dan draait de sample code. En dan?

[Reactie gewijzigd door kipppertje op 22 juli 2024 13:40]

Dus open source betekend een af product wat vrij te gebruiken is? Als je niet weet wat je hier verder mee aan moet is dit misschien niet voor jou bedoeld, ik kan me ook niet voorstellen dat het idee is dat particulieren hier dingen mee gaan doen.

Beetje bedrijf met inhouse development afdeling kan best wat hebben aan deze basis.
In de README.md staat wel een kopje met een torrent link naar de gewichten denk ik? Heb er verder niet naar gekeken en heb er ook niet zoveel verstand van. Maar aan je reactie klinkt het alsof je deze over het hoofd gezien hebt.
Ja, dat is de 260 GB waar ik het over heb, maar daar heb je nog steeds niet alles mee om het ook daadwerkelijk op te zetten en Grok te repliceren en is natuurlijk ook net zo goed een absurde data dump zonder enige geschiedenis.
de volledige source is er en je mag er zelfs mee doen wat je wil, hoe meer "open" wil je het nog hebben? sommige mensen zijn nooit tevreden.
Als ik een stuk software door een decompiler haal heb ik ook de "broncode", is het dan open source?

Open source betekend dat je de resources krijgt om zelf je eigen versie van de applicatie te compileren. Als je de code expres complex maakt of nodige documentatie ontbreekt is het dan nog open source? Wat ik begrijp uit de reactie van @Loller1 is dat de weights (de training van het model) ontbreekt, dat is natuurlijk logisch, want dat is waarmee ze geld gaan verdienen, het is dan alleen wel zo netjes om een example, placeholder of zelfs alleen een blanco template zodat het project gecompiled kan worden.

Ze hebben het minimale gedaan om "open source" te kunnen worden genoemd, het is duidelijk dat het niet de bedoeling is dat de communiteit hier zelf mee aan de slag gaat. (Ongetwijfeld zijn er een paar diehards die het alsnog gaan proberen.)
Je hebt de reactie van Loller1 verkeerd begrepen.

In AI is "training" het proces wat de gewichten uitrekent. Die 260 GB in de dump zijn dus de getrainde gewichten. Die zijn niet afgeleid van source code, dus "open source" is geen zinnige beschrijving. En sowieso, wie heeft de duizenden GPU's om dat model te hertrainen?

De source code die meegeleverd wordt demonstreert hoe die gewichten werken. Je mag die source code als basis gebruiken om iets functioneels daarop te bouwen. Dat deel is dus wel Open Source. Het is niet veel, 2500 regels, maar dat is niet ongebruikelijk. Een heleboel basis-functionaliteit zal wel uit andere AI Open Source libraries komen. Zoals kippertje al quote, dit project komt met een standaard "requirements.txt" (lijst met Python dependencies)
Anoniem: 532949 @MSalters18 maart 2024 16:49
helemaal mee eens, dit is niet veel anders dan hoe llama en nu googles gemma zijn vrijgegeven. Nu heeft google de zaken wel wat duidelijke gedocumenteerd met meer voorbeelden.

Repo voor een AI model word sowieso niet echt geüpdatet, dit zijn de weights en die veranderen niet meer voor deze versie.
Jij hebt de reactie van starpower hierboven gelezen?
Dit is net zo open als een NVidia videokaart driver met binaire blobs: redelijks kansloos en waardeloos. Doe dan gewoon een dump van de trainingsdata en je algoritme. Dan kan ik testen of de trainingsdata biased is. Beter training algoritmes testen om te zien of er een kleiner model met dezelfde kracht mogelijk is etc. Dit is net zo bruikbaar als de Facebook gelekte dump.
Jij hebt de hardware om een LLM van 260 GB of zelfs maar 130 GB opnieuw te trainen? Voor de meeste mensen is dat compleet onhaalbaar.
Opensourcesoftware is software waarvan de broncode vrij beschikbaar is voor iedereen, zodat deze kan worden bekeken, gewijzigd en herverdeeld. Dit is precies wat xAI heeft gedaan met Grok. De code is beschikbaar op GitHub onder de Apache 2.0-licentie, iedereen kan het gebruiken, aanpassen en distribueren, zelfs voor commerciële doeleinden. Het voldoet letterlijk aan de definitie van open source.

Waar jij naar lijkt te verwijzen is het open source model: "The open-source model is a decentralized software development model that encourages open collaboration." Dat zijn twee verschillende zaken. Daarbij doe je aannames op basis van een ander project bij een ander bedrijf. Deze aanname is echter ongefundeerd en onjuist:
"Igor Babuschkin: The Grok-1 repo is getting pretty popular. I will be responding to pull requests and issues. Feel free to contribute!"
Overall lijkt/is je comment ingegeven door gevoelens over Musk (Musk's definitie van "open source" is natuurlijk ook nogal tegenstrijdig") en je persoonlijke verwachting bij Open Source.
Met 314b params is dat niet iets wat je even op je desktop draait. Ben wel benieuwd naar benchmarks vs GPT3.5Turbo en Mistral-medium.
Dit is een Mixture-of-Experts dat bij een prompt op maar 25% van de parameters draait. Welke 25% (expert selectie) wordt gekozen op basis van uw input door de Gating Network in het model. Zo voorkomen je dat je heel het model moet draaien.

GPT4 zou ook op 16 experts draaien met elk ongeveer ~111B parameters. Dat is zeker 10x meer parameters dan GTP3.


Voorlopig veel te groot om lokaal te draaien. De vuistregel bij full precision is 4 bytes per parameter = 4Gb GPU ram per 1 miljard parameters. Als je het model wil trainen heb je 6x meer GPU ram nodig.

In dit geval zou je dus 1200Gb GPU ram nodig hebben om het model te draaien en 7200Gb om het model te trainen. Het is dus gericht op bedrijven die een serverpark hebben van minstens 15 Nvidia H100 GPU's. Ofwel 50 RTX 4090's met 24Gb per kaart om het model te draaien.
GB a.u.b., of beter nog GiB.
Kan je door je expert selectie heel heel strikt te maken het op een GTX 970 doen draaien :D ?
Ik zag al videos waarin Grok Groq werd gebruikt/gedemonstreerd (als cold-caller robot helaas) met vrijwel realtime replies (inclusief nodige voice en tts door derden).

Bron https://youtu.be/WCYf2Agml-s?si=r86zTElGRFCQakUO

Ik ben benieuwd welke hardware daarvoor nodig is.

Zelfs het onderbreken van een gesproken antwoord (zoals mensen bij mensen doen als ze onbeleefd zijn) leek mogelijk in een demonstratie, dat was ook indrukwekkend.

Update: GroQ thanks @Stukfruit

[Reactie gewijzigd door Barryke op 22 juli 2024 13:40]

Dat is Groq, van een partij die al wat jaren bezig is, en geen Grok :)

Meer over hoe dat werkt:
https://hackernoon.com/wh...unit-lpu-is-it-gpus-rival
Uiteindelijk goed dat bedrijven dit doen. Hopen dat openAI het flink te verduren krijgt. Dat verdienen ze wel na het bedriegen van hun open motto naar een gesloten en verschillende mensen en partijen hebben bedrogen.
Kleine reminder:
In late 2017, we and Elon decided the next step for the mission was to create a for-profit entity. Elon wanted majority equity, initial board control, and to be CEO. In the middle of these discussions, he withheld funding.
...
We couldn’t agree to terms on a for-profit with Elon because we felt it was against the mission for any individual to have absolute control over OpenAI. He then suggested instead merging OpenAI into Tesla. In early February 2018, Elon forwarded us an email suggesting that OpenAI should “attach to Tesla as its cash cow”
source
Maw hij kreeg z'n zin niet dus nu zijn het de boemannen.
Er is wel iets meer aan de hand. Microsoft heeft OpenAI defacto overgenomen. Door de CEO en praktisch al het personeel een arbeidscontract aan te bieden, zou bijna het hele bedrijf overstappen naar Microsoft.

Op die manier is OpenAI van een non-profit organisatie getransformeerd naar een organisatie waarbij een groepje individuen de volledige controle over OpenAI gekregen heeft.

Precies wat ze in 2017 niet wilden is daarmee in 2023 gebeurd.
Dit is wel een heel summiere samenvatting die een agenda lijkt te hebben. Je doet het overkomen alsof MS uit het niets geprobeerd heeft OpenAI over te nemen, en dat is uiteraard niet het geval.

Het begon allemaal met het ontslag van Sam Altman. de CEO van het bedrijf omdat de raad net een meer commerciele richting wenste uit te gaan. Hierop heeft een heel groot deel van het personeel gedreigd met ontslag te nemen waarop MS heeft aangeboden deze mensen in dienst te nemen mocht het zo ver komen.

Uiteindelijk heeft de raad zijn beslissing teruggedraaid en voor zover ik weet werken de meeste mensen nog altijd gewoon bij OpenAI en NIET voor Microsoft.

En als je leest wat Elon Musk in 2017 van plan was, dan was dat niet dat alle macht naar enkelingen zouden gaan, maar dat alle macht enkel naar hem zou gaan waarna hij het werk van OpenAI wilde samenvoegen met Tesla's AI werk en zo het werk commercieel zou gaan gebruiken, exclusief bij Tesla.
OpenAI made a small but noteworthy change to its website recently. On the page outlining the structure of OpenAI, Microsoft used to be listed as a minority owner. Following a change, Microsoft is now listed as having a minority economic interest. That change could prove important with several governing bodies looking into the relationship between the two companies.

The Financial Times shared an extensive breakdown of the complicated relationship between Microsoft and OpenAI recently. That relationship includes billions of dollars of investment from Microsoft, Azure being the exclusive cloud partner of OpenAI, and Microsoft having a non-voting seat on the OpenAI board.

The recent saga of OpenAI co-founder and CEO being fired by OpenAI's board, receiving an offer to lead an advanced AI division at Microsoft, and then ultimately returning to OpenAI with a restructured board only complicated things further. With many parts of the OpenAI and Microsoft relationship being confidential, there are questions around even the most obvious questions about the companies, such as does Microsoft own part of OpenAI?
OpenAI sneaks out website update, no longer lists Microsoft as minority owner
Het is toch niet zo gek dat als je groot gaat investeren in een bedrijf dat je dan veel controle wil?

Verder laat hij met deze zet te zien dat hij zijn woorden opvolgt met daden. Hij vind dat het beschikbaar moet zijn voor iedereen. Dat doet hij met deze zet.

Het lijkt wel alsof het plots hip is om kritisch te zijn op Elon.
Met gewoon de source ergens te dumpen, zeker bij dit soort projecten, ben je niet open zonder de nodige documentatie en hoewel OpenAI een commerciële model heeft ontwikkeld, publiceren ze nog steeds papers rond de techniek zodat elke bedrijf er mee aan de slag kan.
Wie hebben ze dan zo bedrogen?
Ik vind de naam ook niet passend. De schijn is er dat Microsoft toch meer te zeggen heeft dan dat de bedrijfs beginselen doen voorkomen. Commercieel gericht zijn ze in ieder geval wel.
https://twitter.com/rasbt/status/1769447841489928581

Volgens deze meneer is het minder open source dan bijvoorbeeld Pythia, Bloom of OLMo, omdat laatstgenoemden worden geleverd met code voor het trainen en meer data voor reproductie.

Grok lijkt daarmee (kort door de bocht) semi-open source te zijn.
Grok was als eerste beschikbaar voor betalende klanten van X, het voormalige Twitter. De bedoeling van Musk is dat het een taalmodel is met zo min mogelijk regels rondom wat de output wel en niet mag zijn.
Grok is alleen beschikbaar voor betalende klanten van X in de VS. Niet in Europa of elders.
Oh dat wist ik niet. Helaas nog niet in NL. Maar thx
En nu moeten wij allemaal weten wat een "mixture-of-expertmodel" is?
In de LLM space echt heel normaal begrip inmiddels, zie Oru zijn comment voor uitleg.
Meeste modellen zijn 8 experts en combineren als het ware de beste stukken van de experts waardoor het een uiteindelijk beter model is.
https://en.wikipedia.org/wiki/Master_of_Laws

gewoon even googlen

Bij afkortingen kun je makkelijk op de verkeerde uitkomen met google. Dus geef liever een normaal antwoord.

(En ja, in dit geval is het Large Language Model)

[Reactie gewijzigd door mjtdevries op 22 juli 2024 13:40]

Google gaf zelf als het juiste antwoord boven aan en jou link kwam op de 2de plaats en kwam je bij de eerste 2/3 zinnen al achter dat Master of Law hem niet ging worden in dit content. En ik vind het een vrij normaal antwoord.... moeten we echt elke afkorting gaan uitleggen tot elke letter of gaan we ook nog een beetje zelf onderzoek doen? Waarbij een beetje bron het veel beter uitlegt als een reactie.

En google LLM AI en jou link komt helemaal niet naar voren. En dat werkt met bijna alle afkortingen.

[Reactie gewijzigd door loki504 op 22 juli 2024 13:40]

De resultaten van Google zijn voor iedereen anders.

Google maakt profiles aan, en past de ranking van zoekresultaten daarop aan.
Je blijft met Google altijd in je eigen "bubbel".

Wat voor jou bovenaan staat kan voor iemand anders op pagina 50 staan en derhalve semi "onvindbaar" zijn.
Voor een deel ja. Maar als je bepaalde zoektermen gebruikt komt dat relatief op het zelfde uit bij google en andere zoekmachines gaat van LLM en AI niet ineens een interesse van jou naar boven halen en Large Language Model pas op pagina 50 zetten. En net even gekeken en zowel mijn mijn google als die van mijn vrouw en een schone google kwam de juist betekenis naar boven als ik naar LLM AI google.
Waarbij de eerste pak en beet 10 hits het zelfde waaren daarna kwam de een op pek 11 en 13 en de andere op 13 en 11 bv. Dus zo heel veel verschil zat er niet in.

[Reactie gewijzigd door loki504 op 22 juli 2024 13:40]

Ah, daar komt de schizofrenie van de LLMS vandaan als ze gaan halicuneren ;-) De inner monologue van de ene expert interfereert met de 2e expert.
De eerste testresultaten zijn binnen (bron):
Grok-1 is the highest quality open-source LLM released.

Grok's MMLU score of 73% and beats Llama 2 70B’s 68.9% and Mixtral 8x7B’s 70.6%.

With 314 billion parameters, xAI’s Grok-1 is significantly larger than today’s leading open-source model.
Verder vond ik dit een zinnig commentaar, wat er nu precies open source gemaakt is(bron):
xAI, has released the weights (parameters) and architecture (network structure) of their large language model called Grok-1. This means that the trained model and its underlying design are now publicly available.

Grok-1 is a massive language model with 314 billion parameters, making it one of the largest language models released to date. It utilizes a Mixture-of-Experts architecture, which means that only a portion (25%) of the model's weights are activated for a given input, allowing for more efficient computation.

The released version is the base model checkpoint, which was pre-trained on a vast amount of text data but not fine-tuned for any specific task, such as dialogue or language translation. This means that the model has learned general language representations but has not been specialized for a particular application.

By releasing the weights and architecture under the permissive Apache 2.0 license, xAI is allowing researchers, developers, and enthusiasts to freely use, modify, and distribute Grok-1 for their own purposes, whether commercial or non-commercial.

xAI has provided instructions on how to get started with using the model on their GitHub repository (github.com/xai-org/grok). This repository contains code and documentation to help users load and utilize the model's weights and architecture.

The release of Grok-1 is a significant contribution to the field of natural language processing (NLP) and artificial intelligence. It provides an opportunity for researchers and developers to study, experiment, and build upon one of the largest language models available, potentially leading to new insights and advancements in NLP.

The open release of Grok-1 by xAI makes the weights and architecture of their state-of-the-art language model publicly available under an open-source license, allowing for widespread experimentation, research, and development.

[Reactie gewijzigd door Gulpen op 22 juli 2024 13:40]

Waarom? Hij is nieuwswaardig genoeg, het is niet alsof dit 'niks' is he? Dit is denk ik het eerste grote AI product wat zijn broncode in zijn volledigheid (inclusief uitgevoerde training) online zet.

Misschien mag de namedropping wat minder, maar ja, dat zorgt dan wel voor clicks...
Het probleem is met Musk dat hij dit zo'n beetje iedere dag doet. Iedere dag gooit hij wel iets op twitter wat aandacht krijgt. Dat hij een van de zwakste AI's publiekelijk maakt zegt op zichzelf natuurlijk al veel, vooral vanwege dat hij sterk OpenAI zit te pushen voor hetzelfde terwijl die daar helemaal geen baat bij heeft.

Het blijft natuurlijk gissen maar ik heb sterk het vermoeden dat Musk AI sterk heeft onderschat. Tesla heeft jaren lang AutoPilot verkocht als een optie waar op termijn je auto vanzelf van A naar B kon rijden echter heden ten dagen is Tesla een achterligger als het op "autopilot" aankomt. De waarde (en ook de nodige rechtzaken die lopen) van Tesla is sterk afhankelijk of Tesla autopilot een succes weet te maken. Zou het niet zo kunnen zijn dat Musk vooral OpenAI hard ligt te pushen om zijn handen te krijgen op een model dat wel werkt, wat misschien wel ver vooruitloopt wat Tesla zelf kan?

Musk is niet iemand die niet overkomt dat hij dingen doet voor de gemeenschap maar vooral voor zichzelf. Dus als hij OpenAI al dan niet publiekelijk weet te bemachtigen wordt hij financieel daar veel beter van.
Volgens mij haal je een aantal dingen door elkaar.

ADAS hoger dan level 3 zou je AI kunnen noemen, maar zaken zoals chatGPT of Grok zijn taal modellen. Die hebben weinig overlap met iets als AutoPilot.

Ik zou ook niet weten waarin Tesla de achterligger is. Omdat een paar concurrenten op zeer specifieke wegen een label hoger hebben gekregen van de autoriteiten? Bijvoorbeeld Mercedes die je alleen in de file mag gebruiken? En dan alleen op specifieke vantevoren gemapte wegen?

Dat is niet waar Tesla voor gaat, en volgens mij snap je dat zelf ook. Een oplossing die op een veelvoud aan wegen werkt, en zelf kan mappen is natuurlijk minder snel klaar dan een oplossing die zwaar leunt op vantevoren voorgekauwde data.
Heden ten dagen doen BMW, Ford en zelfs Mercedes (in specifieke situaties) het beduidend beter dan Tesla. Sterker nog Tesla is ronduit onbetrouwbaar, als de ongelukkige eigenaar van 2 maken wij hier geen gebruik meer van. Ik sta hier niet alleen in, Tesla is super populair hier (Shanghai) maar ronduit gevaarlijk. Zelf heb ik al tweemaal meegemaakt dat m'n S geen stilstaand object op de snelweg "zag". Nu heb ik ook een Mercedes en daar zijn de ervaringen hoe rudimentair het dan ook mag zijn, beduidend beter mee. Geen objecten worden gemist, geen yanky pulls over de lijnen, gewoon beter.

En dat het misschien niet beter is in de brede zien wat Tesla op papier ambieert interesseert me toch helemaal niet? Ik heb voor iets betaald wat ik niet krijg, en de basale functie dat Tesla wel levert doet het anno 2024 ondermaats.

Dat ADAS en een LLM niet hetzelfde is snap ik, maar neemt niet weg dat de knowhow van LLM's zeker toepasbaar is voor ADAS. (En dan hebben we het nog niet over de idiote release van Musk van Grok, het is gewoon een drol op github waar niemand iets aan heeft.)
Dat komt ook door het eigenwijze gedrag van Elon/Tesla dat ogen voldoende zijn voor een mens en dus cameras voldoende moeten zijn voor hun auto. (bezuinigingsmaatregel)

Terwijl een radar veel makkelijker is om een stilstaand object op de weg te zien, waarbij een camera het lastig heeft om te interpreteren.
En aangezien Tesla's steeds fouten maakten met schaduwen op een weg (bv van een brug) hebben ze de Tesla AI verteld dat ie veel stilstaande objecten (schaduws) maar grotendeels moet negeren. En dus is ie ook slechter geworden in het herkennen van echte stilstaande objecten. (zoals een gekantelde vrachtwagen)

Zelfde dat het automatisch inparkeren van goed naar dramatisch slecht is gegaan bij Tesla.
Het is niet zozeer dat software van andere fabrikanten beter is, maar dat die wel gebruiken maken van andere sensoren om de software te ondersteunen de juiste besissingen te maken.
Zijn grootste missie is te zorgen dat de mensheid op mars kan wonen zodat we niet uitsterven als er een meteoriet op aarde inslaat en al het leven daar dood.

Je kan moeilijk beweren dat hij zich niet inzet voor de gemeenschap.
Is dit een groot AI product dan? Ik dacht dat hij vooral hopeloos achter liep op de concurrentie en misschien is dit een manier om er nog goede publiciteit uit te halen.
Grok heeft al tijden (i.t.t. ChatGPT) wél toegang realtime informatie. Hoezo loopt dat hopeloos achter op de concurrentie? Overigens vind ik in het gebruik Grok menselijker overkomen, en kan je daar een inhoudelijke discussie mee voeren. ChatGPT is zwakker in discussie en hallucineert er feiten bij, iets wat Grok veel minder doet (die geeft misschien eerder op, maar dat is dan weer beter dan random feiten verzinnen).
Het feit dat hij pas heel laat begonnen is met de ontwikkeling spreekt niet voor hem.
De eerste versies kregen ook geen lovende reviews en het leek meer een soort meme bot te worden.
Je weet toch wel dat Musk eerst bij OpenAI betrokken was?
Ja, en dat hij later toen de weg waar ze op gingen hem niet beviel is hij ook zijn eigen bedrijf begonnen.
Maar zijn eigen bot scoort een stuk slechter op de meeste benchmarks dan gpt.
Zijn ontwikkeling is ook echt pas veel later begonnen.

Zo spannend is het dus niet dat dit vrij gegeven wordt, echte state of the art is het namelijk niet.
Alleen gpt is beter ? google en de andere zijn minder goed dan Grok volgens benchmarks
Geen idee waar Google staat momenteel maar wat ik zag waren er nog anderen die boven Grok stonden.
Dit is inderdaad Tweakers zelf die dit doet.

Dit artikel krijgt een titel met Musk erin.

Terwijl het artikel daarvoor gewoon heet:
"Gerucht: Apple sluit deal met Google voor Gemini-AI in iOS 18"
En dus niet :
"Gerucht: Tim Cooks; Apple sluit deal met Google voor Gemini-AI in iOS 18"
Waarom? Joost mag het weten.

[Reactie gewijzigd door procyon op 22 juli 2024 13:40]

Dat komt denk ik deels ook omdat iedereen weet wie/wat Apple is.
Maar als je het over 'xAI' hebt dat eigenlijk niemand weet wat dat is en waar dat vandaan komt
Als je er dan 'Elon Musk-bedrijf' voor zet geeft dat best wat context, ook al klinkt het inderdaad nogal clickbaiterig (2x woordwaarde)
Exact, context, wanneer nodig, kan je geven in het artikel zelf. Niet in de titel.

Dit doelbewuste noemen van het triggerwoord "Musk", motiveert mensen met "een" standpunt over Musk om het artikel te lezen, in de hoop nieuwe redenen voor verontwaardiging te vinden in het artikel.

Sommigen aarzelen niet om in de commentaren hun mening over deze persoon (opnieuw) uiteen te zetten en oude kwesties aan te halen om hun standpunt te versterken.

Wordt er meestal niet gezelliger op, maar inderdaad alles voor de omzet (clicks)

[Reactie gewijzigd door procyon op 22 juli 2024 13:40]

Wat jij zegt is dat controversiele punten in een titel deze meer 'pakkend' maken maar dat dit als nadeel heeft dat dan ook mensen 'meekomen' - die enkel op het controversiele punt willen reageren.
Maar dat is feitelijk gewoon een voortvloeisel van 'probeer het zo te vertellen dat het niet saai is'.....

Ik bang dat dit niet anders is en met de enorme overvloed aan 'nieuws' van tegenwoordig is het handig dat een artikel-titel wat meer zegt. Ook al leidt dat soms tot click-bait. Dit is dus geen click-bait want de referentie naar Musk is terecht.
DPG is een commercieel bedrijf dus die moeten het hebben van zoveel mogelijk clicks. Daar kan je van alles van vinden, maar het andere inkomstenmodel wat een tijdje geleden werd geprobeerd werd niet het succes wat nodig is voor een alternatieve inkomstenbron.. Dus dan moet men toch weer terugvallen op advertentieinkomsten. En aangezien er iedere maand 75 salarissen (dat is al minstens 6 miljoen euro per jaar) moeten worden betaald wil je zoveel mogelijk advertenties tonen.
Anoniem: 80910 @procyon18 maart 2024 10:15
Omdat er ook een link in nu.nl zit na dit artikel.
Wat valt er dan op allemaal?
Je doet een bewering maar echt duidelijk is die niet.
de hoeveelheid is minder geworden(!) half jaar terug was een scheet van Musk al op tweakers te ruiken voordat hij m gelaten had. Die nieuwsstroom is duidelijk minder geworden.

Op dit item kan niet meer gereageerd worden.