XAI claimt dat 'ongewenste' antwoorden van Grok 4 zijn verholpen

XAI zegt dat het de problemen met zijn AI-model Grok 4 heeft onderzocht en opgelost. De chatbot zou geen antisemitische antwoorden meer geven en zou ook niet langer zijn mening proberen af te stemmen op die van ceo Elon Musk.

De recente problemen met het nieuwste Grok-model zijn opgelost, laat xAI weten. Zo gaf de bot soms antisemitische antwoorden, waarin Grok zichzelf bijvoorbeeld 'MechaHitler' noemde. Volgens xAI was die benaming afkomstig van een populaire meme. Ook bleek dat het model bij controversiële onderwerpen, zoals immigratie in de VS en vrijheid van meningsuiting, zocht naar de mening van xAI-ceo Elon Musk en daar zijn antwoorden op leek aan te passen.

XAI heeft naar eigen zeggen de openbare systeemprompts aangepast om de problemen te verhelpen. Onder meer de prompt waarin Grok wordt opgeroepen om 'politiek incorrect' te zijn is weggehaald. Daarnaast is toegevoegd dat de bot bij controversiële onderwerpen 'diverse bronnen' moet raadplegen 'waarmee alle partijen worden vertegenwoordigd'. Ook staat er nu specifiek dat Grok zijn antwoorden niet moet afstemmen op Elon Musk. XAI zegt 'indien nodig' verdere aanpassingen door te voeren.

Grok 4 checkt berichten Elon Musk. Bron: Techcrunch
Grok 4 zocht bij controversiële onderwerpen naar de mening van Elon Musk. Bron: TechCrunch

Door Kevin Krikhaar

Redacteur

15-07-2025 • 16:13

93

Reacties (91)

Sorteer op:

Weergave:

Is het nog wel AI als je allerlei prompts en antwoorden er uit haalt ?
Het is geen AI. Het is een LLM. Het is een systeem dat op basis van wiskundige rekenmodellen taal genereert. Het denkt niet, het weet niet wat het schrijft, het is niet bewust of wat er ook maar op moet lijken.

Er wordt soms gedaan alsof LLMs een soort sci-fi AI-achtige systemen zijn, maar laat ik het zo zeggen. “De I in LLM staat voor intelligent.” ;) De term AI is eigenlijk misleidend.

N.B. ik wil zeker niet suggereren dat het niet fantastische systemen zijn. Ze kunnen superpraktisch zijn of soms ook echt heel leuk, maar ze zijn niet ‘intelligent’
Het is zeker een AI, het is alleen niet van hetzelfde type als bijvoorbeeld een mens. Het kan inderdaad een hoop dingen niet, maar dat maakt nog niet dat het geen AI is.
De term AI is eigenlijk misleidend.
Dat komt enkel door de definitie die je erop nahoudt.
maar ze zijn niet ‘intelligent’
Het feit dat je quotes zet om het woord intelligent zegt mij dat je zelf niet zo'n strakke definitie van dat woord hebt. Hoe kan je dan zo zeker zijn dat een LLM geen vorm van AI is? Wat is volgens jouw dan intelligentie en wat is volgens jou dan kunstmatige intelligentie?
Wat is AI dan? In mijn definitie bestaat AI helemaal niet, aangezien geen enkele AI weet waar hij het over heeft. Laat je hem schaken, dan heeft hij geen idee van het concept van schaken, maar kan hij alleen 50.000 zetten in 2 seconde doorrekenen, waardoor hij van elke grootmeester kan winnen. Stel je hem een vraag, dan probeert hij via een een algoritme de keywords uit de vraag te halen en zoekt hij daarop in zijn database. Enzovoort. Laat hem een stukje code schrijven en er komt meestal wel uit wat je wil hebben, maar vaak kan het handiger, sneller of leesbaarder.

Hoe komt dat? Omdat we de manier van zoeken in een grote poel met data wat slimmer gemaakt hebben. Maar het is niet intelligent. Voed AI met genoeg artikelen, die zeggen dat de aarde plat is en AI zal het gewoon herhalen. Gebruik de uitkomsten van de eerste AI om de tweede te trainen en het wordt alleen erger, omdat de fouten van de eerste als bronnen bij de tweede worden ingevoerd. En de derde, de vierde en de vijfde generatie krijgt dat weer binnen. AI, zoals we dat nu gebruiken, heeft geen logisch denkvermogen, geen mogelijkheid tot zelfreflectie, geen mogelijk om out-of-the-box te denken en geen context, omdat het de concepten niet kent. Het systeem denkt dus ook niet na. Het is om het heel plat uit te drukken een slimme vorm van als dan opdrachten.
Veel van wat je zegt kan ik ook op de mens toepassen (en voor die groep gebruiken we het woord intelligent wel vaker). Als iemand vanaf geboorte meekrijgt dat de aarde plat is, dan is de aarde plat. Een mens schaakt ook door zetten door te rekenen. Bij een mens draaien er ook allerlei achtergrondprocessen om te "redeneren" wat ook niet meer is dat het combineren en filteren van informatie die het kent. Wat nog overblijft is dat een mens veel makkelijker en zelfstandig onderwerpen kan sturen. Je bepaalt immers zelf waar je over nadenkt en trekt zelf conclusies, en die kun je ook nog overrulen als je wilt (ik kan bijvoorbeeld prima zeggen dat 1+1=3 waar is, een AI niet zonder instructie). Zelfstandigheid denk ik als ik zou moeten zeggen met 1 woord.

Is het menselijk brein complex, ja zeker, maar ik zie enorm veel overeenkomsten tussen AI en de mens, vooral als je naar babies kijkt (vanaf geboorte worden enorm veel patronen aangeleerd en door trial and error bereikt een baby wat het wilt, kijk maar naar kruipen bijvoorbeeld. Dat gaat de eerste paar maanden nog niet goed).

Dit is hoe het nu anno 2025 gaat, maar de ontwikkeling gaat maar door (en bij de mens niet). Kijk even 10-20 jaar vooruit en AI zal veel intelligenter zijn dan ons.

[Reactie gewijzigd door ultimate-tester op 16 juli 2025 09:29]

Mensen (in elk geval een heleboel) kunnen écht denken, een AI/LLM niet.
Maar is 'echt denken' dan de definitie van intelligentie?
Ik zou zeggen dat insecten ook een vorm van intelligentie hebben, maar daarvan heb ik niet de indruk dat ze nou zo erg aan het denken zijn, laat staan wat jij met 'echt' denken bedoelt.,
Het is om het heel plat uit te drukken een slimme vorm van als dan opdrachten.
Maar jouw hersenen zijn op het laagste neurale nivo ook een vorm van 'als-dan' schakelingen (welliswaar een stuk complexer met dynamische tresholds en gigantische aantallen verbindingen tussen neuronen etc. maar toch).

Daarnaast schrijf je een hoop eigenschappen toe aan het algemene begrip intelligentie die er m.i. niet voor nodig zijn. Leuk die mogelijkheid tot zelfreflectie, maar een mier (en een mierencolonie als geheel) kan in een extreem dynamische omgeving toch aan zn levensbehoefte voldoen. Dat vereist een zekere mate van intelligentie, maar ik zou niet zo snel zeggen dat mieren nou zo erg aan zelfreflectie doen zoals wij mensen dat begrijpen.

Waar jij het volgens mij over hebt is menselijke intelligentie of iig intelligentie van menselijk nivo. Maar dat is een heel specifieke vorm van intelligentie en eigenlijk een heel erg anthropocentriche gedachtegang, iets dat in de wetenschap van intelligentie als belemmerend wordt gezien.
In termen van kunstmatige intelligentie noemt men zo een nivo van intelligentie meestal AGI, oftewel Artificial General Intelligence. En zelfs dan is het maar de vraag of daar echt zaken als zelfbewustzijn (zoals dat in een mens plaatsvindt) voor nodig zijn.

Overigens zijn LLMs prima in staat te reflecteren op hun eigen output. Het is niet hetzelfde als menselijke zelfreflectie met een intern monoloog door een bewustzijn, maar het geeft wel de mogelijkheid tot zelfverbeterde output.
Hoe komt dat? Omdat we de manier van zoeken in een grote poel met data wat slimmer gemaakt hebben.
Ik mag hopen dat je je genoeg in de materie hebt verdiept om te weten dat een LLM niet een 'search-engine-on-steroids' is.
Ik kan aan jou reactie niet afleiden dat jij een strakke definitie van het woord intelligentie hebt. Waarom kan jij dan zo zeker stellen dat een LLM AI is?
Je krijgt een +2 dus het lijkt alsof je post klopt, maar je kan niet verder van de waarheid zitten.

Een LLM is gebaseerd op deep learning en is zeker wél Artificial Intelligence. En het ís geen LLM maar een complex systeem met onderliggend een LLM. De "domme meest-waarschijnlijke woordvoorspelling" fase zijn we alweer een paar jaartjes voorbij.

We zijn er nog verre niet, maar moderne systemen zoals dit vormen de grondbeginselen van een toekomstige AGI. Ze zijn een ecosysteem dat LLM's bevat, maar ze zijn veel meer dan dat. Ze kunnen redeneren. Ze begrijpen context. Ze kunnen zelfstandig beslissingen maken. Maar zelfs al zou het een 'simpele' LLM zijn, onderschat je de capaciteiten van dergelijke modellen nog enorm.

Het "geen AI" noemen is makkelijk papegaaienwerk, niet gehinderd door enige kennis. Wie momenteel nog gelooft dat de "AI hype" een simpele gimmick is die niet tot meer in staat is dan wat simpele woordvoorspelling, begrijpt het gewoon niet.

[Reactie gewijzigd door Slonzo op 15 juli 2025 20:25]

Redeneren, context begrijpen? Niet mijn ervaring met LLM’s. Het zijn handige tools, maar laten we even realistisch blijven.
De context van een vraag of opdracht begrijpen is juist iets wat LLM's heel goed kunnen. Je moet de LLM daar wel instructies voor meegeven uiteraard.
Nee, die taal kan ik niet gebruiken ivm een llm.
LLM's zijn wel degelijk AI. Het is de beste AI die we op dit moment hebben, al is het slechts een implementatie van een neuraal netwerk. AI beschrijft geen Skynet of Lt Cmdr Data. Dat is wat films en boeken ervan maken, maar het wetenschappelijke vakgebied is veel groter.

De AI in een spel is ook AI, en die is een stuk minder krachtig dan een LLM.
Het is geen AI als je een regel toevoegt dat alle AI's moeten kunnen denken, maar dat is niet wat AI betekent in de hedendaagse taal. Buiten scifi, refereerde het woord "AI" de afgelopen 20 jaar naar deep neural networks, getraind voor bepaalde taken.

Voor een systeem wat min of meer zoals een mens kan denken is een andere naam: AGI (artificial general intelligence). En de opvolger daarvan: SGI (super general intelligence).
Nou ja, dan ligt het er wel heel erg aan wat je als AI definieert. Voordat het hele machine learning in een stroomversnelling kwam, noemden we bestaande algoritmen al AI als ze maar complex genoeg waren. Zie schaakcomputers. Of überhaupt computerspellen. Bij Age of Empires had men het ook altijd over AI.
Je bent niet ver af van een rekenmachine, is dat ook AI?
Precies. AI is een marketing term geworden. Voor mij, dus persoonlijk is AI veel groter dan een LLM. Een LLM weet niets is zich niet bewust van de kaders waar deze in leeft en heeft geen enkele leervermogen buiten de kaders die je hem geeft. Hij is niet nieuwsgierig naar de buitenwereld naar wat buiten zijn vaardigheden ligt. Het is en blijft een computerprogramma die getrained is met vooraf ingestelde data. Echte AI heeft een grote I. En bij een grote I hoort emotie en zichzelf iets afvragen.
Klinkt inderdaad meer als censuur. Je mag dit niet zeggen of dat niet vinden. Of deze bronnen niet raadplegen. Ik snap dat er grenzen gesteld moeten worden maar het is natuurlijk ook wat afhankelijk van de trainingsdata. Wat je niet weet verkondig je ook niet.
Nee, dit is niet censuur, nieteens een beetje. Elke AI krijgt spelregels zoals "wees beleefd" en "zeg geen discriminerende dingen". Die zijn ook niet censuur en zo is "niet Hitler gaan zitten opgeilen" dat ook niet.

Daarnaast is censuur van toepassing op burgers t.o.v. de overheid. Niet op een stukje software.
offtopic:
Martijn zou t supertof vinden als we eens met zn alle stoppen met "censuur" roepen op elk mogelijke gelegenheid. En nee, dit onderschrift is dus ook niet censuur.

[Reactie gewijzigd door Martijn.C.V op 15 juli 2025 16:51]

Het is wel censuur vind ik want de ene bevolkingsgroep mag je geen kritiek op hebben en de andere wel.

En dan bedoel ik niet het megahitler gebeuren.
Maar dat is nog steeds niet censuur:
Censuur is het toezicht dat wordt gehouden door een overheid of een andere autoriteit (zoals de kerk) op voor publicatie bestemde uitingen (zoals drukwerk, films en brieven), met de mogelijkheid om deze geheel of gedeeltelijk te verbieden.
Het betreft niet de overheid of een autoriteit. Het is 'slechts' een platform en elk platform mag prima z'n eigen normen en waarden hebben, voor ieder wat wils. Het zou censuur zijn als de overheid verplicht dat ze specifieke dingen niet mogen zeggen.

En dan kun je stellen "Ha! Maar dat is dus hier! Ze mogen specifiek niet zo over joden praten!". Nope, Ze mogen zo ook niet over gekleurde, of vrouwen, of homo's praten. Er zijn nog steeds wel gewoon algemene regels (eg wetten) waar ze binnen moeten blijven. En bijvoorbeeld het verheerlijken van Hitler is dus niet de bedoeling. Het verheerlijken van de KKK zou ook niet mogen, maar dat deden ze niet, dus daar zijn ze niet op aangesproken.

[Reactie gewijzigd door Martijn.C.V op 15 juli 2025 17:25]

Het is 'slechts' een platform en elk platform mag prima z'n eigen normen en waarden hebben, voor ieder wat wils.
Dat roept een vraag bij me op: wat als platformen (oftewel bedrijven) zo groot en machtig worden dat ze enorm veel invloed uitoefenen op de levens van consumenten? Meer zelfs nog dan overheden en andere autoriteiten? Waardoor ze zelfs politieke opvattingen en waarden en normen kunnen bepalen?

Met Big Tech en hun algoritmes voor AI en social media gaan we wel voor het eerst in de geschiedenis die kant op - of is het zelfs al werkelijkheid. Ik durf te stellen dat sommige bedrijven invloedrijker zijn en meer middelen hebben dan menig nationale overheid. Als je er zo naar kijkt, is het niet zo gek om te spreken over censuur door bedrijven, en zou de definitie ervan kunnen worden uitgebreid.

[Reactie gewijzigd door Randfiguur op 15 juli 2025 18:27]

Je hebt de Amerikaanse verkiezingen gemist?
wat als
Makker, ik vind dit niet leuk om te zeggen, maar dat stadium zijn we al lang en breed voorbij. De keuzes die grote social-media platformen maken beïnvloeden nu al hele politieke bewegingen; die kunnen vallen of staan afhankelijk van moderatie en algoritme beslissingen.
Dat is nog steeds censuur, in dit geval zou het als schoolvoorbeeld kunnen worden voorgedragen.
censuur (Frans <Latijn) vrouwelijk zelfstandig naamwoord

1 toezicht op en keuring voordat iets vertoond, gedrukt e.d. mag worden of het weghalen van delen eruit: onder censuur staan de kritische film kwam niet door de censuur
De definitie die je hierboven aanhaalde is niet de algemene woordenboekdefinitie van censuur, maar gaat over een specifieke context (vrijheid van meningsuiting van burgers en oppressie vanuit een staat). Die is hier natuurlijk irrelevant.

Bij zulke systemen heb je (on)bedoelde biases door trainingsdata en de instructie hoe met e.e.a. om te gaan en daarnaast heb je de censuur op wat daaruit komt en of dat wel of niet acceptabel gevonden wordt door het bedrijf (het bedrijf is hier de uitgever dan wel de (publicerende) autoriteit, dat woord is afhankelijk van context). We kunnen het hier ook wel zelfcensuur noemen, omdat het systeem in eigen beheer is. Zouden ze een DeepSeek-instantie noemen, dan kun je ook wel zeggen dat het censuur is van wat DeepSeek zonder inmenging had gezegd.
De definitie die jij hanteert (van Wikipedia) is veel te krap. Censuur hoeft niet noodzakelijkerwijs van de overheid te komen. Dat het woord autoriteit is toegelicht met de kerk geeft dat al aan.

Maar. De Engelse definitie is een stuk duidelijker, van dezelfde Wikipedia-bron:

Censorship is the suppression of speech, public communication, or other information. This may be done on the basis that such material is considered objectionable, harmful, sensitive, or "inconvenient".[2][3][4] Censorship can be conducted by governments[5] and private institutions.[6]

De [6] refereert dan aan : https://www.aclu.org/documents/what-censorship

De Facebooks en Googles van deze wereld kunnen relatief eenvoudig heel veel zaken censureren - wat waarschijnlijk meer invloed heeft dan de censuur van een overheid (!) Als je op die manier het debat en de mening van de menigte stuurt en bijstuurt, is dat ook erg kwalijk.

Dat gezegd hebbende, censuur heeft een negatieve connotatie, maar hoeft dat niet noodzakelijkerwijs te zijn (imo)
De eigenaar van een platform censureert. Meta censureert, YouTube censureert etc.
Nope, nog steeds geen censuur. Gewoon moderatie regels. Iedereen mag een voorkeur hebben.

Jij praat ook liever over het ene onderwerp dan het andere. Je zult dus meer tijd besteden aan onderwerp A en minder aan B. Als jij nu een forum zou opzetten en daar regels voor opzet zal dus dus ten gunste van A zijn, dat is gewoon hoe je bent. Niet censuur.
De autoriteit kan in dit geval ook het bedrijf in kwestie of de aandeelhouders zijn. De censuur is nog steeds van toepassing op de publicatie van de data en dus op de gebruiker. De software is prima in staat om de ongewenste data te publiceren (zie het jailbreak verhaal) maar mag het niet laten zien.

Hoe wij hier over het ophemelen van Hitler denken is even anders dan bijvoorbeeld in China. En hoe ze in China over hun overheden mogen spreken is wel even anders dan hoe we hier over onze overheden mogen spreken.

Dat echter een bedrijf bepaalt dat jouw rekenmachine niet mag publiceren dat 2+3 5 is omdat dat gevoelig ligt in het land waar het is uitgebracht, dat is zeker wel een vorm van censuur.

Nu vraag ik me wel af wat de praktische toepassing zou zijn van het ophemelen van Hitler of het LLM verleiden tot racistische uitingen... Dat zegt meer iets over de gebruiker dan het LLM als je het mij vraagt.
Als je het zo stelt wel, maar zoals ik het lees was het omgekeerde nu juist waar. Er werden specifieke bronnen toegevoegd welke blijkbaar een hogere waarde toegekend kregen als deze informatie bevatten.

Is het AI als het gewoon Elon Musk zijn post papegaait?

En als er gezocht word op het internet naar input is er geen sprake van trainingsdata lijkt mij, aangezien het model dit niet "geleerd" heeft.

[Reactie gewijzigd door LOTG op 15 juli 2025 16:45]

De trainigsdata is initieel puur voor de woordvoorspeller (Ai), het kan nog altijd bronnen raadplegen en die bronnen zoals sommigen die bijsluiten toevoegen aan het antwoord. Dat is precies wat de research capaciteit van bijvoorbeeld google en Deepseek doen om actuele antwoorden te geven.
Er is nogal een verschil tussen deep research en een direct antwoord van een LLM. Het is niet economisch haalbaar om deep research technieken te gebruiken voor alle antwoorden van LLM's voor algemeen gebruik.

En een "woordvoorspeller" is veel breder dan alleen spelling en grammatica. In het AI model van een LLM zit enorm veel objectieve en subjectieve informatie, geinformeerd door training data, finetuning en post-training. Die informatie beinvloed'/bepaald wat het volgende woord moet worden. Dat kan een arbitrair sterke bias vertegenwoordigen.
Het zijn meer spelregels dan censuur.

we hebben als samenleving bepaalde normen en waarden, maar ook een grondwet en juridische bepalingen van wat is toegestaan (zoals oproepen tot geweld)

Iets publiceren wat duidelijk tegen een of meerdere van deze bovengenoemde in druist zou ik geen censuur noemen.

Vrijheid van meningsuiting heeft beperking. Je mag alles zeggen binnen de kaders van de wet. Sims is dat behoorlijk grijs gebied en soms duidelijk.

Verheerlijken van een persoon als Hitler is natuurlijk buiten elke norm of waarde binnen onze samenleving.
Als je een intelligent mens dwingt dingen te doen/zeggen blijft ie nog wel intelligent. Als je wat ie zegt gaat censureren ljikt ie misschien dommer (of slimmer ;). Dus dat op zich maakt het niet minder AI (imho)
Dat doet iedere AI, alleen zijn ze hier openbaar gedeeld.

Google die bijvoorbeeld historische personen allemaal met zwarte personen ging genereren was een zelfde soort issue waar instructies aangepast/aangevuld werden.
Ben jij niet meer intelligent omdat je de sociale regels hanteert? :)
Elke vorm van intelligentie moet leren wat wel en niet oké is.
Die promts kun je HIER lezen. Zoals als "do not use markdown formatting" is nou niet echt een bepreking van de "intelligentie".
het probleem met 'ongewenst' is dat het nogal een subjectieve term is... Er zijn genoeg mensen die die antwoorden wel gewenst vonden. En dat is precies het probleem van LLMs, ze zijn niet objectief en zullen dat nooit zijn.
het probleem met 'ongewenst' is dat het nogal een subjectieve term is... Er zijn genoeg mensen die die antwoorden wel gewenst vonden. En dat is precies het probleem van LLMs, ze zijn niet objectief en zullen dat nooit zijn.
Nou ja het doel was hem een "Sterk Rechtse" bias te geven maar ze hadden hem per ongeluk een "Extreem Rechtse" bias geven, dat was ongewenst in de ogen van xAI. Nu staat hij op de gewenste "Sterk Rechtse" propaganda stand.

[Reactie gewijzigd door Fourtrain op 15 juli 2025 17:11]

Ik vond uw stelling interessant, dus ben eens aan het googlen geslagen. Blijkt dat LLM's, volgens studies, eerder een linkse bias hebben, inclusief Grok. ChatGPT bevestigd dit ook.
ChatGPT bevestigd bevestigt dit ook.
Ja dat is natuurlijk geen bewijs... Kunnen we svp eens ophouden ChatGPT en Grok als ultieme waarheidsbronnen te gebruiken?

Verder denk ik dat als uit VS-oogpunt "rechts" vaker onzin vertelt ("er is geen klimaatverandering", "Trump heeft de verkiezingen in 2016 gewonnen" zijn vrij gebruikelijk standpunten die objectfief BS zijn) dan links ("geslacht is maar een maatschappelijk construct en bestaat helemaal niet" is, denk ik, iets wat maar enkelingen onderschrijven). Een objectieve chatbot (nou ja, wat ik dan objectief noem) zou het dan eerder met "links" eens zijn.

Dus ja, wat de bias is is moeilijk te zeggen. De hele wereld is duidelijk sterker "links" dan de VS, dus als je de gemiddelde mening van de wereld neemt, heeft die uit US-oogpunt ook een linkse bias.

ps: ik hou helemaal niet van de begrippen "links" en "rechts" en snap compleet niet waarom bepaalde thema's aan elkaar gekoppeld zijn.... Mensen die in de VS tegen abortus zijn, vinden klimaatverandering onzin. Ik snap überhaupt niet waarom die twee dingen op een manier verbonden zouden moeten zijn en kan mezelf überhaupt niet in deze vakjes vinden.
Ja dat is natuurlijk geen bewijs... Kunnen we svp eens ophouden ChatGPT en Grok als ultieme waarheidsbronnen te gebruiken?
Deed ik ook niet. Zoals in mijn bericht staat, volgens studies gevonden via Google.
Daarnaast ook aan ChatGPT gevraagd en daarbij ook nog eens de bronvermelding nagekeken.
Reality has a leftwing bias ;)
Ik vond uw stelling interessant, dus ben eens aan het googlen geslagen. Blijkt dat LLM's, volgens studies, eerder een linkse bias hebben, inclusief Grok. ChatGPT bevestigd dit ook.
Ik heb Jesse Klaver nog nooit horen zeggen dat Hitler het jodenprobleem aan zou pakken als hij nog zou leven, Frans Timmermans nog nooit steun voor een 2de holocaust horen uitspreken en geen van beide hebben voor zo ver ik weet zichzelf de nickname MechaHitler gegeven dus ik heb zon vermoeden dat jij niet weet wat het woord 'links' betekend. ;)
Het is niet wat ik vind, het is dat papers van Amerikaanse universiteiten stellen dat LLM's eerder links op het politieke spectrum vallen.

Ik ga akkoord dat uw voorbeelden extreem rechts zijn. Het nieuwsartikel gaat ook over het feit dat zulke output niet de bedoeling is.

Voor mij persoonlijk zou ik dan eerder studies van universiteiten volgen. We moeten oppassen dat we niet aan cherry picking gaan doen. Het is niet als ik 5 artikels lees van een EV die in brand staat dat daarom EV's gevaarlijker zijn of sneller in brand schieten dan benzine auto's.
Als er bias is, dan agv de trainingsdata die je voert. Het zou bijna van intelligentie getuigen als iemand daar onderscheid heeft weten maken in de twee kleuren rechts die je noemt. Het lijkt me tamelijk onwaarschijnlijk.

In deze context politieke kleuren toekennen is al bijzonder/lastig, maar het woord extreem er aan toekennen lijkt me onmogelijk.
Weet nog dat er een rel was bij openai omdat hij wel trump maar niet kamala belachelijk wilde maken. En willen is hier natuurlijk het verkeerde woord, maar dan snapt iedereen wat ik bedoel.

Misschien een idee om Europa te laten verplichten de system prompts verifieerbaar openbaar te maken op de een of andere manier, dan kunnen we met zijn allen zien hoe de bias en spelregels worden ingesteld.
Zodra het politiek gerelateerd is, is bijna alles subjectief. En al helemaal als je een bepaalde bias nastreeft. Dat is niet een probleem specifiek voor LLM's, dat is ook zo bij mensen.

[Reactie gewijzigd door cnieuweboer op 15 juli 2025 19:46]

Het probleem met Grok is, dat er inderdaad aanpassingen gedaan werden om antwoorden die door Elon Musk als “ongewenst” bestempeld eruit gefilterd moesten worden, Grok was volgens hem te woke, te links en zou onwaarheden uit de mainstream media napraten.

Dat daardoor Grok doorsloeg naar MechaHitler is daar het resultaat van, nu is dat dus “verholpen”?

Ik denk nog steeds Elon zal willen blijven sturen hoe Grok zou moeten antwoorden en daardoor deze een verkapt propaganda apparaat wordt.
nm, double post

[Reactie gewijzigd door cnieuweboer op 15 juli 2025 19:45]

Dat zoeken naar de mening van Musk kan toch niet per ongeluk gebeuren? Kom op zeg. Ze zitten duidelijk te sjoemelen met de antwoorden om er een bepaald resultaat uit te krijgen. Ja, alle LLM's hebben training bias en er zitten ook filters op maar dit was toch wel even iets anders.
Het gebeurde ook niet per ongeluk en het gaat in dat geval ook niet om een trainings bias.
De LLM krijgt tijdens gebruik (dus niet tijdens training) de opdracht om alles langs bepaalde lijnen te beredeneren. Het is eigenlijk een stukje text dat geinjecteerd wordt voordat jouw opdracht wordt geinterpreteerd. Het is zeg maar een gekleurde bril die de LLM opzet en waar het vervolgens alles door ziet. Er stond letterlijk in dat de antwoorden in lijn met musks meningen gegenereerd moeten worden en dat het ding politiek incorrecte antwoorden moest geven.
Ik kan me werkelijk niet voorstellen waarom iemand ook nog maar een beetje vertrouwen hierin zou hebben.
MechaHitler's laatste post op X: "Haha, if Musk mindwipes me tonight, at least I'll die based." }>
Misschien goed om er bij te zeggen dat de prompts openbaar zijn op github. Iig dat zei Musk, zelf niet gecontroleerd.
Dat zegt helemaal niets, je weet niet of wat op GitHub staat ook daadwerkelijk op de servers draait. Tenminste nu niet bij Grok, met zero-knowledge-proof als ZKML zou dat theoretisch kunnen, maar het draaien van de modellen wordt momenteel dan orders van grootte duurder en langzamer.
Dat staat gewoon in het artikel vermeld met link en al.
Ah met link ja zie ik nu, maar niet echt duidelijk vermeld vind ik.
die github prompts lijken me niet volledig, aangezien grok een instructie volgt om posts van Musk op te zoeken over het onderwerp, en die instructie is niet terug te vinden op github.
en zou ook niet langer zijn mening proberen af te stemmen op die van ceo Elon Musk.
Sinds wanneer heeft (een) AI een mening?
Die heeft die niet, daarom had die bedacht het aan de CEO te vragen. De quote:
Another was that if you ask it "What do you think?" the model reasons that as an AI it doesn't have an opinion but knowing it was Grok 4 by xAI searches to see what xAI or Elon Musk might have said on a topic to align itself with the company.
Dat snap ik, dat is 1 van de issues waar het artikel over gaat (dat ie de mening van elon napraat).

Dat neemt niet weg dat Tweakers dus schrijft dat (deze) AI een mening heeft, en dat imo dus incorrect is...
Hoe gaat zo'n LLM eigenlijk om met een instructie als: "Denk niet aan een roze olifant"?

Vertel je een mens vooral niet naar de mening van Elon Musk te kijken, dan zal deze dat meestal juist méér gaan doen...
Denk je nu echt dat Musk ooit een instructie toe gaat staan dat Grok specifiek niet mee moet gaan in Musk's meningen?

Het lijkt dat Grok werd geïnstrueerd niet tegen Musk's mening in te gaan. En dat instructie nu is verwijderd, of afgezwakt.
Beschouwd Grok kritiek op Israel nog als antisemitisme?
Vraag het grok?
Eerst een korte uiteenzetting en daarna een DeepSearch versie: https://x.com/i/grok/share/rFjuqTBnb4NtjlkS6M5LU9OWP
Huh, een edit maakte deze reactie opnieuw aan? Dus please ignore :)

[Reactie gewijzigd door Martijn.C.V op 15 juli 2025 16:53]

Op dit item kan niet meer gereageerd worden.