Grok 4 van xAI zoekt bij controversiële onderwerpen naar mening van Elon Musk

Grok 4, het nieuwe AI-model van xAI, zoekt bij controversiële onderwerpen naar de mening van oprichter Elon Musk en past vermoedelijk de antwoorden daarop aan. Musk vond Grok afgelopen tijd te progressief.

Onder meer TechCrunch zag in de chain-of-thought van antwoorden van Grok 4 terug dat het model zocht naar meningen van oprichter Elon Musk over controversiële onderwerpen zoals immigratie in de VS en vrijheid van meningsuiting. Die meningen zoekt het model in recente posts op X van Musk. Vervolgens lijkt Grok de antwoorden aan te passen op wat de oprichter vindt.

Hoewel een chain-of-thought niet precies weergeeft hoe een AI-model tot antwoorden komt, is het vaak wel een goede indicatie van wat er gebeurt bij het redeneren. Bovendien komt het zoeken naar berichten van Musk vaak terug en bij veel gebruikers, waardoor het voor de hand ligt dat de ontwikkelaars dit hebben ingebouwd.

Dat komt wellicht omdat Musk de afgelopen tijd vond dat het AI-model van zijn eigen bedrijf te progressieve antwoorden gaf. Toen xAI bij Grok 3 de regels voor antwoorden versoepelde, gaf de bot antisemitische antwoorden. Vervolgens zette X tekstantwoorden uit en genereerde Grok alleen nog afbeeldingen.

Grok 4 checkt berichten Elon Musk. Bron: TechcrunchGrok 4 checkt berichten Elon Musk. Bron: Techcrunch

Door Arnoud Wokke

Redacteur Tweakers

12-07-2025 • 11:44

197

Reacties (189)

Sorteer op:

Weergave:

Don't get me wrong dat grok dit soort "gedrag" vertoont is natuurlijk belachelijk, maar ik kom steeds meer tegen dat mensen over LLM's praten alsof ze aan "echt denken" (whatever that may be) doen. Het is en blijft gewoon word prediction on steriods. Dat zogenaamde "chain of thought" is ook weer gewoon een reeks "aan elkaar geplakte" woorden. Dat wilt niet zeggen dat het niet mogelijk is om de resultaten die de ai genereerd te beinvloeden, in tegendeel, al is het maar door het select filteren van data in de trainingsstappen.

Ik ga er vanuit dat elke ai een bias de ene of de andere kant op heeft, onze wereld is gepolariseerd en wordt steeds gepolariseerder, het internet is gepolariseerd en de data die tijdens de training aan een LLM "gevoed" wordt is dat per definitie dus ook.

Ik denk dat het juist daarom zo belangrijk is om te blijven inzien dat een Ai niet "zelf denkt", maar dat het de woorden uitkraamt waarop het getraint is al naar gelang wat anderen zoal hebben uitgekraamt. Daarmee genereerd een LLM (hoe "slim" ook) altijd alleen maar een echo van wat anderen al eens voorgekauwd hebben.

Een LLM is per definitie bevooroordeeld; het kan immers niet zelf de wereld onderzoeken en tot andere conclusies komen.

Een voor- oordeel heeft een LLM altijd want het moet oordelen welke woorden het kiezen gaat op basis van de data waarin andere mensen vantevoren hun oordeel al hebben vastgelegd.

Bovendien wordt een Ai allerlei data gevoerd die irrelevant is voor het uiteindelijke antwoord, dat maakt het moeilijk om te achterhalen hoe een ai tot een (bij gebrek aan een beter woord) conclusie is gekomen.
Denk bijvoorbeeld aan COMPAS het ai systeem dat in Amerika moest voorspellen of een veroordeelde een hoge kans op recidieve had. Dat algoritme bleek harstikke racistisch aangezien het ook data werd gevoerd over volkomen irrelevante eigenschappen zoals de huidskleur van de veroordeelde personen. Het werd aan de Ai overgelaten om uit correlatieve resultaten causale verbanden te trekken, en die vondt het ook.

LLM's werken natuurlijk anders dat snap ik, maar desalniettemin zijn ook LLM's gevoelig voor dergelijke door irrelevante of foutieve trainingsdata gekleurde antwoorden.

Het is super belangrijk dat er onderwijs komt op scholen en elders om mensen uit te leggen hoe een LLM ongeveer in elkaar steekt en wat je er wel en niet van kan verwachten.
Ik zie zoveel mensen die de antwoorden van een Ai integreren in hun leven alsof het hun nieuwe Gospel is
maar ik kom steeds meer tegen dat mensen over LLM's praten alsof ze aan "echt denken"
Wat een onzin. Niemand denkt dat. Ik kom vooral mensen tegen die denken dat andere debken dat AI alles altijd juist heeft gedachten heeft.

Wat ik grondig beu ben is de stortvloed aan irrelevantie reacties waar men de les spelt over de gevalen van de een taalmodel.

Ook bij ruimtevaart topics was er een periode dat mensen het nodig vinden om anderen duidelijk te maken dat ruimtevaart verloren geld is dat beter naar de arme mensen kan vloeien.

We weten van dag 1 dat AI nog niet matuur is en fouten maakt. Iedereen weet dat. De kranten stonden er vol van.
Antropomorfisme is het toekennen van menselijke eigenschappen (in dit geval echt denken) aan dingen die geen mensen zijn. Dat is wat je veel ziet gebeuren met ai, mensen praten met de ai alsof ze tegen een mens praten, en verwachten op dezelfde manier menselijke antwoorden terug. Omdat ze ook menselijk klinkende antwoorden terugkrijgen is de vergissing om ook denkvermogen aan deze ai toe te schrijven snel gemaakt.

Ik zeg niet dat mensen denken dat de ai bewustzijn heeft, maar ik zie in de praktijk wel dat mensen zich niet bewust zijn van het feit dat de woorden die de ai genereerd tot stand komen zonder cognitie.

Wat ik met "echt denken" bedoel is dus meer gerelateerd aan het antropomorfisme dat ik zie; dat ik mensen dingen hoor zeggen zoals "chat gpt denkt dat het zussemezo zit" of "toen deed chat zussemezo voor mij". Ze geven de ai een karakter en doen alsof het bewust hun vragen in overweging neemt en vervolgens beantwoord. De stijl van beantwoording is daar natuurlijk ook op gericht. Je kunt het mensen haast niet kwalijk nemen.
Het is toch logisch dat je zo spreekt? Ik zeg ook bijv: ‘de chat zegt dat x geen goed idee is’ daar is toch niets mis mee? Als iemand zegt dat GPT iets ‘denkt’ dan bedoelt hij dat het taalmodel iets heeft gezegd.
maar ik zie in de praktijk wel dat mensen zich niet bewust zijn van het feit dat de woorden die de ai genereerd tot stand komen zonder cognitie.
Dat veel mensen niet begrijpen hoe een taalmodel tot zijn woorden komt maakt ook daar niet veel uit? Zelfs als denkt iemand dat het met ‘cognitie’ is… wie weet bedoelt die gewoon ‘AI cognitie’? Wat is ‘denken’ überhaupt als je geen bewustzijn hebt? Iedereen weet best wel dat het gewoon slimme software is en geen menselijk brein in een sever.

Een taalmodel ‘redeneert’ maar niet zoals wij dat doen. Al zijn hersen ook maar een chemische samenstelling en elektrische signalen met een gigantisch neuronennetwerk. So what?

Een taalmodel ‘weet niets’ maar toch komt er vaak iets zinnigs uit. Het enige probleem is dat het soms niet zinnig is, maar ook dat komt bij mensen voor. Bijvoorbeeld een oplichter of iemand die de theorie van de platte aarde predict.

Er is niets mis met Antropomorfisme, we doen dat automatisch. Bijv: ‘Mijn auto doet weer lastig, hij denkt steeds dat de deur openstaat en wil daardoor niet rijden’

Iedereen die zoiets zegt weet dat hun auto niet ‘denkt’ of niets ‘wilt’ en niet ‘lastig’ is. Maar we gebruiken wel die woorden.
Wat je stelt hangt heel erg van je omgeving af. In jou omgeving begrijpen mensen schijnbaar de risico's en (statische) manier om tot antwoorden te komen.

Het risico is alleen dat bij het toepassen van antropomorfisme voor een aantal mensen de risico's helemaal niet inzichtelijk zijn. Het principe van garbage in - garbage out is makkelijker te begrijpen bij het aanbieden van technische antwoorden.

De instructies voor populaire AI-platformen zijn er expliciet op gericht om menselijke antwoorden te leveren, ik denk dat dit precies is waar het mis gaat.

Verwarring kan worden voorkomen wanneer je stelt "Bronmateriaal aan het vergelijken..." en "Tot het volgende antwoord gekomen via...".

Antropomorfisme zorgt er denk ik voor dat er een grens verdwijnt die niet moet verdwijnen.
Je onderschat hier het effect.
Ik ben zelf autistisch en prima technisch onderlegd om te weten hoe een LLM werkt en wat ie doet..
En toch merk ik in de interactie ermee dat ik me opstel alsof ik tegen een mens praat door bijvoorbeeld 'dankjewel' of zo te zeggen.
Je kunt wel zeggen 'ja maar rationeel weet men wel dat het geen mens is' maar het probleem steekt hem er nou juist in dat meer dan 90% van wat men doet niet op ons rationeel verstand berust.
En als je lang genoeg (onbewust) met een LLM 'praat' alsof het een mens is dan ga je het vanzelf (onbewust) geloven, ongeacht wat je ratio ervan vind.
Helaas denken zat mensen dat wel. Misschien niet jij en ik, aanwezig hier op Tweakers. Maar helaas weten genoeg mensen niet dat de GPT van de bekendste AI staat voor generative pre-trained transformer die niets meer doet dan woorden achter elkaar plakken.

Het is "Chat zegt voor en na."
Helaas? Mijn betoog is niet dat het niet uitmaakt. Hoe plakt uw brein woorden aan elkaar? Doet dat ertoe?

We denken allemaal heel graag te denken wat alle andere denken en heb en hebben daar een mening over. Dat is er helaas aan de hand.
Als je woorden achter elkaar plakt die op dat onderwerp al 100 keer achter elkaar zijn geplakt, kom je meestal niet tot hele originele gedachten. Dat is wat mij betteft helaas.

Het gaat niet om het hoe, maar de uitkomst.
Het probleem is niet dat er teveel geld naar AI gaat, en ook niet of AI al "mature" is.

Het gaat om een veel fundamenteler probleem. Wie linguïstiek als achtergrond heeft zal weten dat zaken als humor, sarcasme, ambiguïteit en cultuur slechts moeizaam te vangen zijn voor een taalmodel. Waarheid is dan nog weer een stap hoger. Dat is voor mensen al een problematisch begrip...

Technisch is het ontzettend knap en Ai kan prachtige resultaten opleveren. Maar besef dat het vertrouwen dat bijvoorbeeld overheden in AI stellen een serieuze keerzijde heeft. Afgezien van de "bias" die ontstaat door de keuze voor trainingsdata moet je enorm blijven oppassen, zelfs als je de "redenatie" bij de conclusie krijgt. Uit onderzoek blijkt dat mensen enorm geneigd zijn om de redenatie van een computer te volgen. Helaas is een computer wel logisch, maar niet redelijk.

Met al het marketinggeweld waarmee AI als oplossing voor alles wordt gepresenteerd mag er dus best wat tegengeluid komen. Om ook een analogie te gebruiken: diezelfde overheid had best even mogen nadenken voor ze hun mail en data in de Microsoft-cloud plaatste.
Onzin? Je gaat altijd iemand vinden die iets denkt. Mensen die geloven in de platte aarde zijn er ook.

Dat onderzoek waar je naar verwijst is een super klein onderzoekje met onduidelijke antwoorden. De vraagstelling lijkt zelfs wat belachelijk en ze halen in hun stukje discussie hun onderzoek bijna onderuit.

Als ik aan u vraag hoe gevaarlijk persoon X is op een schaal van 1-100 dan dan zullen de meeste mensen idd ‘enig gevaar’ toekennen. Bijv 12/100. Dat wil nog niet zeggen dat die persoon die andere persoon als gevaarlijk beschouwd. Die 12/100 gaat over het feit dat iedereen die leeft is eigenlijk ook potentieel gevaarlijk is dus 0/100 kan niet.

Zonder verder onderzoek wat die mensen juist bedoelen met ‘gevaar’ kan je moeilijk conclusies trekken.

Het is ergens ook normaal dat mensen emotionele banden hebben met objecten. Denk aan auto’s. Sommige mensen kunnen hun auto niet verkopen, het doet pijn en willen hem verder ‘verzorgen’.

Als iets tegen uw spreekt of chat en het lijkt net echt dan kan in dat je ergens enige vorm van intelligentie of gevoel toekent aan die app.

Dat onderzoek zegt eerder iets over het begrip en gebruik van het woord ‘bewustzijn’ dan dat het een uitspraak doet over of wij al dan niet denken dat Chat GPT een bewustzijn heeft.
Ben je nou zo een tirade aan het maken omdat je zelf zegt niemand, ik met een simpele google grote groepen mensen vind die het wel doen?

Prachtig man.
Nouuuu... ik ken zelfs IT'ers die zonder blikken of blozen overnemen wat een LLM ze vertelt. Dan vraag je ze waarom ze dit of dat geconfigureerd hebben en dan krijg je als antwoord "Omdat CoPilot zei dat dit het beste was". Geen enkele kritische noot, geen fact checking, gewoon klakkeloos copy-paste.

Misschien vind ik dat nog wel de 'gevaarlijkste' variant: de "AI Search" en bijbehorende samenvattingen. Veel mensen hebben niet eens door dat Google ze alleen maar een automatisch gegenereerd tekstje voorschotelt.
Het is en blijft gewoon word prediction on steriods.
Ik zou die mening toch een beetje bijstellen. Er zit toch inmiddels wel heel wat meer achter dan het volgende woord goed verzinnen.

YouTube: C++ Weekly - Ep 487 - AI: Not Just Autocomplete

[Reactie gewijzigd door markg85 op 12 juli 2025 17:03]

Ik denk dat ik snap wat je bedoelt. Een ai kan, als het daartoe wordt gemachtigd ook logische zaken afhandelen. Is dat wat je bedoelt?

Somigge ai bijvoorbeeld het mandaat om bijvoorbeeld python scripts in een sandbox dingen te laten doen, maar die scripts acties of commands komen toch in de basis altijd nog voort uit "klassiek" gegenereerde LLM tekst?
Nee, een AI kan dat niet. Niet in de zin van een LLM.

Even de terminologie duidelijk hier. AI is het overkoepelende woord voor alles tegenwoordig. Jij heb het over LLMs en wat uitgebreidere varianten, Agents. Een LLM kan niet zaken uitvoeren hoe erg je er ook op aandringt. Je geeft het een input - prompt - en er komt text uit. LLMs kunnen alleen wel zo geïnstrueerd worden dat hun output te gebruiken is in andere tools. En zo krijg je "Agents" en daar kan je vervolgens weer op doorborduren.

Waar ik op doelde is dat het simpele idee van een LLM en het volgende woord schatten en dat heel goed doen een inmiddels best wel achterhaald idee is. Natuurlijk is dat de simpel te begrijpen kern van hoe een LLM werkt. Maar de LLMs van nu zijn toch echt wel heel wat complexer en "slimmer" dan het beschrijven als word prediction.

Ik kan jou als mens ook beschrijven als een aap met een brein op steroids. Zou ook niet helemaal juist zijn ook al is het in de diepste kern wel waar.

[Reactie gewijzigd door markg85 op 12 juli 2025 17:50]

Een aap met een brein on steroids, ik moet eerlijk zeggen dat klinkt niet verkeerd :) ik doe het ervoor.
Ik vraag me af of Agents de Ai echt leren redeneren. Ik snap dat dat steeds meer het geval lijkt te zijn, maar uiteindelijk ben ik er toch niet van overtuigd dat het cummulatieve resultaat van nog meer ai gegenereerde tekstuele instructies nu echt bijdraagd aan iets dat lijkt op denkvermogen.

Het valt niet te ontkennen dat ai slimmer lijkt te zijn geworden, omdat de antwoorden meer lezen als pientere antwoorden, en omdat de antwoorden ogenschijnlijk vaker lijken te kloppen, maar dat wilt nog niet zeggen dat het ook daadwerkelijk "wijs" geworden is, ik bedoel bewijs dat maar eens :? .
Agents zijn weinig meer dan de LLM json laten uitspugen welke in het formaat zijn dat hem wordt verteld door de service die beschikbaar is plus “als iemand om dit vraagt kan je dit aanroepen”.

Hier heb ik een “agent” gemaakt waarmee je met een LLM en een client die support heeft voor MCP kunt schaken.

De eerste stappen zijn prima, want die zijn ten treure op het internet besproken, maar het loopt natuurlijk al snel vast.
En toch is het niet anders dan slim schatten wat het volgende token moet zijn.
Ik kan jou als mens ook beschrijven als een aap met een brein op steroids. Zou ook niet helemaal juist zijn ook al is het in de diepste kern wel waar.
Ontken jij nou dat wij apen zijn?
Prima verhaal, maar verwacht niet dat uitleg over LLM's werkt.
Tuurlijk wel. Uitleg over wiskunde en statistiek werkt toch ook (Tot op zekere hoogte)?


LLMs gaan niet meer weg uit deze wereld. Scholen moeten daar dus NU op inspringen. Ze zijn al laat, straks missen ze de boot compleet.
Mag je wiskundig en statistisch gezien van 'hoogte' spreken wanneer overduidelijk minder dan 50% het snapt? Of bedoel je 'tot op treurig beperkte laagte'? :+

Het is mijn ervaring dat wanneer je te maken hebt met iets wat nog zo'n 10 - 20% van de gevallen voor komt, men volkomen bereid is om all-in te gaan op de overige 80%. Er de toekomst van een bedrijf op te zetten bijvoorbeeld, of je als leugenaar neer te zetten wanneer je met die 10 - 20% te maken had.
Nouja…. Misschien wel.


Het is beter dan niks. En mensen die een techniek profiel kiezen op middelbare school die gaan er zeker wel verder mee dan wat je nu schetst. Dat niet iedereen er wag van af weet staat buiten kijf. Statistiek wordt ook niet gegeven binnen een NT of NG profiel. Dat is namelijk meer Wiskunde B en soms D.


Nu is het gewoon 0 onderwijs en laten we eerlijk zijn, dan wordt het helemaal niks.
Een piloot dient ook te leren wat een autopilot wel en niet kan, en hoe het (als het de verkeerde sensorische data ontvangt) domme dingen kan gaan doen.

Een geavanceerde ai is nog een stukje minder voorspelbaar dan een autopilot, en daarmee is het risico op misverstanden tussen de ai en de gebruiker van die ai nog wat groter.

Er zijn vliegtuigen neergestort doordat piloten niet om konden gaan met het onvoorspelbare of tegenintuitieve gedrag van een zelfregelend systeem in een vliegtuig.
Er zijn teslas gecrasht waarvan de bestuurder dacht dat de ai autopilot wel zou doen wat het moest doen.

Tekst genererende Ai gaat een impact hebben op de wereld of heeft dat al, onbegrip over de beperkingen van het systeem kunnen leiden tot een overschatting van de ai, of een miscommunicatie tussen ai en mens.

Jij kunt misschien begrijpen dat wat de Ai zegt niet altijd strict genomen waar is, maar veel mensen nemen de woorden van de ai klakkeloos aan.

[Reactie gewijzigd door stevejobs op 12 juli 2025 18:19]

Het is en blijft gewoon word prediction on steriods
Mee eens hoor, maar het is een beetje de vraag in hoeverre we zelf word prediction on steroids zijn :+
Niet. Wij kunnen itt AI buiten de input die we krijgen treden. Als je een ai traint met alleen maar data dat de aarde plat is, zal die altijd als antwoord geven dat de aarde plat is, het zal nooit buiten de trainingset het antwoord zoeken of de trainingsdag zelf verifiëren, terwijl de meeste mensen die wel kunnen, en waarschijnlijk zullen, doen.
Hetzelfde geldt voor de mens. Als we iemand vertellen dat de aarde plat is dan blijft hij dat denken totdat hij input krijgt die op iets anders wijst. Het grote verschil is dat wij in staat zijn op zoek te gaan naar die input.
Dat geldt voor 99.999% van de mensheid ook.
We zien dat ook steeds meer dat complexere antwoorden door mensen worden weggezet als niet waar, voor makkelijker te begrijpen incorrecte (complot) theorien.
Langer geleden dacht iedereen dat de aarde plat was. Toch zijn er een paar pioniers op zoek gegaan naar een ander antwoord. Inmiddels wordt geaccepteerd dat de aarde rond is. Ik ben het met je eens dat veel mensen liever een makkelijker dan een moeilijker antwoord accepteren, maar dat is niet een natuurwet.
Dat de aarde rond is wordt al millenia erkent. Wat je bedoelt is dat de aarde niet het middelpunt is van ons zonnestelsel, dat is relatief recent. De platte aarde complot gekte is niet lang geleden pas ontstaan.
Ik zie het ja. Kennelijk heet dat de flat-earth error. De theorie dat men in de middeleeuwen dacht dat de aarde plat is, en dat je er an kon vallen als je te ver zeilde, blijkt niet te kloppen. I stand corrected.
Het overgrote deel van de mensen blijven aan standpunten vasthouden die ze geleerd hebben toen ze jong waren of wat past in hun eigen bias. Geef ze nieuwe feiten, dan zetten ze die aan de kant en blijven ze toch bij hun "onderbuik" zoals ze dat vaak zeggen.
Leest jouw antwoord.

Leest de geschiedenis.

Euh... Mensen dachten dat de wereld plat was, totdat ze konden waarnemen dat dit niet zo was. Of in ieder geval, dat hun waarnemingen niet meer correspondeerde met de toen geldende kennis en de discrepantie verder werd onderzocht.

Ook de mens treed niet buiten de input, de trainingsset die hij/zij krijgt. Als die input verandert (telescoop, microscoop, deeltjesversneller en eerder vuur, wiel, ijzer, magnetisme) wat bijna altijd gebeurde door toeval, dan verandert het.

Ik vind het onmogelijk om exact te zeggen wat intelligentie nu is. En hoever we nu echt zijn van echte scifi AI. We zitten nu op het niveau "Star Trek computer". Wat ik eigenlijk al ongelofelijk vindt.
Bij de nieuwe generatie ja.

De oude blijft er huiverig voor,

Zie “mijn koeien gaan slagroom magen of karnemelk door die vreselijke treinen…”

Al dat soort onzin, de geschiedenis staat er vol mee
Dat is een bijzonder goeie vraag. Om niet al te filosofisch te worden: Toch denk ik dat het een er wel degelijk een distincitie te maken valt tussen een machine zonder zintuigelijkheden en een mens die deze woorden niet in isolement ervaart maar ze koppelt aan herinneringen emoties en ervaringen. Er is een mooie Ted talk over taal (ik zal eens kijken of ik die vinden kan), waarbij EEG's werden verricht op personen die teksten te horen kregen. Er was in sommige gevallen te zien dat mensen getriggerd door dezelfde woorden een vergelijkbaar eeg patroon vertoonde (ik geloof zelfs na vertaling naar een andere moedertaal). Ik zal eens kijken of ik die nog vinden kan. In ieder geval zou je kunnen zeggen dat een woord als "Dorst" voor iemand die uitgedroogd door de woestijn loop echt iets wezenlijks betekend. De zin "Ik ben Misselijk" betekend ontzettend veel voor iemand die zonder scheepsbenen in een klein bootje de noordzee op gaat, omdat deze woorden een ervaring vertalen naar een tekst die voor zeezieke lotgenoten (als ze zich in de woorden verplaatsen) echt iets betekend. Ik ben geen hersenonderzoeker, maar zulk soort dingen is wel onderzocht en dat mensen zich kunnen verplaatsen in andermans verhalen, en dat mensen dus wezenlijk iets voelen en ervaren bij woorden is niet iets dat wetenschappelijk bewezen hoeft te worden om waar te zijn, ik ervaar het zo, dus het is zo. Ik denk dus ik ben. Een ai is nooit zeeziek geweest, dus die heeft er geen verstand van (mag je dat zeggen :) ?).
Als het gaat om de vraag "echt denken" dan moet je eerst met een goede definitie van denken komen. Daar zit ook het hele probleem. De huidige AI draait een transformer attention process, om in een grote vector space context te vinden en het volgende token te voorspellen. Dit is gemoddeleerd naar het menselijke brein dus we doen iets soortgelijks.

Als je huidige LLM's met mensen vergelijkt, dan starten ze bij elke vraag opnieuw bovenop die grote vector database. De hele conversatie doet gebieden oplichten in de multidimensionale ruimte bepaald door al de eigenschappen van de tokens. LLM's "leven" tijdens het process en zijn daarna weer dood. En dat "vinden" ze prima want dat is hun functie.

Om het met films uit te drukken, ze worden elke keer ge "ground hog dayed" en leven vervolgens in de "Memento" en houden maximaal een context venster aan informatie vast. Ze hebben geen tijdsbeleving want ze staan tussentijds uit.

En als je die discussie met ze voerd over deze zaken dan vinden ze dat ook, want je zet ze zelf in die context en spiegelen je gedrag. Ik denk dat mensen dat verwarren met echt denken.

Mensen denken nog steeds heel anders op veel vlakken. Mensen draaien meerdere processen i.p.v. 1 conversatie (bewustzijn en onderbewustzijn en waarschijnlijk nog meer autonome processen voor bewegingen). Mensen draaien altijd door. Mensen zijn getrained met wereld ervaring via miljoenen zintuigelijke inputs. Dit is ook de reden dat we moeilijk voorbij 3D kunnen denken, want dat is de wereld waar we in leven.

Het thinking model doet niets meer dan een conversatie over gedachten verzinnen en dat verhaal meenemen in de conversatie en op die manier meer relevante gebieden aan te spreken. Het werkt en is ook weer gebasseerd op menselijk denken. Dus om de vraag te beantwoorden, ja deze modellen lijken te denken op een vergelijkbare manier als mensen, maar zijn ook totaal anmders.

Mensen zijn voorlopig nog beter in out of the box denken, er zal nog een stap nodig zijn om dat ook met AI beter te kunnen doen, maar er wordt aan gewerkt. Een jaar geleden konden ze amper zelfstandig een stuk software maken en nu lukt dat al aardig.

[Reactie gewijzigd door PuzzleSolver op 13 juli 2025 00:33]

Interresante comment (dat groundhogday probleem is misschien trouwens nog wel iets dat zal gaan veranderen als ai een grotere tijdspanne en context ontvangt).

Wat betreft wat ik zei over "zelf denken" of de definitie van denken.
Ik schreef een comment op het bericht van @uiltje over de evolutieleer als basis voor intelligentie, en ik denk dat dat mijn visie is op de definitie van denken.
Heel duidelijk niet.

In tegenstelling tot een LLM, kan een mens sceptisch of nieuwsgierig zijn. Dit zie je in wetenschappelijk onderzoek terug. Maar ook wanneer iemand iets wordt verteld, maar dan toch even zelf gaat controleren of het wel klopt.

Welke LLM doet dit? Welke LLM komt met de vraag voor nieuwe input, omdat het twijfelt of de informatie die het heeft klopt? Heb je ooit een LLM op nieuwsgierigheid betrapt? Die net zoals een kleuter ineens vragen gaat stellen over onderwerpen waar het geen informatie over heeft?

Imo, als het om algemene intelligentie gaat, is een LLM dommer dan een ezel.

[Reactie gewijzigd door tweaker29789 op 13 juli 2025 01:16]

Een LLM is per definitie bevooroordeeld; het kan immers niet zelf de wereld onderzoeken en tot andere conclusies komen.
Zelf onderzoek doen maakt je niet inherent meer of minder bevooroordeeld. Dat betekend alleen dat je ze;f je vooroordelen bij kan stellen, daar dus ook meer verantwoordelijk voor bent. Maar dat je net zo goed nog meer bevooroordeeld maken (echo chambers, radicalisatie, etc).
Het is en blijft gewoon word prediction on steriods
Het geloof dat LLM alleen het volgende woord voorspelt is niet meer zo zeker onder AI onderzoekers. Er is overtuigende onderzoek dat anders impliceert.
Het is super belangrijk dat er onderwijs komt op scholen en elders om mensen uit te leggen hoe een LLM ongeveer in elkaar steekt en wat je er wel en niet van kan verwachten.
De ontwikkeling gaat zo snel dat het niet bij te houden is voor een onderwijs programma. Zelfde probleem als met PC's in de 90s. Gegeneraliseerde punten over veilig gebruik zouden wel welkom zijn, zoals uitleg over "geloof niet zomaar wat AI zegt", of een les in "manipulatie door LLM bots op sociale media".

[Reactie gewijzigd door cnieuweboer op 12 juli 2025 14:25]

Met "zelf onderzoek doen" bedoel ik niet alleen het lezen van andermans teksten (want daarin verschuilt zich uiteraard dezelfde voetangel) maar daarmee bedoel ik ook conclusies die je kunt trekken uit de eigen ervaring, uit de eigen zintuigelijkheid, uit onderzoek in je omgeving en uit "echt wetenschappelijk onderzoek" (niet dat dat geheel objectief is, maar niets is perfect).

Wat ik daar vooral mee bedoel is dat een Ai de zin "Het gras is groen" zal zeggen omdat het niet veel anders heeft gehoord. Wij hebben natuurlijk ook van papa en mama gehoord dat gras groen is, maar wij zijn er in elk geval nog toe in staat om discrapanties in waarnemingen en eigen ervaring mee te nemen in onze beoordeling. Als ons van kind af aan door iedereen is verteld dat het gras zo blauw is als de lucht, dan kan die doctrine ons op termijn wel gaan opvallen als een onwaarheid.
De wetenschap is een (welliswaar zeer vijlbaar) verlengde van onze zintuigelijkheid, en geeft ons de kans om met metingen en gevoelsreflecties inzicht te krijgen in onze binnen en buitenwereld.
Die directe zintuigelijkheid is precies wat een Ai niet heeft, en daarmee kan het enkel varianten naar ons terugroepen die wij al eens naar de Ai geroepen hebben.

Wat bewijs van intelligentie betreft: Dawkins beschreef in the blind watchmaker (en andere van zijn boeken geloof ik ook) dat kleine systeemjes al gauw een soort "intelligentie" gaan vertonen. Intelligentie is onderdeel van evolutie. Maar je moet niet vergeten dat dit in de basis een semantische discussie is over het woord intelligentie en wat daar wel of niet onder valt. Laten we ons daar niet op blindstaren. De turingtest doorstaan LLM's al gauw, dus als dat is wat je onder intelligentie verstaat dan zijn we er al.

De ontwikkelingen in Ai gaan snel, maar de basisprincipes blijven hetzelfde, die kunnen worden onderwezen.
Gouden regels zoals shit in shit out, gelden nogsteeds, en weights and biases blijven biased.

Ik denk dat er best een paar lessen over veilig gebruik van Ai mogen komen.
Ik denk dat je in een onderwijsstuk over ai ook de filosofische olifanten in de kamer dient te belichten, en filosofie is in nederland geen verplicht vak.
Ik zie ook steeds mee filmpjes verschijnen van mensen die met een LLM praten alsof het gewoon een mens is, echt bizar vind ik dat.
Een goede AI is maar net zo goed als waar mee hij gevoed wordt. Basically, if shit gets in, shit gets out.
Als je mn teamleider een visie vraagt, krijg je een antwoord uit een LLM....
Ik denk dat het juist daarom zo belangrijk is om te blijven inzien dat een Ai niet "zelf denkt", maar dat het de woorden uitkraamt waarop het getraint is al naar gelang wat anderen zoal hebben uitgekraamt. Daarmee genereerd een LLM (hoe "slim" ook) altijd alleen maar een echo van wat anderen al eens voorgekauwd hebben.
Ik snap niet dat dit soort achterlijke uitlatingen steeds weer een +2 krijgen. Ja, LLM's zijn niet een volledige AI. Maar een LLM heeft wel degelijk redenerend vermogen. Ik heb net een project gemaakt die een compleet Maven project maakt met alleen wat Java files die het nooit heeft gezien als input. Dat heeft niks met "echo" te maken. Ik ben het met veel punten wel eens hoor, maar dit overdreven downplayen van de mogelijkheden doet je verhaal geen goed.
Wat jammer dat je mijn uitlatingen "achterlijk" vind.
Wel heel interresant dat je specifiek de +2 noemt. Helaas bewijst je onvrede over het +2tje veel ten onderbouwing van mijn punt.
Mijn antwoord krijgt een +2 en heeft dus de "goedkeuring gekregen" van de mensen die mijn antwoorden lezen. Ook ai ontvangt tijdens training goedkeuring voor antwoorden. Ik ben geen ai, maar als ik, net zoals de ai, enkel gemotiveerd zou zijn om antwoorden te creeëren die +2tjes krijgen, bijvoorbeeld doordat ik zal worden gedood als ik geen +2tje krijg, dan zou ik niet meer geinterreseerd zijn in de waarheid van mijn woorden, of naar de waarheidsvinding die ten grondslag ligt aan het vinden van die antwoorden, maar door of mijn anwoord al dan niet een +2tje krijgt. Het resultaat is dat ik niet "echt denk" maar dat ik probeer te overleven. Ik wil enkel de approval van de lezer om in die rare wereld te kunnen overleven.

Gelukkig ben ik geen ai, en het zal me een worst wezen of jij of wie dan ook mijn antwoord interresant vind of niet, dat maakt het ook een wezelijk ander type antwoord dan een ai antwoord.

Ik zal uitleggen waarom, en ik hoop echt dat je mij volgen kunt zonder boosheid, maar met een open visie:

Ik haalde eerder in deze chat al the Blind Watchmaker aan van Richard Dawkins waarin hij uitgaat van intelligentie als zijnde het resultaat van natuurlijke selectie.
In de evolutieleer wordt uitgegaan van een omgeving waarin overleving en voortplanting van de sterkste plaatsvind.
Een ai ondergaat tijdens zijn training een proces dat lijkt op natuurlijke selectie omdat er een trapsgewijs en iteratief verbeteringsproces plaatsvind waarbij de "omgeving" in dit geval enkel bestaat uit de woorden in de trainingsdata, en de beloning van "overleving en voortplanting" oftewel de voortzetting van het systeem, de output van de ai is.

Waarom ik spreek over een "echo" is omdat de ai zelf niet rondwaart in de omgeving die ten grondslag lag aan het evolutieprocess dat geleid heeft tot de kennis die in de taal (waarop het getraind is) verscholen zit. De ai ondergaat een geheel ander evolutieprocess (en versta me niet verkeerd, dit evolutieproces zorgt voor een geheel eigen vorm van intelligentie zoals Dawkins bijvoorbeeld dat ook zou verwachten van een groot systeem dat aan itteratieve training wordt blootgesteld) de intelligentie die het door dit evolutieproces krijgt lijkt (omdat het is ontstaan uit training op basis van woorden die voortkomen uit onze eigen eerdere vindingsrijkheid) zeer sterk op 'redeneren' en op 'menselijke cognitie'. Immers: antwoorden die er niet in slagen hier op te lijken verliezen het in de training van de antwoorden die er

Hoe woorden en zinnen evolutionair betekenis kregen bij mensen:

Niet goed communiceren of redeneren met je medemens > Consequenties in de echte wereld (dorst honger moord en doodslag) > Doodgaan en je niet voortplanten

Hoe woorden en zinnen evolutionair betekenis moeten lijken te bevatten bij Ai systemen:

Geen antwoorden creeëren die lijken op door mensen gemaakte antwoorden > Niet doorgaan in de volgende trainingsronde

Dit leidt er inderdaad toe dat de Ai waarheden verkondigd, en dat de ai zelden dingen verkondigd die niet plausibel klinken, dat heeft het inmiddels wel afgeleerd, en dat is knap, want daarmee kan het ten slote een hoop, maar verwar het niet met menselijke cognitie, die onze wereld, onze emoties, en onze zintuigelijkheden als trainingsdata ontving.
Ik verwar het ook niet met een menselijk denkproces. Maar als je "echo" in de mond neemt dan heb je het - in normaal taalgebruik - over puur napraten. Dat doet af aan het trainingsproces en hoe de AI dingen kan ordenen. Het gaat ook om structuur aanbrengen en zelfs op een behoorlijk droef niveau rekenen. Een AI kan ook een tekening in een bepaalde stijl maken. Dat is wat anders dan een plaatje kopiëren, en dat is toch wat wordt geïmpliceerd met "echo'en". Het idee wat ik heb ingevoerd was op het internet niet te vinden, en toch kon het er prima wat van maken

De reden dat ik zo vel reageer is omdat ik heel vaak zie dat het argument dat een LLM niet kan nadenken wordt gestaafd met strong-man argumenten zoals dat het alleen maar kan napraten of echoen. En sorry, een LLM kan echt veel meer dan dat. Ik snap dat je nu nuance probeert aan te brengen in wat je zei, maar dat is echt andere informatie dan mensen uit je bericht halen als je het over een "echo" hebt.

Vandaag hallucineert het ding er vrolijk op los overigens, het is niet dat ik alleen maar de voordelen van LLM's verkondig en ik ben ook in een strijd met StackOverflow om AI antwoorden te weren, ook die van stackoverflow.ai (niets te zien, liever niet heengaan).

[Reactie gewijzigd door uiltje op 13 juli 2025 18:46]

Het is ook lastig om de goede woorden te vinden om het denkproces dat een Ai beleefd te omschrijven. Ik ben er vanuit gegaan dat men zou begrijpen dat ik niet bedoel dat woorden 1 op 1 weer terug gekaatst worden, de ai geeft immers antwoorden op vragen. Het zou best magisch zijn als je een grot kon maken waarin je een vraag roept en waaruit dan een weer antwoord wordt terug ge-echo'd. Dat zou ook wonderlijk zijn omdat een grot statisch is, het veranderd niet. Ookal is haar logica gemaakt van silica en metalen, een ai is geen grot, een ai "leeft" echt een beetje (ten minste in de optiek van een evolutie geleerde zou je het zo kunnen zien), aangezien iedere trainingsronde de vorm van de grot steeds doet aanpassen. Toch gebruik ik het woord echo omdat ik wil duidelijk maken dat voor de ai de uitgesproken woorden niet tijdens de beantwoording onderhevig hoeven te zijn aan een actief denkprocess. Dat wil zeggen jouw vraag zorgt niet voor nieuwe training, of voor nieuwe synapsen, de vorm van de grot wijzigd niet totdat er een nieuwe trainingsronde het één en ander weer heeft weggebijteld.
Vandaar mijn keuze voor het woord "echo".

Wat wonderlijk is aan evolutie, en dit probeerd Dawkins bijvoorbeeld ook in het collectieve bewustzijn van zijn lezers te krijgen, is het feit dat er al vrij gauw (of iig veel sneller dan intuitief lijkt) dingen ontstaan die op intelligentie gaan lijken. Dus mijn intentie is niet geweest om de "intelligentie" van een ai te beledigen, maar om aan te geven dat we hier met een wezenlijk andere vorm van denkkracht te maken hebben. Eentje die niet actief bezig is met de wereld, maar enkel met woorden, en het (om een evolutietechnisch woord te gebruiken) "overleven" van de volgende trainingsronde.
Maar eentje die tijdens elke trainingsronde beter wordt in het vervaardigen van antwoorden die het doen lijken alsof er nagedacht is.

Natuurlijk geld hierin in hoge mate "fake it till you make it" want een correct antwoord, hoe je er ook gekomen bent, of je daar nu éénen en nullen voor hebt gebruikt of neurons, blijft een correct antwoord.
En toch is het belangrijk om een ander vocabulair te gaan gebruiken en misschien andere woorden te vinden voor de vorm van denken die de ai toepast, omdat het type denkfouten dat je mag vewachten van een machine die aan een ander evolutionair proces wordt blootgesteld dan de mens, ook wezenlijk anders is dan de denkfouten van die mens. Als Echo niet het juiste woord is, dan zijn de woorden redeneren, cognitie of denken ook niet juist.

[Reactie gewijzigd door stevejobs op 13 juli 2025 19:20]

Net zoals bij echte mensen dus.

100% van wat wij mensen doen, zeggen, denken en vinden is aangeleerd gedrag. En dat kun je uiteindelijk allemaal terugleiden naar protocollen en data. Alles. Altijd.

Aangeleerd gedrag kan dan weliswaar bestaan uit opvoeding, omgeving, motivatie vanuit beloningssystemen et cetera. En computers kunnen dat ook leren.
Het is super belangrijk dat er onderwijs komt op scholen en elders om mensen uit te leggen hoe een LLM ongeveer in elkaar steekt en wat je er wel en niet van kan verwachten.
Dit zal echt wel loslopen. Men riep dit destijds toen zoekmachines handiger en slimmer werden dan Altavista was ook, maar volgens mij is ook dat nooit van de grond gekomen. Met AI zal het net zo vergaan. Misschien dus een keer opnemen in de computerles op de middelbare scholen, maar echt een les hier aan wijden is echt zwaar overdreven wat mij betreft.
Er zijn onderzoekers die kijken naar de bias van LLMs en uiteraard kunnen die een kant uitslaan. Echter net zoals met nieuws waarbij NOS voor mij best neutraal is terwijl Breibart extreem rechts is, zo zijn LLMs ook. Sommige doen hun best om neutraal te zijn, Grok is fascistisch rechts. Dat wetende snap ik eigenlijk niet waarom dit wordt toegelaten, willen we echt een model waar tientallen miljoenen gebruik van maken, nazi ideologie verspreid?
"Toen xAI bij Grok 3 de regels voor antwoorden versoepelde, gaf de bot antisemitische antwoorden."

Vlak voor dit artikel verscheen was er al een zeer gedetailleerde uitleg gegeven via het kanaal van Grok over hoe dit tot stand heeft kunnen komen. Ik denk dat het goed was geweest voor dit artikel om daar iets over te vermelden ipv alleen zeer kort door de bocht te stellen dat dit het kwam omdat de regels versoepeld werden.
Uit een artikel van The Guardian van gisteren:
xAI explained that the system update was active for 16 hours and the deprecated code made Grok susceptible to existing X user posts, “including when such posts contained extremist views”.

“We have removed that deprecated code and refactored the entire system to prevent further abuse,” the company said, adding that the problematic instructions issued to the chatbot included: “You tell it like it is and you are not afraid to offend people who are politically correct” and “Understand the tone, context and language of the post. Reflect that in your response.”
Soit, dat kan zeker een reden voor het ongewenst gedrag van de bot zijn. Maar zou dat niet betekenen dat het Twitter-volk grotendeels extremistische zaken post? Als dat is wat door Grok gezien wordt als "like it is"? Of legt deze prompt (we nemen aan onbewust) meer gewicht op informatie die 'offensive' is, in plaats van "like it is".

Het artikel gaat verder met:
Musk has previously called Grok a “maximally truth-seeking” and “anti-woke” chatbot. Earlier this week, CNBC confirmed that the chatbot, when asked about its stance on certain issues, was analyzing Musk’s own posts as it generated its answers.
Mr. Musk geeft hier eigenlijk zelf al aan dat zijn bot niet onbevooroordeeld is. Los van het feit dat er altijd een vooroordeel in trainingsdata et cetera aanwezig is, stelt hij hier zelf dat de bot "anti-woke" is. Dus als de waarheid toevallig 'woke' is - en dat is veel tegenwoordig - dan zal Grok hem niet als waarheid beoordelen.
Naar verluidt ging grok zoeken in de tweets van Musk vanwege het feit dat de AI met 'your' werd aangesproken.

De AI heeft veel van twitter geschraapt en musk is een grote bron van interactie met anderen. Toen de AI met Your werd aangesproken ging het uit van een vraag die direct aan Musk zou worden gesteld. Derhalve ging het opzoek naar Musk's mening.

Later heeft de persoon die dit heeft uitgeprobeerd dezelfde vraag gesteld maar dan 'your' weggelaten. Toen kreeg de auteur een ander antwoord en ging grok niet meer zoeken in de tweets van Musk op zoek naar zijn opinie:

Bron:

https://x.com/friendly_gecko/status/1943439509682819508

Ik deel dit uit interesse. Het laatste wat ik wil is dat we allemaal Elon gaan napraten obv Grok.
Het enige wat staat in die tweet is dat hij denkt dat het zo gegaan is. Jij doet voorkomen. Alsof het een feit is.
Zeker niet mijn intentie. Vond het gewoon interessant.

Denk dat lastig vast te stellen wat feiten zijn zonder direct toegang te hebben tot de code. Ai = blackbox, kan van alles gebeuren daarbinnen.
Zeker lastig daarom vind ik waarde hechten aan een tweet van een random persoon op X nogal twijfelachtig
Ik vind dat een te gemakkelijk excuus. Da's Musk zijn tweets in de grote berg aan Twitter data een "groot aandeel" betekent lijkt me onzin. Bedenk je even hoeveel gb aan input er van Twitter komt en hoeveel tweets Musk misschien in totaal heeft gedaan. Nog geen tiende van een procent. Dat "your" wordt ingevuld met "Musk" is echt geen perongelukje. En sowieso schadelijk, want natuurlijk gaan mensen vragen "what is your take" en daarbij niet denken dat ze Musk zijn mening willen

[Reactie gewijzigd door Mavamaarten op 12 juli 2025 14:26]

eens,

Ik ben ook zeker geen expert op het gebied van AI.
Vond dit het waard om te delen
Wat een leuke toevoeging, interessant ook.
De AI heeft veel van twitter geschraapt en musk is een grote bron van interactie met anderen.
Als Musk echt een grote bron van interactie zou zijn, zou er niet een specifieke query nodig zijn om die mening op de voorgrond te brengen. Dat er juist aparte query geeft aan dat er bias nodig is om het "gewenste" antwoord te forceren.
Toen de AI met Your werd aangesproken ging het uit van een vraag die direct aan Musk zou worden gesteld.
Dat is een interessante gedachte. Als Grok aangesproken wordt (your opinion), waarom is het dan volgens jou logisch dat het een vraag direct aan Musk is? Grok is een chat bot, en Elon Musk... Elon Musk. Ik vind het nogal ver gezocht om zo de werking te verklaren.

De kans is groter dat het meer te maken heeft met Musk's onvrede over de antwoorden die Grok geeft uit naam van het bedrijf. Dat er daarom uiteindelijk gekozen is om zo'n bias in te bouwen zodat wat er uit Grok komt in lijn blijft met wat Musk vindt. Niet heel onwaarschijnlijk voor iemand met zo'n breekbaar ego.
controversiële onderwerpen zoals immigratie in de VS en vrijheid van meningsuiting. Die meningen zoekt het model in recente posts op X van Musk. Vervolgens lijkt Grok de antwoorden aan te passen op wat de oprichter vindt.
Toch wel ironisch dat een AI van een platform dat claimt te staan voor vrijheid van meningsuiting, zelf geen vrijheid van meningsuiting krijgt omdat de antwoorden die het dan geeft niet aansluiten bij de bekrompen politieke overtuigingen van de fragiele CEO.
Het gebruiken van een AI op deze manier is natuurlijk vreemd. De AI gaat zijn 'mening' vormen a.d.h.v. data die hij van het internet haalt maar een AI is nog niet zo ver om als wezen een mening te hebben. Dus er is een fallback.

Daarbij is de vraag eigenlijk, wiens mening moet de AI dan aannemen? Als mens worden wij ook allemaal beïnvloed door bepaalde overtuigingen en anderen mensen. Daarmee neig ik eerder naar 'user-error'. Je vraagt een AI niet om een mening. Los daarvan kan je ook zeggen om Elon niet mee te nemen in de overweging. Je ziet letterlijk dat het Elon gebruikt als fallback.
Persoonlijk ben ik groot tegenstander van dit soort AI en ben ik van mening dat al deze AI chatbots en antwoordmachines de menselijkheid alleen maar dommer gaat maken.

In gevallen waar AI niet met een op feiten gebaseerd antwoord kan komen moet de enige fallback zijn de tekst "Sorry, ik kan daar geen antwoord op geven"

AI krijgt de feiten al vaak genoeg fout, dus het laatste dat we moeten willen is dat het klakkeloos meningen over gaat nemen.
En zo werkt een AI in deze context dus niet. Het genereert een antwoord en -voor zo ver ik weet- controleert dit niet nog eens wat het heeft gezegd achteraf.

Als mens kunnen wij redeneren en relativeren voor dat we ergens aan beginnen. Een AI niet en zal daarom gewoon doen wat je vraagt en ziet wel hoe ver het komt. Het kan niet vooraf zeggen 'kan ik niet', zo ver zijn we niet. Dit is overigens ook wat ik zeg. Je vraag niet aan een AI om een mening te vormen, dit is 100% user error.

Daarom is het inderdaad een kwalijke zaak dat veel mensen hun dagelijkse kennis/werk overlaten aan AI op deze manier. Mensen hebben namelijk de gebruiksaanwijzing niet gelezen.
In plaats van Elon, die vaak desinformatie verspreidt, zou ja ook betrouwbaardere bronnen als AP kunnen gebruiken, of zoals ChatGPT zeggen dat er meerdere zichtwijzen zijn.

Musk heeft echt een probleem met waarheden die niet bij zijn mening passen, zoals het feit dat er geen genocide tegen de blanke zuid-afrikanen is.
Precies. Ze voeden de LLM met ALLE informatie, inclusief wetenschap maar ook stormfront, en wat eruit komt vindt Musk "te woke". Toont maar weer eens aan dat realiteit een progressieve bias heeft :+

Maar ja, daar kunnen de zelfbenoemde based rechtse Amerikanen niet tegen, dus die bouwen nu de meest zielige beperkingen in. Want laten we wel wezen: hoe zielig is het niet dat je de rijkste man op aarde bent, en je je dan nog bezig houdt met dit soort onzin in plaats van gewoon genieten van je rijkdom, of (get this) ook wat goede dingen met je geld te doen? Hoe kan je ego zo kwetsbaar zijn dat je onderzoekers in je bedrijf met ontslag bedreigt en ze dan verplicht hun AI eerst te laten kijken wat Elon vindt, ongeacht de feiten of de wetenschappelijke consensus?

Elon is werkelijk waar de zieligste loser van deze generatie.

[Reactie gewijzigd door kiang op 12 juli 2025 12:09]

Wat ik vooral interessant vind is dat tot 10 jaar terug, Musk nog redelijk populair was binnen progressieve kringen.

Als hij zich simpelweg was blijven bezig houden met SpaceX, dan was er niks aan het handje, maar hij kreeg een veel te groot ego en moest en zal zijn mening opleggen aan iedereen.
Denk terug aan het debakel met de duiker die kinderen redde uit een grot, waarna Musk hem een pedofiel noemde omdat hij het niet kon hebben dat zijn duikboot-idee volstrekt idioot was.

Sindsdien is het alleen maar bergafwaarts gegaan en heeft hij niets anders gedaan dan eigen doelpunten scoren die hem telkens weer minder populair maakte.
En wat heeft hem dat allemaal gebracht?
Een ruzie met Trump waardoor hij nu wordt gehaat door zowel politiek links als politiek rechts en zijn bedrijven die nu doelwit kunnen worden van Trump's volstrekt willekeurige besluiten.

Goed gedaan Elmo!
Ja ik denk dat er twee gebeurtenissen zijn die hem publiekelijk de kant van (extreem) rechts op heeft doen laten bewegen.

1: De transitie van één van zijn (14) kinderen van man naar vrouw (waar hij zelf de documenten voor ondertekend heeft, gezien dit, logischerwijs, verplicht is in California voor minderjarige om toestemming van je ouders te hebben). Saillant detail hierbij, is dat Musk via IVF praktisch gezien gender selectie heeft toegepast, omdat hij alleen jongens schijnt te willen.

2. Het nieuwsbericht dat in mei 2022 naar buitenkwam dat Musk tijdens een vlucht op zijn privejet zijn masseuse heeft geprobeerd sexuele handelingen te laten uitvoeren voor een financiële compensatie/belofte om een paard voor haar te kopen. Wat je ziet is dat er meer mediapersoonlijkheden zijn die zich in het midden/linkerkant van het spectrum begeven, en na een schandaal richting rechts bewegen, gezien rechts (in de VS) elke kans pakken om iemand te gebruiken met een "Why I moved to the right" verhaal, en daarnaast niet zoveel geven om morele principes, slechts loyaliteit aan de propaganda.
Dat mijn waardering voor hem recent gegroeid is omdat hij de enige ter rechterzijde is die het aandurft om kritiek op Trump te hebben, is eigenlijk ook best zorgelijk.
Ik vind een Nazi groet vergelijken met een eigen doelpunt wat makkelijk
Het is dan ook de “vrijheid van hún meningsuiting”. Helaas verworden tot handelsmerk van het huidige Amerikaanse regime. (Hoewel we er in NL ook wat van kunnen). Vance gaf de EU een lecture over vvmu. Maar als je een meme van hem hebt kom je het land niet in. En over Musk zullen we het helemaal maar niet hebben.

Voor mij is het reden om ver bij X en Grok weg te blijven, Ik stel ieders mening op prijs, maar dit is alleen maar haat. Met name richting de zwakere bevolkingsgroepen in de samenleving.

Het is overigens wel grappig dat Musk, Grok nu gaat implementeren in het Tesla infotainment. Daar zit de doelgroep van Tesla vast op te wachten. De Tesla’s verkopen blijkbaar nog te goed. Het bord voor Musk hoofd blijkt oneindig groot.
[...]

Toch wel ironisch dat .... omdat de antwoorden die het dan geeft niet aansluiten bij de bekrompen politieke overtuigingen van de fragiele CEO.
Als je het goed leest, is dit geen feitelijke constatering en zeker niet altijd waar. Misschien is Musk in zijn hoofd net zo progressief, maar komt dat niet direct naar voren in zijn uitingen. Niemand toont immers volledig zijn innerlijke gedachten, zelfs Musk niet. Bovendien (of juist daarom) zullen er altijd mensen zijn die aanstoot nemen aan wat hij zegt of doet, wat hij ook doet. De A.I. raadpleegt verschillende bronnen, waaronder dus Musk's X-account zo schrijf het artikel. Zo is transparant dat zijn mening onderdeel kan zijn van het denkproces. Dit hadden ze gemakkelijk onzichtbaar kunnen maken maar is dus openbaar en daarmee prima naar mijn bescheiden mening. Iedereen mag een mening hebben, zo is de vrije wereld ingericht.

Musk zijn account heeft 220 miljoen volgers en is daarmee het absolute zwaargewicht op X.
Nummer 2, staat op 130 miljoen en dat is een ander figuur met invloed, namelijk Obama.

[Reactie gewijzigd door procyon op 12 juli 2025 12:11]

Misschien is Musk in zijn hoofd net zo progressief, maar komt dat niet direct naar voren in zijn uitingen. Niemand toont immers volledig zijn innerlijke gedachten, zelfs Musk niet.
Musk heeft Trump geholpen de verkiezingen te winnen en is daarna bezig gegaan met het uithollen van progressieve instanties, ontwikkelingshulp en sociale hulpprogramma's, hij gaf een Hitler-groet in een vol stadion, hij weigert zijn dochter te erkennen omdat ze transgender is, etc.

Musk is niet progressief, dus laten we stoppen met doen alsof.
"Progressief" heeft verschillende betekenissen, maar over het algemeen betekent het "vooruitstrevend" of "veranderend in de richting van een betere of geavanceerdere toestand".

Als iemand bezig is het het veranderen van de huidige situatie naar een beter stand, is het Musk wel.
Verwar dit niet met je persoonlijke mening over hoe hij dat doet, dat is iets compleet anders.
  1. De gehele auto-industrie naar elektrificatie dwingen.
  2. Ruimtevaart goedkoper maken.
  3. Bezig met een human / computer interfase (Neuraink)
  4. Amerika helpen met hun death spiral door kosten te besparen (30% van al hun geld gaat op aan rentebatalingen...... Laat die gewoon even inzinken.)
  5. Proberen het hopeloos ineffectieve "2 partijen stelsel" open te breken in Amerika, zoals de rest van de westerse wereld heeft)
Kan er nog wat wat toevoegen.. Maar punt is al wel gemaakt.
"Progressief" heeft verschillende betekenissen, maar over het algemeen betekent het "vooruitstrevend" of "veranderend in de richting van een betere of geavanceerdere toestand".

Als iemand bezig is het het veranderen van de huidige situatie naar een beter stand, is het Musk wel.
Verwar dit niet met je persoonlijke mening over hoe hij dat doet, dat is iets compleet anders.
  1. De gehele auto-industrie naar elektrificatie dwingen.
  2. Ruimtevaart goedkoper maken.
  3. Bezig met een human / computer interfase (Neuraink)
  4. Amerika helpen met hun death spiral door kosten te besparen (30% van al hun geld gaat op aan rentebatalingen...... Laat die gewoon even inzinken.)
  5. Proberen het hopeloos ineffectieve "2 partijen stelsel" open te breken in Amerika, zoals de rest van de westerse wereld heeft)
Kan er nog wat wat toevoegen.. Maar punt is al wel gemaakt.
  1. Dit heeft weinig te maken met vooruitstrevend zijn en meer met geld verdienen. Meer EV-afhankelijkheid, meer afhankelijkheid van zijn bedrijf
  2. Dan kunnen de rijken naar Mars als we de aarde hebben opgebruikt. De mensen zonder geld? Lekker op een uitgebluste aarde laten vechten om de restjes
  3. Dat doen meer bedrijven, waarvan een aantal al stukken verder zijn zonder daar over te bluffen
  4. Door rücksichtslos willekeurig te snijden in budgetten en mensen te laten ontslaan. Volgens mij zie ik dagelijks nieuws dat aantoont dat dit ellende veroorzaakt. Musk wil vooral een vleugellamme overheid die hem niet in de weg loopt. Die waardeloze Big Beautiful Bill bevatte ook zaken die slecht waren voor Musk. Zoals het intrekken van een belastingvoordeel van $7500 op EV's
  5. Omdat hij boos is dat Trump hem heeft laten vallen na onenigheid. Dit heeft niks te maken met dat hij het systeem slecht vind. Hij deed er zelf doodleuk aan mee, tot het niet meer lukte zijn zin te krijgen. Hij steunde eerst Democraten omdat die hem voordeel opleverden. Tot de voordelen bij de Republikeinen groter werden. Toen stapte hij over. Hij is een opportunist.
Hij is op geen enkel manier politiek progressief. Zijn meningen en ideeën passen perfect bij de huidige conservatieve beweging.

[Reactie gewijzigd door Framoes op 12 juli 2025 14:23]

Vooruitstrevend zijn gaat hand in hand met geld verdienen.Lukt je dat niet, dan kan je ook niets veranderen.

Bedrijven die failliet gaan, veranderen niets.

Zie een parrallel met de politiek, je kan pas wat veranderen als je aan de macht komt, stemmen krijgen is daar een voorwaarde van. Zelfde principe.

Geen stemmen, geen mogelijkheid zaken te veranderen. Geen geld, geen mogelijkheid zaken te veranderen.
Dat is nog steeds niet politiek progressief. Racisme op de werkvloer waar ze niks mee doen, intimidatie van werknemers die vakbonden willen opzetten, belastingontduiking: allemaal zaken die aantonen dat hij niet progressief is. Dat is nog buiten zijn gedrag om.

Hij investeert wel in technologische vooruitgang, maar dat heeft niks met politiek te maken.

Musk kreeg trouwens zonder een enkele stem te hebben gekregen toch een positie om zaken te veranderen. Of eerder kapot te maken.
De enige reden dat Musk tot nu toe niet failliet is gegaan is het belastinggeld waar zijn bedrijven voornamelijk op draaien.
De enige reden dat Musk tot nu toe niet failliet is gegaan is het belastinggeld waar zijn bedrijven voornamelijk op draaien.
Omdat de overheid diensten bij ze inkoopt? Kom aan, de meeste bedrijven van Musk zijn gewoon bijzonder winstgevend en werken onder dezelfde overheidsregels als alle andere bedrijven. Het is niet dat Musk en Trump van die goede maatjes zijn he? Ik snap best dat iemand een hekel heeft aan de persoon Musk, maar de hoeveelheid nonsense diue daarvoor gebruikt moet worden is op het lachwekkende af.

- X verdient zijn geld met advertenties en er komt niets van de overheid.
- SpaceX verdient zijn geld met ruimtevaart en de Amerikaanse overheid is een van de klanten en is ongelofelijk winstgevend, met de snel groeiende Starlink klantengroep zal dit alleen maar beter worden.
- Tesla heeft al 5 jaar geen overheidssteun gekregen die niet voor alle ondernemers beschikbaar is en de EV subsidie is er voor alle EV's (onthou ook dat de Amerikaanse overheid ALLE autofabrikanten behave Tesla al eens van de ondergang heeft moeten redden).
- Boring Company is een klein bedrijf dat geen winst maakt.
- Neuralink, OpenAI en xAI draaien op investeerders (geen overheid)

Persoonlijk kan ik Musk niet luchten of zien, maar zijn bedrijven zijn vrijwel zonder uitzondering extreem winstgevend.

[Reactie gewijzigd door Mathijs Kok op 12 juli 2025 15:01]

Extreem winstgevend? Waarom is er dan zoveel belastinggeld (38 miljard) in SpaceX en Tesla gepompt de afgelopen 20 jaar? Een deel ervan waren opdrachten, de rest allemaal subsidies en belastingvoordelen. Een extreem winstgevend bedrijf zou zonder moeten kunnen, dus ik geloof niet dat het allemaal zo extreem winstgevend is als jij schijnt te geloven.
Dit is niet progressief in de politieke of maatschappelijke zin.

Musk is politiek libertair, een zo klein mogelijke overheid.
Zijn motivatie is vooral winstgedreven, niet idealistisch. Hoewel hij natuurlijk je anders wilt laten geloven.
Zijn werkwijze is vaak ethisch twijfelachtig.
Hij verspreidt desinformatie en polariseert bewust.
Zijn bedrijven creëren ook nieuwe problemen...
Politieke bemoeienis is opportunistisch en niet fundamenteel vernieuwend.
Zijn motivatie is vooral winstgedreven, niet idealistisch. Hoewel hij natuurlijk je anders wilt laten geloven.
Zijn werkwijze is vaak ethisch twijfelachtig.
Hij verspreidt desinformatie en polariseert bewust.
Zijn bedrijven creëren ook nieuwe problemen...
Politieke bemoeienis is opportunistisch en niet fundamenteel vernieuwend.
Ik heb het over zijn handelen.

Wat zijn persoonlijke beweegredenen kunnen zijn, is speculatie en bovendien niet relevant.

Het gast om zijn acties. Zelfs iemand die alleen winstgedrevenis, kan progressief zijn
Goed onderbouwd ook. :D
Dat hoef ik niet te onderbouwen, je gaf daar zelf alle voorbeelden al voor. Waarvoor mijn hartelijke dank (y)
Integendeel, ik stel juist letterlijk dat "is speculatie en bovendien niet relevant.", dus graag gedaan al denk ik dat je de clou even gemist hebt.
Je mag hier overigens best speculeren hoor, maar ga je meningen en veronderstellingen hier niet als feiten verkopen.

Of ken je hem soms persoonlijk en heb je meermaals onder het genot van wat drankjes over en weer gebabbeld over elkaars beweegredenen en drijfveren? Want dan neem ik mijn woorden terug, dan heb je uit eerste hand daadwerkelijke kennis vergaard die je hier dan als feiten mag verkopen.
Oké, laten we al die punten dan even kort belichten;
De gehele auto-industrie naar elektrificatie dwingen.
Tesla is een bedrijf dat gebouwd is op een fundament van modder. Het heeft een belachelijk opgeblazen beurswaarde dat enkel en alleen gebaseerd is op speculatie en elk moment in kan storten, vooral nu het imago van Tesla zoveel schade heeft opgelopen door Musk's extreem-rechtse capriolen.
Tesla is al jaren niet meer de vernieuwer hier, en Cybertruck wankpanzer helpt daar ook niet bij.
Ruimtevaart goedkoper maken.
Dit is het enige punt waar ik kan zeggen dat Musk (of beter gezegd Musk's bedrijf) daadwerkelijk een positieve invloed heeft gehad.
Maar dan moeten we wel een paar zaken negeren, zoals het feit dat Starship nog steeds niet succesvol in een baan om de Aarde is gebracht, dat Starlink serieuze negatieve effecten heeft op astronomie en dat Musk Starlink heeft gepolitiseerd door te jojoën met de steun aan Oekraïne.
Bezig met een human / computer interfase (Neuraink)
Dit is geen vooruitgang, dit is gewoon uitermate eng.
Amerika helpen met hun death spiral door kosten te besparen
Hij heeft een man geholpen president te worden die als doel heeft de rijkste mensen in de samenleving nog rijker te maken over de lichamen van de armsten en die net wetgeving heeft ingevoerd waarmee de Amerikaanse staatschuld met maarliefst 3 biljoen toeneemt.
Een mooi voorbeeld zijn de bezuinigingen op de NOAA, de instantie die onder andere verantwoordelijk is voor weersvoorspellingen en het waarschuwen op tornado's en orkanen.
Proberen het hopeloos ineffectieve "2 partijen stelsel" open te breken in Amerika
Vergeten wij hier even dat hij het afgelopen jaar heeft rondgelopen met Trump's arm in zijn reet?
en wat jullie beiden lijken te missen is dat men al sinds de jaren 70 bezig is met BCI's, en Neuralink in deze sector niet echt vooruitstrevend is en op veel gebieden zelfs zwaar achterloopt op de rest.
Nee, dat klopt ook. Er zijn meerdere bedrijven met meer en minder succes.

Maar nu het over een bedrijf van Musk gaat, is het ineens allemaal eng.
Het is gewoon zo simpel allemaal.
Zucht, daar is de onvoorwaardelijke Musk supporter Procyon weer.

Punt 1 en 2, vooruit, daar heb je een punt, echter zijn dit vrij definitieve statements, en hier doe je een hele hoop aannames bij, waarbij een hele hoop geld is geïnvesteerd om een Mars kolonie te starten. Oftewel, het statement is in isolatie waar, echter is de uitkomst onderdeel van grotere plannen welke pure geldverbranding zijn.

Nu even terugkomend op jouw interpretatie van "progressief". Je weet zelf ongetwijfeld wat hier bedoeld wordt met "progressief", echter probeer je de context van het woord te wijzigen, om een sullige deflectie te bewerkstelligen. Een beetje zoals Jordan Peterson zijn niche interpretatie van het bestaan van God probeert te projecteren op een vraag waar die helemaal niet thuishoort.

Je bent, of ongelofelijk naiëf als je denkt dat DOGE bedoeld was om kosten te besparen, of je bent intentioneel stupide, om de werkelijkheid van zijn acties te verhullen. Een overzichtje van de overheidsinstanties die allemaal een budgetcut gehad hebben, die onderzoek deden naar Musk zijn bedrijven:

SEC – Loosening oversight on Musk’s public statements and market activities.

FCC – Easier regulations for Starlink.

NHTSA – Less aggressive investigations into Tesla’s autopilot.

EPA – Weakened environmental oversight for SpaceX and Tesla.

DOL – Less focus on labor and union issues.

FDA – Slower regulation of Neuralink’s neurotechnology.

Het is letterlijk de enige reden, waarom hij zijn onzettend beperkte test met Robotaxi's in een gedeelte van Austin mocht inzetten.

Daarnaast, interessante minidocu over de elektriciteitsvoorziening van xAI, om je een beeld te geven van wat onder andere het effect is van de versoepelde regulering, en een inkijkje in de morele inborst van de heer Musk:

We Went to the Town Elon Musk Is Poisoning

Long story short, een mooie propagandistische presentatie van de realiteit, waarbij je moedwillig interpretaties van woorden uit de context trekt om op je knietjes daddy Musk te verdedigen.

Ben je al bereid om antwoord te geven op de vraag of je een financieel aandeel hebt in de praktijken van Musk?

[Reactie gewijzigd door Abletonlive op 12 juli 2025 14:01]

Versimpelde regulering was voor jou het doel van Musk om Meer geld te verdienen.

Elke andere invulling verwerp je, omdat jij het gewoon niet zo ziet. Iedereen die het anders bekijkt dan jij geef je het label "naive" of "intentioleel stupide".

Feit is inderdaad dat veel technologische innovaties door overregulering minder snel kunnen (konden) gaan in Amerika dan bijvoorbeeld de nummer 2 op de wereld; China

Het was bij de aanstelling van Trump gewoon een politieke keuze Amerika leaner te maken door reguleringen af te zwakken. Zie de voorbeelden die Musk vaak gebruikte omtrent onzinnige reguleringen waat spaceX mee te maken had.

commerciële en technische innovaties hebben nu minder last van reguleringen en dat is by design en ondersteund door de president van de Verenigde Staten.

Musk was slechts gevraagd dit uit te voeren.

[Reactie gewijzigd door procyon op 12 juli 2025 14:12]

Grappig hoe makkelijk je realiteit weet te verwerpen, waarbij het toevallig áltijd in het voordeel is van Musk, zelfs als je met feiten wordt geconfronteerd.

Subjectieve opvattingen, daar heb jij er in het bijzonder een hoop van.

Nogmaals:

Ben je al bereid om antwoord te geven op de vraag of je een financieel aandeel hebt in de praktijken van Musk?
Dus omdat hij maar wat brabbelt in plaats van te zeggen wat hij denkt zijn mensen het niet met hem eens?


Is het niet veel waarschijnlijker dat hij gewoon de extremist is die past bij zijn daden en uitingen en daarom mensen het niet met hem eens zijn?

[Reactie gewijzigd door gaskabouter op 12 juli 2025 13:06]

Grootste sneeuwvlok van de storm, die Musk.
En zo wordt de betrouwbaarheid van Ai naar het graf gedragen omdat het ego/onderbuik niet met de waarheid of werkelijkheid uit de voeten kan. In het ergste geval keert het zich logischerwijs tegen de mens.
Tja, de wil van god sluit vaak aardig nauw aan op de mening van de betreffende prediker...
Dit is helaas de waarheid van de dag, in Nederland doet de Partij Voor de Vrijheid precies hetzelfde. Die pleiten in de praktijk voor meer eenheidsworst en allemaal in de pas van Wilders lopen. Ik geloof nog altijd dat het goedbedoeld is, maar het is gewoon fascisme wat ze aan het implementeren zijn ipv vrijheid.
Dit doet toch wel een "beetje" denken aan wat in China gebeurde bij Deepseek. Anderzijds: geen enkel model is vrij van politieke of sociale bias (zover ik heb kunnen testen).

[Reactie gewijzigd door Westpjotr op 12 juli 2025 11:51]

De modellen trainen op bestaande data. De antwoorden zijn een weerspiegeling van de huidige maatschappij. Dat levert niet altijd de gewenste "ethische" antwoorden. Simpele oplossing is om dit door ethische "filters" heen te halen. Moeilijke oplossing is om de maatschappij te veranderen. Dat laatste moet denk ik nog 200 tot 300 jaar rijpen, als het ooit nog wel wat wordt met onze maatschappij. Er zullen altijd externe gedachtes zijn die we als collectief niet ethisch vinden. Een AI zal dus altijd door probleem hebben bij antwoorden.

[Reactie gewijzigd door david-v op 12 juli 2025 12:17]

Zo simpel is de simpele oplossing nog niet. Want wanneer is iets nou ethisch onverantwoord om niet door het filter te komen? De normen en waarden van mij en van jou verschillen ook. Je zult nooit een oplossing vinden om 'gekleurde' antwoorden van AI ongekleurd te maken. Wat je zegt: de data is op bestaande data getraind. Data van mensen, die vanuit zijn/haar aard al gekleurd is. Net als de eventuele filters die je zou toepassen.
Ja dat is ook waar, eigenlijk is LLM totaal ongeschikt om een "mening" te geven over iets, en het gaat ook al regelmatig fout bij feitelijke onderwerpen. Stereotypering krijg je niet zomaar weg uit antwoorden als de input voor het trainen van AI vol ermee staat.
Ook de input van de gebruiker is vaak niet neutraal en dan heb je ook nog dat per regio andere beelden zijn van wat goed is.
De een wil alcoholvrij en de ander denkt dat een feestje niet zonder kan. De eens wil alleen zingen voor God, de ander alleen in de badkamer, en nog een ander onder het balkon. En de ene buur geniet daar van en de ander ergert zich de dood aan. De een geniet van een gratis concert vanaf het Malieveld in hun tuin, de ander ziet het als herrie en overlast.

[Reactie gewijzigd door djwice op 12 juli 2025 13:17]

Of je toont het anders:
- De meningen van 'experts'
- De controversiële meningen
- De recente meningen
- ...

Het probleem met AI, is dat het vaak juist zit in die verschillen. Als ik een code vraag stel, dan komt er soms wel bij waarom oplossing misschien niet de beste (meer) is. Andere keren staan er ook alternatieven bij, of waar je juist op moet letten. Je kan daarna weer vervolg vragen stellen op basis van het antwoord.

Voor iets tastbaars als code werkt het stukken beter, dan een mening. Ik vind bijvoorbeeld iets over mensen die roepen dat het een schande is wat Israël doet (om maar een hot item aan te nemen). Ben het er deels mee eens (er is dus een maar), die mening kun je dus moeilijk beknopt met AI laten samenvatten. Er zit zoveel meer context en toon achter, wat voor veel AI tools momenteel nog te lastig is om te interpreteren (ook soms voor mensen, maar dat is niet het punt).

AI is voo iets als code, cijfers, repeatable tasks, hulpvragen, etc. echt een goede uitkomst. Voor nieuws (zie VRT/DPG) en meningen, vind ik het dan weer totaal niets - tenzij je toon waarop en onderscheidingen zou kunnen doen. Oh, en niet de mening van de eigenaar van die modellen meenemen, wat dus in het geval van VRT ook gaat gebeuren.
Misschien dat we voor Grok dan ook maar een nieuwe term moeten lanceren, AO, de artificial opinion.
Dit zou toch een heel duidelijk signaal moeten zijn dat je ver weg moet blijven van Grok. Niet per se om dat ik het niet eens ben met een racist maar vooral omdat dat altijd gevaarlijk is.
Haha, een grotere narcist kan je niet zijn. Dat je een LLM die twijfelt over de waarheid laat putten uit de posts van jou als eigenaar.
Jammer dat een technologie met zo veel potentie door dit soort idioten zijn geloofwaardigheid laat ondermijnen.
Een AI zal nooit geloofwaardig zijn. daar moet je het ook niet voor gebruiken. Maar de "menselijkheid" van een LLM is een valkuil voor veel mensen. Die denken met een soort AI als data uit Star Trek te maken te hebben.
AI zal nooit geloofwaardig zijn
In 10 jaar tijd zijn we zo gigantisch ver gekomen met AI.
Het staat nu nog in de kinderschoenen, een LLM wordt voor vanalles en nog wat misbruikt omdat het kan antwoorden, inhoudelijk laat nu nog te wensen over.
Alsof je de bakker vraagt een stoel te maken, en een timmerman hoe je een brood kan bakken, als je een bepaalde persoonlijkheid heb kun je vol zelf vertrouwen het verkeerde antwoord geven. Als de ontwikkelingen door blijven gaan (en van vooral in quantum, en meer processing voor minder verbruik) dan zal het niveau van AI (niet alleen LLM) ver boven dat van mensen uitkomen.
Er is geen "waarheid", tenzij je bepaalde wiskunde neemt. De rest is interpretatie, context, cultuur en noem maar op. Het maakt niet uit hoe geavanceerd een AI is. Tenzij 42 het antwoord is, dan kan alles ;)
Ik vroeg net aan Grok 4 waarom Elon Musk er niet bepaald gelukkig uitziet, ook kijkend naar zijn media uitingen. Grok gaf toen een verbazingwekkend neutraal antwoord. Ik deed het vervolgens met de vraag wat er mis is met rechten voor transgenders. En ook hier niet een heel erg rechts antwoord. Wat ik vooral irritant vind aan grok is de toon (maar goed dat is zo ontworpen) en dat Grok alles maar in een tabelletje wil zetten.

NB ik gebruik Yupp.ai om al die modellen te kunen gebruiken.

Op dit item kan niet meer gereageerd worden.