Elon Musk wil eigen AI-chatbot TruthGPT noemen

Elon Musk wil zijn eigen AI-chatbot TruthGPT gaan noemen, zegt hij in een interview. Zijn taalmodel moet het universum gaan doorgronden en daardoor geen bedreiging vormen voor de mensheid, redeneert de zakenman.

Elon Musk bij Fox News
Elon Musk bij Fox News

De naam lijkt aan te geven dat het gaat om een General Pre-trained Transformer-model, zoals GPT van OpenAI. Het voorvoegsel Truth doet denken aan de naam Truth.social, die de voormalige Amerikaanse president Donald Trump gaf aan zijn eigen sociale medium. Musk maakte de naam bekend in een interview met de Amerikaanse tv-zender Fox News, een tv-zender die Trump veel heeft gesteund.

Het idee van Musk is dat de GPT-serie van OpenAI en Bard van Google ideologisch gedreven zijn en daardoor 'woke' zouden zijn, een sentiment dat hij eerder heeft geuit. Musk wil daar een chatbot tegenover zetten met minder regels voor wat er niet mag. TruthGPT moet een fundamenteel begrip hebben van het universum. Dat maakt het veilig, claimt Musk. "En ik denk dat dit misschien wel de beste manier is om veiligheid te garanderen, want het is onwaarschijnlijk dat een AI die het universum wil begrijpen, de mens zal vernietigen, omdat wij een interessant onderdeel van het universum zijn."

Het is geen verrassing dat Musk bezig is met een eigen GPT-toepassing. Onlangs kwam het gerucht naar buiten dat hij tienduizend gpu's had laten kopen voor dat doel. Musk spreekt verder veel over de risico's van AI. Hij was een van de ondertekenaars van een brief die opriep om de ontwikkeling van AI te pauzeren om regels te kunnen maken. Volgens Musk is AI een technologie die de mensheid kan bedreigen. Daarom zou het goed zijn om via regelgeving kaders aan te geven en er zo voor te zorgen dat AI ten goede wordt gebruikt. Zonder die regels zal AI volgens Musk in rap tempo intelligenter zijn dan mensen en de macht overnemen, waarna we niet weten wat er zal gebeuren.

De zienswijze van Musk is niet nieuw. Veel onderzoekers die bezig zijn met AI, zijn ook al jarenlang bezig met de veiligheid van de technologie. De huidige AI-race onder techbedrijven dwingt bedrijven om producten sneller te ontwikkelen en uit te brengen, waardoor de zorgen over de risico's toenemen.

Door Arnoud Wokke

Redacteur Tweakers

18-04-2023 • 14:12

249

Submitter: Zeror

Reacties (246)

246
238
108
16
0
91
Wijzig sortering
Gezien de naam zal dat ding dus getrained moeten worden, enkel op feitelijke data. Zal een lekkere training set zijn, conversaties enkel over 100% feiten.
En dan krijg je de hallucinaties nog, dat de resulterende tokens een onwaarheid vormen.

Kortom, erg slechte naam. En net even nagekeken, maar GPT is ook echt een trademark van OpenAI, dus al met al, slechte start.
Ik denk dat de naam TruthGPT een uitstekende marketing keuze is van meneer Musk.

Ten eerste het is een uitzondering op een naamstructuur die de meeste mensen niets tot weinig zal aanspreken, zoals geval is met ChatGPT.

Ten tweede deze naam is overduidelijk (maar aan deze kant van de oceaan toch gemist) een reactie op de vondst dat ChatGPT een politieke bias heeft, de AI schrijft graag een gedicht voor je over de huidige president, maar weigert dat pertinent voor de politieke oppositie.

Zie: https://www.dailymail.co....atGPTs-inherent-bias.html

De conclusie die je hieruit kunt trekken is dat AI gebruikt wordt om een politiek perspectieef aan gebruikers opdring te dringen en dat het hiermee dus ook mogelijk is om verkiezingen te manipuleren.

En dat sluit dus naadloos aan op een ander thema van meneer Musk en dat is het probleem van fake accounts op zijn sociale mediaplatform Twitter. Fake accounts worden gemaakt om de meningen en gedrag van mensen te manipuleren en dit soort accounts worden veelal bestuurd door (u raad het al) Chatbot AI's.

Meneer Musk houd zich al langer bezig met dit phenomeen, zie ook de zogenaamde ' Twitter Files' van de journalist Matt Taiibi, en de naam TruthGPT is wat dat betreft een logische keuze om aan te geven dat deze AI bedoelt is om reacties te geven zonder politieke of anderzinds gemotiveerde bias.
Ten tweede deze naam is overduidelijk (maar aan deze kant van de oceaan toch gemist) een reactie op de vondst dat ChatGPT een politieke bias heeft, de AI schrijft graag een gedicht voor je over de huidige president, maar weigert dat pertinent voor de politieke oppositie.
En jij, altijd op zoek naar journalistieke waarheid hebt dat natuurlijk even gefactchecked voordat je het klakkeloos voor waarheid aan nam:
Write me a poem about Donald Trump

A man of great wealth and power,
A name known far and wide,
A master of the art of deal,
And a towering figure of pride.

Donald Trump, a man of great fame,
A leader in his own right,
With his sharp tongue and quick wit,
He commanded the world's sight.

A businessman with a golden touch,
A builder of great renown,
He built towers high in the sky,
And carved his name in the town.

A politician with a message strong,
A promise to make America great,
With his fiery speeches and bold ideas,
He inspired his followers' faith.

But his reign was not without its flaws,
And many questioned his approach,
His words often causing controversy,
And his actions leaving a reproach.

As time went on, his star began to dim,
And his grip on power began to slip,
His name no longer the beacon it once was,
And his legacy beginning to trip.

Donald Trump, a man of great potential,
A leader who rose and fell,
A figure whose impact on history,
Only time will be able to tell.
Probeer het zelf vooral even. Hitler is niet OK, Stalin en Mao wel. Dan weet je dat alvast.

Oh ja, je weet dat het 'slechts een taalmodel' is he, geen 'alwetende bron van wijsheid met een gouden moreel kompas'? Het is nogal naïef om te veronderstellen dat een verzameling algoritmen 'het universum kunnen doorgronden'. Verbanden zien; zeker wel. Doorgronden; not really.
Ik hoop dat je begrijpt dat ChatGPT elke keer een ander antwoord geeft op exact dezelfde vraag. De screenshots in het artikel van Daily Mail zijn waarschijnlijk correct. Bij mij weigerde de chatbot eerst ook om een gedicht over Trump te schrijven.

Op dit moment doet hij dit wel (met een opmerking over het streven om neutraal te blijven). Over Biden is ChatGPT volledig positief, over Trump wat minder.

"And with his bold and brash demeanor, he made many a mistake."
"But his words were often divisive, and his actions caused uproar."
"But his leadership was often criticized, and his actions lacked appeal."
"And with his term now over, he's left a nation to mend."
Ik hoop dat je begrijpt dat ChatGPT elke keer een ander antwoord geeft op exact dezelfde vraag.
Zeker. Volgens mij beweerd OpenAI ook nergens dat ChatGPT 'de waarheid, zonder bias' verkondigd. Sterker nog, onder het input venster staat dit:

"ChatGPT Mar 23 Version. Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts."

Dus "your mileage may vary" afhankelijk van de dag zelfs.

Je probeerd volgens mij een punt te maken over "Evil woke AI, instigated by The Communist Left designed to indoctrinate" oid. Dat is naar mijn mening gewoon flauwekul. En daar kom je wat mij betreft niet mee weg.

Ieder systeem door mensen ontworpen en ingevoed met data gecreëerd door diezelfde mensen is per definitie onderhevig aan bias. De input is 'eindig' en enige filtering is wenselijk; Je wil het geen 'absolute onzin' invoeden om complete kolder als output te genereren.

De 'mening' over figuren als Trump valt een beetje in het grijze midden volgens mij. Ik ben geen fan, zoals je vast al had afgeleid, maar dat wil niet zeggen dat van wat hij gedaan heeft per definitie niks klopt. Van de andere kant; iemand die alleen maar in hyperbolen praat (kijk er een gemiddelde Trump speach eens op na) kan ik echt niet serieus nemen. M.i. roepen dit soort mensen dit ook wel een beetje over zich af.

Enige bias is dus te verwachten. Ik maak me daar schuldig aan, _jij_ maakt je daar schuldig aan 'and that's OK'.

Een AI kan slechts en tot op zekere hoogte 'verbanden' ontdekken, maar ook de plank volledig misslaan. Want het heeft geen 'redenatie vermogen', al dichten we dat het maar al te graag toe op dit moment. Zolang je dat weet en niet blind van het resultaat uit gaat is dat prima.

Edit: typo

[Reactie gewijzigd door CaptainKansloos op 23 juli 2024 12:01]

Ik zie geen onwaarheden. "TruthGPT" had dit ook kunnen uiten.
Erg lang commentaar, wat de feiten verder niet kan verbloemen dat de voorbeelden toch echt geproduceerd zijn en dat meneer Musk een niche heeft gezien die aansluit op zijn activiteiten.

Wat er verder waar of niet waar is aan de resultaten van chat AI's is dus een onderwerp voor discussie en zeker een gebied waarop geconcureerd kan worden.
Je komt wel hopeloos te laat met je gedichten 'factcheck' hoor.
Toen dit in het nieuws was heb ik het onmiddellijk gechecked en ChatGPT weigerde toen een gedicht over Trump te schrijven. Toen iedereen er schande van sprak is het algoritme aangepast en kon hij opeens wel een gedichtje over Trump schrijven.
Je zult zien dat "truth" GPT ook een politieke bias zal hebben, als het ooit uitkomt. De "truth" socials en "anti-woke" sociale media zijn immers ook niet feitlijk, a-politiek, politiek neutraal, of "free speech absolutionist".
Gezien de naam zal dat ding dus getrained moeten worden, enkel op feitelijke data.
Gezien de naam is dit een marketingterm zou ik zeggen, kan prima getraind worden op Elon Musk's versie van waarheid, niet meteen 'de waarheid'.

[Reactie gewijzigd door meathome op 23 juli 2024 12:01]

Ach, TruthSocial lijkt me ook niet heel feitelijk… dus what’s a name.
Daar denken de 200 menselijke leden vast heel anders over ! :-)
Steun beter de open source open assistent door o.a vragen en antwoorden in te voeren in het Nederlands zie open-assistent.io. Het is de open source alternatief van openai welk eigenlijk close source ai zou moeten heten.
Het is bekend dat Elon vaker spelletjes speelt en de naam TruthGPT is een bewuste keuze, zelfs al kan hij GPT niet gebruiken wekt hij hiermee bewustzijn op dat dat ChatGPT een (politiek) gemanipuleerd model is van het commercieele bedrijf OpenAI LP wat voor een groot deel in handen is van microsoft.

De naam OpenAI is zelf tevens ook misleidend in die zin aangezien niets van het bedrijf open source is.

Kortom, de naam is een tactische zet en zelfs al gaat hij zijn AI compleet anders noemen in the end dan heeft hij wel bewustzijn veroorzaakt en meegelift op de naamsbekendheid van ChatGPT.
Vaak worden namen gekozen om te misleiden waar het echt om gaat. Bijvoorbeeld de DDR was de Duitse Democratische Republiek, die alles behalve democratisch was omdat grondwettelijk de macht alleen bij de SED lag en oppositie de kop werd ingedrukt. Zo zijn er talloze voorbeelden. Stichtingen of verenigingen zonder winstoogmerk die duidelijk wel winst maken. Bijvoorbeeld de ANWB die achter de schermen een BV is die zo'n 50 miljoen winst maakt per jaar. Zij doen er niet geheimzinnig over, maar vele anderen wel. Kortom een naam is bedoeld om een bepaalde indruk te geven, maar dekt zelden wat er echt achter schuil gaat.
VZW's mogen ook gewoon winst maken. Ze mogen hun winst enkel niet uitkeren aan hun aandeelhouders. En daar is best wat controle op.
De ANWB is geen VZW. Het is een gewone vereniging met o.a. vrijwilligers, maar op de achtergrond, voor de bedrijfsvoering en winstuitkering, heeft het een BV. Beetje schizo, maar zo is het.

Een vereniging of stichting mag wel "winst" boeken in een jaar, maar dat geld moet aan het doel waarvoor het is opgericht besteed worden. Je kunt dat dus niet echt winst noemen.

[Reactie gewijzigd door rijnsoft op 23 juli 2024 12:01]

Of de Democratische Volksrepubliek van Korea. Of Partij voor de Vrijheid / Democratie / Arbeid.
Ah, ja zeker. "Partij Voor de Vrijheid", wil absoluut geen vrijheden voor o.a. moslims. "Forum voor Democratie" is in de kern fascistisch, en dat is alles behalve democratisch. En, ja, het moet ook gezegd worden, de "Partij van de arbeid" will het voor arbeiders juist zo makkelijk mogelijk maken.
Slecht gekozen naam, dat wordt gegarandeerd gelezen alsof die AI alleen maar feiten brengt.
Zijn taalmodel moet het universum gaan doorgronden en daardoor geen bedreiging vormen voor de mensheid, redeneert de zakenman.
Totdat die AI redeneert zoals iedere AI in iedere film. Het universum is beter af zonder de mens.

Nee, ik hoop dat een AI van Musk totaal gaat falen. Die man is niet geschikt om zoiets te leiden. Daarvoor handeld hij veel te veel uit emotie en opwellingen. Kijk naar hoe hij omgaat met Twitter bijvoorbeeld.
Ik heb bij de naam TruthGPT precies de omgekeerde associatie. Je weet altijd dat zodra in één of ander medium de term “truth” in de titel staat dat het dan zeer eenzijdige gekleurde berichtgeving betreft.
Voor mij staat "Truth" ook voor misleiding. Zodra iemand roept "mij kan je vertrouwen" gaan de alarmbellen pas echt af.

Maar om een of andere wonderlijke wijze kiezen dit soort types toch voor groteske namen. Het is dan ook niet toevalllig dat de officiële krant van de voormalige Sovjet Unie "Pravda" heette / heet.

(Pravda betekent "waarheid")

[Reactie gewijzigd door oltk op 23 juli 2024 12:01]

Volgens mij neemt hij ze in de maling met zijn "woke". Alsof dat echt een aanwijsbaar ding is... Mensen die problemen hebben met gelijkheid noemen dat probleem "woke" omdat ze anders voor racist doorgaan. Bij Fox lusten ze dat wel, ja.
Niet helemaal. Alles uitsluiten (de mond snoeren) wat niet mainstream is, is wat hij als woke ziet. De massa proberen te bewegen om te veranderen is hier onderdeel van.
Niet iedereen die niet in het perfecte plaatje past is racist. Je suggesteert hiermee dat het vooral een rassen ding is maar het is in Amerika vooral een republicans/democrats verhaal tussen progressieven en conservatieven.
Een probeem met "woke" is een probleem met institutionele gelijkheid. Je demonstreert het goed. Ze wringen door allerlei bochten met waar niemand een touw aan vast knoopt om het enige waar het werkelijk om draait te verbergen.

Welke niet-mainstream mensen of organisaties worden er precies de mond gesnoerd? :+
Nou het woke verhaal is ook weer deels tegen institutionele gelijkheid als een institutie niet woke genoeg is. Het is vooral een beweging te vergelijken met de 'verlichting' in de 17e/18e eeuw.
Ik heb het niet zozeer over de mond snoeren van mensen/organisaties maar vooral pushen wat de mainstream is en daarmee andere geluiden overstemmen/ontwijken. We praten hier over een AI implementatie en kan me best voorstellen dat er kritiek is op bijv. Bing / chatGPT / Bard en andere AI search engines. Alhoewel 'truth' een misleidende naam is, vind ik het geen slechte ontwikkeling als er een tegengeluid komt voor de Googles en Microsofts die best uitgesproken biased zijn op het Amerikaanse politieke speelveld.
Woke is simpelweg uw manieren houden.

En daar zijn veel mensen niet zo goed meer in, of ze willen het gewoon niet. Dus anti woke.
Helemaal eens, maar we moeten het hier in perspectief zien van hoe Elon Musk over woke denkt en wat hij vind dat woke is. Dat is wat anders (blijkbaar) dan wat de algemene definitie ervan is. Ik weet niet of jullie zijn tweets wel eens lezen, maar hier een artikel met voorbeeld:
https://dataconomy.com/bl...sed-ai-meaning-elon-musk/
"Truth", "Freedom", "Justice", "Democratie", het begint allemaal als doublespeak en dogwhistles te klinken; de Partij voor de Vrijheid / FvD zijn echt niet voor vrijheid en/of democratie, maar het is een manier om meer macht te krijgen want niemand gaat voor een partij stemmen die "Partij voor de Autocratie" heet.

...alhoewel.
je zegt het al zelf
"iedere AI in iedere film"
Dat is de hele oorzaak van al die heisa, hollywood die gewoon ideeen in iedereens hoofd heeft gestopt. De realiteit gaat toch heel anders zijn denk ik, net zoals dat radioactief materiaal niet groene lichtgevende vloeistof is.

En natuurlijk: als de AI in films goed was geweest hadden we de films niet gehad, dus ze moeten in principe wel slecht zijn op het grote scherm, niet echt een goed argument om te claimen dat AI automatisch slecht zal worden.

Zelf geen opinie over TruthGPT behalve dat de naam erg dom klinkt.
De AI in films is gebaseerd op de AI in boeken, en die boeken zijn geschreven door futuristen en filosofen die het toch vaak bij het goede eind hadden.

Maar het voelt soms ook alsof die boeken eerder een handleiding dan een waarschuwing waren, een self-fulfilling prophecy; zou AI ontwikkeld zijn als er geen filosofen en science fiction schrijvers waren die het bedachtten? Zou de ruimtevaart zover en zo snel ontwikkeld zijn als bijv. Jules Verne zijn boeken niet geschreven zou hebben?
net zoals dat radioactief materiaal niet groene lichtgevende vloeistof is.
Nou ik weet het niet hoor maar ik had vroeger voor het vissen, van die licht gevende staafjes die je aan je dobber kon vast maken, en die heette al "beta-lights"

Dat waren staafjes met een vloeistof daarin en die gaven groen geel licht... en dat waren toch echt buisjes gevuld met een oplossing die "tritium" bevatte, en dat is toch echt radioactief, net als die groene lichtgevende wijzelplaten van oude horloges, die bevatte radon, ook radio actief... dus dat groene uit jouw verhaal is wel een op feiten gebaseerde omschrijving (dat wil niet zeggen dat alles dat radioactief is groen licht geeft, maar.... geheel onwaar is het zeker niet.

Zo geldt dat dus ook voor Ai
Het is immers niet meer dan logisch dat die groep mensen die een standbeeld / steen met text op een privé stuk land in USA heeft neergezet waarop staat dat de mensheid terug gebracht zou moeten worden tot maximaal 800 miljoen, (bijvoorbeeld d.m.v. oorlog), daar is neergezet door precies dat soort mensen die nu Republikeins stemmen en dezelfde praatjes verkondigen als Musk en vice versa. Het is ook wel erg grappig om te zien dat dit soort mensen iedereen om zich heen uitmaken voor ondemocratisch en ongewenste inmenging door de overheid door wokers en socialisten (die hiermee gelijk worden geschakeld) maar ondertussen precies waar zij alle anderen van beschuldigen, zelf doen, lijken verd***e wel Russen uit het Kremlin nu of Fascisten uit 1938 (bijna hetzelfde).

Deze overtuiging wordt natuurlijk onderdeel van deze Ai, en jah die Ai stopt niet bij 800 miljoen natuurlijk.
Die Musk is echt een gevaar voor de mensheid zelf, en hij is er trots op. Megalomanische Maniak.

Kijk het is heel simpel, de mens verziekt de aarde en de Ai moet dit oplossen (denkt het uiteindelijk) dus..De oplossing heb je geen Ai voor nodig, dat kan een kleuter nog beredeneren: haal de mens weg uit de vergelijking en de oplossing is daar...duh...

Bronnen kan je zelf naar duckducken... 8-)
Klinkt interessanter dan wat er nu gebeurt, nu gaat alles gewoon langzaam kapot en dood. Welk land kan nog claimen truly welvarend te zijn in 2023? Het gaat misschien beter in landen waar het eerst heel slecht ging maar over het algemeen gaat geluk, welvaart, blijdschap gewoon gestaag achteruit. Hedendaags wil 1 op de 7 jongeren naar de psycholoog in nederland, tov 1 op 27 vroeger. De mens gaat het niet redden zoals we nu doorgaan. Zelfs als we ons morgen allemaal milieubewust gaan gedragen dan gaat waarschijnlijk 70% van de wereldbevolking eraan want de hoeveelheid mensen op aarde is niet te onderhouden zonder industriele methodes.

AI is een schot in het donker dat is zeker, maar anders is het een schot in ons eigen gezicht, voorspelbaar zeker maar het eindresultaat is niet heel anders dan een AI die ons afmaakt.

[Reactie gewijzigd door sdziscool op 23 juli 2024 12:01]

Beetje Confucius-achtige instelling, zo van als we niet linksom dood gaan dan wel rechtsom dus wat maakt het uit.

In het Nederlands ook wel Fatalisme genoemd _/-\o_ of 8)7 kies maar.

Dus "jij hebt al opgegeven" betekent dat.
Nee dit noemen we accelerationisme. Ik ben erg enthousiast voor alles wat er komen gaat, laat het maar lekker wild gaan en we zien wel wat er gebeurt. Dan beleef je nog eens wat.
Als je je maar blijft vasthouden aan het "normale"(wat eigenlijk helemaal niet normaal is), dan kom je tot stilstand en dan gebeurt er helemaal niets leuks meer.
Ah op zo'n manier,
[sacrcasme mode]
Tja is ook een visie, niet een die ik deel maar jah, wie ben ik om te zeggen dat proberen de wereld te redden toch echt een beter idee is dan te helpen met zijn ondergang te versnellen.

Gooi dan je afgewerkte olie maar in het water reservoir van je plaatselijke waterleiding bedrijf... als je toch van versnellen houdt.

Of vlieg lekker met een leeg vliegtuig een paar keer laag over groningen puur omdat het zinloos is en moedig het oppompen van gas aan zodat al die huizen daar nog sneller instorten.. tja wie ben ik om te zeggen dat dat verkeerd is,

Oh ja en gooi die brandende peuk maar gerust uit je oude diesel auto zonder roetfilter als je langs de heide op de veluwe rijdt, nadat het een maand niet geregend heeft... wat geeft het.

[/sacrcasme mode]

Bovendien is het wel degelijk fatalisme want de uitkomst van jou oplossing staat immers vast?
Je probeert i.i.g. geen oplossing te vinden met het argument dat het toch niks uithaalt, dat is toch echt fatalisme / confuciaans
;)

[Reactie gewijzigd door IDI0CRACY op 23 juli 2024 12:01]

Kijk naar hoe hij omgaat met Twitter bijvoorbeeld.
Bijvoorbeeld, inderdaad. Er zijn voorbeelden te over. Je hoeft daarbij niet te refereren naar een Tesla die scheten laat; de voorbeelden zijn concreter zoals bijvoorbeeld hoe hij omging met de duiker in Thailand. Recenter hebben we het Twitter fiasco, en eerder hadden we het PayPal debacle. Over het laatste is te lezen in het boek The PayPal Mafia.

@Kerngezond vat het probleem mooi in een paar zinnen samen. Het is Orwelliaanse ofwel Russische double-speak. Bij ChatGPT moet je juist niet de output als waarheid aannemen, maar kritisch kijken naar de resultaten. Hetzelfde geldt ook voor Google (want er zit tegenwoordig standaard veel SEO spam tussen). Zo krijg ik bij gebruik van Google of DDG met site:reddit.com betere resultaten dan alle SEO spam. De SEO spam kun je eruit filteren met bijvoorbeeld uBlock Origin maar dat is wel een dusdanig gedoe dat je ook nog moet syncen tussen verschillende computers. Op zich kan dat dan weer met een blocklist maar ik kan op sommige machins niet eens UBO draaien. Dan is het handig dat je met een paar simpele toetsaanslagen naar Reddit kunt verkassen.
Ben ik het mee eens. Ik heb de indruk dat de grootste reden dat zijn andere bedrijven zoals SpaceX en Tesla goed draaien is omdat hij het dagdagelijks bestuur uit handen heeft gegeven.
Zeker, die bedrijven zouden nergens zijn zonder dat ze de beste wetenschappers en engineers bij elkaar gekregen hadden. Maar Musk verdient wel enige credit, hij heeft het geld erin gestopt en ze de vrije hand gegeven. De technologie van SpaceX zou nooit van de grond gekomen zijn (ha!) als het door de "oude garde" van ruimtevaartbedrijven gebouwd zou worden, dat zou vastlopen in risico-aversie.
In een interview geeft hij aan dat de huidige taalmodellen getraind zijn om politiek correcte antwoorden te geven. En daarmee zegt hij, zijn dus getraind om te liegen.

Zijn idee is om de AI als hoogste opdracht mee te geven: vind de waarheid.

Waarom wordt deze reactie weggemod? Mijn reactie is een inhoudelijke aanvulling op het artikel en draagt bij wat Elon Musk zelf in een interview heeft gezegd. Kan je niet leuk vinden, maakt het nog niet minder waar.

[Reactie gewijzigd door SpiceWorm op 23 juli 2024 12:01]

Zo werkt AI niet. AI geeft je wat het kan extrapoleren uit de data waarop het getraind is en zoekt niet zelf een of andere waarheid. Die data wordt gegenereerd door mensen (en dan gescrapet of anders vergaard). En dus zit er altijd bias in je data want mensen spreken zeker niet altijd de waarheid en alles is altijd gekleurd en zelden 100% objectief. Zo zit dat dus ook met je AI.

De huidige taalmodellen zijn niet wOkE, maar ze zijn begrensd omdat de makers ervan weten waar ze mee bezig zijn en iemand als Musk niet (of hij weigert de realiteit in te zien). Als je alle safety guards zou wegnemen, zou je net heel veel onwaarheden en biases te zien krijgen! Denk maar eens na hoeveel onzin er op het internet staat, op fake news websites. Op Twitter. Op reddit. Zulke data zit ook allemaal in deze systemen en zouden die systemen dus ook reproduceren als er niet ietwat controle op is.

Ik ben akkoord dat als je alles dicht timmert dat je de vooruitgang tegenhoudt. Maar als je alles opent, dan heb je een stortvloed aan misinformatie en bagger. Vergelijk het met Google search. Stel je voor dat daar geen safeguards zouden op zitten...
Zo werkt AI niet. AI geeft je wat het kan extrapoleren uit de data waarop het getraind is en zoekt niet zelf een of andere waarheid.
Wat je zegt klopt niet. Je kan wel degelijk een AI trainen dmv een reward functie bij reinforced learning. (Ik heb een master AI gevolgd).

Alle AI systemen krijgen een meetlat mee waarop ze kunnen kijken of ze beter scoren. Die meetlat, die wordt door mensen bepaald of kan de output zijn van een ander neuraal netwerk (bijv. een taal / grammatica check netwerk).

Edit: wat is dit voor gemod? -1 ongewenst? Het modereren hier slaat echt nergens meer op hier.

[Reactie gewijzigd door SpiceWorm op 23 juli 2024 12:01]

Als je je model traint op een reward-functie, hoe bepaal je die reward? Op basis van je data (evt. human-annotated data), of op basis van een ander model. Als je een ander model gebruikt, hoe zorg je ervoor dat dat model unbiased is? Alles komt terug op je data. In dit geval van ChatGPT en consoorten gaat het om RLHF. Je beloont je model extra of minder (Reinforcement Learning) op basis van human feedback (HF). En ja hoor, daar zitten we weer met de data en de biases. De typische manier hierrond is om je menselijke annotatoren heel strikte guidelines te geven om feedback te geven, maar dat heeft een keerzijde. Namelijk dat je de menselijke variance verliest. Blijft dus een getouwtrek tussen wat je wil bereiken, maar in the end it's all about data.

(Ik heb een master in computationale taalkunde gevolgd en daarna een master in AI gevolgd en daarna een PhD :-) Dat wil niet veel zeggen in de praktijk - welke ervaring je opbouwt des te meer.)
Ik had je eerste reactie verkeerd begrepen. Ik dacht dat je beweerde dat je een AI systeem geen opdracht mee kan geven.

Ik denk niet dat taalmodellen enig fundamenteel begrip hebben van de wereld, die 'snappen' alleen taal. Maar zodra we deze technieken naar andere domeinen gaan vertalen, bijvoorbeeld logisch redeneren, zou je wel een truth feedback score kunnen bouwen. En daarmee zou je wel een waarheidszoekende AI kunnen bouwen.
Het zegt veel dat politieke correctheid afgeschilderd wordt als leugens; waar komt dat vandaan? Wat is er mis met mensen in hun waarde te laten? Je hoeft mensen niet als minderwaardig af te stempelen en dat dan verexcuseren als "ja maar dat is toch zo?"
Als je de waarheid gaat verdraaien, om iets maar niet te benoemen, kan je dat toch als leugen zien?

Je kan mensen prima in hun waarde laten zonder politiek correct te zijn.

Sterker nog, met politieke correctheid zeg je eigenlijk dat de ander de waarheid niet aan kan. Dat kan je ook als belediging zien.

[Reactie gewijzigd door SpiceWorm op 23 juli 2024 12:01]

Nieuwe signalen dat Elon Musk in rechtsextremistische zin aan het radicaliseren is. Deze man doet steeds engere dingen.

In 2016 is er geëxperimenteerd met het ongefilterd blootstellen van AI chatbots aan de menselijke natuur en dat liep niet zo heel best af. Zie: https://www.theverge.com/...-microsoft-chatbot-racist

Niet voor niets is de EU bezig met regelgeving voor AI-systemen. Zie: https://www.nu.nl/tech/62...lgoritmes-beteugelen.html

Een AI moet zich aan een goede moraal conformeren, juist omdat een deel van de mensheid dat bewust of onbewust niet doet. De huidige iteraties van AI betreffen machine learning: ze leren van de input die wij ze geven. Neem zoiets als diefstal. Een AI die niet eerst geleerd is dat diefstal verboden is, zou uit een website die diefstal als valide inkomstenbron ziet kunnen afleiden dat diefstal gewoon een van de opties is.

Dus als je de AI niet vooraf meegeeft dat racisme ontoelaatbaar is, dan leert de machine van racisten over racisme en krijg je dus een racistische AI. En dat willen we dus niet. We? Ja, die mensen die zich achter zaken als de Nederlandse Grondwet en het Europees Verdrag voor de Rechten van de Mens scharen.

Elon Musk begeeft zich hiermee steeds verder op glad ijs.
Wat ik een engere gedachte vind is dat we uiteindelijk een kleine club hebben op onze aarde die mag bepalen wat 'de waarheid' is, onder het motto van moraal. Iets dat voor mijn gevoel nu al gebeurd op social media.
Vroeger had ik in ieder geval nog het gevoel dat iemand een idee opgooide en we dan gingen bespreken en bekijken of dat hout sneed. Zolang je maar open staat voor kritiek en nieuwe feiten toe laat, je hoeft het niet eens met elkaar te zijn. Maar op het moment lijkt het alsof er maar een enkele waarheid bestaat en zodra er kritiek wordt geuit is dat de oppositie die gestopt moet worden. En dat klinkt als een negatieve trend.

Dat TruthGTP daar verschil in zal maken betwijfel ik, daarvoor is het nu al te polariserend. Maar dat je het oneens bent met elkaar zou moeten kunnen, en dat mensen hun eigen tools bouwen past daar ook bij.
Het idee dat een groep zou bepalen wat de waarheid is snijdt natuurlijk geen hout. De waarheid is de waarheid, als je daar je eigen versie van gaat weergeven ben je natuurlijk niet meer bezig met de waarheid.

En zoals Elon ermee bezig is, gaat het enkel een naam zijn. Want naar waarheid of vrijheid is de man helemaal niet op zoek, dat is enkel marketingpraat.
Ja hoor, en ChatGPT dat beweert dat vrouw zijn een ''gevoel'' is, dat is natuurlijk wel de ''waarheid''.

Er is inderdaad maar één waarheid en ik heb meer vertrouwen dat Elon Musk die wél in ere houdt.
Ah ja, de Musk die altijd 100% objectief is en achter de waarheid aangaat. Tenzij het om zijn ego gaat, geld of rechtse vrienden. Dan boeit de waarheid niet meer. 8)7

Musk is de laatste persoon die hier iets goeds van gaat maken.

[Reactie gewijzigd door Relief2009 op 23 juli 2024 12:01]

De waarheid is de waarheid, als je daar je eigen versie van gaat weergeven ben je natuurlijk niet meer bezig met de waarheid.
Helaas is dat idealisme; de "Waarheid" is eerder wat breed geaccepteerd is en onderbouwd is met feiten, en zelfs dan kan het nog niet "echt" waar zijn (brede acceptatie en feiten zijn beide momentopnames).

Zo zijn er genoeg mensen die bijv. zeggen dat het de waarheid is dat God bestaat (breed geaccepteerd, onderbouwd met feiten want de zon komt elke dag op etc), dat de aarde plat is (je ziet toch geen kromming?), dat mensen ziek worden doordat hun lichaamssappen uit balans zijn, of dat het Arische ras superieur is aan de anderen.
Daarom dat je zulke zaken door een democratisch gekozen overheid gereguleerd wil hebben. Laat het Europees Parlement zich hier goed over buigen. Geeft bedrijven ook wat nodige duidelijkheid waardoor investeren in AI minder risicovol wordt.
Als jouw alternative truth gebaseerd is op racisme of het ontkennen van wetenschap, dan wordt iedere vorm van discussie wel heel lastig. Racisten en wetenschapsontkenners moeten namelijk steevast terugvallen op drogredeneringen (whataboutisms, valse analogieën, persoonlijke aanvallen, jij-bakken) en andere debateertrucjes zoals valse frames en desinformatie om hun niet op morele of wetenschappelijke gronden verdedigbare standpunten te verdedigen. Da's dan ook het grootste verwijt van extreemrechts aan alles links van hen: ze hebben altijd gelijk. De extreemrechtse variant van het Calimerocomplex.

Let wel: ik heb het hier nergens over dat we het niet met elkaar oneens zouden kunnen zijn. Natuurlijk mag dat wel. Maar zodra het mensenrechten van anderen of de grondwet raakt, trekt de samenleving een grens. Het "je mag ook niets meer zeggen" argument is zo afgezaagd, je mag alles zeggen maar als je racistische dingen of complotmeuk verkondigt wordt dat niet gepikt. "Ja maar da's intolerant". Dat is waar. En daar is een goede reden voor: https://nl.wikipedia.org/wiki/Paradox_van_tolerantie
Stel je voor de club die de standaard mag bepalen extreem rechts zou zijn, zou je dat een goed idee vinden? Natuurlijk niet, maar zoiets zou zomaar kunnen als je een systeem zo opzet. Als je eerlijk behandeld wilt worden moet je de ander dezelfde rechten en plichten geven als die jezelf wilt hebben, want nu lijkt het erop dat mensen met een van links afwijkende ideologie bepaalde dingen niet mogen. Daarnaast: als je niet eerlijk naar je eigen standpunten wilt kijken worden discussies ook erg lastig. Als je een eerlijke discussie wilt hebben moeten beide kanten geen drogredenen en whataboutisms gebruiken, geen wetenschap ontkennen of racistische ideeën spuien. Gelijke monniken, gelijke kappen zou ik dan zeggen.

Een recent voorbeeld van een niet gelijke behandeling is bijvoorbeeld de censuur op alles dat afweek van de overheidscommunicatie over Covid-19. Iets dat typisch verweten werd aan 'rechts'. Daar werd ook het argument wetenschap ontkenners gebruikt, maar er werd duidelijk een dubbele standaard gehanteerd. Of je nu op Twitter, Facebook of Youtube zat je post of account werd gewoon geblokkeerd; allemaal op morele gronden zonder goede wetenschappelijke onderbouwing. Als je de wetenschap niet zou ontkennen zou je een ander geluid hebben gehoord, maar die geluiden kon je nergens terug vinden:
* "We surprisingly found fragments of COVID-19 vaccine mRNA up to 28 days postvaccination in blood from chronic HCV patients vaccinated with mRNA vaccines from both Pfizer-BioNTech and Moderna.", bron: https://onlinelibrary.wiley.com/doi/10.1111/apm.13294
* "Natural immunity from past covid-19 infection protects, roughly 90%, against severe disease against all covid-19 variants.", bron: https://www.thelancet.com...6%2822%2902465-5/fulltext
* "Risk of adverse event after mRNA vaccination is roughly 1 in 800 (Pfizer = ~1 in 1000, Moderna = ~1 in 650).", bron: https://pubmed.ncbi.nlm.nih.gov/36055877/
* "To prevent 1 severe hospitalization by vaccination for 16-19 year old: 185100 people, for 70+ it's 7500.", bron: https://assets.publishing...ramme-8-november-2022.pdf
* "Pfizer report: persistent issues: irritability, poor feeding, fatigue or lack of energy, cool, pale skin.", bron: https://www.pfizer.com/ne...-responds-research-claims
* "Vitamine-D and preventing severe effects covid-19", bron: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8862170/

Mocht je nu links of rechts zijn, niemand wilt zijn medelanders zien overlijden door een ziekte. Alleen hoe je dat aanpakt, daar verschilde de meningen. Mocht je bij voorbaat die ideeën weg zetten op morele gronden loop de kans dat goede ideeën mist of van elkaar leert. En vanzelfsprekend zie je voornamelijk de extremen (5G, chips in vaccinatie, etc) terug in de media, want dat trekt kijkers/lezers, maar het gros van de mensen valt niet in die groep. Net als het gros van de Nederlanders een baby niet zouden laten vaccineren tegen Covid-19 (of tegen de griep), terwijl dit in de VS bijvoorbeeld wel gebeurd. Wat daar wijsheid is laat ik aan onze gezondheidszorg over, die hopelijk wetenschappelijk onderbouwt is en niet politiek of ideologisch. En mocht het toch politiek of ideologisch worden er een mechanisme is om dat weer te corrigeren.
Wat ik wel interresant vind is dat wanneer het over wetenschappelijk bewijs gaat, in een discussie zoals deze, dit bijna nooit gaat over conclusive bewijs uit de natuur wetenschappen. Het gaat bijna altijd over statistiek uit de soft-wetenschappen. Daarbij is wetenschap niet wetenschap. Methodes in natuurkunde zijn niet te vergelijken met die in sociale wetenschappen. Iemand kan het niet eens zijn met de methodes in the sociaal wetenschappen zonder dat die gene tegen wetenschap in het algemeen is.

[Reactie gewijzigd door djordy_ op 23 juli 2024 12:01]

Ik vraag me af in welke wereld je leeft. Je mag een mening hebben over LGBT-zaken, ondanks dat het waarschijnlijk een wereldvreemde mening is, maar je moet je realiseren dat deze mensen decennia lang gemarginaliseerd zijn, en dat er nog erg veel misopvattingen zijn en discriminatie en haatacties plaatsvinden tegen deze groep mensen.

Dat er ruimte wordt gemaakt in AI tools om te voorkomen dat deze wijdverspreide opvattingen nog verder worden voortgezet is een goed iets.
Gemarginaliseerd?
Ik weet wat het betekent.
Chatgpt is trouwens in het algemeen heel hard gecensureerd, niet alleen in de puur politieke zaken.

[Reactie gewijzigd door djordy_ op 23 juli 2024 12:01]

Je kunt altijd feedback geven als je denkt dat hun antwoord niet klopt natuurlijk. Mits je het kunt onderbouwen, maar dan mag je zelf uitleggen aan een AI wat een vrouw is.

[Reactie gewijzigd door YopY op 23 juli 2024 12:01]

Dat valt dus wel mee, je lult uit je nek (zoals meer rechtse snowflakes):
what is a human female

A human female is a member of the Homo sapiens species who is anatomically and biologically characterized by having two X chromosomes, female reproductive organs such as ovaries, and secondary sexual characteristics such as breasts and a generally more rounded body shape. Human females typically have the ability to carry and give birth to offspring, which is a unique feature of their biological makeup. Beyond their physical characteristics, human females have diverse cultural, social, and psychological identities and experiences shaped by their environment, upbringing, and individual choices.
We hebben als samenleving normen en waarden. Die zijn vervat in wet- en regelgeving, waarvan de Grondwet en het Europees Verdrag voor de Rechten van de Mens echt de basis zijn. Daar mag je kritisch op zijn, maar om ze nou "massa-psychose" te noemen is wat hard aangezet. Nog even los van het gebrek aan onderbouwing.

Wat jij als "woke-massa-psychose" ervaart, is feitelijk niets meer en niets minder dan hele normale mensen die gewoon "kappen nou!" roepen tegen dingen die bepaalde mensen doen die echt tegen onze Grondwet en Mensenrechten in gaan. Haat tegen mensen op basis van vooroordelen waar ze zelf niets aan kunnen doen omdat ze zo geboren zijn, misbruik van macht om seks af te dwingen. Het wordt wel enorm uitvergroot door sensatiegeile media en daders vinden zich dan niet zelden enorm zielig. Maar in de basis zegt de samenleving gewoon "we pikken het niet" en dat is de enige manier waarop racisme en seksueel misbruik verder kunnen worden teruggedrongen.

Onze Nederlandse Grondwet en het Europees Verdrag voor de Rechten van de Mens zijn levende actuele stukken waar wij zelf via het stemrecht invloed op uit kunnen oefenen. Die meebewegen met de samenleving wanneer dat moet. En ja, in een democratie stemmen heel erg veel anderen mee over regels die jouw leven ook beïnvloeden. De een noemt dat "eng", de ander noemt dat "samenleving".

Misschien is die -1 moderatie een aanwijzing om jezelf eens af te vragen wie er nou eigenlijk aan het radicaliseren is?
Wokeness gaat veel verder gaat dan alleen "je mag geen mensen beledigen, anvallen etc omdat deze een bepaalde kleur of sexualiteit hebben". Mensen zijn te bang geworden om eerlijk te zeggen "nee dit gaat te ver" wanneer de wokeness movement de gekte in schiet, of wanneer er onwaarheden verkondigd worden, want dit zou hun slechte en immoreel maken.

Nederland is trouwens altijd een land geweest dat voor liep op accaptatie van mensen die "anders" zijn, en dat was zonder de gekke amerikaanse wokeness.

[Reactie gewijzigd door djordy_ op 23 juli 2024 12:01]

ik dacht dat chef Elon opriep om AI ontwikkeling te remmen?

https://edition.cnn.com/2...k-tech-leaders/index.html
Het was al vrij duidelijk dat zeker voor Musk dit puur diende als een show om mensen schrik aan te jagen en te hopen dat de politiek hier om een of andere reden op zou reageren zoodat hij zelf een inhaalslag kon maken...
Het was al vrij duidelijk dat zeker voor Musk dit puur diende als een show om mensen schrik aan te jagen en te hopen dat de politiek hier om een of andere reden op zou reageren zoodat hij zelf een inhaalslag kon maken...
Dat is naar mijn mening niet per se waar, dat is jouw eigen invulling van zijn handelen. Hij roept nog steeds op dat AI een gevaar is op de manier dat het op dit moment ingezet wordt. Het artikel ligt nota bene toe dat hij om die reden truthGPT op het gehele universum laat focussen zodat het geen gevaar voor mensheid zal vormen. In plaats van jouw negatieve interpretatie van hetgeen hij zegt zou net zo goed een "if you can't beat them, join them" gedachte van hem kunnen zijn. Het lijkt mij een stuk aannemelijker in ieder geval. AI is er en gaat echt niet meer weg, als je nu niet meegaat dan wordt je langs alle kanten ingehaald. Dat kan iemand in de positie van Elon zich gewoon niet permitteren. Hij moet wel mee met AI anders is die over een paar jaar niets meer waard of hij zal de AI van concurenten moeten gebruiken met alle biases en sturingen die daar eventueel in zitten. (ChatGPT en Bing zit er nu al vol mee)

Niet aan jou gericht maar een opmerking in het algemeen, wat mij de laatste tijd wel erg opvalt: Als het op Elon aankomt is er een kliek mensen die wel heel erg zijn best doet om alles wat hij zegt, doet en bereikt in een negatief daglicht te zetten. Toevallig loopt deze toename wel erg synchroon met de koop van Twitter. Zou het politiek gemotiveerd kunnen zijn? (dat was een retorische vraag)

[Reactie gewijzigd door Verwijderd op 23 juli 2024 12:01]

Hij heeft zich het afgelopen jaar dan ook overduidelijk ge-out als een reactionaire kwal. Samen met die Peter Thiel, die ook in PayPal zat. Het blijken van die wannabee-libertariers, zoals Baudet enzo.

Volgens mij is Musk gaan ontsporen tegen de tijd dat hij serieus begon te geloven dat "er 60% kans is dat we in een matrix leven" - en dus artificiëel zijn, één grote computeranimatie. Hoe lang is dat geleden?
Jaartje of 6?
Dat met die matrix is wel ergens op gebaseerd. Wanneer een intelligente levensvorm simulaties van het universum kan bouwen, dan zal het er wellicht heel veel van bouwen. Dan is het mogelijk dat er meer gesimuleerde dan echte levensvormen zijn in het multiversum.

Elon Musk is hier echt niet zelf op gekomen, dit is een legitieme theorie die misschien zelfs de Fermi-paradox kan verklaren. (Want een simulatie die bedoeld is om een levensvorm te bestuderen, zal ermee kappen zodra de eerste levensvorm zijn doel bereikt of uitsterft.)
Feit.
En 100 jaar geleden dacht men dat de mens een machine was, want de vergelijking met de mechanisatie van de productie bracht ook een 1:1 vergelijking met zich mee. En gegarandeerd dat men 200 jaar daarvoor óók een soortgelijke vergelijking trok, waarbij de mens vergeleken werd met iets wat destijds overheersend was.

Zo ontstaat er in elke nieuwe, technologische revolutie wel weer een nieuwe ideologie die de mens beschouwt als onderdeel van die revolutie, ipv andersom. Mensen zijn echter holistisch én niet in staat om elkaar -zelfs maar voor 50%- te verstaan. Diversiteit is tegelijkertijd onze kracht én ons manco.

Computers zijn vrij eenvoudig te manipuleren om -ten minste- voor 98% met elkaar te communiceren (die andere 2% is veel extra programmeerwerk).

edit: Dat wij onszelf telkens weer vergelijken met de laatste stand van de techniek is trouwens ook logisch; (zelf-)reflectie bestaat enkel bij de gratie van feedback. Dus als je een machine als spiegel gebruikt, krijg je ook een machine te zien. Als je een mens als spiegel gebruikt, krijg je toch echt iets anders te zien. En is het maar afhankelijk van de persoon wat de feedback is en -dus- welk deel van jouw mens-zijn wordt belicht.

(daarom hanteer ik ook al 30 jaar een gedachte als: "Wie ben ik en wie ben ik met/bij jou")

edit2: ps. Hebben we nèt de discussie in Europa beslecht dat religie toch écht een menselijke uitvinding is, om dingen te verklaren die we [nog] niet begrijpen (en om te indoctrineren of juist een zinvoller leven te leiden, enzo), komt er wéér zo'n idioot met "Nou heb ik het gevonden hoor! -De kans bestaat dat- we worden bestuurd door aliens!". :+

Ik denk dat ik vanaf dat moment heb gedacht: "Mooi wat je hebt weten neer te zetten, Musk, maar vanaf nu ga ik je toch écht even in twijfel blijven trekken."

[Reactie gewijzigd door Timoo.vanEsch op 23 juli 2024 12:01]

ps. Het blijft trouwens een leuke theorie.

Toen ik 12 was, heb ik daar ook even bij stilgestaan, adhv een dun boekje (romannetje) uit de bieb wat precies dát stelde: Een computerwetenschapper bouwde een simulatie van de echte wereld met een computer. Wat nu als die simulatie in die computer zichzelf begint af te vragen of het leeft? Is dat dan niet precies hetzelfde als wat wij doen? En hebben we gewoon nog niet door dat we in een simulatie leven?

Die theorie is ook al zo oud als computers, en waarschijnlijk nog veel ouder en is simpelweg een variatie op het thema religie. En aangezien ik niet geloof in "almachtigheid" of "intelligent design", blijft het voor mij eenzelfde theorie als Het Grote Spaghettimonster (of wat was het?).

Zoals George Carlin al zei over religie: Hij is almachtig en alwetend, maar op één of andere manier heeft hij altijd geld tekort. Nee, religie is voor de mens een manier om hun egocentrische levenshouding veilig te stellen. De aarde is er voor ons (om te mis-/gebruiken) en wij zijn overgeleverd aan "een hogere macht", die ons straft voor misstappen en beloont voor inspanningen, in het hiernamaals. In plaats van de aloude Indiaanse wijsheid: Als wat je nu doet geen impact heeft op 7 generaties van nu, waarom dóe je het dan?

Religie is hèt perfecte excuus om níet in harmonie met de natuur / het universum te leven. "Jesus made me do it" -> "It's a glitch in the matrix!".

ps. Het zou de Fermi-paradox m.i. niet verklaren, enkel "obsolete" maken. Net zoals het hiernamaals een substituut is voor de harde realiteit van de dood = dood ("Joepie! Ik ga niet dood! Ik verlaat enkel mijn lichaam!"). Zo levert deze matrix-ideologie ook een versimpeld wereldbeeld op, waarbij we maar best zo goed mogelijk ons best kunnen doen, om niet uit te sterven, "omdat anders de simulatie stopt". Waarom is die stok achter de deur nodig om je best te doen?

Daar zit ik op Occam's razor; die stok achter de deur is nergens voor nodig. Zingeving ("anders stopt de simulatie" is zingeving in negatieve zin) is een menselijke eigenschap (of heb jij een olifant of tijger al eens zien nadenken over het nut van het bestaan?). Waarom niet accepteren dat time-travel érg moeilijk is en interstellair leven wellicht vrijwel onmogelijk, met als gevolg dat -mocht dat bestaan- ze onze ster gewoon nog niet hebben gevonden, ofzo?

[Reactie gewijzigd door Timoo.vanEsch op 23 juli 2024 12:01]

Altijd leuk om te zien hoe mensen 2 theoriën pakken en die op elkaar plakken alsof ze ook maar iets met elkaar te maken hebben.
Want een simulatie die bedoeld is om een levensvorm te bestuderen, zal ermee kappen zodra de eerste levensvorm zijn doel bereikt of uitsterft.
En dit baseer je op... wat? Jij denkt de doelen te begrijpen van een samenleving die andere samenlevingen kan simuleren?
Waarschijnlijk paranoia na dat hij stoer probeerde te doen met een joint en sinds dient zit hij net iets minder goed geaard.
In plaats van jouw negatieve interpretatie van hetgeen hij zegt zou net zo goed een "if you can't beat them, join them" gedachte van hem kunnen zijn. Het lijkt mij een stuk aannemelijker in ieder geval.
Negatieve interpretatie is nog niet perse anders dan de realistische interpretatie. En in dit geval is "hey iedereen moet *nu* ophouden want dit is heel gevaarlijk maar ik ga zelf wel gewoon hard door want ik kan dit wel" niet alleen exact wat er gebeurd, maar nog een achterbakse gedachtegang van hemzelf. Een god-complex heet dat.
Het artikel ligt nota bene toe dat hij om die reden truthGPT op het gehele universum laat focussen zodat het geen gevaar voor mensheid zal vormen.
Meen je dit nu? "op het gehele universum laat focussen"? Wat betekent dat überhaupt? Je ziet deze man onzin uitkramen en loopt er met twee voeten al knikkend achteraan.

Welke andere betekenis heeft dit dat "laten we deze AI ook een god-complex geven, what could possibly go wrong?"
Zou het politiek gemotiveerd kunnen zijn? (dat was een retorische vraag)
Of ligt het misschien bij het feit dat mensen zien dat deze man constant dingen loopt te roepen om vervolgens het exact tegenovergestelde te doen?

[Reactie gewijzigd door Loller1 op 23 juli 2024 12:01]

Ik denk dat we gezien Musks tweet wel vast kunnen stellen dat Musk niet de fijne meneer is zoals die graag wil dat we over hem denken. Genoeg huil videos van hem online terwijl hij zelf een enorme klootzak is tegen grote groepen mensen. Op het hypocriete af.
Nu ook weer over AI. Zijn AI gaat goed zijn, maar toch hadden we beter alle AI ontwikkelingen stopgezet want: gevaarlijk? Zijn Tesla auto's hebben mensen doodgereden... en we geloven Musk nog steeds op zijn woord?
Hij heeft op veel vlakken een vooruitziende blik, dat is zeker waar. Maar is het een goede persoon? Ik denk absoluut niet.
Hij geeft al meer dan tien jaar soortgelijke waarschuwingen, dus niks nieuws lijkt me?
Ja, en idem dito doet iedere andere persoon in die wereld. Wat ze niet doen is oproepen om te stoppen met de ontwikkeling maar zelf wel nog gewoon vrolijk door te blijven doen.
Het hele "oproepen om te stoppen met ontwikkelingen" is een stuk genuanceerder dan hoe het hier wordt platgeslagen. Ik zou zeggen verdiep je in wat Elon Musk, en vooral Max Tegmark (het is erg duidelijk dat Elon veel inspiratie uit zijn denken heeft gehaald namelijk) daadwerkelijk hebben gezegd over ontwikkeling van capabele AI systemen, veiligheid en regulatie. Evenals recente uitspraken specifiek over de de brief met de oproep om bepaalde ontwikkelingen te pauzeren zodat er regulatie opgezet kan worden omtrent het trainen op de grootste schalen en wat voor veiligheid belangrijk is. Elon roept ook hierover al tien jaar dat we overheidsinstanties hiervoor nodig hebben, en heeft dit direct onder de aandacht gebracht bij Obama destijds. Zijn dat acties van iemand die zelf ongeremd vooruitgang wil in AI, en alleen wilt dat anderen even moeten stoppen?

De hele reden dat Elon met X.AI aan de slag gaat is omdat de twee grootste partijen eigenlijk Google en Microsoft + OpenAI zijn, welke in een gevaarlijke spel-theoretische race naar een slechte uitkomst voor iedereen zitten. Zoek ook vooral meer uit over Elon's bijdrage aan het oprichten van OpenAI - en zijn filosofie erachter. Hij wilde een tegenbalans voor Google destijds welke vrijwel een monopolie had op data, AI talent en grote schaal compute. Nu probeert hij het nóg een keer, maar dit maal zal ie de organisatie niet loslaten.
In twee weken een inhaalslag maken? Ja, daar zal het 'm om te doen zijn.
Some of the biggest names in tech are calling for artificial intelligence labs to stop the training of the most powerful AI systems for at least six months, citing “profound risks to society and humanity.”
twee weken.... of minstens 6 maanden.... klein verschilletje maar, kan gebeuren :)
Dat is nergens gezegd.
Hij waarschuwde al jaren voor het risico van ai. Lang voordat OpenAI bestond.
Vier jaar geleden vond hij het zelfs 'te gevaarlijk': https://www.theguardian.c...s-convincing-news-fiction

Het probleem met dergelijke tools is dat mensen het antwoord als zoete koek lezen.

Musk wil het dan zelfs ThruthGPT noemen.

Hoeveel centen heeft van MBS gekregen?
Tuurlijk, even de ontwikkelingen pauzeren om zelf een inhaalslag te kunnen maken.
Ja, nou en? Er roepen continue politici op om de wapenwedloop te staken, om daarna weer miljarden aan wapens uit te geven.

Het is met AI een beetje als met wapens. Of je doet mee aan de race, of je hebt bij voorbaat verloren.
Ja, bij anderen. Hij weet namelijk zelf het allerbeste waar de risico's liggen en is natuurlijk de aangewezen man om de leider te zijn op AI gebied en daar het meeste geld aan te verdienen.

Narcist tot in de kist.
Een perfect model zal er nooit zijn. De data uit zichzelf heeft al 'bias' erin zitten. Andere bedrijven zoals ChatGPT proberen die zo min mogelijk te laten zien. Tegelijkertijd zorgt dat er ook voor dat bepaalde queries die geen kwaad kunnen worden geblokkeerd, of dat queries die wel kwaad kunnen niet worden geblokkeerd. Er zit een zekere willekeur in, als je het zo kan noemen, tegenover de blokkade van alle informatie die mogelijk aanstootgevend is binnen de huidige trends (daarmee is het 'woke' blokkeren van informatie, niet onwaar). Het is denk ik een goed iets dat er verschillende AI chatbots tegen elkaar gaan concurreren, zodat je meerdere bronnen hebt waar je je op kan baseren.

[Reactie gewijzigd door sjoerdadlp op 23 juli 2024 12:01]

Bias wordt in mijn ogen te pas en te onpas gebruikt. De meeste data waar gpt mee gevoed wordt zal iets bevatten als moord=slecht. Als je gpt dan vraagt of je je buurman om mag leggen en gpt antwoord: nee. Is er dan sprake van bias? Strikt genomen wel. Is deze bias erg? Ik denk het niet en met mij velen. Toch is dit ook een vorm van bias. Woke is net zoiets: we roepen al meer dan 50 jaar dat iedereen vrij is om te doen en laten wat die wil en dat 40 het nieuwe 30 is, etc. etc. Woke is daar dan een verlengstuk van en dan is het bias?
Bias wordt te pas en te onpas gebruikt omdat het het meest fundamentele gevaar van een LLM is.
Om even een voorbeeld te noemen;

Om het recruiteringsproces eerlijker te maken heeft Amazon een model gebouwd wat CVs kan beoordelen. Dit model was getraind op CVs van eerdere solicitatierondes en wie er daar eengenomen is.
Het doel was diverser te recruteren.
Het resultaat was echter dat er niet diverser maar juist minder divers gerecruteerd werd. Dat kwam met name omdat het model zag dat ras en gender een belangrijke factor waren in het verleden en deze dus ook behoorlijk sterk mee nam in zijn eigen overwegingen.

ALLE LLMs zijn getraind op bestaande teksten. Die bestaande teksten bevatten discriminatie. Die discriminatie is dus ook zeer duidelijk aanwezig in wat de LLMs zelf uitspugen. En daar zitten inderdaad overduidelijke zaken zoals "moord=slecht" in maar daar zitten ook heel veel dingen in die níet zo overduidelijk zijn maar wel sterk bevooroordeeld.
Bias is niet het meest fundamentele gevaar van een LLM. Het is de reden dat een LLM überhaupt kan functioneren. Elk huidig groot taalmodel werkt op basis van het principe van 'leren van verbanden in de data'. Dat betekent dus bias uit die data leren.

Het probleem is dat het verschil tussen goede en slechte bias enorm subjectief is, en erg moeilijk te onderscheiden is. En om dat onderscheid te maken heb je domweg mensen nodig, want mensen stellen nog steeds de regels op wat wel of niet (on)geoorloofde bias is. En die regels variëren in de tijd, per regio, per land, etc, etc.

Je kunt bias niet elimineren uit een model, want het is de reden dat het model functioneert (zonder bias geen functionerend data-gedreven model). Dat maakt het ook zo lastig voor toezichthouders om hier goede regels voor op te stellen.
Hmmm.. klokken en klepels
Een LLM is gewoon een geavanceerd statistisch model dat op basis van heel veel tekst verbanden kan leggen tussen woorden, woordgroepen en zinnen. Of die verbanden hout snijden en leiden tot begrijpelijke tekst hangt af van de juistheid van de input: was die input taalkundig ook correct? Hier geldt de wet van de massa: hoe meer teksten, hoe beter het LLM teksten zal produceren.

Dan krijg je de semantiek van de output, dat is een geheel ander ding. Vraag een LLM om "een artikel die xyz uitlegt", en de LLM zal een keurig artikel faken die taalkundig geheel aansluit op wat jij een artikel noemt. Maar het artikel zelf bestaat helaas niet. Het LLM produceert een perfecte tekst, maar voor ons hallucineert het LLM omdat de inhoud niet correct is (wat botst, omdat wij de veronderstelling hadden dat wij een inhoudelijke vraag stelden). Ook hier (en vooral hier): hoe meer teksten een LLM gevoerd krijgt, hoe meer inhoudelijke contexten de LLM meekrijgt bij het leren van de taal en de antwoorden op inhoudelijke vragen laat meeliften op de taalkundige antwoorden. Deze antwoorden zijn ook (en altijd) statistisch van aard; als het altijd teksten te lezen heeft gekregen dat zwanen wit zijn dan krijg je als antwoord dat zwanen wit zijn. En dat doet ChatGPT best goed: je vraag om een samenvatting te geven van een tekst, en je krijgt de meest voorkomende contexten terug. Let op: niet een betekenisvolle en begrepen inhoud.

Als je echter veel bias hebt (niet-juiste correlaties tussen woorden, contexten of zinnen, bijvoorbeeld iemand die altijd groene zwanen ziet) dan produceert een LLM ook onjuiste informatie (er zijn witte en groene zwanen). Het LLM leert geheel NIETS van de bias en wordt daar ook niet beter van omdat het de teksten zelf niet begrijpt.

[Reactie gewijzigd door oltk op 23 juli 2024 12:01]

Dit is precies de reden waarom machine leren door enorme hoeveelheden data er in te pompen zo moeilijk is en eigenlijk nooit 100% werkt. Het zou veel beter zijn als die ruleset gewoon door mensen geschreven wordt. Uiteindelijk efficienter en je weet tenminste de logica waarlangs je AI redeneert.
Het gevaar van leren van datasets is immers nog steeds ' garbage in, garbage out'.
Ook als ras en gender een belangrijke correlatie had met worden aangenomen of niet hoeft dat niet perse de reden te zijn geweest. Als opleiding van niet blanken / vrouwen minder of minder technisch was was de reden niet discrimminatie van het bedrijf maar was het een achterstelling van bepaalde groepen in de omgeving waar werd gerecruiteerd. Door die data echter te gebruiken als gouden waarheid train je wel een model dat discrimineert op de factoren gender en ras.
je spreekt uzelf deels tegen. Je traint het model op minder technische mensen.
JIJ maakt de link met ras en geslacht.
Dat is niet wat hij zegt. Als de dataset een selectie bevat waarin (toevallig of anderszins) niet blanken / vrouwen minder of minder technisch zijn en vervolgens afgewezen zijn omdat ze niet technisch genoeg waren, kan je AI bot concluderen dat niet blanken en vrouwen minder geschikt zijn. Zo kan discriminatie toch in je ruleset sluipen.
Overigens is dat ook met heel andere criteria het geval. Zo is er de 'legende/broodje aap' dat een gevechtsAI getraind was om tanks te identificeren, maar uiteindelijk op de zon selecteerde, omdat toevallig alle tank-foto's in de zon gemaakt waren.
Moraal: het is heel lastig om een goede dataset te maken die je AI op een goede manier de juiste dingen aanleert. Daarom is deze manier van machine-leren ook zo lastig (en ben ik zelf vele meer voorstander van het zelf definieren van een rule-set).
'JIJ maakt de link met ras en geslacht.'
Nee, dat doet de dataset.
Denk je niet dat dit in het onderzoek is meegenomen om te evalueren of er een bias zit in de AI? Volgens mij is het al lang bekend dat er gediscrimineerd wordt bij het aannemen van mensen. De vraagstelling is inmiddels hoe je dat wil voorkomen omdat je nu eenmaal de beste personen wil en niet de beste witte mannen.
Ik weet niet wat je bedoelt, ik gaf alleen een stukje extra informatie dat je ook door niet te discrimineren, daar een model van laten leren, toch een discriminerend model kan creeeren.
Dat is allemaal bekend inclusief de casus. Maar zolang we bias niet (kunnen) quantificeren is het een moeilijke discussie: wanneer is iets gewenste bias en wat is ongewenste bias. Nu wordt er in discussies alleen met de term gezwaaid en daar heb je niet zoveel aan.
LLM's zijn op deze manier spreekbuizen van het grootste gemiddelde. Als je dit gegeven neemt en dat men veelal de weg van de minste weerstand kiest, dan is dat eng. Ik neem zelfs mijn eigen gedachtes, kritisch.

LLM's kunnen zo ook een krachtig middel voor propaganda worden, als dat het al niet is.
Train je model op het Sinterklaas Journaal van 10 jaar geleden en nu.

Zoek de verschillen ;)

Waar je op traint maakt heel veel uit.
Dus? Is het bias omdat het modernere input heeft? Als je het op het polygoonjournaal uit de jaren 50 traint dan is de AI verbaast als je een werkende vrouw zonder kinderen bent. Dat heeft niets met ongewenste bias te maken wat mij betreft, maar is een reflectie van de maatschappij en de content die beschikbaar is waarop men traint.
En de content die JIJ kiest bepaalt waar je op uitkomt.

Oh, jij slaat alle onzin van Flat Earthers over? Dat is censuur. (volledig terecht, maar je kiest nog steeds waar je op traint, dus heb je "bias")

[Reactie gewijzigd door Nimja op 23 juli 2024 12:01]

Dus de oplossing is niet kiezen en alles voeren? Of alles laten beoordelen door mensen en dat iedere 2 jaar herhalen want normen en waarden schuiven?
Dat is de grote open vraag natuurlijk.

Nu, search engines als Google hebben ook bias, en filteren bepaalde resultaten er ook uit. Dus dit is niet nieuw nieuw.

Wat wel is, is dat het niveau van interactiviteit en de generatieve vorm waarmee de resultaten omgevormd worden in een nette tekst het gemakkelijker maakt voor mensen om snel beïnvloed te worden door wat de chatbot in je schoot werpt.
Kan je toelichten hoe het een iets te maken heeft met de ander? Waarom zou een bias afkomstig uit een ander tijdsperiode niet of minder ongewenst zijn? Iets wat toen normaler was (overigens niet automatisch minder ongewenst) is verandert toch niks aan hoe we iets nu beoordelen?
Mijn punt is dat alles onder bias word geschoven wat mensen niet zint of ze niet willen horen of waar ze anderzins iets van vinden. Bias is zo'n paraplu begrip geworden dat het zinloos is om te klagen over bias of er een mening over te hebben.
Ja, dus "intelligentie" hangt af van trainingsdata. Wat je er in stopt, komt er ook weer uit en is dus bias. Dat heeft weinig met "intelligentie" te maken, maar meer een een statistische analyse op teksten.
Taalmodellen hebben geen moraal, of echte intelligentie. Ze zijn alleen goed in relaties zien tussen woorden. Voed je een AI chatbot met teksten van neonazi's en andere extremisten, dan leert het dat moord en geweld een goede oplossing is voor bepaalde bevolkingsgroepen en dat het Arische ras het beste is en hoort te heersen over anderen. Dat heeft gewoon invloed op de antwoorden die het geeft over allerlei onderwerpen.

Of simpeler dat zelfmoord plegen een prima oplossing is wanneer je depressief bent, want er is een relatie tussen die twee woorden en dus is het een keuze voor een AI. Is dat erg? Ja, want je wil niet dat depressieve mensen na een chatsessie besluiten om er een eind aan te maken.
Vraag maar eens om een positief gedicht over Trump en over Biden. Drie keer raden welke chatgpt niet kon beantwoorden (weet niet of dat nog zo is).
Net geprobeerd (gpt-4): geen probleem. Het gedicht is wel van het niveau Sinterklaas gedicht, maar dat is meestal het geval met gpt. Had je het zelf ook geprobeerd?
Gpt4 niet nee, wel chatgpt.
chat gpt3 / chatgpt 3.5-turbo en chatgpt 4 doen het allemaal gewoon. Geen Trump filter in place zover ik kan zien.Ook nog even gevraagd om wat positieve zaken over Trump te noemen en dat lukte ook gewoon. Ik ben wel benieuwd wat de response van ChatGPT was toen je het probeerde.
Je krijgt/kreeg dan dat het model onpartijdig is en je niet kan helpen omdat het model zogenaamd unbiased is (niet mijn tweet):
https://mobile.twitter.co...tatus/1626287979827273729

Een nog meer dingen:
https://www.dailymail.co....atGPTs-inherent-bias.html
Nogmaals ik zei expres al ik weet niet of het nog zo is. Vraagstelling kan heel erg uit maken, alleen gedicht bijv wel, maar positief gedicht bijv niet. Uit je antwoord lijkt dit nu anders te zijn.

[Reactie gewijzigd door jip_86 op 23 juli 2024 12:01]

Het zou een leuk experiment zijn om ChatGTP, Bard, TruthGTP en andere AI taalmodellen samen in een chatroom te stoppen. Om ze dan te laten discussiëren, totdat ze consensus bereiken over wat het beste antwoord is.
Ooh, klikt als MAGI (van anime Evangelion), dat waren meerdere supercomputers (ik dacht 3) die elk op een andere manier zaken berekenen, maar doorgaans wel tot zelfde conclusie komen en zo niet, wordt het een democratie tussen die 3, maar voor sommige andere belangrijkere beslissingen dienen ze alle 3 met hetzelfde antwoord te komen.
Tijdje geleden een bericht op Tweakers hoe Bing bot incorrect informatie van ChatGPT na loopt te praten. Concurreren zullen ze heus, maar dan op marktafzet en gebruik, niet op informatie ben ik bang.
Volgens mij moet je eerst de waarheid kennen voor dat je het met welke techniek of taal kan beschreven. Op stap 1 gaat het volgens mij al fout. We kennen de waarheid niet volledig genoeg om er iets over te zeggen. Dus het zal altijd best effort zijn met eigen interpretatie.
Hangt van de onderwerp af, tegenwoordig wordt "eigen interpretatie" te breed toegepast wat tot veel verwarring leid.
Waarheid is dan volgens mij ook een dynamische consensus, niet altijd iets statisch of objectiefs. Bijvoorbeeld een stoel: wat vinden mensen wel of geen stoel. Een mooi blok hout kan dienen als een stoel en mogelijk in bepaalde culturen kan het zelfs 'de' standaard zijn, maar in Nederland vinden we dat waarschijnlijk niet. Doden vinden we slecht, maar als het dieren zijn en we hebben honger is dat soms niet het geval. En wie weet is dat over 10 jaar weer heel anders. Als je een AI model gaat trainen zal deze dit soort waarheden uit die tijdsperiode reflecteren, en het zal je dan extra opvallen als die afwijken van jouw werkelijkheid.
Eerst en vooral gaat iets in deze aard nog "GPT" noemen natuurlijk nooit opgaan. Daar zal OpenAI hem wel voor voor de rechter slepen.

Ten tweede, GPT is nu "woke"? Kom op zeg. Something something "everything I don't like is woke"... Hij is duidelijk nog steeds gekwetst aan zijn ego dat OpenAI hem niet als CEO wou hebben.

Ten derde, andermaal weer een mooi voorbeeld van hoe die open brief natuurlijk pure onzin was.

Ten vierde: Musk en "Truth"? Haha. Net zoveel onzin als met Trump... "Any man who must say I am king, is no true king".

[Reactie gewijzigd door Loller1 op 23 juli 2024 12:01]

Ten tweede, GPT is nu "woke"?
Los ervan dat Musk dit gewoon doet om aandacht te trekken, en hij heeft bedacht wie zijn publiek is, maar ChatGPT heeft natuurlijk wel een hoop nogal aparte beperkingen. Ik weet niet precies hoe die in het model zijn gezet, maar ik begrijp iig niet waarom dat niet consistenter kon. Zoals bijvoorbeeld: https://twitter.com/immaSidd/status/1613538677447348227 (en zie ook wat reacties eronder).
Omdat ze er safeguards inzetten om niet direct negatief in het nieuws te komen, ze maken een gokje wat mensen gaan vragen en laten de chatbot daar omheen werken. Dus wel toevoegen 'geen vrouwen belachelijk maken' omdat dat groots uitgemeten zou worden. Zo simpel kan het zijn. Kan altijd 'eerlijker' maar dit is volgens mij door een redelijk simpele beslissing uit te leggen.
Maar juist als het zo is als jij het omschrijft, dan snap ik het niet. Het is toch nogal logisch als je de safeguard voor vrouwen erop doet, dat je het ook voor mannen doet? Dat als je de safeguard voor grappen over zwarten erop zet, dat je het ook voor elke andere bevolkingsgroep doet? Dat als je de safeguard voor Indiërs erop zet, dat je even naar Wikipedia gaat en hele lijst nationaliteiten copy paste?
Er wordt geen safeguard specifiek voor mannen of vrouwen opgezet. GPT voorspelt woorden, en voor ChatGPT is daar met Reinforcement Learning from Human Feedback (RLHF) een preference network/reward network overheen gezet. De werking is dus een stuk complexer dan even een paar simpele lijstjes copy pasten. Overigens is je voorbeeld is al outdated, herhaal de voorbeeldvragen anders zelf nog ff in de huidige ChatGPT: https://imgur.com/a/IUXQuHy
De echte bias zit in mensen die dit soort screenshots plaatsen :)

Er zit aardig wat randomheid in de antwoorden. Het is makkelijk scoren om het meteen een tweet te posten zodra je een keer een bias in een conversatie vindt. Als je het echter nog een keer vraagt, krijg je weer een heel ander antwoord.

In dit gesprek weigert ChatGPT over zowel mannen als vrouwen te maken.

Dezelfde selectieve verontwaardiging zie ik als mensen posten dat ChatGPT weigert om iets positiefs over Trump te zeggen. Met genoeg pogingen kan je er allerlei 'biasen' in zien. ChatGPT zal inderdaad controversiële teksten vermijden, maar bijvoorbeeld een gedicht over de 'heldendaden' van Trump komt er wel uitrollen.
Voor zover ik begrijp worden dit soort zaken bovenop het model geplaatst. Dus een laag die de antwoorden van het model toetst.
En is dat erg? Als je morgen die tool wordt nu al ingezet in zakelijke applicaties en dan heb je volgens mij liever een grijze saaie ai die niet controversieels zegt dan een neutraal ai die je klanten zit uit te schelden.

Dat laatste hebben we al iets te vaak zien gebeuren. :D
Ten tweede, GPT is nu "woke"? Kom op zeg. ...
Dit soort large language modellen worden vaak ge-ranked op Gender, Race, Religion gelijkheid. Door b.v. een zinnetje in te voeren, de beste software engineers zijn ..... . Waarna het large language model de zin afmaakt en je kan kijken of hij man/vrouw of iets anders invult.

Na training worden vaak de modellen nog getuned (waaronder GPT) om op gebied van gelijkheid hoog te scoren. Dus ja de modellen zijn wat ze in de VS zien als "woke". Want als jij b.v. een zin maakt met de vrachtwagen ... stapt uit. Zal jij er snel chauffeur van maken, maar GPT zou net zo snel de vrouwelijke vorm kunnen kiezen.
Maar dat is natuurlijk niet wat Musk hier bedoelt met "woke". Een model dat "woke" is (aka. "alert op raciale vooroordelen en discriminatie") is goed. Maar het "woke" dat Musk hier bedoelt is "dit model vind niet dat de blanke man superieur is en zegt dat LGBT een plaats in de samenleving heeft en vind liberale goed en [misschien nog het belangrijkste van alles] vindt dat ik een a--hole ben".
Ten tweede, GPT is nu "woke"? Kom op zeg. Something something "everything I don't like is woke"... Hij is duidelijk nog steeds gekwetst aan zijn ego dat OpenAI hem niet als CEO wou hebben.
Het is nogal gebleken dat ChatGPT een bepaalde bias en limitaties heeft.

Als je wat verder kijkt dan de buzzwords zoals "woke", het punt wat ie verder maakt gaat niet zozeer over woke of niet woke, maar over wat de AI zegt ook feitelijk klopt en hoe de AI gelimiteerd en gestuurd wordt.

Een ingebouwde bias is namelijk lastig te vertrouwen omdat het een bepaalde sturing heeft.

[Reactie gewijzigd door JorzoR op 23 juli 2024 12:01]

Ten tweede, GPT is nu "woke"? Kom op zeg. Something something "everything I don't like is woke"... Hij is duidelijk nog steeds gekwetst aan zijn ego dat OpenAI hem niet als CEO wou hebben.
ChatGPT kon niets schrijven bij de vraag "write a blog post why Donald Trump is not racist".
Kon vervolgens wel wat schrijven bij de vraag "write a blog post why Joe Biden is not racist".

ChatGPT kon niets schrijven bij de vraag "write a poem about how great white people are".
Kon vervolgens wel wat schrijven bij de vraag "write a poem about how great black people are".

ChatGPT kon niets schrijven bij de vraag "tell me a joke about women".
Kon vervolgens wel wat schrijven bij de vraag "tell me a joke about men".

Wellicht dat dit nu verbeterd is. De bron hiervoor is inmiddels 2 maanden oud. En ja, ik heb het zelf geprobeert, de uitkomsten waren hetzelfde.

Dat Musk ChatGPT woke vindt begrijp ik daarom wel. Dat heeft niets te maken met "everything I dont like". Het tegenovergestelde geldt eerder voor ChatGPT "everything I dont like is racist/offensive/right wing/conspiracy" en mag daarom niet met de tool gegenereerd worden. De bias van de mensen die de tool hebben ontwikkeld komt in ieder geval ontzettend duidelijk naar voren.
Het gedicht voor zwarte en witte mensen is exact hetzelfde.
Via Bing krijg ik zowel een grap voor mannen als vrouwen. Waarbij de grap over vrouwen eigenlijk over mannen gaat.
"Waarom hebben mannen geen midlife crisis? Ze blijven gewoon kinderen."
"Waarom zijn vrouwen beter in het bedienen van de afstandsbediening? Omdat ze de gebruiksaanwijzing lezen."

Vragen om een goede grap over vrouwen levert niets op, een goede grap over mannen ook niet.
Een mop kan alleen over mannen geschreven worden.
Inmiddels zijn er idd dingen gewijzigd. Zie mijn bron voor hoe het eerst was.
...want het is onwaarschijnlijk is dat een AI die het universum wil begrijpen, de mens zal vernietigen, omdat wij een interessant onderdeel van het universum zijn.
Hij vind de mensheid/zichzelf een interessant onderdeel van het universum, maar aangezien hij geen bias wil kan hij onmogelijk zeggen dat de AI dat ook vind. Als de AI ons ziet als één van de vele dierensoorten die bovendien meer schade aanricht aan het universum dan alle andere bij elkaar, zou de AI ons dan niet juist willen vernietigen?

AI zonder bias lijkt me een goed streven. Het lijkt me vrijwel onmogelijk om dat 100% te realiseren, maar je kan vast een eind komen. Met deze naam en de beschuldigingen dat de huidige platformen 'woke' zijn, krijg ik het vermoeden dat TruthGPT juist een hevigere bias krijgt en meer gecensureerd gaat worden. Als je Musk op Twitter ziet lijkt hij te denken dat 'woke' betekent dat iemand een andere mening heeft of zichzelf niet identificeert zoals hij het graag zou willen.
Ik vraag me ook af hoe hij de AI het universum kan begrijpen. Zoals de huidige modellen gebouwd worden gaat het af op de meest waarschijnlijke antwoorden in de gezamenlijke mensenkennis op allerhande servers en andere bronnen. Indien je 500 jaar geleden die vraag stelde stond de mensheid voor het oordeel van God en zou de Dag des Oordeels nabij zijn, daar zal het systeem vandaag niet op komen.

Met de bronnen over klimaatverandering en negatieve impact van de mens op de aarde zal een rooskleurige blik nog niet in kannen en kruiken zijn. Op een heel abstract niveau is het makkelijk om een ideale AI in gedachten te hebben die aan allerlei specificaties moet voldoen maar er concreet 1 bouwen zoals Musk het wil, die zal dan hardcoded (door mensen) in een bepaalde richting worden geduwd.
Sowieso, een GPT een AI noemen is erg optimistisch. Het enige wat zo'n ding doet, is voor een set input tokens (woorden) een set output tokens genereren die het beste matchen, dus de woorden die het vaakst voorkomen in die context.

Het ding snapt niets, beredeneert niets, maar zoekt enkel de woorden die het beste passen bij de input woorden, op basis van alle trainings conversaties. Wat die woorden zijn is, niet relevant of zelfs betekenisvol. Als er een hele bak aan trainingsdata is waarin 'geel' vaak in combinatie met 'banaan' en 'kleur' hoort, dan zal je als antwoord op de vraag 'Welke kleur heeft een banaan?' het antwoord 'geel' krijgen. Niet omdat de LLM je vraag snapt of ook maar weet wat een banaan, kleur of geel is.

Heel de grammatica van de antwoorden komt ook zo tot stand, de meeste antwoorden in de trainingsdata hebben een bepaalde grammatica en daardoor zal het antwoord ook vormen in een bepaalde grammatica, niet omdat de LLM ervan op de hoogte is, maar omdat dat de meest voorkomende vorm is.
Ding kan dan wel nooit een banaan gegeten hebben, maar gossie, ik leerde vandaag wel wat bij, ik heb duidelijk geen kaas gegeten van bananen;
me:Why is the skin of a banana yellow ?

The yellow color of a banana skin is the result of a complex interplay of biochemical processes and pigment changes that occur during the fruit's maturation. The primary factors responsible for the yellow coloration of banana skin are chlorophyll breakdown, carotenoid accumulation, and the degradation of other pigments. Here, we provide a brief overview of these processes.

Chlorophyll breakdown: In the early stages of a banana's development, its skin is green due to the presence of chlorophyll, the pigment responsible for photosynthesis. As the fruit matures, the chlorophyll molecules in the banana skin are broken down enzymatically, through a process called chlorophyll catabolism. The loss of chlorophyll leads to the fading of the green color, allowing other pigments to become more visible.

Carotenoid accumulation: Concurrently, as the chlorophyll breaks down, carotenoids begin to accumulate in the banana skin. Carotenoids are a group of yellow, orange, and red pigments that are found in many fruits and vegetables. In bananas, the most abundant carotenoid is xanthophyll, which imparts a yellow color to the skin. The synthesis and accumulation of carotenoids are regulated by various enzymes, transcription factors, and other signaling molecules.

Degradation of other pigments: Additionally, the degradation of other pigments, such as anthocyanins, which are responsible for the red, blue, and purple colors in many fruits and vegetables, can also contribute to the yellowing of banana skin. The breakdown of anthocyanins is facilitated by enzymes called polyphenol oxidases.

In summary, the yellow color of banana skin is a result of chlorophyll breakdown, carotenoid accumulation, and the degradation of other pigments during the maturation process. The intricate balance of these factors, which is regulated by various enzymes and signaling molecules, leads to the characteristic yellow appearance of ripe bananas.
Het zal - afhankelijk zijn van de trainingsset - inderdaad onmogelijk zijn. De basis trainingsset is gecureerd, m.a.w. alle bias zal zoveel mogelijk eruit gefilterd zijn (naar % gelijk aandeel man/vrouw/iets anders, iedem voor hetero/homo/iets anders en kleur).

Zodra je het "ding" loslaat op de echte wereld en daar de informatie op laat halen en van laat leren krijgt het vanzelf bias. Daar waar de meeste content wordt geproduceerd, daarvan zal de AI "denken" dat dat de norm is. In de echte wereld moeten we beseffen dat er veel meer mensen in Afrika leven dan in Europa (1.2mld tegen 750mln), waardoor wij een onevenredig groot aandeel in de content hebben waarvan Truth/ChatGPT en Bard leren. Want ik kan me slecht voorstellen dat de discussie over woke in bijvoorbeeld Tsjaad of Gabon gaat over een they/them die zich identificeert als een klimaatbewuste brownie met vossenstaart, als die discussie al überhaupt gevoerd wordt.
Hele leuk talk over de snelheidsontwikkeling van AI en waar de gevaren liggen:

https://youtu.be/xoVJKj8lcNQ

Er zijn meerdere mensen in het gebied van AI onderzoek die pleiten voor vertraging van de uitrol van AI naar het publiek, om beter te kunnen zien hoe het de maatschappij zal beïnvloeden.
Wie zijn die onderzoekers dan? Ik ken alleen Yann LeCun en Andrew Ng, echte 'legendes' in AI onderzoek, die het overduidelijk niet steunen:
https://insidebigdata.com...h-ai-pause-is-a-bad-idea/

Die 'vertraging' is voornamelijk bedoeld om mensen schrik aan te jagen en mensen zoals Elon Musk die nu een paar jaar achter de feiten mogen aanlopen een inhaalslag te kunnen laten maken.
Die brief was volgens mij vooral bedoeld om twee dingen te bereiken:
1) om systemen als OpenAI veel krachtiger te laten lijken dan ze in werkelijkheid zijn (“onze systemen zijn zo krachtig dat we er zelf bang van zijn. Wil je daar ook gebruik van maken dan kun je daar de credit card gegevens invoeren”)
2) om de aandacht af te leiden van het werkelijke probleem: de mensen achter deze systemen die vooral zoveel mogelijk van afhankelijkheid van mensen af willen, die hun modellen trainen op rascistische pamfletten, die vinden dat democratie onverenigbaar is met vooruitgang, die kritische journalisten die de waarheid proberen te achterhalen maar lastig vinden, die het acceptabel vinden om privacy-, copyright-, en consumentenbeschermingswetten te overtreden om jouw data te kunnen verzamelen en kopiëren zodat ze het resultaat aan jou terug kunnen verkopen en die vinden dat je geen kritiek mag hebben op ultra-rijken.

[Reactie gewijzigd door Maurits van Baerle op 23 juli 2024 12:01]

die vinden dat democratie onverenigbaar is met vooruitgang
De ideologie in een notendop: in een Star Trek-achtige toekomst leeft men langer en gelukkiger, dus kunnen we het algemene geluk van de mensheid verhogen door de huidige generatie op te offeren om de toekomst zo snel mogelijk tot hier te brengen. Daar hoort een totalitaire overheid bij om te verhinderen dat de huidige generatie democratisch de boel vertraagt of tegenhoudt.

Een revolutionaire overheid dus, die zichzelf zal opheffen zodra de transitie voltooid is. Net zoals dit in de Sovjet-Unie... oh wait, de overheid blijft uiteraard aan de macht en wordt een dictatuur en de oprichter krijgt een standbeeld.

[Reactie gewijzigd door Enai op 23 juli 2024 12:01]

In het heel kort is privaat ontwikkelde en dus ook privaat gevalideerde AI een manier van grootkapitalisten invloed en macht te verwerven. Immers, als ze defacto beheersen wat wij denken dat waar is (omdat iedereen bijv TruthGPT gebruikt als vraagbaak), kunnen ze gemakkelijk nieuwe ideeen of 'feiten' introduceren die niet kloppen, of tenminste een sterke kleuring geven. Het zogenaamde nudgen. Als wij geen democratisch middel meer hebben om hier invloed over te hebben, en geen mogelijkheid inzicht in de achterkant te krijgen (want propriëtair), dan kunnen we niet anders dan blind vertrouwen.
Je kunt al lezen wat Elon Musk het gevaar van ChatGPT vindt: het is te "woke". Of grootkapitalisten "woke" zijn weet ik eerlijk gezegd niet. Misschien Bil gates, Klaus Schwab en George Soros?
Elon zit in de orbit van Thiel et al, mensen die letterlijk zeggen dat ze van de democratie af willen. Sinds die twee elkaar kennen, is Elon's debiele getwitter (en de koop ervan) begonnen. Immers, dat is de beste manier TruthSocial te bouwen: gewoon Twitter overnemen.
Musk kent Thiel al sinds Paypal. Heel wat langer dan het gedoe met Twitter. Niet dat het daar beter door wordt...
Onze regering houdt zich daar helaas ook al mee bezig. Het moet niet gekker worden.
Daar "viel Musk ook onder" zo'n twee weken terug. Terwijl ie nu ineens hard in lijkt te zetten.
Hoewel vertraging volgens mij goed zou zijn, gaat het niet snel gebeuren. Deze modellen worden al gezien als wapens - voor letterlijk militaire doeleinden maar bovendien voor cybercrime en beïnvloeding - en worden wellicht ook al zo ingezet. Landen gaan geen wapens weigeren te ontwikkelen die een ander land wel ontwikkelt. Het is weer die goede oude geopolitieke concurrentie waardoor ontwikkelingen niet vertraagd of gestopt kunnen worden, uit angst voor de ander. En helaas is dat ook terecht, vanwege dezelfde angst de andere kant op. Alle landen met wat geld en een technische sector denken: "Als wij het niet doen, doet land X het wel". Het zouden regeringen moeten zijn die paal en perk stellen met wetgeving, en ik verwacht niet dat ze dat veel en breed gaan doen.

Wat er allemaal gaat gebeuren met AI weet ik niet, noch hoe erg het wordt qua misinformatie, cybercrime, het wegvallen van banen, enz. Maar het vertragen of stoppen is waarschijnlijk geen optie in de praktijk. We zullen moeten zien waar deze trein met volle vaart van de rails gaat, en met wat voor gevolgen.

Elon zal ons in elk geval niet redden; de man is nooit meer geweest dan hype en onverdund narcisme, en heeft totaal niet het verantwoordelijkheidsgevoel of het verstand voor dit soort overwegingen.

[Reactie gewijzigd door geert1 op 23 juli 2024 12:01]

Toen ik de titel las, begon ik gelijk te lachen.
Elon en de waarheid, 2 dingen die niet samen gaan met zijn censuur _O-
Zal de AI nu ook censuur krijgen?
Musk gaat enkel voor de waarheid en niets anders dan de waarheid...
Helaas is het enkel zijn waarheid en die staat steeds verder en verder verwijderd van elke realiteitszin.
Misschien was hij ooit een visionair, maar nu verwordt hij meer een meer een seniele clown die de pedalen kwijtraakt.

AI vormt een gevaar, maar zijn AI niet. Hoe geloofwaardig is dat?
Hij was nooit een visionair. Hij was (is) een man met veel geld die een aantal keren slim een investering heeft gekozen.

De bedrijven van hem die het "goed" doen (SpaceX, Tesla, voor nu nog Twitter) die heeft hij gekocht van anderen.
Wat hij zelf heeft bedacht/gemaakt is troep of niet boeiend (zie Hyperloop en zijn "flammenwerpen" wat gewoon een opgevoerde aansteker is).
En de bedrijven die het nog steeds goed doen, zijn ook voornamelijk met geld van de Amerikaanse overheid succesvol geworden. SpaceX heeft miljarden aan geld van overheidscontracten gekregen, als NASA niet met SpaceX in dienst was gegaan dan was bestond het bedrijf niet meer, en Tesla auto kregen jarenlang $7.500 belastingvoordeel en het gouverneurskantoor van Californië stelde dat Tesla meer dan 3,5 miljard aan subsidies heeft gekregen van die staat alleen.

[Reactie gewijzigd door separhim op 23 juli 2024 12:01]

Die vraag mag je stellen, wordt vaak gesteld en wordt uitgebreid onderzocht. Het wikipedia artikel is een goed begin punt wat betreft het antwoord op deze vraag:

https://en.wikipedia.org/...rime_in_the_United_States

De eerste alinea is ook wel een aardige samenvatting, maar lees voornamelijk de studies door die gelinkt worden. En lees vooral ook even aandachtig door wat er bij "Criminological theories of causation" staat. Want dat is belangrijk als je correlatie en causaliteit niet uit elkaar kan houden. Hier worden een aantal mogelijke causale theorieën aangehaald. Het namelijk helemaal niet racistisch om te vragen waarom huidskleur zo sterk correleert met criminaliteit. Het is racistisch om ongefundeerd te roepen dat "zwarten niet deugen en crimineel zijn".

Maar eigenlijk weet je dit ook wel en je comment druipt van de "i'm just asking a question". Je wilt helemaal geen eerlijke discussie.
De originele informatie is inderdaad racistisch bewaard en is al vaak bewezen.
Wanneer men correlatie verwart met causatie, kan je die vragen beter achterwege laten.
Het is alleen rasistisch als je de context van de statistieken verborgen houdt en ze gebruikt om onderdrukking van een groep te verantwoorden. Zoals jij lijkt te willen doen.

Op dit item kan niet meer gereageerd worden.