Door Arnoud Wokke

Redacteur Tweakers

Waarom bedenken AI-chatbots dingen?

Liever verzonnen dan gezwegen

17-06-2023 • 06:00

101

Multipage-opmaak

Inleiding

Net zoals mensen zichzelf wel eens googelen, kon ik het niet laten om mezelf en collega's te 'gpt'en'. ChatGPT, Bing, Bard en andere taalmodellen zijn geen feitenmachines, maar toch kwam ik dingen te weten die opvallend waren. Een chatbot op basis van GPT-3 vertelde dat collega Jurian, bekend van reviews over games en de podcast, en ik, beiden een filmhuis hadden en filmprijzen hadden gewonnen met ons werk.

.

GPT-4 zou beter moeten zijn en hoewel ChatGPT met die versie mij geen prijzen toekende, wist die wel te vertellen dat Jurian inmiddels al vijf jaar bij een ander bedrijf aan de slag was gegaan als 'contentstrateeg'. Over die carrière had hij kennelijk nooit iemand verteld, of het was simpelweg niet waar.

Wie werkt met chatbots, zal hier vaak tegenaan lopen. De GPT-gebaseerde generators verzinnen om de haverklap feiten, omstandigheden of mensen. Het is simpelweg geen encyclopedie; het is een taalmodel dat probeert antwoorden te formuleren door te berekenen wat het meest logische volgende woord is op basis van de context. Maar waarom verzint hij dan dingen? En is daar iets aan te doen? Het is tijd om te kijken naar een van de grote schaduwzijdes van AI-generators, namelijk dat je er niet op kunt vertrouwen wat ze zeggen.

Werking van grote taalmodellen

Het is goed om te beginnen bij de werking van grote taalmodellen voordat we gaan onderzoeken waar het precies misgaat. Een groot taalmodel is een neuraal netwerk. Dat werkt met neuronen en verbindingen tussen die neuronen. De naamgeving komt uit de biologie van onze hersenen, al werken digitale neurale netwerken anders dan de analoge in ons hoofd. Als architectuur bestaat een neuraal netwerk uit een laag inputneuronen, een verborgen of hidden laag die uit een of meer lagen neuronen bestaat, en een uitvoerlaag. Een netwerk kan tientallen lagen bevatten.

Eenvoudig neuraal netwerk
Eenvoudig neuraal netwerk

Een neuron is niet 1 of 0, maar een willekeurige waarde tussen 1 en 0. Het netwerk geeft elke input een willekeurige waarde tussen 0 en 1. Die data wordt naar een tweede laag 'neuronen' gestuurd. Die tweede laag bestaat uit een veel kleiner aantal neuronen en elk neuron krijgt input van elk neuron uit de eerste laag. Daarbij krijgt de data een weging. De data van de tweede laag neuronen, ook weer waarden tussen 0 en 1, wordt weer naar de uitvoerneuronen gestuurd, opnieuw met een weging. Het neuron dat het dichtst bij waarde 1 komt, geeft aan welk cijfer het neurale net heeft 'gezien' en bepaalt dus de waarschijnlijkste output. Zo komt een neuraal netwerk tot 'antwoorden'.

Die wegingen zijn niet ingeprogrammeerd, maar die leert de software in eerste instantie zichzelf. Dat gebeurt doordat hij checkt of de output de goede was. Dat gebeurt in de eerste van twee fases, waarin een groot taalmodel training ondergaat. Die eerste fase is de fase waarbij de ontwikkelaars een grote dataset in het systeem gooien. Dat zijn doorgaans verzamelingen van teksten van internet: websites, fora, boeken en andere plekken waar veel tekst verschijnt.

Neuraal netwerk voor cijferherkenning
Neuraal netwerk voor cijferherkenning

De software probeert, zoals het toetsenbord op een telefoon al jaren doet, simpelweg het volgende woord in een tekst te voorspellen van teksten in de dataset. De output van het neurale netwerk is daarmee te vergelijken met het juiste antwoord uit de tekst. Als dat goed is, dan geeft de software zichzelf een signaal dat hij de goede wegingen heeft toegepast en dan slaat hij dat op. Als het volgende woord helemaal fout is, dan verandert de software de parameters. Dit is een proces dat veel computerkracht vergt. Deze fase van training gebeurt daarom op supercomputers, of in elk geval op systemen met zoveel mogelijk gpu's. Op die manier gaat die training zo snel mogelijk. In deze fase leert het model zichzelf dus hoe zinnen zijn opgebouwd in de diverse talen en hoe het dus antwoorden moet structureren.

Het gevolg is dat het model telkens statistische berekeningen maakt wat het meest logische volgende woord is. Taal is vaak ambigu en woorden of woordgroepen kunnen meerdere betekenissen hebben. Bij de combinatie 'ik was af' zou het kunnen dat de zin moet eindigen met 'met verstoppertje', maar het zou ook kunnen dat het eindigt met 'met een druppeltje afwasmiddel'. Het taalmodel probeert dan op basis van de context een inschatting te maken welke de juiste is. Dat is ook de reden dat hoe groter een taalmodel is, hoe beter die concepten uit de echte wereld lijkt te snappen. Er is dan meer context om te koppelen aan de verbindingen in het neurale netwerk, waardoor de software meer verbindingen kan leggen en dus met meer contexten rekening kan houden.

Als de training klaar is, dan ligt er een taalmodel dat goed inschattingen kan maken van wat de volgende woorden zijn, maar dan begint stap 2. Daar komen mensen om de hoek kijken. Dat heet reinforcement learning from human feedback, of rlhf. Daarbij voeren mensen prompts in, waarna het model met een antwoord komt en mensen vervolgens aangeven of het gegeven antwoord goed is.

Bij chatbots als ChatGPT zit daar ook een tweede element bij. Volgens OpenAI is ChatGPT ook getraind met gesprekken waarbij de trainers de prompts én de antwoorden gaven. Die kan het model vervolgens gebruiken om zijn parameters te updaten om een beter antwoord te geven. Die menselijke tweede fase is ook de fase waarin het model moet leren waarop het antwoord geeft en niet. De trainers krijgen regels mee, zodat het taalmodel bepaalde onderwerpen mijdt in antwoorden en weigert te antwoorden als het model naar aanleiding van een prompt vermoedt dat het de verkeerde kant op gaat.

Die menselijke training is uitermate belangrijk. Microsoft had die stap ingekort voor de introductie van Bing en de chatbot vloog daardoor in veel gesprekken uit de bocht. Daarbij gedroeg hij zich boos, manipulatief en ronduit vijandig. Menselijke training moet het model leren dat dit geen goede reacties zijn. Die boze reacties kwamen vooral na een gesprek van meer dan vijftien reacties. Dat komt doordat AI-chatbots niet de recentste reactie als prompt zien, maar ook het hele voorgaande gesprek. Daardoor verandert de output en als de toon in het gesprek een beetje verandert, verandert de output mee door daarop voort te borduren. Daarom werkte het voor Microsoft om een limiet in te stellen op vijf en een toggle toe te voegen of reacties feitelijker of creatiever moesten zijn.

Hallucineren is geen probleem dat snel weggaat

Als je naar de stappen kijkt die een groot taalmodel doorloopt, dan valt al op dat daarin geen stap zit om feiten van fictie te onderscheiden. Het gaat immers om een neuraal netwerk dat de waarschijnlijkheid van een volgend woord voorspelt. Grote taalmodellen zijn geen feitenmachines, maar tekstgenerators die zo goed mogelijk proberen om zinnen en alinea's samen te stellen op basis van de training.

Hallucinating robot in the style of Vincent van Gogh. Bron: Dall-E
Hallucinating robot in the style of Vincent van Gogh. Bron: Dall-E

Hallucineren is het effect dat een groot taalmodel feiten of omstandigheden verzint en die met grote zekerheid opschrijft en laat zien aan gebruikers. Het is te voorkomen, maar vereist een selectie van het bronmateriaal voor de training en vermoedelijk veel menselijke interventie. Als het bronmateriaal alleen correcte teksten bevat én een groot taalmodel alleen tekst reproduceert die rechtstreeks uit het bronmateriaal komt, dan is hallucineren niet goed mogelijk.

Er zijn meerdere soorten hallucinaties. De eerste is een reproductie van incorrecte data. Als genoeg van het bronmateriaal een claim bevat die evident niet waar is, bijvoorbeeld dat je vierkante ogen krijgt van te veel kijken naar een scherm, dan zal een groot taalmodel die leugen mogelijk herhalen. De andere soort hallucinatie komt voort uit een gebrek aan kennis. Dan zal een groot taalmodel proberen om die kennis aan te vullen met waarschijnlijk klinkende woorden, ongeacht of die kloppen of niet. Hoe ver een taalmodel daarin gaat, hangt wel af van de instellingen. Daar komt bij dat een taalmodel gecomprimeerd is. Het is getraind op petabytes van data, maar het uiteindelijke model moet veel kleiner zijn. Dat maakt van grote taalmodellen een gecomprimeerd bestand, waarin veel details zijn weggevallen.

Veel taalmodellen hebben instellingen voor de 'creativiteit' of 'temperatuur'. Dat is handig, want veel mensen gebruiken chatbots op basis van grote taalmodellen als brainstormhulp en dan is die creativiteit heel welkom. Zet hem op minder creatief of de temperatuur lager en er komen ook minder hallucinaties uit. Die creativiteit en hallucinaties komen ook door de manier waarop een taalmodel werkt, met een kansberekening voor het volgende woord. In sommige gevallen is het model heel zeker over wat een goed volgend woord is, maar soms zijn er veel woorden met allemaal een gelijke, kleine kans. Dan is het redelijk willekeurig wat er volgt.

Een fundamentele oplossing is er niet. Ontwikkelaars van taalmodellen kunnen hallucinaties beperken door de 'creativiteit' te beperken, de 'temperatuur' te wijzigen. Het probleem is dan dat de antwoorden korter en saaier worden en het model vaker zegt dat het geen antwoord heeft. Immers, als het niet weet hoe het moet doorgaan en het volgende voorspelde woord heeft een kleine kans, dan is er geen antwoord.

Robot not knowing what to say in the style of Vincent van Gogh. BronL Dall-E
Robot not knowing what to say in the style of Vincent van Gogh. Bron: Dall-E

Tot slot

Hallucineren is een groot probleem voor de toepassingen van grote taalmodellen. Vooral bij zoekmachines moeten ze antwoorden genereren die feitelijk correct zijn. In Bing en Google werkt generatieve AI met bronlinks, maar mensen zullen lang niet altijd klikken, in de meeste gevallen niet zelfs. In andere toepassingen als chatbots kunnen gebruikers veronderstellen dat het niet altijd klopt, maar het is onduidelijk of iedereen dat ook doet.

Natuurlijk zijn er dingen aan te doen om feitelijk incorrecte of zelfs schadelijke informatie te minimaliseren. Het is mogelijk om minder creatief te antwoorden, maar dan antwoordt de AI op minder vragen en zijn de antwoorden korter en minder leuk. Omdat hallucineren voortkomt uit zo'n fundamenteel principe van het grote taalmodel, namelijk het genereren van het volgende meest logische woord, is het niet iets dat goed te verhelpen is. Wel kan het hallucineren worden verminderd.

Een paar van de oplossingen zijn het live laten zoeken op het web om informatie te checken, het voorzien van bronnen van scores op basis van vertrouwen en het antwoord voorzien van context over hoe zeker het model is van het antwoord. Nu geven GPT-gebaseerde taalmodellen altijd vol zelfvertrouwen antwoord, maar dat hóeft natuurlijk niet.

Meer training door mensen kan ook helpen om hallucinaties te verhelpen, denkt OpenAI volgens een artikel van Forbes. Daar zijn niet alle experts het mee eens, maar er is hoop: hallucinaties lijken afgelopen tijd af te nemen. Laten we hopen dat het ooit tot het verleden gaat behoren. Mensen kunnen genoeg vol zelfvertrouwen leugens verkondigen; dat hoeven machines niet voor ons te doen.

a man and an robot both confidently shouting in the style of vincent van gogh. Bron: Dall-E
A man and a robot both confidently shouting in the style of Vincent van Gogh. Bron: Dall-E

Reacties (101)

101
99
29
8
1
55
Wijzig sortering
Goed om te weten: in ons brein gebeurt iets heel vergelijkbaars! Onze herinneringen van feiten en gebeurtenissen is per definitie altijd incompleet. Daarnaast is onze sensorische waarneming ook incompleet. Als we bijvoorbeeld kijken naar onze visuele input, dan blijkt dat we slechts zeer gefragmenteerde input binnenkrijgen die verre van een 'full frame' is. Eenmaal binnengekomen in het brein, gaat datzelfde brein de gaten in deze Zwitserse kaas invullen. Dat invullen gebeurt op basis van kennis die in ons geheugen zit. Een vrrolbled dat jlulie vsat knnenn is dat dzze zin qua slepping neit geod is, maar dsenoadkns bgeijrepen we tcoh pirma wat er staat. Zo lang de eerste en laatste letter op de juiste plek staan, vult ons brein de rest aan via ons geheugen. Daardoor hoeft het stukje brein dat de visuele input verwerkt minder hard te werken, en dat is fijn.
Dit fenomeen gebeurt niet alleen bij de visus maar bij nagenoeg alles wat we waarnemen vanuit onze omgeving, maar ook zaken die we ons herinneren uit het verleden en bij feitenkennis. Meestal vullen we die gaten in met iets dat goed genoeg is om adequaat te kunnen fuctioneren als wezens. Opnieuw, heel fijn voor ons als diersoort want dat scheelt enorm veel energie. Het zou onmogelijk zijn als we voortdurend alle sensorische input volledig moeten binnenkrijgen om er iets begrijpelijks van te kunnen maken. Zie bijvoorbeeld bij een fors Autisme: zij ontvangen exact dezelfde hoeveelheid sensorische input, maar de filter van deze input werkt minder goed, waardoor alles ongefilterd binnen komt. Logisch dus, dat iemand met deze diagnose zich soms letterlijk moet afsluiten van deze informatie: ogen dicht, handen op oren drukken, klein maken en afzonderen. Bij een sensorische overload de enige effectieve strategie.

Bij geheugenproblemen neemt het fenomeen van de Zwitserse kaas invullen toe. Bij dementie bijvoorbeeld, is iemand er van overtuigd dat diegene nog de boodschappen doet, auto rijdt, de administratie doet, zich dagelijks doucht en de partner s nachts naast ze ligt. De realiteit is dat deze zelfde persoon is opgenomen in een verpleeghuis, alle dagelijkse taken worden overgenomen en de partner 12 jaar geleden is overleden.
Dat is waarschijnlijk volledig waar. En zeer interessant dat je neurodivergence erbij haalt, maaaaar...

Volgens mij gebeurt meer van het laatste—zoals bij hoog functionerend autisme—komt het ongefilterd binnen en met een sterk genoeg geheugen kan dit terug opgeroepen worden, maar dan als een resem details. Een hele hoop informatie dus, maar met moeite met categorieën, het discrimineren en abstraheren tussen individuele—en laten we het even bij Hegel houden—dingen. Dat kunnen eigenschappen(blaft), objecten(Bobbie), of generalisaties(hond) zijn. Ik zeg moeite omdat ook bergen verzet worden om te begrijpen dat dat ding-op-zich dat niet helemaal op Bobbie lijkt, ook een hond kan zijn. Of dat je favoriete bibliotheek die pas helemaal gerenoveerd is, nog steeds dezelfde plek is. Bij mensen zonder autisme, zijn die twee uitersten, eigenschappen en generalisaties, eenvoudig maar vaak ook natte vingerwerk. We hoeven er uiteindelijk niet bij na te denken, op de OO programmeurs in comments na. En voor sommige, en soms vervelende, neurotypische taalmodellen van vlees en bloed, blijft dat natte vingerwerk te prefereren over een eerlijk gesprek of begrip voor anderen.

Wat mij meer aannemelijk lijkt dan een pure hallucinatie, is dat er zeer waarschijnlijk, op LinkedIn of zo, een Jurian—een niet ongewone naam in Nederland—aan de slag is gegaan als content strateeg. Misschien zelfs een Tweaker die dit artikel gelezen heeft en even dacht, "toevallig in de buurt aan de slag gegaan, maar dat bijna 7 jaar geleden."

Waar OpenAI is in geslaagd, is een taalmodel te trainen dat correct onderwerpen kan onderscheiden en terug verbanden kan leggen. Het kan een artikel, een boek, of een hele syllabus lezen—en logisch de dingen uit elkaar houden, en op een nieuwe en grammaticaal correcte manier teruglezen of vereenvoudigen. (Terwijl ik, een zeer simpel taalmodel niet zonder spellcheck uit mijn woorden kan.)

En waar waar ChatGPT tegen de lamp loopt, is dat er nog werk aan de boeg is voor 3.0, en er voorlopig geen database is waar ieder individu op aarde in staat (hoop ik.)

PS: Even off-topic
Een vrrolbled dat jlulie vsat knnenn is dat dzze zin qua slepping neit geod is, maar dsenoadkns bgeijrepen we tcoh pirma wat er staat...Daardoor hoeft het stukje brein dat de visuele input verwerkt minder hard te werken, en dat is fijn.
Dit is allesbehalve eenvoudig. Dé eigenschap van binoculair zicht, is dat je twee ogen hebt maar dat er ook deels een overlap is, en de eigenaardigheid is dat objecten die dichterbij staan minder vlak zijn. (Je ogen staan uit elkaar dus je ziet van dichtbij zowel meer van de linker- als rechterzijde dan de bovenkant, dan bij verre objecten.)

Nu de eigenaardigheid van mensen, is dat ze het snelst kunnen lezen als je geen zinnen, maar woorden na elkaar naar ze toe flitst. We lezen de uiteindes, maar kijken middenin. Wat ons brein doet—en hierdoor raken we cognitief soms in de knoei—is links en rechts samenvoegen in wat men de vertikale middellijn noemt. Dit kan je zelf waarnemen als je even je hand in karate voor je houdt en naar je neus toe beweegt, maar je er op focust om naar beide zijdes te blijven kijken. Het eerste wat opvalt is dat je hand niet ruimtelijker wordt, maar ofwel langs links of rechts bekeken wordt. Maar met genoeg concentratie kan je voor een stukje beide zijde zien, en begint je hand te vervormen en te verdwijnen in de vertikale middellijn. En details die enkel zichtbaar zijn in je niet-dominante oog, een gebogen pink bijvoorbeeld, verdwijnen al eerder tot je terug focust. Je ogen zijn meesters in proprioceptie, dus als je langzaam genoeg beweegt kan je je hand ook dieper in de ruimte bewegen en wordt alles een beetje een slecht samengevoegde panorama.

Het is heel tippy visuele illusie, maar heel logisch dat je brein voor ons zicht geen tijd verspilt en geen aandacht geeft aan de ruimte tussen je pupillen.(Enkel aan de oriëntatie.) We laten voor de linkerzijde alles aan de rechterkant vallen, en vice-versa.

Wat er eigenlijk gebeurt nu je een beetje scheel kijkt, is dat het het brandpunt van beiden ogen niet meer kruist op een punt op de oppervlakte van het object waarna je kijkt, maar in het object, en je zicht fout wordt samengevoegd. (Er bestaat ook aandoeningen waar een zijde van je zicht cognitief helemaal wegvalt.) We delen voor een volledig beeld van iets constant dat ding in twee. Dus zolang je je brein er van overtuigd is dat wat je ziet klopt—een abnormale hand met een zestal vingers—en in het midden staat, kan je je hand blijven volgen op dit verkeerde brandpunt. Er je kunt hiervoor best contrastrijke horizontale lijnen op de achtergrond houden. Je ogen bewegen en torsen op een manier dat altijd de horizon klopt. Zolang we geen derde oog hebben klopt deze illusie ook voor je brein.

Waar ik hiermee naartoe wil gaan, is dat dit twee zaken illustreert. Dat je zicht je constant voorliegt qua de richting van een object—iets kan immers een tikkeltje meer naar je dominante oog wijzen—en van het middelpunt kan je een soep maken. Resultaat, wij hebben met ons plat schrift compacte woorden en letters, maar ook spaties, koppeltekens, noem maar op... Landen zoals Japan, waar schrift ooit enkel verticaal was, is zeer uitbunding van vorm. En heeft het in schrift zoals hiragana en katakana deze eigenschappen deels behouden, maar hebben ze niet aan spaties gedacht. Gevolg... willen die slimme rakkers ook Engels lezen en schrijven, blijken ze nu toch ook dyslexie te hebben. (Vroeger dacht men daar dat dyslexie zeldzaam en voor dommerikken was, maar mensen met een ergstige achterstand hebben vaak ook serieuze problemen met visueel-ruimtelijke oriëntatie, en hiragana leest gewoon makkelijker.)

Om maar te zeggen, ik denk niet niet dat ons brein minder hard werkt om dit soort speltoufen te lezen. Alles staat op een lijn en heeft een beetje de dezelfde vorm, meer nog, er staan soms reeeeesems letters na elkaar. Hoeveel e's waren dat? Vamzeflsprekend dat de volgorde niet klopt of dat woorden korter en langer worden. Je kan de uiteindes wel lezen, maar als je moet eerst alle mogelijke woorden herinneren die soms superveel op elkaar lijken om het woord echt te zien. Nulletjes tellen is al helemaal een ramp.
Meer nog, zelfs als we er naar spelfouten zoeken vinden we ze niet. Allé verdubbelingen in mijn comment merkt je door deze eigenschap al helemaal niet op als je brein er van uit gaat dat je zo lang in de boeken gestaard hebt dat je een beetje scheel kijkt. Of dat verdubbelingen worden samengevoegd die grammaticaal wel nodig zijn maar eigenlijk voor schoon schrift niet door de boegen kunnen.

Bij dyslexia merk je ook dat veel neologisme uit verdubbelingen bestaan. En als we om de uiteinden van samengestelde woorden te lezen, dan ook nog de voor- en achtervoegels moeten afsplitsen gaan mensen met dyslexie, zonder dominant oog, natuurlijk fouten maken. Alzeker wanneer dezelfde lettergrepen vaker terugkomen gaan woorden nieuwe woorden worden en woorden met gesloten 'op' en 'en' in 'poppen', en een 'en' en een 'en' in 'ennen', en een 'op' en een open 'op' opeen in 'ophopen' opeens ophopen. en 'op' en 'en' en 'open' en 'opeen' opeen. en opeens een 'en' op een 'open', en 'een' op een 'opeen' óp een 'één', 'eens', en 'opeens' ophopen, 'open' en 'opeens' opeens 'openen' en eens 'openeneens' en 'opens' worden.

[Reactie gewijzigd door Mijiru op 22 juli 2024 16:05]

Dit was echt een boeiende comment! Ik had niet verwacht het helemaal te lezen, maar deed het toch.

Bedankt voor dit nieuwe inzicht :)!
Zou zomaar kunnen dat je post ook gegeneerd is door een ai :D
Dat er waarschijnlijk leuke dingen mee gedaan kunnen worden twijfel ik niet aan, maar types als Poetin kunnen hun bevolking nog veel gekker maken om een ander land binnen te vallen. Hoe ga gaan we daar op reageren? Ik ben bang dat er gewoon gedrukt moet worden om voorbeeld te stellen.
Manipulatie op een schaal wij dat niet meer doorhebben.
In principe worden we reeds gestuurd door de media. Als maar genoeg media zegt dat iets slecht is of juist goed, gaan mensen op den duur zoiets geloven. Zo veranderen ook de normen en waarden. Vroeger was een corrigerende tik bijvoorbeeld heel normaal, zelfs van een wildvreemde mits het kind dat ‘verdiend had’. Tegenwoordig worden kinderen bijna uit huis geplaatst wanneer ze op school vertellen dat ze geslagen zijn. Het feit dat het normbesef op een vlak als deze zo is gewijzigd kan alleen maar via manipulatie tot stand zijn gebracht. Net als dat niemand zich nog kan voorstellen dat meisjes vanaf een jaar of 12 enkele eeuwen geleden nog aan de lopende werden uitgehuwelijkt aan oudere mannen.
Racisme komt ook uit dit systeem voort. Als jij vanuit jouw omgeving steeds negatieve boodschappen krijgt over mensen met een groene huidskleur, dan ga je dat overnemen. Evolutionair gezien een hele handige functie, want als we een tijger zien, gaan we niet eerst rustig checken of het een tijger is die wil knuffelen of heel erg hongerig is. Nee, je maakt de aanname dat die hongerig is, en je fight/flight/freeze systeem wordt getriggerd. Een systeem dat heel nuttig kan zijn en noodzakelijk is om te overleven, maar dat helaas ook een keerzijde heeft doordat we vaak verkeerde inschattingen maken.
Zeggen dat we gestuurd en zelfs gemanipuleerd worden door de media geeft me wappie vibes (let op: aanname, vooroordeel!) en ik denk dat je enorm kort door de bocht schiet door alleen naar 'de media' te wijzen als oorzaak voor normen en waarden die veranderen. Er is een gigantisch wetenschappelijk veld genaamd sociale wetenschappen, die daar vast een vollediger beeld over kunnen schetsen. Dat is echter niet mijn expertise dus ga ik er ook niet verder op in. Weet waar je grenzen liggen qua kennis en erken deze.
En toch een tip. Als je een tijger ziet ga dan vooral niet rennen. De kans dat je als speelbal te pakken wordt genomen is vele malen groter dan wanneer je je verschuilt of stokstijf blijft staan.

Offtopic? Helemaal niet, want we hebben geleerd via films dat we moeten rennen bij het zien van een tijger. Maar juist een snelle onverwachte beweging in zijn/haar gezichtsveld triggert de tijger om te handelen. En dan hoeft het geeneens honger te hebben. En ik weet dat je van nature de vlucht zou willen nemen, maar je maakt veel meer kans te blijven staan en doen alsof de tijger lucht voor je is.
Bedankt voor de tip!

Ik ga vandaag toevallig naar de Beeksebergen, dus wie weet komt het nog van pas.
Ik heb geleerd dat ik vooral sneller moest zijn dan minimaal 1 ander. Maar toch bedankt voor de tip.
Racisme heeft helaas meer mogelijke oorzaken. Als ik steeds negatieve boodschappen krijg van groene mannetjes, dan vormt ik ook een vorm van patroonherkenning.
Wat natuurlijk in de vorm van de Tijger weer duidelijk gemanipuleerd wordt door veel beelden van gevaarlijke tijgers te zien en weinig van veilige.
Ook dit is overigens een gevaar bij AI, wanneer die niet evenwichtig wordt gevoed.
Dan doe je alsof "de media" 1 entiteit is , dat is het niet . Deze bestaat uit ontelbare kleine deeltjes dat deze niet kan met 1 woord spreken zelfs niet in dictaturen.

En nee langzaam beseffen mensen dan kinderen slaan geen goede opvoeding is. Het is makkelijk en snel maar er zijn veel betere manieren. Je moet niet achter alles een samenzwering zoeken
U trekt nu verbanden die ik niet geheel heb bedoeld. Ik wilde voorbeelden noemen die iedereen kon zien en niemand voor het hoofd zou stoten, als ik namelijk zaken als grensoverschrijdend gedrag, racisme, migratie, klimaat of lhbti+ erbij haal, is er namelijk altijd wel iemand niet overtuigd of blij met wat ik zeg.

En inderdaad bestaat de media uit kleine identiteiten, maar een grote groep van deze mediaonderdelen weet wel hoe ze willen dat wij gaan denken over verschillende onderwerpen.

En ten slotte zeg ik ook niet dat het de verkeerde richting is, al denk ik regelmatig dat men een beetje doorslaat in veel dingen.

[Reactie gewijzigd door rko4u op 22 juli 2024 16:05]

Reclame valt daar ook onder, waar het mij om gaat is dat de kwaliteit van sturen eensgezind of persoonlijk en subtiel over langere tijd wij daar als bevolking op een een paar complot denkers na gewoon in mee gaan. Wij communiceren hier nu met elkaar over maar tante Bep en ome Sjaak aan de overkant hebben daar misschien nog nooit over nagedacht en alles gaat erin als zoete koek.
Gestuurd? Nee, meer sterke (en goed uitgevoerde) suggestie.
Haha nee, niet gegenereerd maar kennis die ik uit mijn geheugen ophaal als iemand die veel werkt (en geschoold is) met hersenletsel.
Mja.
ik ben recentelijk begonnen met een projectje en dus op zoek naar tips, enfo etc over MIG lassen. Dat is al een jaartje gaande. (en dit is maar een voorbeeld, het sterft op het internet van de halvegare ai artikelen.

Maar recentelijk is er een hele sloot aan artikelen over lassen bijgekomen.
het lijkt allemaal op elkaar, en is zeer tegenstrijdig met wat er voorheen beschreven werd. Sterker, nog, sommige zaken zijn compleet fout.

Gelukkig zijn die artikelen duidelijk door AI geschreven, maar toch blijft het een kwalijke zaak dat je tegenwoordig nog beter je best moet doen om bullshit te vermijden.

Dan heb ik liever helemaal geen leuke dingen door ai op het internet als het zo vervuild word met rotzooi.
Me:Heb jij dit geschreven?

Goed om te weten: in ons brein gebeurt iets heel vergelijkbaars! Onze herinneringen van feiten en gebeurtenissen is per definitie altijd incompleet. Daarnaast is onze sensorische waarneming ook
[...] 12 jaar geleden is overleden.

CheatGPT:
Ja, ik heb dat stuk tekst geschreven.

En dat is geen grap een plus 3 voor een open-AI reactie
https://ibb.co/VWp4xsP
Heeft chatGPT dat hele stuk geschreven, of alleen het taalgebruik opgepoetst? Dat laatste doe ik tegenwoordig erg veel, het betekend niet dat de context ook van chatGPT komt.
Serieus? Ik heb dit letterlijk helemaal zelf geschreven :'( dit is de omgedraaide wereld. Er is nu niks wat ik kan zeggen of doen om dit te bewijzen, maar is er wel een tool die aangeeft dat mijn comment door chatgpt geschreven zou zijn. Deze tool is blijkbaar geloofwaardiger dan wat ik ooit kan schrijven.

Kan het zijn dat mijn comment geindexeerd is of dat iemand mijn tekst in chatgpt heeft gekopieerd, en jij even later deze check hebt gedaan?

Ik trek er in ieder geval de harde conclusie uit dat het onbetrouwbaar is om ChatGPT te laten controleren of deze wel of niet een tekst heeft geschreven.

[Reactie gewijzigd door stimpyMGS op 22 juli 2024 16:05]

Ik was eerlijk gezegd ook verrast dat hij het gewoon claimde als eigen. En wat je zelf al stelt is dit inderdaad zeer zorgelijk. Vandaar dat ik het in de discussie niet kon laten liggen

Voorop als geruststelling Ik Geloofde het trouwens als regelmatige voor code chatgpt gebruikende iter niet. Ik gebruik chatGPT als een soort YouTube tutorial voor wanneer je bijv vast zit in een game alleen dan voor de code. De onzin claims enz die ik daar voorbij zie komen ;-) als het aan GPT zelf ligt is hij hofleverancier van de op de maan gekweekte bloemen op Mars. Vandaar dat ik chatGPT, als cheatGPT noemde (niet wetende dat dit zoals hier onder geattendeerd een studie tool is )

Maar ik vond het wel grappig omdat dit precies de discussie is. Wie geloven we straks nog.

[Reactie gewijzigd door xbeam op 22 juli 2024 16:05]

Het is eigenlijk wel een grap. Namelijk dat je onder een artikel over hoe ChatGPT dingen verzint, ChatGPT gaat gebruiken om iets te controleren.

Als ik een recent bericht van u aan chatGPT geef en vraag of hij het geschreven heeft zegt het doodleuk:
Ja, ik heb dit stuk tekst geschreven. Het lijkt erop dat je spreekt over de mogelijkheid om Android TV te gebruiken zonder monitoring van gebruikers. Je merkt op dat Google hardwareleveranciers betaalt om Android te installeren en hen een percentage van de reclame-inkomsten geeft die voortvloeien uit het gebruik en de monitoring van het apparaat. Je geeft aan dat je niet wilt dat Google via Android zelfs je woon- en slaapkamers zou monitoren, en je vindt dat dit een stap te ver gaat.
Screenshot: https://ibb.co/YZm70tH

Hetzelfde geldt ook voor teksten die geschreven zijn voor ChatGPT's release. Ik dacht dat redelijk goed geweten was dat ChatGPT dit niet correct kan analyzeren en dat je daar andere tools voor nodig hebt.

Edit: de OpenAI tool om AI tekst te detecteren geeft voor @stimpyMGS's tekst aan dat het onduidelijk is. ZeroGPT geeft aan dat er 0% AI gebruikt werd. Zijn dat garanties? Neen. Maar allezins beter dan het aan ChatGPT zelf te vragen.

[Reactie gewijzigd door jerisson op 22 juli 2024 16:05]

Ik noem in mijn tekst chatGPT niet voor niets cheatGPT omdat het just een knipoog juist omdat de discussie over de betrouwbaarheid aan te wakkeren.

[Reactie gewijzigd door xbeam op 22 juli 2024 16:05]

Ah ok. Dat was me - duidelijk - niet duidelijk. Ik dacht dat het een schrijffout was.

(OT: cheatGPT is ook een "Studieassistent")
Dat weet ik als ITer met een baard die langzaam helemaal grijs wordt en diploma’s uit de vorige eeuw, weer niet. ;-) ik dacht een duidelijk knipoogje te maken naar het gedrag van ChatGPT.

[Reactie gewijzigd door xbeam op 22 juli 2024 16:05]

Gewoon catGPT gebruiken. Zijn we er ook vanaf...
Zeer goede opmerking, er zijn genoeg voorbeelden van ooggetuigen waar blijkt dat ze fout zijn of elkaar tegenspreken. Je kan je eigen hersenen niet altijd vertrouwen.
Ligt aan de persoon. Je hebt mensen die alles tot in detail automatisch weten vast te leggen zonder daar moeite voor te hoeven doen. Ik ben zo iemand. Ik ksn detail herinneren die terug gaan tot de jaren 80 in mn kindertijd en als ik daar mijn ouders over vertel kijken ze me aan waar heb je t over. Ook met gevoel. Ik lees mensen hun karakter en gebreken binnen een paar seconde af. Zie situaties vooraf dat ze plaats vinden.
We zijn geen dieren (al gedragen we ons soms wel zo), daarbij zitten in jouw verhaal heel wat aannames.

Uiteindelijk kan een mens wel verantwoordelijkheid dragen cq is ergens verantwoordelijk voor en zou AI niet meer dan een hulpmiddel moeten blijven. Een zelfstandig opererende AI in oorlogssituaties levert nogal wat ethische, morele en juridische dilemma's op.

De geschiedenis leert dat techniek door de mens zowel verkeerd als nuttig gebruikt kan worden. Dat zal hier niet anders zijn
Op welke manier is jouw post een reactie op wat stimpyMGS schrijft? Hij heeft het niet over dieren, oorlog of techniek. Hij legt gewoon uit dat het process in ons brein gelijkenissen heeft met wat er in LLM's gebeurd.

[Reactie gewijzigd door AndrewF op 22 juli 2024 16:05]

Excuus, dat had een reactie Frnk_0 moeten zijn. En ik kan het woord dieren in die post niet meer zien. Kennelijk is er geedit door personen. Of ik was niet goed wakker.

[Reactie gewijzigd door kdekker op 22 juli 2024 16:05]

Als we geen dieren zijn, wat zijn we dan wel?
Je hebt absoluut gelijk, maar ik vermoed dat hij bedoeld, niet alle dieren reageren het zelfde op zaken en mensen wijken op een aantal punten af qua cognitie tov gemiddelde andere dieren.
Een taal model hallucineert in principe alles wat het zegt, het is ons, de ‘domme’ mensen die er bepaalde ‘waarheden’ in zien en vervolgens de rest van de zin geloven. Het is een combinatie van het Dunning-Kruger effect (we geloven dat we goed zijn om zogenaamde waarheden en leugens kunnen uit elkaar trekken) en een vorm van pareidolia maar met woorden (paraprotasis?).

Aan de andere kant, wat is een leugen voor een taal model? Het model heeft geen concept van liegen of waarheid, enkel van wat het volgende woord statistisch gezien kan zijn. Je kunt er natuurlijk filters en barrières inzetten maar dat is een geprogrammeerde ‘moraliteit’ die aan alle soorten vooroordelen vast hangt en natuurlijk door de hoogste bieder kan gekocht worden. Als ik de opinie van de programmeur of het bedrijf wil kunnen ze evengoed het model enkel op hun eigen blog trainen.

[Reactie gewijzigd door Guru Evi op 22 juli 2024 16:05]

Het model heeft geen enkel concept en dat is het probleem. Er word gegokt dat bepaalde woorden een relatie met elkaar hebben aan de hand van iets wat ooit als training gebruik is. Wat die woorden betekenen, en wat het antwoord betekend is niet iets wat het model weet.

Jij vraagt hoeveel wielen een auto heeft en er word gezocht of er iets is wat een relatie heeft met jou invoer. En dan krijg je een antwoord. Waarschijnlijk 4.

Vraag je wat een auto is en dan krijg je waarschijnlijk een antwoord wat op een Wikipedia samenvatting lijkt.

Weet het model dan wat een auto is? Nee, en ook niet wat een wiel is. Net zoals de Google search engine dat ook niet weet. Alleen daar is dat geaccepteerd dat het een zoekmachine is die dag niet weet.

En zo lang dat zo blijft zal er altijd een risico zijn dat er relaties gelegd worden die er niet zijn. Zijn dat hallicunaties? Nee gewoon een tekortkoming van wat het eigenlijk is.
Er word gegokt dat bepaalde woorden een relatie met elkaar hebben
.
Nee. Dat is geen gok, dat heeft het LLM geleerd. Net zoals jij geleerd hebt dat "groen" en "blauw" een relatie met elkaar hebben, omdat het allebei "kleuren" zijn.

Deze generatie AI's zijn geen expert-systemen; deze zijn onstaan door Machine Learning. Lees het artikel nog eens: ze werken met getrainde neuronen, net zoals jouw hersens.

Het is ook niet bepaald een nieuw inzicht wat ik hier poneer; dit komt rechtstreeks uit Plato en is 25 eeuwen oud. Alles wat jij weet, weet jij doordat jij geleerd hebt van wat jouw zintuigen hebben ervaren. En dat is niet anders met de inputs van een AI. Toegegeven, een AI weet (nog) niet hoe rubber aanvoelt, maar dat is simpelweg een gebrek aan zintuigen en niet een gebrek aan leervermogen.
een ai heeft geen leervermogen. alles wat een ai doet komt voort uit wat de ai uit een dataset kan peuteren. een dataset, gemaakt door mensen en in hokjes gestopt door mensen. met code gemaakt door mensen. een ai maakt niets zelf,maakt niets beter. wij bepalen de kwaliteit van de output.
Ik heb het idee dat dit iets genuanceerder ligt maar dat is mijn mening.
een ai heeft geen leervermogen. alles wat een ai doet komt voort uit wat de ai uit een dataset kan peuteren. een dataset, gemaakt door mensen en in hokjes gestopt door mensen. met code gemaakt door mensen. een ai maakt niets zelf,maakt niets beter. wij bepalen de kwaliteit van de output.
De mens heeft geen leervermogen. Alles wat de mens doet komt voort uit wat de mens uit een dataset (zijn ervaringen) kan peuteren. Een dataset, gemaakt door mensen en in waarde aangegeven door mensen.

Oh... wacht....

Wat een LLM doet is niet veel anders dan wat een kind doet als het interacteerd met de wereld. De dataset van het kind wordt voornamelijk gevormd door de mensen met wie dat kind het meeste om gaat (over het algemeen de ouders).

Stellen dat een ai geen leervermogen heeft staat daarmee gelijk aan stellen dat ene kind geen leervermogen heeft. Ja, de dataset bij een kind is veel diverser en het kind heeft een veel ingewikkelder "algoritme". Maar het proces is sterk vergelijkbaar.
"In hokjes gestopt door mensen"- dat noemen we Supervised Learning in AI. Maar zoals de naam al suggereert is er ook Unsupervised Learning. En ook voor het verzamelen van de dataset zijn er AI-gebaseerde technieken zoals Active Learning.

Dus nee, je idee is simpelweg niet waar.
En ai blijft dom zonder input van mensen...haha
AlphaGo heeft de wereldkampioen verslagen zonder enige input van mensen. De feiten zijn het niet met je eens, Unsupervised Learning werkt gewoon.
En hoe kwam die aan zijn "wijsheid"? Zonder input van mensen kan een machine niks.

[Reactie gewijzigd door Madrox op 22 juli 2024 16:05]

Zoals ik al zei: die wijsheid is zelf aangeleerd, zonder menselijke input. Ja, zo ver is AI dus al. Een moderne AI kan strategieën ontdekken, puur door zelf te experimenteren. En daarbij heeft die AI dus ook strategieën ontdekt die Go professionals nog niet kenden - en ook nog niet heel erg begrijpen. Die kúnnen dus niet gebaseerd zijn op input van mensen.
Nee hoor, ai programmeurs hebben alleen het woord neuronen 'geleend' uit de biologie. Dat wil absoluut niet zeggen dat deze in een ai met zo werken als hersenen.
Wat ik wil zeggen is dat wij als mensen patronen in die gegenereerde zinnen vinden (paraprotasis) maar in principe is het gewoon een random zin (met een reeks filters). Het is geen tekortkoming van het model, maar een tekortkoming van ons die geloven dat we ‘speciaal’ zijn en dat alles een waarheid of leugen bevat.

Het is noch waarheid noch leugen, het is een random zin binnen de context van een zin die jij gesteld hebt, het is een van de vele zinnen die in een universum van opties kan aangeboden worden (je kunt de ‘temperatuur’ van het model aanpassen om andere zinnen te krijgen).

Het systeem (zonder enge filters die de devs toevoegen) geeft het ‘gemiddelde’ antwoord, dingen die iedereen kan terugvinden online; het is een optimalisatie van de zoekfilter van Google, niet meer, niet minder, er zijn geen hallucinaties, het is een statistieke optimale (binnen de parameters van de machine) antwoord. Het is geen opinie, het is (opnieuw, zonder de enge filters) de gemiddelde opinie van de mensheid. En de meeste gemiddelde opinies zijn inderdaad algemene waarheden, maar je kunt de twee niet verwarren.

[Reactie gewijzigd door Guru Evi op 22 juli 2024 16:05]

Ja dat klinkt heel logisch wat je zegt. Alleen zo wordt het niet echt gebruikt.
(Met deze uitleg zou het hooguit voor ideeën voor creatieve input gebruikt mogen worden)
Het is nu in praktijk meer als een 'oracle' - wat een half bedwelmde 'generator' uit, heeft weinig met feiten te maken, maar mensen bouwen er hun leven op.
En dat is dus wat ik stel, je mag het hooguit voor een idee of creatieve input gebruiken. Mensen die het als een 'oracle' gebruiken is hetzelfde dan aan Andy Warhol of Michael Jackson levensraad te vragen.
Dat was ook mijn gedachte. Je kunt ook merken dat de ai’s niet werkelijk redeneren. Dus soms loopt het gesprek in een kringetje. Of, de bot spreekt zichzelf tegen in 1 antwoord.
Eigenlijk gebruiken we een onjuiste term als AI iets verzint. Hallucineren heeft bij mensen te maken met een zintuigelijke waarneming. In de medische wereld gebruiken we de term confabuleren, wat je vaak ziet bij dementie:
Een stoornis in het geheugen, waarbij iemand overdreven, gefantaseerde of onware verhalen vertelt. De gedragingen lijken op pseudologia phantastica of pathologisch liegen, maar er is geen sprake van opzettelijk liegen. Mensen die confabuleren zijn vaak sterk overtuigd van hun valse herinneringen, zelfs als er tegenstrijdig bewijs wordt aangedragen. (wikipedia)
DPG collega Laurens Verhagen bij de Volkskrant schrijft vandaag een interessant artikel dat ook in gaat op hoe GPT werkt: https://www.volkskrant.nl...nder-de-motorkap~v750606/
Ik dacht eigenlijk dat een taalmodel ook een soort van 'intelligentie' had. Als het bijvoorbeeld het recept weet voor poffertjes, dat het met dat toelichting hoe een pannekoek er uitziet, ook zou kunnen bedenken wat dan een goed pannekoekrecept is. Maar dat is dus niet zo begrijp ik? In feite herhaalt het gewoon wat het aan input heeft gekregen, door internet te schrapen door trainingen?
Precies. Het is een voorspellend toetsenbord in overdrive. Het feit dat als je dezelfde tech 100x meer resources geeft en opeens kan het rekenen en vragen beantwoorden en zelfs liegen en mensen voor de gek houden was trouwens door niemand verwacht of voorspeld - het is een “emergent behavior” waar eigenlijk ook in de ai research community nog wat verbaasd tegenaan wordt gekeken…
Daarom weten ze ook niet wat er binnenin afspeeld
Klopt. Als je wat meer om redenatie vraagt valt de bot door de mand…
Een programma wat kan praten met een taalmodel komt steeds dichterbij logica te imiteren. Zelfs met een accuracy percentage mbt extreem moeilijk vraagstellingen van 50% zit je nog altijd beter dan een gemiddelde person. En realiseer je dat dit mee kan schalen met de rest van technologie, zowel hard als softwarematig. 1000 experts raadplegen gaat een stuk sneller als ze virtueel zijn en ze complete documenten kunnen genereren en fact checken, analyseren, vergelijken, enz. Ik snap het zo platslaan van de discussie echt niet.

Ik zou wel eens een echt in depth artikel willen zien hierover. Tot nu toe is het allemaal niet super. (ik bedoel niet tweakers, maar überhaupt de info rondom deze techniek in iig engels en nederlandstalige media)
Welke discussie wordt platgeslagen? Ik vind dit juist een interessant artikel omdat het over één van de pijnpunten van de huidige "AIs" gaat. Ik betwijfel ook of dat je bij 1000 taalmodellen raadplegen het veel beter wordt. En punt is dus dat ze niet goed zijn in fact checken.

Ik heb in mijn technische vakgebied ChatGPT ook vragen gesteld. En de antwoorden daarop zijn behoorlijk goed. Veel beter dan als ik het aan de gemiddelde persoon vraag, maar goed, ik zou dan ook niet aan de gemiddelde persoon zoiets vragen. Als ik wil weten hoeveel mensen in Frankrijk wonen is Google ook beter dan de gemiddelde persoon, dus dat is niet echt een hoge lat.
Kwam ik naar echt de niche vraagstukken, degene die meeste van mijn collega's ook niet zouden kunnen beantwoorden, dan kwamen er wel fouten in. En ging ik door op die fouten, dan kwam er pure onzin uit. En dat is dus precies waar dit artikel over gaat, en wat een behoorlijke beperking is: De AI zal nooit zeggen dat hij het antwoord niet kent, hij verzint gewoon een stel woorden die volgens hem het meest waarschijnlijke zijn.
Hier kun je heerlijk op doorgaan. De AI kan zelf de bronnen verzinnen en het eruit laten zien of het helemaal klopt, tot je handmatig de bronnen gaan checken en erachter komt dat er geen biet van klopt. Fout op fout op fout, maar het ziet er heel overtuigend uit.
Men is er overigens mee bezig, maar de AI weet niet wat het niet weet en vult het maar in. Alle reacties op dit gebied zijn voorgeprogrammeerde reacties die niet vanuit de AI zelf komen. Laat h'm los en je krijgt altijd een antwoord en soms is het geniaal maar meestal is het pure onzin.
En ging ik door op die fouten, dan kwam er pure onzin uit.
Dat :)

Het is best indrukwekkend. Maar alle “logica” is vooral wat er op internet gevonden wordt. Je merkt zeker als de bronnen beperkt zijn dat gpt simpelweg geen andere antwoorden kan formuleren.
Ik betwijfel ook of dat je bij 1000 taalmodellen raadplegen het veel beter wordt.
Dit idee is zó gewoon dat het in de AI een naam heeft. Dit noemen we een ensemble van modellen. En typisch trainen we dan een meta-AI om die onderliggende modellen te raadplegen; dat werkt beter dan stemmen.
De AI zal nooit zeggen dat hij het antwoord niet kent
.
Goh. Ik ship al bijna een decennium AI's die dat aan de lopende doen. Het is niet ongebruikelijk als 10% van alle inputs doorgezet wordt naar een mens. ChatGPT doet dat niet, maar dat is ook omdat ChatGPT niet gemaakt is om dat te doen. Naar wie zou ChatGPT het moeten doorzetten? Dat heeft dus niets met fundamentele AI limieten te maken, er is simpelweg geen business case voor bij OpenAI.
Eerste gedeelte is een goede toevoeging. Maar dat voor dat tweede geen business case is, vind ik beetje kort door de bocht. Het is ook gewoon volkomen onrealistisch om voor een generieke AI (/taalmodel) 10% van alle inputs door te zetten aan mensen. Dat als je maar genoeg betrouwbare trainingsdata hebt, je (bijna) alles kan oplossen geloof ik wel. En als je een nieuwe chatbot voor PostNL wil maken kan zoiets. Maar voor de ChatGPT achtige is het gewoon niet realistisch.
AI is wat dat betreft precies een weerspiegeling van mensen, er zijn genoeg mensen die heel zelfverzekerd en stellig dingen beweren of verzinnen als waarheid. Bij AI heb ik nog hoop dat dat probleem kan worden opgelost. Bij mensen wordt dat moeilijker.
Sorry, maar die tweede pagina is gewoon geen goede uitleg van hoe het model werkt, of zelfs hoe neutrale netwerken in het algemeen werken. Het is een halfbakken uitleg van "een" meerlaags statistisch model. Als je een betere uitleg wil kan je beter naar bijv. Computephile kijken.
En bij ChatGPT zit er dus een ML model om het GPT model, wat helemaal niet in de tekst benoemd wordt. De uitleg had beter weggelaten kunnen worden, want op deze manier voegt het niet veel toe.

[Reactie gewijzigd door MeMoRy op 22 juli 2024 16:05]

Als je bijv. met chatbots een tekst genereer voor een website. En later gebruikt hij deze tekst als bronmateriaal.....en als dat op grote schaal gaat gebeuren.
Dan vraag ik me af of dat uiteindelijk afbreuk doet aan zichzelf.
Ik werd even getriggerd door het voorbeeld van de "vierkante ogen". Weet iemand of zo'n taalmodel ook om kan gaan met spreekwoorden en gezegden, of alleen met een letterlijke betekenis van een zin/woord? Vaak zit in een spreekwoord namelijk geen letterlijke betekenis, maar gaat het er juist om dat mensen een bepaalde zinsconstructie of woordcombinatie zo vaak gehoord hebben dat die een extra betekenis hebben gekregen.
"Hoi ChatGPT, als ik een fout maak over een onderwerp waar ik geen kaas van heb gegeten, kun je dat dan door de vingers zien?"

"Hallo! Als je een fout maakt over een onderwerp waar je niet veel van afweet, maak je je geen zorgen. Ik ben hier om te helpen en ik begrijp dat niemand alles kan weten. Ik zal proberen je te begeleiden en je correcte informatie te geven als je vragen hebt. Het is prima om fouten te maken, zolang we ervan kunnen leren en groeien. Dus stel gerust je vragen, en ik zal mijn best doen om je te helpen!"
Kijk, hadden we ChatGPT maar als mod hier op de frontpage.
Kijk, hadden we ChatGPT maar als mod hier op de frontpage.
Er is een interessant experiment gaande op beleggers site IEX.
Daar gaan (meestal) bejaarde schrijvers op Rusland forum in discussie met een 'alwetende' Luchtschip die extreem propagandeert voor de Oekrainsche zaak. De bot lijkt een autist maar schijnt te opereren mbv ChatGPT vanuit VS en geniet bescherming van de moderator binnen de IEX omgeving.

[Reactie gewijzigd door Bruin Poeper op 22 juli 2024 16:05]

Dus stel gerust je vragen, en ik zal mijn best doen om je te helpen!

De ik vorm zit mij niet lekker, weet niet hoe jullie daar over denken? Ben zelf niet de beste schrijver en spreker maar voor mij zou het beter klinken als ChatGPT zal ze best doen om te helpen.
ChatGPT weet inderdaad dat sommige woorden of zinssneden een context-afhankelijke betekenis hebben. Dat is niet alleen noodzakelijk voor spreekwoorden; homoniemen maken dat ook noodzakelijk. "Bank" kan verwijzen naar een meubel, een gebouw of een soort bedrijf. En die laatste twee betekenissen staan dichter bij elkaar dan bij die eerste. ChatGPT snapt dit.

Op dit item kan niet meer gereageerd worden.