Aan
een dit antwoord uit een LLM heb je helemaal niets en het zegt ook niets over zijn eigen werking. Zo werkt een LLM (of
NLP) namelijk niet. LLMs zoals die van Perplexity, ChatGPT en Gemini werken niet op basis van een soort 'zelfbewustzijn' of directe kennis van hun eigen interne werking.
A large language model (LLM) is a computational model notable for its ability to achieve general-purpose language generation and other natural language processing tasks such as classification.
Based on language models, LLMs acquire these abilities by learning statistical relationships from vast amounts of text during a computationally intensive self-supervised and semi-supervised training process.
LLMs can be used for text generation, a form of generative AI, by taking an input text and repeatedly predicting the next token or word.
Ze worden getraind op enorme hoeveelheden tekstgegevens en leren patronen, structuren en verbanden in de taal, waardoor ze geen directe kennis of bewustzijn van hun eigen processen hebben. Wanneer je een LLM vraagt naar details over zijn eigen werking, zal het model een antwoord geven dat gebaseerd is op de gegevens waar het op is getraind (en dus niet de werkelijkheid). Dit betekent niet dat het model een bewust of accuraat antwoord geeft, maar eerder een antwoord dat plausibel klinkt op basis van de beschikbare gegevens. Het 'begrijpt' jouw vraag namelijk niet. Hierdoor kunnen hun antwoorden soms onnauwkeurig of misleidend zijn, vooral wanneer het gaat om zelfreflectie of technische details over hun eigen werking.
Historically, up to 2020, fine-tuning was the primary method used to adapt a model for specific tasks. However, larger models such as GPT-3 have demonstrated the ability to achieve similar results through prompt engineering, which involves crafting specific input prompts to guide the model's responses.[3] These models acquire knowledge about syntax, semantics, and ontologies[4] inherent in human language corpora, but they also inherit inaccuracies and biases present in the data they are trained on.[5]
Ze kunnen wel iets geholpen worden door
Prompt engineering, waarbij specifieke invoerprompts worden gemaakt om de reacties van het model te sturen, maar ook daardoor zal het model nog steeds antwoorden genereren op basis van de patronen en gegevens waar het op is getraind, zonder werkelijke kennis of begrip van de inhoud of zijn eigen werking.
Als je bijvoorbeeld aan Perplexity vraagt of het robots.txt-bestanden respecteert, zal het model een antwoord genereren dat gebaseerd is op de trainingsgegevens of eventuele aanpassingen vooraf of achteraf (zoals bij Gemini en het
racisme stukje of vraag bijvoorbeeld Bing AI maar eens hoeveel werknemers Pornhub heeft.*) Het antwoord dat Perplexity geeft op vragen over zijn eigen werking is dus niet (per se) een bevestiging van de feiten en zeker niet een betrouwbare bron zonder verdere verwijzingen naar de originele bron zelf.
Een voorbeeld over correctheid:
jdh009 in 'Google brengt Gemini 1.5 Pro uit voor Advanced-abonnees'
* Voor het antwoord: Begint een normaal LLM antwoord te geven maar wordt afgebroken en 'typt' dan:
Hmm… laten we een ander onderwerp proberen. Sorry daarvoor. Wat heb je nog meer in gedachten?
Bron quote:
Wikipedia: Large language model
en meer info over NLP:
Wikipedia: Natural language processing
Dit is trouwens ook leuk een leuk voorbeeld waarbij AI (kan niet zien welk soort) gebruikt wordt voor klantcontact en onzin uitkraamt namens Air Canada.
De British Columbia Civil Resolution Tribunal oordeelde dat Air Canada aansprakelijk is voor onjuiste informatie verstrekt door haar chatbot, waarbij schadevergoeding werd toegekend aan een passagier en een precedent werd geschapen dat bedrijven verantwoordelijk zijn voor de acties van hun AI.
https://www.bbc.com/trave...at-travellers-should-know
[Reactie gewijzigd door jdh009 op 23 juli 2024 04:23]