ls de ChatGPT daadwerkelijk verbanden zou kunnen leggen dan is de output op een gegeven input altijd dezelfde, en dat is duidelijk niet het geval.
Dat is net wat aantoond dat het AI is.
Denk er eens over na: Iemand stelt je een vraag en jij geeft een uitleg. Op het moment dat je dat doet, zonder het te beseffen leer je uit je eigen tekst. Stel dat diezelfde persoon jou opnieuw diezelfde vraag stelt 2 minuten later, dan zal je merken dat jou antwoord nooit identiek is als je eerste antwoord en bovendien zal je 2de antwoord efficienter zijn, omdat je de communicatie al eens gedaan hebt en bovendien misschien een foute verwoording hebt ondekt in je eigen eerste antwoord.
Dat geld ook voor chat gpt, je stelt een vraag met een bepaalde context, zijn antwoord kan nooit beter zijn dan de context die je meegegeven hebt, je moet dus altijd goede context geven net zoals je met een mens spreekt. Als ik je vraag welke kleur het is. Dan ga jij me zeggen over wat heb je het??? Subtieler kan het zijn dat je antwoord ook kan verschillen afhankelijk van wie jij voor je hebt. Als die persoon een kind is dan ga je die een ander vorm van antwoord geven. Die context kan je ook bij chatgpt geven. maar de mensen weten nog niet goed hoe ze met een ai moeten praten en vergeten dat het geen zintuigen heeft. Ze overzien het feit dat ze chatgpt vragen stellen op een manier dat ze eigenlijk nooit met een mens zouden gesproken hebben en ze vergeten dat chatgpt dus niet kan zien of horen. Ik noem dat de google ziekte. We zijn gewoon geworden om te zoeken in sleutelwoorden en moeten dan zelf in de resultaten zoeken van google. Nadien passen we onze sleutelwoorden aan, voor betere resultaten te vinden. Maar bij ai's en mensen praat je niet met sleutelwoorden maar wel met context (de feitelijke context en ook jouw context (wie ben je, wat is jouw rol, wat probeer je te bereiken))
De laatste 'jouw context' is iets dat bij mensen vaak non-verbaal gebeurd, maar chatgpt heeft geen ogen of oren, dus moet je die beschrijving geven zo dat hij een menselijker antwoord kan geven. Ik zeg soms, want je kan uiteraard niet rieken dat iemand een Java programmeur is , dat moet je vragen. En zijn antwoord op wat is "java" zal anders zijn voor een programmeur dan voor een koffiemaker In dat eerste geval gaat hij zeggen dat Java een programeertaal is en in dat 2de geval gaat hij je zeggen dat het gaat over een eiland.En een taalspecialist zal als antwoord krijgen dat java "Home or Distant" betekend.Dus 3 verschillende interpretaties van het woord java (context is dus belangrijk als je een menselijk antwoord wil krijgen, want context geven is menselijk, je kan geen menselijk antwoord geven als er geen menselijke context was)
Voor samen te vatten:
Het feit dat je antwoord altijd anders is, is net een goed ding, dat is ook hoe mensen zich gedragen, we leren uit ons vorige gedachte patroon en kunnen dat vorig antwoord als context gebruiken om een beter antwoord te formuleren nadien.
Chazt gpt is echt geen databank, er is geen enkel informatie dat opzoekbaar is. Het werkt op basis van neurale netwerken net zoals het menselijk brein door associaties te doen (vandaar dat context zo belangrijk is)
Begrip en verbanden doet hij wel: maar alles hangt af van de context die je geeft, en vergeet dus niet dat hij geen zintuigen heeft, je moet dus ook dat als context geven. Hij kan niet weten dat er een kind voor hem staat want hij heeft geen ogen. En als je een mens naast een vuilnisbak vraagt : "wat er zo stinkt" dan kan die mens zien over wat jij eigenlijk spreekt en kan het waarschijnlijk ook rieken. Jouw vraag was eigenlijk totaal onduidelijk maar door de zintuigen van die andere mens heeft die zelf een context geschetst en een normaal antwoord kunnen geven.
Laatst: Er is niet statistisch in het GPT model. Vroeger werd inderdaad statistiek gebruikt om AI na te bootsen zoals de gekende bayesian formule, die de waarschijnlijkheid van een volgend antwoord kan evalueren om zo menselijk te lijken.
Neurale netwerken werken met lagen van sleutelwoorden die aan elkaar gekoppeld zijn met gewichten.Die gewichten bepalen de weg dat een beslissing zal nemen. Dat is ook zo bij de mens: hoe meer we een bepaald onderwerp studeren hoe sterker die neurale verbindingen worden die ge linkd zijn aan dat specifieke onderwerp. Hierdoor zullen je hersensen veel meer de neiging hebben om te denken dat het daar iets mee te maken kan hebben. Dat zorgt er voor dat je sneller kan reageren en denken over dat onderwerp.
Ik heb chatgpt zelf iets laten bedenken dat niet bestaa, dus ook niet in zijn databank (zoals jij het noemt) kon staan : Ik heb hem gevraagd om een programmeer taal te schrijven die gebaseerd is op het gedrag van een hond. En dat heeft die gedaan en de taal werkte.
[Reactie gewijzigd door sebastienbo op 8 februari 2023 10:01]