ChatGPT kan helemaal niets redeneren. Het is een taal model. Het weet welke woord het meest waarschijnlijk als volgende in de zin thuis hoort. Niet meer en niet minder.
Dat klopt maar gedeeltelijk omdat het wel degelijk logische verbanden kan leggen die niet rechtstreeks in de trainingsdata zit. Logisch redeneren is ook redeneren. Daar zit de nuance.
Een voorbeeld: Een kat past net in doos en de doos past net in een auto. Past de auto in de doos en de kat in de auto? Een GPT model zal u een degelijk antwoord kunnen geven door logische verbanden te leggen zonder dat het antwoord rechtstreeks gegeven was in de training data.
Het taalmodel kan dus redeneren met met wat wij kennen als redelijk simpele vaststaande principes.
i.v.m. uw voorbeeld van Office 2023. Dan hangt er erg af hoe het model getrained is natuurlijk. Het kan getrained zijn om de 2023 te herkennen als een nieuwe versie en elke keer je een vraagt stelt u te waarschuwen dat het in 2023 anders kan zijn omdat het daar geen kennis van heeft.
Op dezelfde manier zal het ook volledig onmogelijk zijn voor AI om fake news te detecteren. Er is veel te veel nonsense in de bronnen die men gebruikt.
Alles hangt van zijn startdata af:
Stel ik claim dat Elon Musk heeft op het nieuws heeft verkondigd dat het toch onmogelijk blijkt om een raket in een baan rond de aarde te krijgen.
GPT4 repsons: "Dat klinkt als onwaarschijnlijk nieuws, gezien SpaceX's eerdere successen met raketlanceringen. Kun je de bron verifiëren? Het kan een misverstand of desinformatie zijn."
Er is veel te veel nonsense in de bronnen die men gebruikt.
De startdata mag dus niet gevoed zijn met de database van een fake news site. Dan spuwt hij idd fake news uit alsof het waar is. De start data moet dus goed zijn en daar zijn veel methoden voor om ervoor te zorgen dat de startdate geen fouten bevat.
Je kan bijvoorbeeld een AI model trainen om de kwaliteit van een studie te beoordelen (aantal peer-reviews, discussies van collega's, plaats van publicatie) en op basis daarvan er veel of weinig gewicht aan de informatie toe te kennen.
Waar jij op hamert maar in mijn ogen verkeerd interpreteert is de diepgang van de logica. Als wij mensen 10 lagen diep kunnen redeneren en 20 lagen breed dan kan GPT3, 2 lagen diep redeneren, GPT4, 3 lagen diep en 2000 lagen breed. GPT is in staat meer data te verwerken dan de mens en er l2 lagen diep logische verbanden uit te halen maar de diepte ontbreekt waardoor het bij bijvoorbeeld het genereren geen besef heeft als er toch wartaal uitkomt. Dus de mens kan nog altijd beter redeneren.
*zonder dat er een menselijke hand controlleert wat er uit komt*
Mensen maken ook fouten. Zo delen journalisten ook perongeluk valse claims op twitter of in de krant omdat ze overtuigd waren dat de bron ok was. Zo zijn er piloten die hun vliegtuig in volle overtuiging tegen de grond vliegen omdat ze zich niet bewust waren van een fout in de sensordata.
Die AI modellen worden echter beter en beter omdat ze fail safes gaan inbouwen. Dat kan door menselijke feedback maar dan kan ook door accuratere trainingsdata en feedback loops om bullshit door dezelfde AI op te sporen met wat truukjes.
Je komt natuurlijk altijd in de paradox terecht van wie controleert de controleur? Zo zou AI zijn eigen antwoord kunnen controleren, Ai de mens, de mens ai en wie heeft er gelijk bij tegenstrijdige conclusie etc.