Zolang het informatie bevat dat door de mens is opgemaakt bevat het desinformatie. De mens is van nature nu eenmaal biased.
Inderdaad, zoals @
Yordi- het hierboven stelt is een vorm van
inductive reasoning:
de mens heeft altijd een bias ten opzichte van de waarheid, dus wat iemand zegt zal altijd desinformatie bevatten. Populisten gebruiken dit argument vaak in hun reactie, wanneer zij worden aangesproken op hun eigen aantoonbaar onjuiste uitspraken: ze trekken álles daarmee in twijfel.
Maar het gegeven dat de mens maar een gedeelte van de waarheid / werkelijkheid kent, wil alleen zeggen dat zijn uitspraken mogelijk
onvolledig zijn, en niet op voorhand
onjuist.
Neem het
bekende voorbeeld van een groep blinden die een olifant beschrijven. De één zegt “het is een lange slang die beweegt en in de lucht hangt”, de volgende beschrijft een kwastje dat hoog in de lucht heen en weer zwaait, en een derde beschrijft solide pijlers waar geen beweging in zit. Allemaal hebben ze gelijk en spreken ze de waarheid, alleen beschrijven ze een déél van de werkelijkheid.
Maar dat is fundamenteel anders dan wanneer iemand zegt dat-ie een zachte, wollige vacht voelt. Dat is aantoonbaar onjuist als je het over een olifant hebt.
De uitdaging bij informatieverwerking (en dus zeker in deze tijden waarin AI modellen nog ons vertrouwen moeten winnen) is het onderscheid maken tussen
onvolledige informatie en
onjuiste info. Van beide circuleert er genoeg op internet, en wanneer je dat combineert met de artistieke vrijheid om zaken
figuurlijk
te beschrijven, dan kan een AI model al snel in de war raken.
Desinformatie tegengaan zonder de vrijheid van meningsuiting te beperken is een lastig evenwicht, maar het bestrijden van desinformatie is niet hetzelfde als beperken van die vrijheid, in tegendeel. Helaas is er met snel en veel informatie meer geld te verdienen dan met juiste en betrouwbare informatie, en is dat dus waar de AI modellen op getraind worden. Maar wil AI in deze vorm doorontwikkelen en echt onderdeel van onze samenleving worden, dan is het beperken van hallucineren en verspreiding van misinformatie wel echt een prioriteit. Anders zet de huidige ‘
reality check’ door en wordt de huidige AI op basis van LLM het Second Life van de jaren ‘20.