Daarnaast kan de AI ongestructureerde FAQ's en andere documenten analyseren en daaruit informatie halen die gebruikt kan worden bij het antwoorden op vragen.
Een FAQ is per definitie gestructureerd natuurlijk: een sequentie van stukjes tekst waarbij er steeds een vraag en een antwoord is. Wat ze bedoelen is dat de AI documenten kan analyseren waarin niet eerst door een mens handmatig tags zijn aangebracht. Je kunt een algoritme prima "hard coden" om FAQ's te herkennen (omdat er bijvoorbeeld altijd in grote letters "FAQ" boven staat

) en te laten herkennen welk stukje tekst de vraag is en welke het antwoord (vragen hebben immers doorgaans een vraagteken erachter

). Dat is wat anders dan ongestructureerde documenten doorlezen, doorgronden en vervolgens samenvattende juist antwoorden kunnen geven (zoals onjuist impliceert wordt). Dus dit stuk tekst van Tweakers is gewoon onjuist.
Dat zijn nogal wat aannames.
Causale verbanden zien, is dat niet hetzelfde als deduceren dat het één leidt tot het andere? Dat is bij mensen bijna volledig gebaseerd op ervaringen uit het verleden. Dat kan een AI dus waarschijnlijk bijna net zo goed. Zeker als je de AI kunt voeden met veel informatie.
Het is niet waar dat het zien van causale verbanden bij mensen alleen gebaseerd is op ervaringen uit het verleden. Een mens kan ook causale verbanden zien in nieuwe situaties (die in het verleden niet voorkwamen) of hypotheses van nieuwe causale verbanden testen in het hoofd en evalueren welke intuïtief de meest logische zou kunnen zijn. Machine learning kan dit niet. De definitie van wetenschap (het opdoen van nieuwe kennis) zou je immers kunnen formuleren als het ontdekken en bewijzen van (niet intuïtieve) causale verbanden op gebieden die een wetenschapper nog nooit gezien heeft. Aannames gebaseerd op ervaringen uit het verleden (reasoning by association) zijn juist een handicap voor een goede wetenschapper/engineer (die reasoning by first principles toepast).
Machine learning heeft überhaupt geen reasoning. Het enige dat het doet is het optimale antwoord op een formule zoeken in een heeeeeeeeeeele grote database van mogelijke antwoorden. Curve fitting dus.
Nogmaals precies aan deze discussie is een heel boek gewijd door de grondlegger van machine learning. Een echte aanrader. Daar komen ook veel meer voorbeelden in voor dan alleen causaliteit: The Book of Why: The New Science of Cause and Effect door Judea Pearl
Zelf informatie zoeken: ook daar zie ik geen belemmering. Als een AI al in staat is om zelf informatie te analyseren uit FAQ's e.d., dan hoef je hem alleen maar te voeden met voldoende FAQ's. En die staan vrijwel allemaal op het Internet, waar een AI toegang toe zou kunnen hebben.
Dan kan je AI heel goed FAQ's beantwoorden. Maar dat is dan ook alles dat hij kan. Als ik persoonlijk een helpdesk bel, dan is dat omdat mijn vraag te specifiek is voor een FAQ. Zomaar een voorbeeld: "ik heb een onterechte aanmaning van jullie gekregen en jullie hier al 2x over gebeld. De eerste keer zouden jullie naar meer informatie zoeken, maar de 2e keer hebben jullie beloofd het op te lossen. Het probleem wordt niet opgelost, hoe nu verder?" Ik kan zo nog 1000'en van die vragen bedenken waar de AI je niet verder mee kan helpen.
Een goede (automatische) FAQ is niet hetzelfde als een goede helpdesk. Helpdesks zijn er vaak juist voor de dingen die niet door een FAQ opgelost kunnen worden (althans in mijn persoonlijke ervaring). Ze zijn er voor de situaties waarin juist niet alles werkt zoals het hoort (waar de FAQ vanuit gaat).
What-if scenario's bedenken? Is dat niet bij uitstek een toepassing van AI? Als je voldoende causale verbanden opgeslagen hebt, is een what-if scenario zo gemaakt.
Ik snap niet wat je hier zegt?
Hier een stukje dat uitlegt wat ik bedoelde (uit het boek dat ik hierboven aanhaal):
More interesting and less widely known—even in Silicon Valley—is that successful predictions of the effects of interventions can sometimes be made even without an experiment. For example, the sales manager could develop a model of consumer behavior that includes market conditions. Even if she doesn’t have data on every factor, she might have data on enough key surrogates to make the prediction. A sufficiently strong and accurate causal model can allow us to use rung-one (observational) data to answer rung-two (interventional) queries. Without the causal model, we could not go from rung one to rung two. This is why deep-learning systems (as long as they use only rung-one data and do not have a causal model) will never be able to answer questions about interventions, which by definition break the rules of the environment the machine was trained in.
As these examples illustrate, the defining query of the second rung of the Ladder of Causation is “What if we do…?” What will happen if we change the environment? We can write this kind of query as P(floss | do(toothpaste)), which asks about the probability that we will sell floss at a certain price, given that we set the price of toothpaste at another price.
Another popular question at the second level of causation is “How?,” which is a cousin of “What if we do…?” For instance, the manager may tell us that we have too much toothpaste in our warehouse. “How can we sell it?” he asks. That is, what price should we set for it? Again, the question refers to an intervention, which we want to perform mentally before we decide whether and how to do it in real life. That requires a causal model.
We perform interventions all the time in our daily lives, although we don’t usually use such a fancy term for them. For example, when we take aspirin to cure a headache, we are intervening on one variable (the quantity of aspirin in our body) in order to affect another one (our headache status). If we are correct in our causal belief about aspirin, the “outcome” variable will respond by changing from “headache” to “no headache.”
While reasoning about interventions is an important step on the causal ladder, it still does not answer all questions of interest. We might wonder, My headache is gone now, but why? Was it the aspirin I took? The food I ate? The good news I heard? These queries take us to the top rung of the Ladder of Causation, the level of counterfactuals, because to answer them we must go back in time, change history, and ask, “What would have happened if I had not taken the aspirin?” No experiment in the world can deny treatment to an already treated person and compare the two outcomes, so we must import a whole new kind of knowledge.
Counterfactuals have a particularly problematic relationship with data because data are, by definition, facts. They cannot tell us what will happen in a counterfactual or imaginary world where some observed facts are bluntly negated. Yet the human mind makes such explanation-seeking inferences reliably and repeatably. Eve did it when she identified “The serpent deceived me” as the reason for her action. This ability most distinguishes human from animal intelligence, as well as from model-blind versions of AI and machine learning.
[Reactie gewijzigd door GeoBeo op 22 juli 2024 20:57]