Je maakt een aantal aannames in deze reactie, vind ik. Ik zal ze stuk voor stuk noemen in de hoop dat mensen die je reactie lezen niet een conclusie trekken die te kort door de bocht is. Als je het ergens niet mee eens bent hoor ik het graag.
Het voornaamste verschil is dat AI niet bestaat en ook niet op afzienbare termijn gaat bestaan....
Dit is een tweeledige aanname. Ten eerste maak je de veel voorkomende fout dat je de definitie van AI gelijk zet aan een menselijk equivalent van redeneren, of een menselijk equivalent van intelligentie. Dit is onjuist. De definitie van AI is niet zo helder, dat geef ik gelijk toe, maar dat komt omdat de definitie van intelligentie niet zo helder is. Waar jij op doelt is denk ik AGI,
Artificial General Intelligence, dit is een menselijk equivalent van intelligentie. AI zelf is simpelweg kunstmatige intelligentie, en kan dus elk niveau van intelligentie bevatten. Het idee dat de huidige computer systemen niet "echt intelligent" zijn is in lijn met een lange historie van menselijke overschatting waarin, iedere keer dat AI iets moois doet, wij snel gaan roepen dat het geen echte intelligentie is, omdat we ons bedreigd voelen, danwel beledigd zijn door hoe verklaarbaar dit intelligente gedrag opeens blijkt te zijn (het is slechts code). Dit is zo'n veel voorkomende fout dat er zelfs een wikipedia pagina voor is:
https://en.wikipedia.org/wiki/AI_effect. Neem schaken, waarvan mensen tientallen jaren zeiden: "als een computer dat kan, dan heb je pas echt AI". Nu kan een computer het, en dat heeft niets veranderd aan de opvatting van mensen die intelligentie toch het liefst definieren als iets wat nooit uit een computer kan komen.
Ik raad iedereen die hierin geinteresseerd is aan om eens wat te lezen over AGI, specifiek is het boek van Nick Bostrom "SuperIntelligence" erg leuk, maar zal inmiddels wel gedateerd zijn.
Ten tweede maak je een aanname over "afzienbare termijn", de realiteit is dat niemand nu nog weet of de huidige paradigma's van AI (machine learning, neural networks) wel of niet kunnen doorgroeien naar AGI. Dat weten we niet, omdat we erg veel moeite hebben met het inschatten van de kwaliteiten van een intelligentie: hoe verschilt de intelligentie van een mier met die van een hond? die van een hond met een dolfijn? die van een dolfijn met een mens? Als we dit proberen te verklaren verliezen we onszelf in een analyse van gedrag. Gedrag is slechts de output van een intelligentie, we kunnen nog maar weinig zeggen over de intelligentie zelf. We weten dus niet of het feit dat we nu b.v. alpha-zero hebben iets zegt over de potentie van onze huidige paradigma's in relatie tot AGI, en we kunnen dus ook niets uitsluiten. De definitie van intelligentie is zo moeilijk uit te kleden dat de rol van 1 van de cornerstones van intelligentie, theory of mind, nog steeds niet duidelijk is in relatie tot oplossingsvermogen, en we recentelijk nog de leeftijd hebben aangepast waarop we vinden dat kinderen dit onder de knie hebben.
Alles wat men op dit moment AI noemt is een algorithme. Alles wat men op dit moment zelflerende AI noemt is een algorithme.
Dit is uiteraard waar, maar zegt verder niets over de intelligentie van AI of algoritmes. Quantum computers draaien ook algoritmes. Menselijke intelligentie kan een algoritme zijn, een heel complex algoritme weliswaar, maar wel een algoritme. Dit is een vraag over de berekenbaarheid van bewustzijn, en heeft heel veel hele slimme filosofische aanhangers aan de kant van ja, en de kant van nee. Wederom kort door de bocht. Dit klinkt erg als het AI effect, of een versie van
https://en.wikipedia.org/wiki/No_true_Scotsman.
AI bestaat niet. Wat men op dit moment AI noemt, in welke vorm dan ook, is Machine Learning. Een recursief algorithme wat een ander pad kiest op basis van de uitkomst. Dat noemt men "zelflerend" maar is simpelweg een recursief algorithme.
Ik begin inmiddels benieuwd te worden naar je definitie van AI en machine learning, evenals je gebruik van het woord recursief. Als je vind dat de huidige software systemen niet voldoen aan jouw eisen voor deze woorden moet je de eisen wel duidelijk formuleren. Bijvoorbeeld: als de huidige systemen niet zelflerend zijn, is een mier dat dan wel? of een muis? of een kraai? Of een mens? En als die dieren het wel zijn, waarom dan? En waarom die algoritmes dan niet? Ik ben bang dat je vast gaat zitten in een redenatie over gedrag, en als we het strikt over gedrag hebben zijn deze systemen wel degelijk zelf lerend. Alpha-zero leert zichzelf tientallen atari spellen spelen, hoe is dat niet zelflerend? Wederom lijkt deze redenatie vooral voort te komen uit het AI effect.
Ofwel: Nee, het gaat geen sprongen maken. Nee, het gaat niet slim worden en Nee, ook robots gaan mensen niet kunnen vervangen
Er is ooit voorspeld dat er wel 5 computers nodig zouden zijn, in de hele wereld. Er is ooit voorspeld dat het internet een tijdelijke hype was. Voorspellingen van deze aard zijn altijd verleidelijk, omdat er van jaar tot jaar weinig lijkt te gebeuren. Ondertussen maakt de technologie enorme sprongen, en als er 1 voorspelling wel gemaakt mag worden is het deze: de technologie gaat dingen doen die wij nu niet voor mogelijk houden, inclusief de dingen die je nu niet voor mogelijk houd. Dit is een harde schijf van 5mb in 1956:
https://pbs.twimg.com/med...TIK?format=jpg&name=small. Hoe denk je dat mensen uit die tijd zouden denken over dit:
https://www.wired.com/ima.../2009/01/12/microsdxc.jpg(ja, ze doen het werk zonder loon maar voor de aanschafkosten van een robot met ML kun je een mens tientallen jaren betalen. En die mens zal dan nogsteeds sneller in staat zijn het proces te verbeteren dan die robot ooit kan doen. Toyota heeft is die reden robots uit het productie proces aan het halen)
Paarden zijn vervangen door auto's, bijna overal. De piek van de paarden populatie op aarde lag rond de 1e wereldoorlog, als ik mij niet vergis, sindsdien zijn ze langzaam onnodig geraakt. Waarom? Omdat ze economisch vervangen zijn door technologie. De eerste auto was duurder dan een paard, langzamer dan een paard, en oncomfortabeler dan een paard. Dit is nu precies omgedraaid: niemand denkt nog aan een paard voor menselijk vervoer. Als paarden konden praten hadden ze precies gezegd wat jij nu zegt, rond 1915.
Mensen geld hetzelfde lot: er is al een lange historie van robots die mensen vervangen, in allerhande vakgebieden. De Luddites (
https://en.wikipedia.org/wiki/Luddite) is een groep mensen die al in begin 19e eeuw (!!) boos waren omdat ze vervangen werden door een machine, een robot. "Computer" was de letterlijke naam voor een mens die dingen uitrekende, tot hij vervangen werd door de robot die we nu een computer noemen, hoe duidelijk wil je het hebben. Elke robot in Tesla's auto productie is een robot die een mens vervangt. En deze trend gaat door, natuurlijk, ook als het toevallig nu even slecht uitkomt voor de kwartaalcijfers van Toyota. We zijn met zelfrijdende auto's steeds verder aan het komen, je commentaar is onder een nieuwsbericht dat je commentaar ondermijnd. Het feit dat mensen kunnen omscholen naar een andere baan is leuk, maar neemt niet weg dat mensen steeds complexere dingen zullen moeten doen om niet vervangen te kunnen worden.
Ben ik dan eindeloos positief over AI? Nee helemaal niet, het valt mij eerlijk gezegd sterk tegen hoever we in de laatste 5 jaar gekomen zijn met self-driving cars, en we lijken nog amper begonnen aan het AGI probleem, wat me teleursteld. Ik denk zelf dat de huidige AI paradigma's wellicht aan het eind van hun kunnen zijn, en dat kan betekenen dat er een nieuwe AI-winter aankomt. Maar: het is belangrijk dat we realistisch blijven over de kracht van computers, niet alleen omdat positief zijn over de toekomst realistisch is (dat heb ik proberen uit te leggen in deze reactie), maar vooral ook omdat negatief zijn over de toekomst ons niks verder helpt, maar juist tegen houd. SpaceX heeft gisteren met een herbruikbare raket mensen naar het ISS gebracht, om dat te doen is een enorme hoeveelheid optimisme nodig. Het is aan ons om dit optimisme te ondersteunen, waar de gemiddelde nederlander dit misschien niet altijd kan. En daarnaast nog het volgende:
Robots zagen langzaam aan de stoelpoten van menselijk nut, en tot nu toe hebben mensen volledige nutteloosheid kunnen voorkomen door educatie en vakbescherming. Het idee dat deze trend van automatisering zou stoppen bij intelligent werk is erg hoopvol maar toch ook een misvatting: we kunnen immers wel herdefinieren van intelligent werk betekent, maar het feit blijft dat mensen op termijn niet meer kunnen bijdragen in hun vakgebied, ook als we allemaal vinden dat de robots die hen vervangen niet intelligent zijn. Dit gevaar komt er aan, en we moeten ons er bewust van zijn. Dit is geen groot moment in de toekomst, een jaartal wat we kunnen noemen waar we voor moeten oppassen. Het gebeurt nu al, en het gaat geleidelijk door over de komende tientallen jaren: computers worden nuttiger en nemen het werk van mensen over. Een debat over intelligentie en de filosofische zetel van bewustzijn is niet nodig om in te zien dat onze huidige maatschappij niet berekend is op grootschalige competitie van goedkoop werk op de arbeidsmarkt.