Yep de AI bel gaat zeker knappen. De verwachtingen zijn veel te hooggespannen.
Ik zie het overal om me heen. Ik ben bezig met een project omtrent het testen van AI (Copilot Microsoft 365) en mensen vallen hijgerig over elkaar heen om mee te doen vanwege de hype marketing van microsoft. Vandaag had ik nog iemand die me smeeeekte om mee te kunnen doen want hij doet dagelijks 30-40 excels met elkaar vergelijken en dit zou zijn hele werk kunnen automatiseren, dacht hij. Niet alleen ons bedrijf is doodsbang de boot te missen. Ook de werknemers zelf.
Ik zei al tegen hem, je mist echt niks want copilot voor excel is een stuk speelgoed momenteel. Het kan nog niks. In Word, Teams en Outlook kan het nog wat (logisch want het is gedreven door een LLM en die zijn goed in tekstbewerking) maar in Excel bakt het er gewoon helemaal niks van. Een paar simpele dingetjes in een voorbeeld tabelletje (het moet momenteel 1 enkele tabel zijn met niet al te veel data), ja daar kan het wat mee. Geef je het echt een flinke productiedatabase dan gaat het consequent mis (vage errors), of (erger) hij pakt maar een deel van de data mee en negeert de rest in stilte. Als het een keer wat doet dan klopt het niet of hij snapt het niet en doet wat anders dan je wil. Nou moet ik wel eerlijk zeggen, Microsoft markeert ook Excel copilot nog als "Preview", als enige in de hele office suite. Maar verder doen ze niks om de overspannen verwachtingen te matigen.
We vertrouwen op computers omdat die elke keer hetzelfde doen. Als ze het fout deden, was dat omdat ze verkeerd waren geprogrammeerd, niet de fout van de computer maar de programmeur (en vaak de opdrachtgever die niet duidelijk was). Maar een AI klooit maar wat aan en doet vaak met dezelfde opdracht nog eens elke keer wat anders ook. Dit ondermijnt het principe van een computer.
Ik denk dat dit op sommige gebieden wel goed komt. Vertalen, samenvatten, een assistent waar je dingen aan kan vragen zoals het boeken van vergaderingen, ja hoor dat zie ik hem wel worden al werkt het nu nog niet allemaal perfect. Hele complexe data analyses voor je uitvogelen, nee. Niet met de huidige techniek. Je kan wel custom analyse modellen bouwen met bijv. PyTorch hoor, maar met standaard generative AI krijg je dat niet voor elkaar. Een LLM kan gewoon beperkt redeneren. Eigenlijk 'redeneert' het zelfs helemaal niet.
Een large language model is gewoon niet voor alle toepassingen geweldig geschikt. Momenteel heeft iedereen sterren in de ogen omdat ze denken dat ChatGPT zo slim is, maar eigenlijk is het gewoon een copy/paste machine.
Ik denk dat waar het door komt is dat ChatGPT en andere LLM's zo menselijk aanvoelen en zo veel vertrouwen uitstralen in hun taalgebruik. Daarom vertrouwen mensen de uitvoer op hun woord en hebben ze vaak onterecht geloof in de vaardigheden ervan. Dat helpt het geheel te marketen maar maakt het niet een beter produkt. Het voelt alsof er opeens een enorme sprong is gemaakt maar dat is niet echt zo. Nouja wellicht wel aan de "human interface" kant maar niet aan de intelligentie kant.
[Reactie gewijzigd door Llopigat op 22 juli 2024 13:52]