Door Arnoud Wokke

Redacteur Tweakers

Software om je apparaten te besturen

De toekomst van AI-modellen: agents

31-01-2025 • 06:00

52

Multipage-opmaak

Inleiding

Rabbit R1
Rabbit R1

Je zou haast gaan denken dat ondernemers in Silicon Valley een hekel hebben aan het plannen van vakanties en tripjes. Immers, toen Google en Microsoft na de release van ChatGPT in februari 2023 presentaties hielden over hun chatbots met generatieve AI, noemden zij beide het plannen van een trip als voorbeeld, een voorbeeld dat ook nog eens fout ging. Zo kwam Bing bij een voorbeeld over Mexico-Stad met tips voor bars die allang niet meer bestaan. Toen Rabbit vorig jaar zijn inmiddels geflopte R1-gadget wilde uitleggen, kwam daar wéér het voorbeeld van tripjes om de hoek kijken. Je zou tegen het oranje apparaatje kunnen zeggen waar je een paar dagen heen wilde en het large action model zou dan vervoer en verblijf regelen en zelfs komen met hele programma's om daar dagen door te brengen.

Het toont ook wel een beetje hoe Silicon Valley is afgesloten van de rest van de wereld. In een bubbel waarin lange werkdagen maken en vrije tijd opofferen gezien wordt als iets goeds, kun je het beste de schaarse vrije tijd optimaliseren door het plannen uit te besteden. In de reacties op Tweakers kwam er al gelijk een nuchtere blik op deze voorbeelden: er zit toch ook juist veel voorpret en meerwaarde in het zelf plannen van uitjes en vakanties? Daarnaast, zo weten veel tweakers inmiddels, moet je de output van AI-modellen altijd nalopen. Je wilt niet dat het hippe large action model tickets heeft geregeld voor een niet-bestaande trein of dat je voor een hotel staat dat in feite een kluswinkel blijkt te zijn.

De afgelopen maanden hebben veel AI-bedrijven zogenoemde 'agents' aangekondigd voor gebruik in de browser of op de desktop. Die zijn nu in veel gevallen nog niet bruikbaar, dus we moesten weer leunen op voorbeelden om te zien waar ze toe in staat zijn. En je mag raden welk voorbeeld ze gebruiken: inderdaad, je kan rustig achterover leunen terwijl jouw AI-agent voor jou rond gaat klikken op internet om een trip voor je te boeken.

De voorbeelden mogen dan niet altijd even sterk zijn, veel tweakers hebben AI-toepassingen wel een plek gegeven in hun werk of dagelijks leven. En dat kan met AI-agents ook het geval gaan zijn. Dus laten we eens een tripje plannen langs deze bedrijven en wat zij willen bereiken met hun AI-agents en wat die moeten gaan kunnen.

Bron afbeelding bovenaan en op frontpage: Getty Images/Andriy Onufriyenko

Microsoft Bing Chat: tips in Mexico-stad, klopt weinig van
Microsoft Bing Chat (2023) geeft tips voor Mexico-Stad, maar daar klopt weinig van.

AI-agents als opvolger van de chatbot

AI-agents gelden als opvolgers van de chatbots van de afgelopen jaren. Chatbots konden helpen, maar het vereiste veel werk. Je moest weten wat je kon en wilde vragen, en bovendien hoe je het vroeg. Ineens was er een nieuwe discipline: promptengineering, het maken van de beste prompt. Wat ook al snel duidelijk werd: de chatbot is de commandline van AI. Het was een krachtige, maar ingewikkelde manier om dingen gedaan te krijgen. Behalve het ontwikkelen van AI-modellen richtten bedrijven zich de afgelopen jaren ook op de interface. Hoe ga je AI gebruiken? En waar doe je dat? Hoe maak je het zo makkelijk mogelijk, zodat veel mensen het gaan doen?

Prompt engineering AI-chatbots

De AI-agent is een doorontwikkeling ervan. Het is een AI-model waarvoor je geen prompts hoeft te geven. In plaats daarvan kan het zelfstandig werken. Er is natuurlijk al heel lang software die zelfstandig kan werken, maar het verschil is dat een AI-agent de omgeving kan waarnemen en op basis daarvan kan leren.

Verschil chatbots en agents Agent Chatbot
Input Opdracht van gebruiker, eigen input via sensor, camera of meelezen op scherm Gebruiker geeft handmatig input
Verwerking Via AI-model en mede op basis van interacties met gebruikers Via AI-model en mede op basis van interacties met gebruikers
Output Acties ten behoeve van gebruiker, bijvoorbeeld tekst, audio, video of bediening computer Antwoord aan gebruiker in tekst, audio, video

Hoewel AI-agents in allerlei soorten en maten zullen komen, richten we ons in dit artikel vooral op de versie die taken gaat uitvoeren op de computer zelf. AI-agents hebben ook een plek op bijvoorbeeld een klantenservice of in diensten van bedrijven, en dat is wellicht voer voor een andere keer.

Alarmcentrale 112. Foto: politie
Agent op een computer, geen AI-agent

De voordelen van AI-agents zijn vooral functioneel. Ze kunnen, als geavanceerde zelflerende macro's, taken overnemen die mensen nu doen en die diverse stappen vereisen. Dat maakt het gebruik van computers en software vermoedelijk op termijn sneller. Hoe dat er precies uit zal zien, is nu nog niet echt te zeggen, maar waar nu alleen programmeurs hun taken kunnen automatiseren, kan straks wellicht iedereen dat. Bovendien geven ze bedrijven diepe toegang in de software van gebruikers en klanten. Immers, om te functioneren in de software van gebruikers heb je toegang nodig tot beelden daarvan. Dat levert veel fijnmazigere gebruikersdata op dan tot nu toe gebruikelijk is, en dat kan advertenties weer veel gerichter maken dan ze tot nu toe zijn.

Nadelen zijn er uiteraard ook. Die toegang tot het beeld van onze desktop, laptop of smartphone is een inbreuk op privacy. Je kunt daar uiteraard toestemming voor geven en je krijgt er functionaliteit voor terug, maar de vraag hoe bedrijven met onze gegevens omgaan wordt daarmee nog belangrijker. Ook het lokaal kunnen draaien van deze AI-agents zal vermoedelijk voor veel mensen, en bedrijven, een grote plus blijken te zijn. Hoe mensen reageren op zo'n functie was al te zien vorig jaar toen Microsoft voor Windows de functie Recall aankondigde.

Microsoft Windows 11 Recall

Voor AI-agents is bovendien veel meer rekenkracht en stroom nodig, omdat het gaat om veel meer input en output dan reguliere chatbots. De AI-hype kost al veel stroom en een prompt bij een chatbot is nu al veel duurder en energieslurpender dan een zoekopdracht bij een zoekmachine, maar het stroomverbruik met AI-agents gaat nog verder omhoog. Dat staat haaks op de duurzaamheidsdoelen van veel bedrijven en de wens om in de toekomst met juist minder energie toe te kunnen.

De interface naar AI-modellen

Het idee om AI-toepassingen taken te laten uitvoeren zonder prompt of met beperkte prompt is er al veel langer. Het automatiseren van taken is iets dat al minstens tientallen jaren aan de gang is en dat uiteraard de belofte was van computers toen die kwamen. Het woord 'computer' is afgeleid van het woord voor rekenen, en het snel kunnen uitrekenen van sommen ten behoeve van bijvoorbeeld administratie verving de rekenaars die bedrijven tot dan toe in dienst moesten hebben. Hoe meer computers bleken te kunnen, hoe meer taken ze konden gaan overnemen.

De chatbot als interface voor een AI-model is daarin beperkt, omdat het begint met een knipperende cursor en de output afhankelijk is van de input. Door die twee los te koppelen en het AI-model te laten bestaan los van het tekstvenster, wordt veel meer mogelijk. Toch blijft het een omweg als een AI-agent voor jou de interface van een programma of app gaat bedienen. Immers: de interface voor de mens, vensters en muiscursors, blijven ertussen zitten.

Dit idee bestond vorig jaar ook al. De Rabbit R1 is een apparaat dat had moeten leunen op een large action model, een AI-model dat voor gebruikers apps en diensten zou moeten gaan besturen. Het idee is dan dat je zegt wat je wilt bereiken, zoals 'zoek een Indisch restaurant in Breda, reserveer dat en stuur een bericht naar mijn zus daarover', en dat de R1 vervolgens de juiste apps en diensten daarvoor vindt, die gebruikt en vervolgens laat weten of het is gelukt.

Jaren geleden gaf Google al een demonstratie van Duplex, een AI-functie om bedrijven te bellen om voor gebruikers afspraken te maken. Dat bleek een paar jaar later niet levensvatbaar als dienst voor consumenten en nu is het een dienst om informatie over bedrijven te updaten.

Sowieso voelt het meer als de opvolgers van de digitale assistenten zoals Alexa van Amazon, Siri van Apple en Google Assistent. Ook die hebben vaak de mogelijkheid gehad om acties uit te voeren op de telefoon zoals 'zet de wifi uit' of 'stuur een bericht naar mijn moeder dat ik iets later ben'. Dat zijn relatief eenvoudige taken, maar het basisidee is hetzelfde: het makkelijker en sneller uitvoeren van taken die je ook zelf kunt doen.

Het is logisch dat dit de volgende stap is voor AI-toepassingen, maar de stap daarna ligt voor de hand: waarom moet de interface voor mensen ertussen zitten? Veel diensten en apps hebben api's waarmee je zaken kunt afhandelen en dat is de veel logischere weg.

Ook zal er vermoedelijk een schifting komen in taken die we AI willen laten afhandelen. Welke dingen kunnen we het beste uitbesteden en aan welke beleven we het plezier om het zelf te doen? Daarnaast is de vraag wie dit mag en kan doen. Is het een functie van een besturingssysteem, van een browser of een losse dienst?

De grootste winst voor deze diensten zit uiteraard in zakelijke toepassingen. Voor veel mensen speelt het werk zich af op de computer en daar zitten veel automatiseerbare taken tussen. Rapporten opstellen, teksten nalopen of een presentatie maken zijn zaken die met AI nu al kunnen. Het idee dat een kantoorwerker veel meer AI-agents aanstuurt dan andere dingen doet, is helemaal niet zo gek gedacht.

Daarbij zal het label van AI vermoedelijk al snel gaan vervallen. Dat zal gewoon een functie van software zijn. We gingen ooit van de commandline naar de grafische interface en nu is dat al decennialang gewoon. Smartphones kregen apps en die zijn nu gewoon. Ook deze stap zal al snel wennen voor veel mensen.

Tot slot

AI-agents zijn er nu nog niet op een manier die een grote impact gaat hebben. ChatGPT introduceerde onlangs reminders en dat is een piepkleine eerste stap. Voor klanten die honderden dollars per maand betalen is nu Operator beschikbaar, een functie om daadwerkelijk de pc te bedienen. Daarvan staan al eerste ervaringen online.

Anthropic heeft Computer Use als functie al uitgebracht, al is het nu nog in een testfase. Het is gebaseerd op Claude 3.5 Sonnet en kan op basis van prompts een computer besturen. De functie crasht volgens gebruikers geregeld, kost veel tokens om te gebruiken en is bovendien langzaam: elke simpele taak kost vijf tot tien minuten.

Claude Computer UseClaude Computer Use

Google toonde eind vorig jaar Project Mariner dat in Chrome zelfstandig taken kan uitvoeren. Het is een Chrome-extensie en werkt vooralsnog heel traag, maar voert wel zelfstandig zoekopdrachten uit en verzamelt en herinnert informatie. Eén taak volbrengen kost wel tijd: het voorbeeld dat Google laat zien, contactinformatie op internet opzoeken en onthouden, kost twaalf minuten.

Google Project MarinerGoogle Project MarinerGoogle Project MarinerGoogle Project Mariner

Daarmee zijn drie van de grootste bedrijven op het gebied van kunstmatige intelligentie al bezig met een AI-agent die taken in software kan uitvoeren. Echte 'agents' zijn dit nog niet, want de gebruikte prompts die nodig zijn lijken nog vrij uitgebreid.

Wel zijn er al 'kleinere' toepassingen van dit idee, op telefoons. Apple demonstreerde het al als onderdeel van het 'nieuwe Siri' medio vorig jaar, al is de functie nog niet uitgebracht. Dat is lichter, omdat het niet letterlijk de interface hoeft te bedienen, maar aan de achterkant apps kan gebruiken. Die functie moet dit jaar uitkomen.

Google heeft dit al wel voor elkaar met Gemini, dat achter elkaar meerdere apps kan bedienen. Het voorbeeld was vooral het opvragen van gegevens over een concert online en dat toevoegen aan een agenda. Ook iets opzoeken en dat laten weten aan een contactpersoon zou moeten kunnen.

De grote vragen over AI-agents blijven vooralsnog onbeantwoord, en de belangrijkste is waar dit uiteindelijk toe zal leiden. Hoe het ook zal worden, in 2025 zullen we sowieso meer en meer kunnen spelen met deze AI-agents. Dan zal hopelijk ook duidelijk worden waar ze echt goed in zijn, waarvoor ze minder bruikbaar zijn en hoe we ze kunnen gaan inzetten. Voorlopig plannen we in elk geval onze stedentrips nog ouderwets zelf.

Reacties (52)

52
51
29
5
0
19
Wijzig sortering
Goed artikel en duidelijk dat het zeker nog niet op productieniveau zit. Persoonlijk denk ik dat ze beter af zijn met coding en API’s in plaats van beeldcapturing. Via beeld is veel inefficiënter. Een beetje hetzelfde als wat er nu gebeurt in e-mail:
Persoon A gebruikt ChatGPT om de mail te schrijven, en persoon B om het vervolgens weer samen te vatten......

Voor mij werken kleine agents het beste, dus geen agent die én mijn agenda beheert én mij recepten geeft voor het avondeten. Dit zijn dan eerder twee aparte, heel specifieke agents.

Dit soort dingen zijn vrij snel en eenvoudig te realiseren met wat code en API’s. Zo hebben we een WhatsApp-bot waar we een audio-opname (of tekst) naar sturen. Die vertaalt het, zet het om naar JSON en pusht het in onze Google Calendar, inclusief hoe lang het rijden is vanaf ons huis (op pessimistisch ingesteld, want we zijn vaak te laat).

Op het werk hetzelfde: tickets komen binnen, ChatGPT bekijkt het eerst, opent een Zoom-kanaal en stelt de eerste gebruiker vragen (een beetje chatbot-principe). Maar wel met meerdere agents—voor elke specifieke set vragen een aparte agent.

Qua energieverbruik denk ik er iets anders over. Een ChatGPT-prompt meer energie dan een Google-zoekresultaat. Maar moeten we het daarmee vergelijken? Hoeveel energie wordt er niet verspild door repetitieve taken in grote bedrijven? Of door Zoom-meetings voor (basis)kennisoverdracht?

Deze week hadden we een meeting en moesten we wat tabellen uit SAP hebben. Vroeger betekende dat een aparte meeting met het SAP-team, een korte call of een paar e-mails heen en weer. Nu was het een drietal prompts. Persoonlijk denk ik dat daar meer energiebesparing te behalen valt dan het verschil tussen een prompt en een search
Dus jullie gooien je medewerkers- en bedrijfsdata in ChatGPT?
Wij gooien inderdaad niet confidentiele data (zonder namen) in chatgpt op een bedrijfsabonnement waarbij er juridische afspraken zijn voor het niet gebruiken van onze data....

Hoeveel medewerkers denk je dat er bij jullie bedrijf, zonder support van IT, gebruik maakt van chatgpt? Waarbij er juist wel data wordt opgeslagen om het verder te trainen.

[Reactie gewijzigd door Zorg op 31 januari 2025 07:22]

Hebben jullie afgesproken om data niet te gebruiken voor trainen of niet te gebruiken? Dat eerste is een helder kader, de tweede wordt al vaag. Helemaal niet gebruiken is gelijk aan “je kunt er niets mee”. Wel gebruiken, maar enkel intern maakt het bereik erg klein. Gewoon gebruiken toestaan zet weer alles open voor dingen als profilering, bedrijfsspionage, etc. En het speelt zich volledig af in externe datacenters, dus toezicht is nog niet zo simpel….
Automatiseren kan voordelen hebben hoor, maar ik vindt dat er nogal makkelijk over de risico’s heen wordt gestapt. Bedenk dat regelgeving nog enorm achter loopt en big tech vraagt niet of iets mag… die roepen later wel een keer sorry |:(
Ondertussen heeft elk bedrijf soortgelijke overeenkomsten met bedrijven zoals Salesforce, Microsoft 365, SAP, Google Drive, Workday, QuickBooks Online, Okta, Amazon Web Services (AWS), Mailchimp, Zendesk, etc etc.

OpenAI biedt ‘gewoon’ contracten waarmee ze beloven je data niet te bewaren of te gebruiken om hun modellen mee te trainen. Ik snap je zorg, doch zie de overeenkomsten met alle andere (Amerikaanse) SaaS diensten als vergelijkbaar.

Als zakelijke gebruiker kun je tevens je ‘eigen’ dataset wissen en dat van je hele tenant wissen. Regelgeving op de punten die je noemt loopt niet achter (in de EU), regelgeving op wat AI kan en mag wellicht wel al is dat met wat AI nu kan nog geen actueel probleem. Of je wilt geloven of deze bedrijven zich hier aan houden is aan jezelf - al zie je de big tech bedrijven in de VS momenteel meer angst voor de EU hebben dan voor de Amerikaanse president. :Y)
Of je wilt geloven of deze bedrijven zich hier aan houden is aan jezelf - al zie je de big tech bedrijven in de VS momenteel meer angst voor de EU hebben dan voor de Amerikaanse president. :Y)
Dat is precies het bezwaar dat ik er tegen heb. Een contract is een afspraak geen technische barriere. Dat geldt niet alleen voor AI maar voor alle zaken die we naar de cloud brengen. En naar allerlei buitenlandse diensten. Of het nu Russisch, Chinees, Amerikaans of zelfs Europees is: je loopt hiermee een risico als Nederland.
Gezien de huidige spanningen in de wereld helemaal iets om over na te denken. Kennelijk zijn dat soort verwijzingen tegenwoordig nodig, er moet eerst iets gebeureen of bijna gebeuren voor we acteren.

[Reactie gewijzigd door gevoelig op 31 januari 2025 08:52]

Probleem is alleen dat Nederland geen Claude Sonnet of DeepSeek niveau AI heeft, althans niet mij bekend. Mistral doet wel goede dingen, maar is alsnog wel een Frans bedrijf. Dus hoe stel je dat voor als je zegt 'of zelfs Europees is'?

De realiteit is dat je moet blijven innoveren en regelmatig zelfs pionieren om relevant te blijven als kenniseconomie. Al helemaal als je in praktijk ondanks je label kenniseconomie dan toch achterloopt op het strategische gebied van platformen voor het geautomatiseerd kunnen verwerken van informatie.
Dus maak goede afspraken over wat wel en wat niet.

Om mee te doen met de ontwikkelingen hoef je ook zeker niet je eigen diepste geheimen of je grootste bedrijfsgeheimen een buitenlandse AI in te gooien. Sterker nog, veel van de modellen zijn gewoon offline te draaien op eigen hardware. Dan ben je alleen geen kenniseconomie leider, maar een volger. Maar ook daar: iets is beter dan niets, je moet eerlijk blijven naar jezelf.

Zal interessant worden met welke hardware je straks AI-agents lokaal kan draaien. Wat het artikel schrijft dat AI agents nog meer energie verbruiken dan chatbots, voorspelt voorlopig nog weinig goeds voor dagdagelijks lokaal gebruik. Dan moet je het vooral op universiteiten, innovatiecentra en gespecialiseerde bedrijven/afdelingen blijven doorontwikkelen tot het er wel klaar voor is, klaarstaan voor een snelle uitrol en opschaling. Uiteraard liefst van Europese makelaardij, maar daar moeten we dan ook wel in durven investeren ook qua data en privacy kaders, anders volgen we straks weer de VS en waarschijnlijk hiermee ook China.
Wat de EU in mijn beleving zou moeten doen zijn bijvoorbeeld veel grotere en diversere rechtenvrije datasets met metadata in alle talen die we willen in al die lidstaten, zodat je in de EU ondanks strengere AI en privacy wetten nooit juridische problemen kan krijgen met je AI trainingsdata zolang je die standaard goedgekeurde datasets gebruikt. Dat zou al zoveel helpen om ondanks de Europese versnippering wel eens wat grotere zaken van de grond te krijgen. Dan kun je van je nadeel straks misschien ook eens een kracht maken, dat onze AI modellen inherent veel beter meertalig werken omdat dat hier in ons DNA zit.

[Reactie gewijzigd door OruBLMsFrl op 31 januari 2025 09:48]

Mistral begint ook achter te raken. In bijvoorbeeld livebench scoort het beste Mistral model de helft van de beste Chinese en Amerikaanse modellen. We staan ook op dit gebied netjes aan de zijlijn om te zien hoe we hopeloos achterblijven. Ruimtevaart hebben we gemist, big tech hebben we gemist en nu ook AI. Maar ach als we maar regeltjes hebben dat is maar het belangrijkste
Ja klopt, SAP leunt ook al fors naar de VS. ASML zit hier maar het ecosysteem van de chiptechnologie in veel mindere mate.
Net wel een lichtpuntje nog vanuit Mistral, dat ze in ieder geval voor local AI weer een nieuwe en naar eigen zeggen concurrerende stap hebben gezet voor wat je nog zelf vlotjes op een 3090/4090/5090 of moderne Mac met minimaal 32GB RAM kan draaien:
nieuws: Franse AI-start-up Mistral brengt Small 3-AI-model met 24 miljard par...

Geen woord over Deepseek alleen, die ook te quantizen is op 32B voor dezelfde kaarten (ca. 18GB VRAM) danwel 14B zonder quantization die hopelijk precies nog mogelijk wordt op de 5090 met diens 32GB VRAM. Of een moderne Mac met minimaal 48GB RAM natuurlijk. Maar eens wat onafhankelijk vergelijk afwachten van die modellen voor zal ik zeggen de "AI thuishobbyist gaming prosumer".
Ja wij hebben dat afgesproken via een bedrijfsabonnement. Om dan te zeggen ze houden zich er niet aan dat is te kort door de bocht. Geldt dat dan ook van een Microsoft SaaS service (O365) dat die data gebruikt zal worden? Daar steekt namelijk veel meer confidentiele informatie in dan een ticketje van Henk die toegang vraagt om BI applicaties en vraagt welke applicaties hebben jullie. Dan zegt chatgpt nou we hebben sales, Inventory, hr.....

Informatie die de concurrentie echt wel weet en welke publiekelijk beschikbaar is. Competitie kan daar absoluut niks mee! Zelfs al zou je de marges die je maakt op productniveau, zonder achterliggende context en door tijd is dat niet heel veel waard en weet de concurrentie dat al lang.....

Lange termijn strategische beslissingen, het verkopen en kopen van bedrijfsonderdelen, verandering van (top) management wat nog niet bekend is. Dat is waardevol en steken we er dus niet in. (Hoewel ik natuurlijk niet van alle collega's weet wat zij wel en niet doen met andere programma's.....). Als je als IT org hier geen beleid om maakt, training in voorziet en het opvolgt dan kan je er maar best vanuitgaan dat een deel van je mensen alles er ingooit zonder er bij na te denken.
Als bedrijf kan je wel afspraken maken, maar je kan nooit controleren of je data gebruikt wordt of (volgens afspraak) niet. Binnen een bedrijf is het dan ook goed om afspraken te maken wat je wel of niet in de prompt van een AI model mag zetten. Namen vervangen door functies is bijvoorbeeld lang niet altijd voldoende om privacy te garanderen. Als er maar een paar mensen op een dergelijk functie werken is het uit de tekst gemakkelijk af te leiden wie er bedoeld wordt. Met opmerkingen over producten in combinatie met klanten is om dezelfde rede gevaarlijk.
Het analyseren van data waarbij personen zijn betrokken moet je niet aan AI overlaten. AI kan de consequenties van aangeraden beslissingen niet overzien en je kunt een AI model ook niet verantwoordelijk houden voor analyses of beslissingen die daarop worden gebaseerd.
Inderdaad, ik heb bijvoorbeeld IT tickets laten analyseren en daarbij dus namen ed weggehaald. Maar aan de andere kant zetten de mensen allemaal hun namen zelf ook (veel) op LinkedIn. En als je in een bedrijf met duizenden werknemers echt van die specifieke rollen hebt dat er maar een enkele is dan zal deze juist vaker op LinkedIn staan.(C-level etc...)

Zo kijk ik in mijn bedrijfsonderdeel specifieke naar de LinkedIn van onze concurrenten en kan zo vrij exact zeggen hoever ze staan in mijn gebied. En dat is maar een simpele LinkedIn.
Wat mensen zelf over zichzelf prijsgeven moeten ze zelf weten. Dat geeft een bedrijf echter niet de vrijheid om gegevens door te geven die tot persoon of een klein clubje personen zijn te herleiden. Of dat naar een instantie of een AI-client is doet er niet toe.

Bedenk dat de AI-clients alles opslaan en weer als input gebruiken om verder van te leren.
Dat zeg ik juist, als ik met LLM modellen werk dan zorg ik ervoor dat ik niet onnodig namen erin zet. Maar ondanks dat, geven mensen zelf heel veel prijs op het internet. Dus een soort pseudo-privacy.
LLM: oeee gevaarlijk pas op!!!
User: Hiero heel mijn privé leven direct te linken aan mijn werk want social media: geen probleem!!

En nee AI clients slaan niet alles op, mits je er voor betaald. Ook daar weer hetzelfde.
LLM: als je betaald gebruiken we je gegevens niet
User: plaatst alles op "gratis" sociale zoals Facebook, tiktok, whatsapp, instagram, snapchat, LinkedIn

Dus tenzij je zelf he-le-maal niks op social media doet heb je imo niet echt een reden om te klagen.
Ik probeer aan te geven dat het gebruik van AI voor bedrijfsprocessen al heel snel kan schuren met de privacy wetgeving. Het weglaten van namen is niet altijd voldoende. Als je uit de tekst kan herleiden dat het slecht op een beperkte groep personen kan slaan zit je al op glad ijs. Dat jouw data niet wordt opgeslagen of door de AI-leverancier wordt gebruikt doet er volgens de AVG nauwelijks toe.

Jij zult ongetwijfeld goed nadenken wat je aan je AI model prijsgeeft, maar dat doet niet iedereen die hier ook mee kan lezen.

Wat mensen zelf op Internet zetten is hun eigen verantwoordelijkheid. Dat maakt niet dat een ander (werkgever) de gegevens die een persoon op internet zet zomaar voor eigen doeleinden mag gebruiken.
Je hebt gelijk, over het algemeen zijn de gemiddelde gebruiker in een normaal bedrijf niet voldoende geïnformeerd. Het is ook aan de verantwoordelijke (maar wie?) om dit te managen. Daar gaat het zeker nog mis. Mensen die niet voldoende worden begeleid.

Maar diezelfde mensen kregen ook geen begeleiding voordat LLMs beschikbaar waren. Vaak genoeg gezien dat, onbedoeld, confidentiele data werd gedeeld wat niet zou mogen. Veelal denken we das toch logisch?! Anderen denken er gewoon niet aan.
Goed artikel en duidelijk dat het zeker nog niet op productieniveau zit. Persoonlijk denk ik dat ze beter af zijn met coding en API’s in plaats van beeldcapturing. Via beeld is veel inefficiënter. Een beetje hetzelfde als wat er nu gebeurt in e-mail:
Helemaal mee eens. Tijd geleden zag ik ook een AI agent introductie, die kon dan als je wat wilde programmeren je browser overnemen om informatie te zoeken over de API die nodig was, en daarna ging hij je IDE gebruiken om een programma te schrijven, en als er errors kwamen ging hij die dan weer opzoeken via je browser.

Het komt voor mij over alsof je een zelfrijdende auto gaat maken door een normale auto te pakken, en dan een humanoide robot achter het stuur zetten. Het kan, maar of het nou erg efficient is?
Het komt voor mij over alsof je een zelfrijdende auto gaat maken door een normale auto te pakken, en dan een humanoide robot achter het stuur zetten. Het kan, maar of het nou erg efficient is?
Misschien niet het meest efficiënt, maar als een AI iets op dezelfde manier doet als een mens, dan is het wel het makkelijkst te volgen voor een mens wat een AI doet. Mensen kunnen dan controleren of een AI wel het juiste gedaan heeft. Ook belangrijk voor de aansprakelijkheid en rechtspraak. Het moet altijd uitlegbaar zijn aan een mens hoe een AI tot een bepaalde conclusie is gekomen.

Daarnaast: als alle tussenstappen door ook door mens gedaan kunnen worden kan je dus ook altijd terugvallen op een mens om die stap uit te voeren in het geval dat de AI het niet (goed) doet.
Persoonlijk denk ik dat ze beter af zijn met coding en API’s in plaats van beeldcapturing.
Het is en en. Met APi’s praten is natuurlijk handiger maar websites hebben geen API’s dus het is veel logischer dat AI uw scherm en muis kan bedienen.

Je zou ook taken kunnen automatiseren tussen apps en websites die elkaar niet kennen. Bijv een een kleurprofiel of template downloaden op website A en inladen in Photoshop. AI zou het je zelfs stap voor stap kunnen voordoen.

Ik denk dat het de komende decenia en en zal zijn. En AI uw muis kan bedienen en AI die achterliggend taken afwerkt door met API’s te communiceren.
Ik heb als proof of concept voor demo's op het werk en bij klanten een HR chatbot gemaakt. Deze kan zoeken in de HR documentatie van mijn werkgever (PDF's) en hier kan je dan vragen aan stellen als "hoeveel vakantiedagen heb ik bij een werkwerk van 32 uur?" of "hoe hoog is mijn leasebudget als engineer?"

Ik werk in de telefonie en contact center wereld en zie hier een hele grote toekomst in. Nu worden veel afdelingen 'lastiggevallen' met 'domme vragen'. Het idee hierbij is dat door een slimme AI agent, die zich alleen beperkt tot de data waarover hij antwoorden mag geven, een deel van deze vragen niet meer bij medewerkers uitkomen. Die hebben dan tijd over voor nuttig werk.
Die hebben dan tijd over voor nuttig werk.
Of ze worden ontslagen.
ja logisch

Als ik een bouwvakker zoek en er eentje met een elektrische boormachine en ééntje met een schroevendraaier, wie denk je dat ik ga inhuren? AI vervangt geen jobs, mensen die AI gebruiken vervangen mensen die het niet gebruiken. Daarnaast voor die zeer banale taken (data entry, eenvoudige vragen beantworden) zijn er maar weining mensen die daar echt lol in hebben.....
ik denk eerder dat de grootste klappen vallen in de creatieve hoek. Waarom zou je een bureau inhuren voor een poster, logo of campagne als je er zelf een stapel kan laten renderen door een AI tool? AI wordt nu ook veel gebruikt voor dingen die mensen wél leuk vinden om te doen zoals muziek maken.
De kwaliteit is er nog niet zover als bij het geschreven woord, maar het komt wel dichterbij al.
Grappig, ik denk juist dat de grootste winsten te halen zijn in de creatieve beroepen ;)
Maar dan niet digitaal. Denk aan theater, muziek, kunst dat dat wellicht meer waarde gaat krijgen.

Terug naar digitaal, ik kan geen muziekinstrument bespelen maar dankzij AI kan ik nu wel muziek maken. Zo zijn er misschien hele creatieve mensen die nu wel creatieve dingen kunnen maken. We worden dus minder gebonden aan techniek en kunnen daardoor dieper nadenken over andere dingen.
Op de meeste afdelingen moeten mensen ook gewoon normaal werk doen en niet alleen de telefoon opnemen. Voor de echt grote contact centers waar ze met honderd(en) agenten op zitten, zou dit wel een afname van personeel kunnen gaan betekenen. Maar die hebben sowieso vaker flexibele hoeveelheden medewerkers voor piektijden (bijv reclame campagne), dus daar zit sowieso niet iedereen vast in dienst.
Dan kunnen ze nuttig werk elders doen.

Ik lees al langere tijd berichten over arbeidstekorten in allerlei sectoren en sinds iets korter ook berichten over dat onze nationale arbeidsproductiviteit achterblijft. 1 plus 1 is twee.
Stroomverbruik komt vaak terug als het gaat over AI maar waarom eigenlijk? Ja het kost energie maar lang niet zoveel als bijvoorbeeld Netflix; daar hebben we het nooit over stroomverbruik. Of Zoom bijvoorbeeld, je kunt heel wat ChatGPT gebruiken als je een uurtje minder Zoomt.. Qua cijfers, ChatGPT is gelijk aan 20.000 (amerikaanse) huishoudens, Netflix 800.000.. Heb toch het idee dat ChatGPT nuttiger is dan Netflix :)

Bron: https://andymasley.substa...false#%C2%A7main-argument
Deels eens, het is maar met wat je het vergelijkt. Het is extra ten opzichte van het wereldwijde energie verbruik en ‘vervangt’ (nog) niks. Bij Netflix kun je afvragen wat het energetisch had gekost als we massaal DVD’s en BluRay waren blijven kopen. ChatGPT gaat waarschijnlijk ook nog wel ergens ‘besparen’ maar waar is nog niet duidelijk.

Crypto is in die zin ook nog een mooie. Kost ontzettend veel energie. Maar zou je alle bankkantoren/locaties wereldwijd halveren ben ik benieuwd hoe de energiebalans uitkomt. Let wel dat is in potentie en nog theoretisch, momenteel hebben we immers en/en ipv en/of :-)

Tot slot, we zouden moeten zorgen dat stroom gewoon duur genoeg is dat je tot zuinigheid wordt bewogen. Dat wereldwijd organiseren is helaas nog wel zeer ver weg.
De vraag is bij zo'n sterke vorm van delegeren aan een machine toch wel of dat niet gaat leiden tot veel eenheidsworst op de lange termijn. Het gedrag van een bot wordt een resultaat wat later weer in de corpus terechtkomt en er zo een feedback loop ontstaat...

[Reactie gewijzigd door eheijnen op 31 januari 2025 08:23]

Haha die agent op de computer, ik moest lachen :)
Is inderdaad beetje ouderwets, tegenwoordig heten agenten collega.
Je wilt niet dat het hippe large action model tickets heeft geregeld voor een niet bestaande trein of dat je voor een hotel staat dat in feite een kluswinkel blijkt te zijn.
Haha hiervan ging mijn koffie bijna over mijn scherm :D
Maak duidelijk dat Arnoud het artikel geschreven heeft,
zonder te zeggen dat Arnoud het artikel geschreven heeft.

* voegt foto toe: Agent op een computer, geen AI-agent _/-\o_
Ik zie het al gebeuren: collega A gebruikt AI om een plan te maken, collega B doet review met AI, management laat plan samenvatten door AI, uiteindelijk zijn wij de interface tussen de AI-modellen. Zoals Alexander Klöpping al zei, kantoorpersoneel staat als eerste op de loopplank om in het water te springen.

Aan de andere kant zijn er talloze use cases te bedenken waar beslissingen niet op basis van harde voorwaarden gemaakt worden en dat maakt het voor een AI-model lastig, zelf met een vraag/antwoord gebaseerd systeem.
Toen Rabbit vorig jaar zijn inmiddels geflopte R1-gadget wilde uitleggen, kwam daar wéér het voorbeeld van tripjes om de hoek kijken. Je zou tegen het oranje apparaatje kunnen zeggen waar je een paar dagen heen wilde en het large action model zou dan vervoer en verblijf regelen en zelfs komen met hele programma's om daar dagen door te brengen.
Ik had toch wel iets meer verwacht hier, Coffeezilla heeft twee videos, waarom het dus geflopt is. Het deed compleet niet wat het beloofde, als Coffeezilla vroeg, "tell everyone I'm going to be late" (hetgeen letterlijk uit hun advertenties komt), zei de R1: "ik raad aan om iedereen daarover te contacteren" en dat de R1 hiertoe zelf niet in staat was. Het was een product dat gebouwd was op ChatGPT en met veel buzzwords werd geadverteerd.

[Reactie gewijzigd door separhim op 31 januari 2025 09:27]

Timestamp 5:50pm PST ...

Thank you for calling.

If you are calling regarding an existing case, please say, "I have an existing ticket."

I have an existing ticket

I'm sorry, I didn't quite hear that.

If you are calling regarding an existing case, please say, "I have an existing ticket."

I...have...an...existing...ticket.

If you do not have an existing ticket, please say, "New issue."

I HAVE AN EXISTING TICKET!

I'm sorry, I didn't quite hear that.

Let me connect you to an operator for additional help.

(connection sounds)

(different voice)We're sorry, our office is now closed. Please call back between the hours of 8am and 6pm Pacific Time.
Wel eens met UPS gebeld ? Ik ga altijd voor een "warm body" aka iemand aan de telefoon.

Ik haat het inspreken van tracking nummers en brakke stemherkenning. Kost mij te veel tijd. PostNL of Bol met zo'n nutteloze chatbot kan ook beter stoppen hiermee.
Ik kan hier wel wat omgekeerde "prompt engineering" tips voor gebruiken om zo snel mogelijk van dit soort bots af te komen. wat kan je het beste zeggen in de chat om doorverbonden te worden naar een mens? werkt herhaaldelijk "2" indrukken inderdaad in de meeste gevallen om sneller door telefonische keuzemenu's te komen?

Op dit item kan niet meer gereageerd worden.