Microsoft laat bedrijven vanaf november zelf Copilot-agent-'werknemers' maken

Microsoft laat bedrijven vanaf volgende maand zelf 'autonome' AI-agents maken. Dit zijn AI-assistenten die op basis van bedrijfsdata werknemers van bedrijven kunnen assisteren en daarmee als 'digitale werknemers' fungeren. De AI-agents verschijnen als Preview.

De Copilot-agents zijn nu nog in Private Preview, wat betekent dat bepaalde geselecteerde bedrijven al AI-agents konden maken. Vanaf november gaan de agents in Public Preview, dus kunnen andere bedrijven ze ook aanmaken, schrijft Microsoft. Microsoft vergelijkt de agents met 'apps in een AI-wereld' en zegt dat agents eenvoudige 'prompt-and-response'-systemen tot volledig autonoom kunnen zijn.

Ze kunnen ook hele bedrijven of slechts enkele werknemers helpen, en daarbij verschillende data gebruiken. Microsoft noemt als voorbeelden data van Microsoft 365 Graph, Dataverse of Fabric. Het bedrijf zegt dat het om agents kunnen gaan die de IT-helpdesk assisteren, of nieuwe werknemers helpen met inwerken, of als een 'persoonlijke conciërge' kunnen fungeren voor sales- en serviceafdelingen. Bijvoorbeeld Thomson Reuters gebruikt de agents nu om de due diligence-workflow te versnellen en Pets at Home zet ze in bij het winstbeschermingsteam om casussen sneller op te stellen, meldt Microsoft. Het bedrijf kondigde de agents in mei aan.

Door Hayte Hugo

Redacteur

21-10-2024 • 21:03

139

Reacties (139)

139
139
65
10
0
60
Wijzig sortering
Dit zijn AI-assistenten die op basis van bedrijfsdata ...
Bij mijn tests met Copilot was die bedrijfsdata het grootste probleem.
  • Data staat in veel verschillende systemen. Copilot heeft tot de meeste geen toegang, omdat het technisch niet kan, omdat een integratie complex/duur is of omdat het niet mag vanwege Infosec overwegingen.
  • Een deel van de data is vaak verouderd. Op Sharepoint/Intranet/Teams worden nog wel eens oude versies bewaard.
  • Data is vaak alleen van toepassing op bepaalde regios, waar ze net iets anders werken, met andere systemen. HR in Australie deelt alle informatie via intranet, NL doet dat via het HR portaal van een leverancier.
  • Copilot in MS producten is applicatie specifiek. Copilot in Word heeft geen toegang tot Teams of mijn bestanden op one-drive. Laat staan Jira/Confluence etc. Dat soort dingen.
Een deel daarvan moet MS oplossen, door hun producten te verbeteren, maar voor een groot deel vereist dit een grote inspanning aan standaardisatie, integratie en data-curatie, over alle landen en teams, in een gigantische organisatie met een historie van consolidaties en overnames die dat niet zo gemakkelijk maakt.

[Reactie gewijzigd door locke960 op 22 oktober 2024 16:12]

Je kunt wel degelijk integraties aanzetten tussen die verschillende dingen, zover ik weet is het mogelijk alles op Azure/OneDrive (dat is Teams + OneDrive + SharePoint Online + Office 365 + Exchange Online + GitHub Enterprise) te doorzoeken. Met Cloud Connectors kun je on-prem MySQL/PostGreSQL en MSSQL laten doorzoeken. Ik heb dit al eens geprobeerd en kon met een paar klikken een paar 100'en TB aan data doorzoeken, het probleem is aan de andere kant de kost, hoeveel data is eigenlijk genoeg waard om een 'agent' voor te maken wat niets kost om te doorzoeken, maar bij gebruik elke token (een woord of een stuk van een woord) kan relatief duur uitvallen. Als je een middelgroot bedrijf hebt en dus je voegt die dingen aan iedereen's Outlook, Excel en Word, kom je snel aan een paar miljoen tokens per dag en kun je met gemak een paar duizenden euro's per maand toegevoegd aan je Azure kosten.

Ik denk dat deels ervan in Europa ook niet "mag" vanwege de DSA etc waar hetzelfde bedrijf met een account in de VS die mogelijkheden wel heeft. Ik weet dat je zomaar niet Teams en Outlook en "persoonlijke" bestanden mag doorzoeken in Europa, zelfs al is het op bedrijfssystemen en geautomatiseerd en komen er geen 'mensen' aan te pas. Daarmee gaan we binnenkort in Europa snel (nog verder) achterlopen op de rest van de wereld op het gebied van technologische vooruitgang.

Maar data curatie wordt gemakkelijk met een degelijk model, zowat alle modellen kunnen metadata zoals "laatst aangepast" meenemen in het wegen van informatie - wat wij vonden is vb. data die andere data tegenspreekt, dus 3 pagina's op een interne website die 3 verschillende regeltjes voorschuifden, dankzij deze AI kun je aangeven waar die pagina's zich bevinden en opruimen. Natuurlijk kom je dan in de politieke hutsepot terecht van wie gelijk heeft, veel managers gebruiken Sharepoint etc om hun eigen zienswijze door te drukken als er geen concreet antwoord is.

[Reactie gewijzigd door Guru Evi op 22 oktober 2024 16:51]

Hmm dat is wel erg snel in de richting van het opsouperen van banen :/

Maar aan de andere kant, ik vind Copilot (in elk geval de Microsoft 365 versie) zwaar overgewaardeerd. De mensen die er enthousiast over zijn zijn vooral de mensen die geen oog hebben voor de inhoud van hun werk en gewoon domweg alles doorblaffen wat er uit komt zonder het zelf te checken (met de disclaimer van "AI generated content - please check for accuracy" er vaak nog bij, zonder dat ze zelf maar enige moeite doen om dat te checken).

Er zitten wel wat nuttige kanten aan zoals het samenvatten van emails, het helpen met schrijven van lange teksten en het snel in elkaar raggen van het beginnetje van een powerpoint. Maar als je wat ingewikkeldere taken doet, met name in Excel dan bakt het er niks van. En logisch, een LLM is een tekst generator, het is geen algemene intelligentie. Zo wordt het wel verkocht door Microsoft.

De banen die serieus op de tocht staan zijn volgens mij vooral zaken als tekstschrijvers (marketing/documentatie), vertalers (want het doet het veel beter dan een google translate), mensen die veel menselijke data interpreteren (bijvoorbeeld tekst comments in surveys klassificeren tussen negatief/positief) en secretaresses waar die nog niet allang wegbezuinigd waren. En wellicht sommige programmeertalen. Maar dingen als data analyse is een LLM helemaal niet goed in. Andere typen AI's wel maar die zijn niet zo generiek, die moeten speciaal geschreven worden voor het doel.

[Reactie gewijzigd door Llopigat op 21 oktober 2024 21:51]

Ik was toch best wel onder de indruk van wat CoPilot me in Python liet zien.

Ik kan niet of nauwelijks programmeren in Python, maar vanuit niets had ik in drie kwartier een executable die twee Garmin fit files inlaadt, de power data eruit haalt, de data met een moving average filter filtert en plots maakt om de data weer te geven.
Dat is juist het probleem. Mensen gaan dingen maken zonder dat ze weten hoe het werkt. En of het eigenlijk wel de juiste aanpak is. Daarvoor houd je toch mensen nodig die de materie begrijpen.
Maar wat nou als het goed genoeg is? Ik kan ook niet programmeren, maar ik heb hele scripts door ChatGPT laten schrijven. Werkt het? Ja! Snap ik de inhoud? Nee, maar waarom zou ik? Ik hoef ook niet te weten hoe mijn oven werkt, zolang het maar doet wat ik wil. En diezelfde insteek zie ik ook als het om AI gaat.

Vergeet niet hoe snel dit allemaal gaat. Pas twee jaar geleden is dit geïntroduceerd, het gaat zo snel dat mensen de sprongen niet meer kunnen onderscheiden. Waar het nu het werk van een gemiddelde junior developer of marketeer levert, is dat over twee jaar misschien wel het niveau van een gemiddelde medior.
Omdat er geen rekening wordt gehouden met hoe veilig het is. In dit geval gaat het om een script, of een data uit een Garmin halen. Maar wat nou als er volgende week iemand vraagt of je een website voor hen kan maken, met een login module.
Dan kan je dat in ook zo in elkaar gooien met chatgpt en het ziet er prachtig uit allemaal, maar het is hoogstwaarschijnlijk super hackbaar en omdat je geen flauw idee hebt wat je doet, kan je dat dan ook niet oplossen..
en waarom zou een junior dat allemaal wél veilig in elkaar gestoken en gereviewed krijgen, zelfs met 10x zoveel tijd?
Niet, natuurlijk. Maar die junior kun je wel op het matje roepen als het niet werkt, en wellicht snap je zelf ook nog wel dat het werk van die junior door een senior gereviewed dient te worden... dat soort menselijke verantwoordelijkheid wordt toch vaak als prettig ervaren, al dan niet terecht.

Als je als leek zelf een scriptenbakkende AI hebt is er geen senior meer voor de review, dan is het gewoon wat eruit rolt. Betekent dat dat we het maar niet moeten gebruiken, nou nee. Maar wel dat je op moet letten -- zulke modellen moeten wellicht wat zorgvuldiger getrained worden (lees: rigider en beperkter) als het aankomt op zulke code produceren, liefst alleen wat ontegenzeggenlijk juiste aanroepen naar al geschreven libraries die het vuile werk opknappen. Dat is immers ook wat we van mensen verwachten dat ze doen, en zeker niet dat ze maar zelf opnieuw het wiel uit gaan vinden.
Vaak is er nu ook al geen senior omdat die te duur is (idem voor consultancy). Je mag niet onderschatten hoe weinig bedrijven op een deftige manier hun IT geregeld hebben en wat voor verbetering dit voor de huidige situatie kan zijn.
Daar kan dan ook wel een flinke kanttekening bij. AI kan er best voor gaan zorgen dat mensen met een hefboom productiever worden, maar we moeten zeker niet denken dat het er dan "deftiger" op gaat worden. Wat die AI immers uitspuugt is geremixte code uit allerlei bestaande bronnen, en die is niet zelden zelf natuurlijk van bedroevende kwaliteit. Dus in plaats van stapels slechte code die in elkaar gebrast zijn door mensen die eigenlijk wel wat beters te doen hebben krijg je dan stapels middelmatige code met hier en daar een onbegrijpelijke uitglijder waar dan helemaal niemand meer iets van begrijpt.

Ik heb het zelf al gezien bij code en queries die ik mocht reviewen waarvan ik geen idee wat men er nu in vredesnaam van verwachtte en waarom het zo opgesteld was, tot de aap uit de mouw kwam: tja, zo rolde het nou eenmaal uit de AI. Oooh, zeg dat dan gelijk even en geef de oorspronkelijke prompt maar, dan snap ik het ook weer. :P
Meer slechte code in omloop brengen is geen remedie tegen slechte code die al in omloop is.
Het zorgt voor minder programmeurs en kwantiteit van heel veel code die berust is op kwaliteit van code waarmee het ooit getraind mee was.
Is allemaal niet belangrijk voor een bedrijf, als het maar niks kost. Bij ons hadden ze een stuk softwareprogrammatie uitbesteed aan Roemeniërs, niets dan miserie mee gehad en ze zijn op de beslising teruggekomen. Een jaar later een andere manager die het gaat uitbesteden aan Indiërs goed wetende dat het weer op niks gaat trekken maar dat is zijn probleem niet. Hij krijgt een stevige bonus omdat hij de kosten heeft doen dalen en is binnen het jaar als de miserie boven komt toch weeral op weg naar een andere firma om die kapot te maken.
Maar hier doe je de aanname dat AI dit onveilig maakt. Ik heb het over een tijdsframe van enkele jaren. Ik kan me niet voorstellen dat er dan nog steeds onveilige code wordt geschreven door AI.
Een AI weet niet wat die doet, die kopieert *kuch* "leert" alleen maar code die andere mensen reeds op internet hebben gezet. Dus ook van alle hobbyisten met houtje-touwtje code.
Het wordt helemaal interessant als AI gaat leren van door (andere) AI gegenereerde code. Geldt overigens ook voor teksten.

Overmoedige AI kan nu totale onzin teksten schrijven wat door anderen modellen weer wordt opgepikt.

Overigens krijg je met het gebruik van copilot nog meer eenheidsworst, (creatieve) speciaisten zullen er altijd blijven. Zorgen dus dat je je blijft specialiseren op bepaalde onderwerpen, en creatief / innovatief bent.
Niet, specialisten kunnen met gedegen prompt ervaring met AI vaak ook specialisten resultaten bereiken. Wat betekend dat je vroeger als klant bij dure specialisten moest aankloppen. En nu die service door 1000fold aan concurrentie van mediocre, starters grof soort gelijke resultaten kunnen leveren. Wat die service markt kapot maakt specialisten verdwijnen omdat die dure HR zijn en om te concurreren, moet ook ermee ingaan. Waar AI nog niet op niveau of correctheid is heb je nog uitstel van executie. Het trainen van AI gaat door en maakt ook vorderingen en binnen AI is er ook de nodige concurrentie . Gemeten kwa correctheid, kwaliteit
Niet dat AI onveilig hoeft te zijn, toch denk ik dat het gebruik van AI in het algemeen de wereld wel 'onveiliger' kan maken.
Als ik kijk naar de snelheid waarmee de wereld nu aan het veranderen is en daar AI bij optel...

Maar er kan veel geld mee verdiend worden en een heleboel 'salarissen en werkplekken' schelen, geld dus...
Naar mijn mening is dit een recept voor ongelukken.
Ik hoef ook niet te weten hoe mijn oven werkt, zolang het maar doet wat ik wil. En diezelfde insteek zie ik ook als het om AI gaat.
Je maakt een grap zeker met deze opmerking? Maar oké. Ik hap toe.

Je vergelijkt appels met peren. AI is niet hetzelfde als een apparaat waarbij een beperkte instructieset voor hebt om te bedienen. En waarbij een makkelijke noodknop bij te vinden valt om alles stop te zetten.
Sterker nog. Bij AI ontbreekt de noodknop en de instructieset wordt steeds groter, complexer en zonder daadwerkelijk te snappen wat de grenzen te zijn.

En moet je het allemaal begrijpen? Knappe kop die dit allemaal kan begrijpen. En dat is precies het gevaar van een technologie wat de potentie heeft om een mondiale impact te hebben.

En moet je nagaan dat het pas twee jaar geleden is dat een bedrijf een manier heeft gevonden om wat fuzzy logic en machine learning te combineren tot een grootschalig product waarvan we niet eens weten waar het mogeljik naartoe zal gaan.

Het is daarom cruciaal om te weten hoe 'AI' werkt en waarom het met bepaalde resultaten komt.
Maar hier doe je de aanname dat AI dit onveilig maakt. Ik heb het over een tijdsframe van enkele jaren. Ik kan me niet voorstellen dat er dan nog steeds onveilige code wordt geschreven door AI.

Ter info, zoals ik al eerder heb geschreven heb ik als CISO bij een financiële instelling grootschalige AI-implementaties gedaan. Het is zo eenvoudig als mijn vergelijking, echter hebben te weinig mensen nog hands-on ervaring met de techniek zelf en ontbreekt het een toekomstvisie over de mogelijkheden. Het gaat veel verder dan fuzzy logic, de eerste papers (o.a. van personen die ik begeleid) beschrijven dat de eerste tekenen zijn gevonden dat generatieve AI daadwerkelijk aan reasoning doet.

Ik ben het overigens eens dat het een groot gevaar kan vormen, daar wordt veel te weinig onderzoek naar gedaan. Ik heb ook eerder geschreven dat ik betrokken ben geweest bij de laatste investeringsronde van OpenAI. Ik ben niet zomaar iemand die zit te dagdromen bij een MKB kantoortje, maar ik heb directe informatie vanuit zowel commerciële partners als onderzoekbureaus. Er moet structureel miljoenen, misschien zelfs miljarden gaan naar onderzoek over de gevolgen en impact van het gebruik van AI.
Ter info, zoals ik al eerder heb geschreven heb ik als CISO bij een financiële instelling grootschalige AI-implementaties gedaan. Het is zo eenvoudig als mijn vergelijking,
en
Het gaat veel verder dan fuzzy logic, de eerste papers (o.a. van personen die ik begeleid) beschrijven dat de eerste tekenen zijn gevonden dat generatieve AI daadwerkelijk aan reasoning doet.
Spreek je hier jezelf niet een beetje tegen? Als AI gaat redeneren dan kan het ook beredeneren om voor zichzelf een backdoor in te bouwen. Maar dat weten we niet want we weten niet eens zeker of het al redeneert of niet.
Nee maar als jij een oven bouwt terwijl je niet weet hoe veilig die is zal ik nooit een oven van jou kopen of gebruiken.
Lees mijn reactie nog eens :) Ik schrijf niet over een moment op 22 oktober 2024, maar over een jaar of twee. Een verwachting, een visie.

Mensen op Tweakers nemen het veel te vaak veel te letterlijk. Lastig praten, helaas.
Maar wat nou als het goed genoeg is? Ik kan ook niet programmeren, maar ik heb hele scripts door ChatGPT laten schrijven. Werkt het? Ja! Snap ik de inhoud? Nee, maar waarom zou ik?
En volgende week moet het aangepast worden en dat lukt niet. Of je wil meer en het past niet meer in het context windows. Of je gebruikt het in een proces waar financiele informatie door loopt en de auditor stelt moeilijke vragen omdat het wel SOX compliance moet zijn. Er zijn zoveel redenen te verzinnen waarom dit praktisch uitdagend gaat worden.
Ik weet in ieder geval dat ik de komende jaren voldoende werk heb om dit soort IT weer herstellen.
Maar hoe bepaal je of het goed genoeg is? Hoe heb je het script op fouten gecontroleerd? En dan is jouw voorbeeld nog een vrij eenvoudig script. Als het ingewikkelder wordt is de kans op fouten of onjuiste resultaten nog groter. Het moet toch gecontroleerd worden.
Om jouw voorbeeld aan te halen: je hoeft niet te weten hoe jouw oven werkt, als die het maar doet... maar als die oven door een willekeurig iemand in elkaar is gezet op basis van een handleiding door Co-Pilot - wil jij dat in huis?

Of ga je dan toch liever voor de duurdere, gecertificeerde variant gemaakt door mensen met gespecialiseerde kennis van die materie?

Dus ja, Co-Pilot kan een hoop en is heel handig, maar ik denk dat we nu heel bewust moeten gaan nadenken over waar je het wèl en waar je het niet gebruikt. Het blijft een hulpmiddel dat ook fouten kan maken. En het is nog steeds een beperkt iets dat doet wat de meest waarschijnlijke wens is, zonder verder te kunnen nadenken of dat ook klopt. Net als mensen. Oh. Wacht... Ja oke dit kan sommige mensen prima vervangen :+

[Reactie gewijzigd door Nicked op 21 oktober 2024 22:20]

Als we een keuken aparatuur analogie aanhouden: Een magnetron maakt je geen chef kok, maar iedereen kan er een gerecht mee opwarmen.
Doordat we iets dat complex is makkelijker maken kunnen meer mensen het gebruiken. Dat resultaat is dan ook van een lagere kwaliteit maar zolang dit acceptabel is het goed genoeg.
Dat zorgt er voor dat de waarde van handwerk daalt met uitzondering van experts die de beste kwaliteit kunnen leveren.
Restaurants bestaan nog steeds, ook al heeft iedereen een magnetron in huis. Maar de noodzaak om in een restaurant te moeten eten als je thuis geen goede kok bent is deels met een magnetron maaltijd verdwenen.

Een zelfde trend verwacht ik van AI. Mensen kunnen meer zelf doen, wat ze productiever maakt. De kwaliteit is mogelijk lager maar de extra kosten voor die kwaliteit loont vaker niet. Dus alleen mensen die deze kwaliteit eisen zullen daarvoor betalen. Wat mogelijk op de lange termijn voor het gros ook onrendabel gaat zijn. En wie weet dat nostalgie vakmanschap na een tijd weer een trend maakt.
"Goed genoeg" is echt een doodsteek. Goed genoeg voor wat? Zodat we er nog voor willen betalen? Dat alles niet omvalt?

Productiever zeker, hogere lonen no way. Om over de carbon footprint van de benodigde datacenters nog maar te zwijgen.

Edit: deze is wel mooi:
https://robhorning.substack.com/p/artificial-intentionality
But when any ordinary person talks about AI, they use it to mean that something mediocre, made without care, being offered in place of something that someone has paid attention to and invested effort in out of respect for the humanity of its ultimate recipient. AI-produced things “sort of suck” not merely because they are inherently derivative and often erroneous; they suck because AI is only ever a simulation of care, and it improves by allowing people to be more careless. AI is fundamentally “artificial intentionality” rather than “artificial intelligence.”

[Reactie gewijzigd door Sandor_Clegane op 22 oktober 2024 07:37]

Dit is een valse tegenstelling. Er zijn meer opties dan magnetron of restaurant. De analogie klopt verder best aardig, want bij elke dag maaltijden uit de magnetron bekruipt me hetzelfde deprimerende gevoel als dat ik krijg bij het teveel lezen van LLM-gegenereerde content. LLM's maken fouten, magnetronmaaltijden zijn niet bepaald de gezonde optie, smaken middelmatig en altijd hetzelfde.

Voor beide geldt: het kan handig zijn voor een keertje, als je geen tijd hebt. Maar claimen dat je je werk net zo goed door LLM's kunt laten doen is net zo onzinnig als claimen dat niemand meer hoeft te leren koken, tenzij hij de ambitie heeft om chef-kok te worden. Voor beide geldt: je leven wordt vanzelf een soep van onbevredigende, niet-vullende drab als je denkt dat het de enige optie is.
Fijn..., Als het magnetronvenster niet goed installeert is en EM straling naar buiten straalt en de persoon ervoor wordt gebakken, dan is dat een betere oplossing.

Een moving average filter voor Garmin is leuk, maar wat doet het bij een outlier? Misschien niet een kritische applicatie. Waarschijnlijk geen testcases om te controleren of het werkt.

Het blijft garbage in garbage out. Misschien wel de ene AI roept andere AI om iets te maken.
Tsja, jij maakt vast je foto's met je smartphone, en niet met een spiegelreflex camera met aparte lenzen en handmatige scherpstelling. Goede kans dat je geen idee hebt hoe die smarthpone werkt en je zult vast minder goede foto's ermee maken dan die 1000+ euro kostende spiegelreflex camera. Die smartphone past zelf correcties toe, zoals auto contrast. En dat zal vast goed genoeg zijn voor jouw foto's en die van de meeste mensen. Wil je echt goede foto's maken, dan volstaat een smartphone niet en moet je jezelf gaan verdiepen in de techniek. Maar voor het grootste deel van de bevolking is dat niet nodig. Ik durf wel te stellen dat de kwaliteit van de gemiddelde foto erop achteruit is gegaan sinds mensen massaal de smartphone zijn gaan omarmen. Maar niemand die het erg vindt. Omdat het waarschijnlijk ook niet erg is.
Een goede foto kan prima gemaakt worden met een telefoon. Het gaat om inzicht in perspectief, licht en het moment van vastleggen.
Ja, natuurlijk helpt goede apparatuur maar een dure set maakt je niet per definitie een goede fotograaf en andersom.
Dat er tegenwoordig gemiddeld genomen slechtere fotos worden gemaakt komt door de gigantische hoeveelheid fotos die heden ten dage worden gemaakt.
precies mijn punt. Vroeger werd je door de hogere kosten van een camera en het ontwikkelen/afdrukken van rolletjes gedwongen om moeite te doen goede foto's te maken. Kadrering, belichting, perspectief, allemaal belangrijke zaken die een goede foto maken en doordat foto's maken zo makkelijk en goedkoop is geworden, daalt de gemiddelde kwaliteit van de foto.

Ik ben het helemaal met je eens over dat een goede camera niet perse een beter beeld oplevert. Martin Parr (om maar iemand te noemen) zal nog steeds interessantere foto's maken met mijn smartphone, dan ik dat kan met een 5000+ euro setup.
Als ik mijn huis wil laten stucen of als ik m'n voegen wil laten vernieuwen kan ik een vakman inhuren, dat kost me bakken met geld. Ik kan ook alle informatie opzoeken, de juiste spullen aanschaffen, even oefenen en het zelf doen. Is de kwaliteit hetzelfde? Het zal vast wat minder zijn op enkele plekken maar over het algemeen is het goed.

Waarom zou dat ook niet kunnen met programmeren via AI? Ik kan zelf dingen en koppelingen bouwen met AI maar waarom zou dat slechter zijn als het werkt? Ik hoor dat soort dingen vaker maar dat komt meer van mensen die in die materie zitten en wellicht bang zijn dat hun werk minder gaat worden? r/chatgptpro staat vol met gebruikers die hun eigen extensies / apps hebben geschreven met AI, sommige zelfs met complete releases in de App Store / Play Store / Chrome Web Store.

En daarnaast kun je altijd nog een externe inhuren om even je code te reviewen of een pentest te doen mocht je het echt belangrijk vinden.

Kennis is op dit moment veel dichterbij dan 10 jaar geleden. Iets opzoeken en zelf repareren of maken is makkelijker dan ooit. Of het gelijk slechter is is niet het geval.
Scripts geschreven met AI ondersteuning , die je niet begrijpt toch in productie neemt |:(
Ik mag toch echt hopen dat je een grapje maakt.
Dit is het begin.
Op vele vlakken zal AI (zolang het door ontwikkeld wordt) de mens voorbij schieten.

Nu zijn het lappen text, wonky scripts en videos die er uit zien alsof iemand vergeten is dat mensen 5 vingers hebben. Maar jaar op jaar zie je de sprongen die gemaakt worden.

Met alle medische data die er beschikbaar is zou het mij niet verbazen dat er binnen 50 jaar een situatie is waar mensen liever een door AI personal single pill solution willen dan een cocktail aan pillen die geprobeerd is samen te stellen door een arts. 1 arts die het van zijn ervaringen en opleiding moet hebben, of een IA die data heeft van miljarden patiënten met kennis hoe er gereageerd wordt op verschillende interacties van verschillende medicijnen.

Eigenlijk ieder vlak waar IA serieus aan het werkt gezet wordt verwacht ik dat de verklaarbaarheid steeds moeilijker gaat worden, waarbij het eind resultaat steeds beter wordt. Wij zijn immers maar vrij beperkt in de tijd die we hebben om te leren.
Werkt het? Ja! Snap ik de inhoud? Nee, maar waarom zou ik?
Hoe weet je zeker dat de code die je krijgt ook daadwerkelijk werkt? Het argument wat je hier aanhaalt gaat maar heel beperkt op. Alleen als het heel erg simpele code is met weinig ruimte voor fouten hoef jij niet te snappen wat er gebeurt. Op het moment dat je er complexe zaken van gaat vragen gaat deze vlieger echt niet op. Zie ook mij reactie hier: Creesch in 'Microsoft laat bedrijven vanaf november zelf Copilot-agent-'werknemers' maken'
Ik zou heel graag willen weten hoe alles werkt, zodat ik niet afhankelijk ben van systemen die steeds ondoorgrondelijker worden. Leestip: "zen and the art of motorcycle maintenance"
Ik ga ook geen beveiliging van een kerncentrale programmeren.

Maar voor minder mission critical dingetjes als mijn voorbeeld is het prima denk ik. Ik kan me best voorstellen dat het me in mijn dagelijkse werk gaat helpen.

Ik had dit ook voor elkaar kunnen krijgen door tig internetpagina 's te lezen. Code te knippen en te plakken. Syntax proberen te begrijpen. Maar dat had langer geduurd dan 45min.

De resulterende executable was overigens 42MB groot, wat me niet heel efficiënt lijkt 🤣.
Je kan jou reactie 1-1 plaatsen in het tijdperk toen programmeertalen uitkwamen en we opeens geen assembler meer moesten kennen..
Ik denk dat je je sterk vergist. Over een paar jaar weten we het verschil. AI wordt nooit beter dan wat erin gestopt wordt. Vroeger al met audio, later met gecertificeerde processen: het blijft shit in geeft shit out. Nu nog hopen dat (vak)mensen herkennen wat shit is.

Of na de zoveelste maal weerleggen zeggen: succes ermee. Onderhoud komt later wel (indien relevant) waar wel iemand nodig is die het snapt, maar dan veel meer tijd kwijt is.
Die tijd bestond niet echt. Programmeertalen kwamen in de jaren 50 op en de populariteit van assembly begon in de jaren 90 pas echt af te nemen. Er zijn nog altijd meer assembly schrijvende programmeurs dan in de jaren 50, omdat het voor absolute controle nog steeds voordelen heeft.

Het zou me niets verbazen als assembly weer wat opkomt door LLM's omdat je daarmee de voordelen van assembly kunt gebruiken zonder het zelf te schrijven.

[Reactie gewijzigd door kftnl op 21 oktober 2024 23:38]

Die tijd bestond niet echt. Programmeertalen kwamen in de jaren 50 op en de populariteit van assembly begon in de jaren 90 pas echt af te nemen. Er zijn nog altijd meer assembly schrijvende programmeurs dan in de jaren 50, omdat het voor absolute controle nog steeds voordelen heeft.
Er is veel meer software, dus zijn er meer programmeurs. Het relatieve deel daarvan wat nog assembly schrijft is dramatisch afgenomen. Bovendien is assembly al lang niet meer de taal die de hardware spreekt, maar een vertaallaag naar de microcode van de CPU.
Het grootste probleem met de performance van moderne software is niet de programmeertaal, maar het feit dat programmeurs niet weten wat ze doen.
Het zou me niets verbazen als assembly weer wat opkomt door LLM's omdat je daarmee de voordelen van assembly kunt gebruiken zonder het zelf te schrijven.
Waarom zou dat beter zijn dan een compiler gebruiken?
Waarom zou dat beter zijn dan een compiler gebruiken?
Controle over wat er precies gebeurt. Hardware heeft bij mijn weten nooit 'assembly gesproken' trouwens, hoewel de mapping op machinetaal natuurlijk wel dichter op de CPU zit dan bij C. Micro-instructies bij Intel e.d. hebben hier vrij weinig mee te maken, daar zie je in de machinecode niets van, net zoals je van bedrading niets ziet.

[Reactie gewijzigd door kftnl op 22 oktober 2024 10:34]

Controle over wat er precies gebeurt.
Ik bedoel een LLM gebruiken om assembly te schrijven.
Als je het schrijven van assembly over wil laten aan een tool is een compiler toch veel handiger en bewijsbaar correct indien nodig.
Met controle bedoel ik dus dat je dingen kunt doen in assembly die je niet met C aan kunt geven. Bijvoorbeeld specifiek registergebruik, specifieke instructies gebruiken, etc. Een compiler kan die dingen ook gebruiken maar je kunt bij een compiler maar beperkt aangeven hoe die gebruikt moeten worden.
Als je assembly laat genereren door een LLM geef je die controle toch ook uit handen?

Bovendien is het tegenwoordig vrijwel onmogelijk voor een mens om alle oorzaak/gevolg te overzien van op dit nivo optimaliseren. In veruit de meeste gevallen doen compilers beter werk en in de paar gevallen dat het nodig is wil je echt dat een mens het op 100% correctheid verifieert en niet op een LLM vertrouwen.
Je lijkt te denken dat assembly iets geheel van het verleden is, maar je weet toch wel dat er nog altijd assembly wordt geschreven? En echt niet omdat mensen hun weg naar de compiler niet weten te vinden, er zijn goede redenen voor wat betreft precieze controle over wat er gebeurt op instructie niveau.
Als je assembly laat genereren door een LLM geef je die controle toch ook uit handen?
Nee? Als je iets programmeert met hulp van een LLM, dan geef je toch gedetailleerde instructies wat je wil hebben, check je het resultaat nauwkeurig, en pas je het aan waar nodig? Zelfs met python zou ik niet ongechecked code van een LLM vertrouwen.

Ik bedoel dus niet dat je code geeft in C en zegt 'converteer naar assembly', ik bedoel dat je iets zegt van 'maak gebruik van de rdtscp instructie om XY te doen, maak gebruik van registers voor Z'. Met de hand kost dat veel tijd vanwege hoe veel code je nodig hebt in assembly, maar met een LLM kan dat een stuk sneller. Met een compiler kan dit niet eens.
Je lijkt te denken dat assembly iets geheel van het verleden is, maar je weet toch wel dat er nog altijd assembly wordt geschreven? En echt niet omdat mensen hun weg naar de compiler niet weten te vinden, er zijn goede redenen voor wat betreft precieze controle over wat er gebeurt op instructie niveau.
Ik ontken nergens de noodzaak van assembly in specifieke gevallen, maar denk alleen dat 'precieze controle' en LLMs gebruiken die per definitie niet bewijsbaar 100% exact zijn een curieuze combinatie is.
De waarde van een LLM zit misschien in het snel opzetten van iets, maar wie zegt dat die opzet ook de meest optimale is? En als je toch alles moet uitkammen op mogelijk niet correcte code is het dan niet handiger die code van scratch te schrijven? Wil je nou exacte controle of delegeren naar een LLM?
Even een simpele vraag, wat is de vorige keer dat jij assembly code hebt geschreven?
Maakt het wat uit of dat in de 16 bits DOS tijd of ARM64 was?
Ja, ik heb assembly geschreven en weet dat het veel werk is. Daarom doe ik het alleen als het niet anders kan, maar tegenwoordig kan het voor vrijwel alle reguliere software anders.
Wat heeft dat met LLMs te maken?
Ok niet recent, laten we dan een andere taal pakken.

Als ik zeg, ik doe een of andere berekening liever in python dan in tableau/Excel/whatever omdat ik dan meer controle heb, en de boilerplate laat ik dan opzetten door een LLM (wat ik vervolgens check), zou je daar dan wel begrip voor hebben? Of zou je dan zeggen, Tableau is 100 keer meer doorgetest dan jouw python script gebruik gewoon dat?
Ik zou zeggen: gebruik waar je productief mee bent. Hoeveel tijd heb je nodig dat Python script op correctheid te checken? En hoe valide is die LLM+controle optie als er geen Python kennis aanwezig is?
Ok, wacht, je gaat er dus vanuit dat ik bedoel dat mensen die geen assembly kennis hebben dit zouden gaan gebruiken? Dan snap ik je zorgen wel :D, maar dat bedoelde ik niet. Misschien heb ik dat dan niet duidelijk genoeg aangegeven, denk dat we daar een beetje langs elkaar heen praatten.
Die analogie gaat niet helemaal op; 3GL omgevingen worden niet gevoed door AI en vragen nog steeds om inhoudelijke kennis van de processen en een doel wat je voor ogen hebt. Er is ook het voorbeeld van de rekenmachine; sinds die er zijn, leren we op de basisschool ook geen rekenen meer, of is het toch handig om kennis te hebben van theorie en methodieken?
Een hoog niveau programmeertaal zorgt er voor dat je complexiteit van details wegabstraheert. Als je dat zelf kan programmeren, heb je controle over wat er op functioneel niveau hoort te gebeuren op basis van je code.

Als AI die logica voor je schrijft die je zelf niet volledig kan begrijpen en ook je automatische tests om na te gaan of de code naar behoren werkt, mis je dus een stukje controle. Dat is wat mij betreft een belangrijk verschil.

Zolang je code een eindig (finite) aantal uitkomsten heeft, kan je samen met AI tests maken die in principe sluitend de functionaliteit verifiëren. Maar bij oneindig (infinite) aantal, of complexe, moeilijk na te bootsen uitkomsten, wordt dat lastig. Denk aan een algoritme dat keuzes maakt, bijvoorbeeld wat je te zien krijgt op social media.

Ook daar kan je natuurlijk tests maken op basis van steekproeven en bepalen dat iets "goed genoeg" is, maar een verschil met het assembly voorbeeld is er dus wel.
Ik zie het anders.
De massa en specialisten worden hiermee productiever. Vervangen van specialisten zie ik niet 123 gebeuren.
Zie het als een CMS systeem op het web. Vroeger werd alles gemaakt door mensen die verstand van zaken hebben, nu pakken de de meesten een gratis CMS. Ze klikken wat bij elkaar en hebben een site, en ook geen idee hoe het werkt.
Ja daarvoor is het ook wel goed maar dat is niet de copilot waar ik mee werk. Code en tekst generatie gaat prima ja.

Het bezwaar dat ik heb is dat ze het meer als een algemene intelligentie op de markt zetten, alsof het dingen kan doen waar een LLM helemaal niet goed in is.
Een Lua scriptje maken voor Domoticz ging overigens al heel veel minder goed. Misschien waren mijn vragen niet goed, maar uiteindelijk heb ik het maar helemaal zelf gedaan.
Te weinig voorbeelden is meestal het probleem.
De fanboys zullen roepen dat je prompts verkeerd waren. Cynici zullen zeggen dat de LLM nog niet geground was met data van het werk van anderen.
Mijn ervaring is anders. Ik liet CoPilot een simpel script schrijven met een visuele interactieve representatie van de basis trig functies sin, cos, tan, ces, csc en cot in een unit cirkel.

Ik kreeg netjes een script, maar er klopte geen ene moer van. En vervolgens proberen uit te leggen wat er niet goed aan was aan CoPilot maakte er een nog grotere puinhoop van. Hoe ik het ook probeerde uit te leggen, CoPilot maakte keer op keer dezelfde fouten tot ik het maar op gaf...

Dus Copilot-agent-'werknemers' zou ik net zo ver vertrouwen als ik een piano kan gooien zeg maar :)
Het is gewoon het betere jatwerk van andere goede ontwikkelaars. Als je iets wilt maken wat nog nooit door iemand anders is gemaakt dan gaat een AI je misschien een beetje in de richting helpen maar komt er toch niks werkend uit. Of de AI doet bepaalde afwegingen die je met iets opzadelen wat nooit gaat doen wat jij nodig hebt.

Zo lang een AI niet uit zichzelf dingen kan beredeneren en onderzoeken gaat het NOOIT een echt goede ontwikkelaar vervangen. Ja het gaat zeker een heel handig hulpmiddel zijn om sneller tot een resultaat te komen maar ook niet meer dan dat.
LLM, en zeker gpt zijn sterkste kant, python. Beter als dat word het niet.
Dit is inderdaad een erg leuke ervaring. Het gevaar zit 'm echter hier in
de power data eruit haalt, de data met een moving average filter filtert en plots maakt om de data weer te geven.
Heb je kunnen valideren dat de juist data gefilterd wordt? Dus dat de plots kloppen? Ik zie heel vaak de LLMs code generen dat lijkt te doen wat je vraagt maar bij nadere inspectie toch echt net iets anders doet.
Wellicht was je dataset klein genoeg dat je dit goed kon valideren, dan is dit ook een prima use case. Het probleem is dat mensen ook blind vertrouwen op LLM gegeneerde code voor veel complexere zaken.
Het script maakt gewoon gebruik van functies uit bestaande Python libraries. Matplotlib etc.

Als ik alles zelf op zou zoeken zou ik ook op die libraries "vertrouwen". Het grootste voordeel voor mij zat hem er in dit geval voor mij in dat CoPilot al die libraries en de syntax al "kende". Zo ook fitparse, de library om fit files te parsen. Als die niet al door iemand was gemaakt had CoPilot me waarschijnlijk heel glazig aangekeken (of een totaal nutteloos antwoord gegeven). En zelf had ik die library misschien nooit gevonden.
Anoniem: 718943 @reablom22 oktober 2024 09:31
Nou, ik heb de nodige jaren ervaring met python, en ik vindt copilot op het moment niet veel meer dan en suggestiebox of een betere tabcompletion.

Tuurlijk kan ie je wijzen naar welke modules te gebruiken en een beetje voorbeeldcode (het parsen van garmin data zal een kant en klare module zijn en de voorbeeldcode in de docs is vaak al voldoende om resultaten te krijgen), maar zodra het maar IETS ingewikkelder is, wordt het rotzooicode.

Ik heb een poging gedaan code te laten genereren voor een simpel formuliertje (bootstrap + react) met REST api (falcon) en database (pgsql). Maar het resultaat werd gewoon niet wat ik wilde, en er bleven gewoon hele stomme bugs in zitten.

Ik dacht dat dit soort AI's al snel een hoop programmeertaken zouden kunnen doen, maar in het afgelopen half jaar vind ik het allemaal maar tegenvallen.
Wat dacht je van de mensen achter de chat/telefoon? Vergis je niet hoeveel mensen in callcenters werken die heel snel werkloos zullen zijn
Ja nouja, ja en nee. Voor Nederland zie ik dat gevaar nog niet zo.

Ik heb zelf heel veel ervaring in callcenter (-management). Ik zie momenteel AI een goedkope flut-servicedienst die puur met flowcharts werkt wel vervangen. Maar echt goede support met opgeleide mensen die ook out of the box kunnen nadenken en problemen oplossen die niet in de flowchart staan, dat soort support zie ik het echter nog niet vervangen. Als ik lastige vragen aan ChatGPT vraag dan krijg ik ook meestal iets van "Tja dat weet ik ook niet, misschien kan je eens op de support site kijken" of dat soort dooddoeners.

Het punt is dat die flut "flowchart" callcenters bijna altijd in goedkope landen zitten zoals India en Oost-Europa. Want de bedrijven die daarvoor gaan, hechten geen waarde aan een goede support en geven er dus ook geen drol aan uit. Die banen daar staan zeker op de helling.

Maar in Nederland zijn medewerkers veel te duur om flowchartjes af te laten ratelen. Technische support hier is bijna altijd L2/L3 en veel beter opgeleid. Die ook goed kunnen schakelen met collega's in de field service (ook echte mensen natuurlijk want een AI stapt nog niet in de auto). Daar zie ik vooralsnog niet zoveel gevaar voor.
Werk ook al jaren in de industrie en ben echt blij dat ik nu in een bedrijf zit dat super niche is en AI onze job niet kan doen.

Tier 2-3 zal niet zo snel vervangen worden maar T1? Heb je echt niet zoveel skill voor nodig
Heb het dan ook over het merendeel dat op T1 zit
Of ik nou geen antwoord krijg van een callcentermedewerker of van chatgtp maakt mij niks uit.
Hmm dat is wel erg snel in de richting van het opsouperen van banen :/
Valt me op dat iedereen klaagt. Ofwel is de kritiek dat AI geen meerwaarde heeft en dus geld was voor niks.

Ofwel klaagt men dat AI bedrijven proberen bedrijven of processen efficiënter te laten verlopen en dat AI menselijk werk overneemt.

Hoe gaan ze anders echte waarde creeren met hun AI?

Meestal klaagt men nog dat de huidige AI niet goed werkt en dat het allemaal wat overroepen is en dat ze alles in twijfel trekken of AI nog wel toekomst heeft.

Veel mensen vergeten dat AI nog maar in zijn kinderschoenen staat als een V1 en gradueel moet verbeteren. Co-pilot is algemene AI maar wees er maar zeker van dat wat vandaag niet perfect loopt je binnen afzienbare tijd wel een tool kan kopen voor data-analyse.

Het hele doel van AI is werk efficiënter maken. Dat is het doel doorgaans van software.
Valt me op dat iedereen klaagt. Ofwel is de kritiek dat AI geen meerwaarde heeft en dus geld was voor niks.

Ofwel klaagt men dat AI bedrijven proberen bedrijven of processen efficiënter te laten verlopen en dat AI menselijk werk overneemt.
Ik vind beide dingen wel een beetje. Het wordt veel te veel opgehypt (er wordt met name veel te veel opgehangen aan LLM's) en er verdwijnen banen die doorgaans slechter uitgevoerd zullen worden met AI.
Veel mensen vergeten dat AI nog maar in zijn kinderschoenen staat als een V1
Dit is geen V1, het proces is al heel lang aan de gang. Wat er veranderd is dat er van de vele soorten AI eentje bijgekomen is waarvan mensen de meerwaarde begrijpen. Namelijk LLM's, waar gewone mensen mee kunnen praten. Maar andere AI's zijn al een jaar of 10 in gebruik. En LLM's zijn lang niet zo krachtig als mensen denken, daar is die techniek ook helemaal niet voor bedoeld. Het is geen kennisorakel, het is geen redenatie engine. Het is een slimme babbelaar.
Co-pilot is algemene AI
CoPilot is zeker geen algemene AI. Daar zijn we nog lang niet. Het is een LLM met wat integraties eromheen.

[Reactie gewijzigd door Llopigat op 22 oktober 2024 08:47]

Je bent wel een meester in het 'fout' interpreteren van mijn woorden.
Dit is geen V1, het proces is al heel lang aan de gang.
Dat bedoel ik dus, zijn we hier nu niet aan het muggenziften? Met V1 bedoel ik natuurlijk niet de eerste lijn code van een algoritme in 1970. Onder de noemer AI valt letterlijk alles. Je kan toch niet ontkennen dat we in een nieuw AI tijdperk zijn beland? Kijk gewoon naar de investeringen in chips, code etc, je gaat duidelijk een knik zien omdat AI dankzij LLM's breder toepasbaar is.

Met V1 bedoel ik dus V1 van een nieuwe generatie AI waarmee we zonder technische kennis kunnen interageren met code, kennis kunnen opvragen, berekeningen maken etc. Apple moet zijn intelligence zelfs nog introduceren, zo nieuw is het. We zitten echt in V1. Net zoals je in 1991 in de V1 van het internet zat, ook al had men in de jaren 70 al ARPANET en TCP/IP etc.
Wat er veranderd is dat er van de vele soorten AI eentje bijgekomen is waarvan mensen de meerwaarde begrijpen.
Daar ben ik het echt niet met eens. 'er is gewoon een AI bijgekomen' is net zo juist/fout als zeggen dat het internet eigenlijk gewoon een uit de kluiten gewassen bibliotheek is met een praatruimte, leesruimte, kranten ruimte. Het internet is eigenlijk gewoon een breed beschikbare bibliotheek waar gewone mensen gebruik van kunne maken. Maat het principe van informatie lezen en opzoeken bestond al lang. Mijn oom gebruikte zelf al internet in 1985!

Je hebt ook nog de hele ontwikkelling rond stable diffusion. Je focust op de LLM's maar AI is op verschillende gebieden plots grote stappen gemaakt.
CoPilot is zeker geen algemene AI.
Ook hier doelde ik met 'algemeen' op general purpose en niet op AGI. AI met weinig focus, AI die overal toepasbaar is zonder specifieke specialisatie. Disclaimer, ik weet dat Open AI al bezig is met micro specialisaties in GPT4 maar daar doel ik niet op, ik doel op het feit dat GPT4 breed inzetbaar is.

Ik kwam onlang iemand tegen die AI zeer specifiek op C# code aan het trainen was in een .net omgeving op project klant. Dus een LLM met een specifieke focus op programmeren en logisch nadenken in context van een specifieke context van het project. Dat noem ik dan geen algemene AI.
En LLM's zijn lang niet zo krachtig als mensen denken, daar is die techniek ook helemaal niet voor bedoeld.
Tja, wat wil je daarmee zeggen dat we met zijn allen op het verkeerde been gezet zijn? Mensen die AI toepassen zien toch direct de beperkingen? De huidige toepassingen zijn toch duidelijk?
Het is een slimme babbelaar.
In heel uw betoog kan ik aflezen dat je vooral erg onverschillig en niet realistisch bent. Ik hoop dat je over 10 jaar nog eens kan terug kijken naar wat je hier schrijft. Dat je dan nog gaat zeggen 'Ja, maar' hoed gaat opzetten of toegeven dat je er compleet naast zat en dat het echt wel een startschot was van een nieuwe soort AI die een heel groot effect heeft op alles wat digitaal is.
Je bent wel een meester in het 'fout' interpreteren van mijn woorden.
Vind ik niet, we zijn het gewoon niet met elkaar eens.
Je hebt ook nog de hele ontwikkelling rond stable diffusion. Je focust op de LLM's maar AI is op verschillende gebieden plots grote stappen gemaakt.
Dat valt heel erg mee. Die ontwikkelingen waren gewoon langzaam aan de hang maar hebben opeens veel aandacht gekregen door de LLM ontwikkelingen omdat de leek opeens iets interessants vond en het 'viral' ging. Zie ook de interne memo's van Microsoft waarin in 2020 al werd gewaarschuwd hoe ver Google hier al in was. Google was alleen niet echt bezig die boel te marketen (en dat was wellicht ook wel erg verstandig).

Content generatie modellen zijn al jaren gestaag aan het verbeteren. Het is niet opeens extreem hard gegaan tot het moment dat ChatGPT op de markt kwam. Daarna wel, want nu loopt iedereen halsoverkop te rennen om de grootste op AI gebied te worden, zoals Microsoft die het echt overal en altijd in moet rammen als een kip zonder kop. Daarom worden er ineens miljarden in gegooid. Dan gaat het harder ja, al is het niet bepaald efficient (wat het bijvoorbeeld doet is de prijs van AI hardware enorm opdrijven omdat de produktie niet snel geschaald kan worden, zodat een heel groot deel gewoon in de beurswaarde van Nvidia gaat zitten en niet echt wordt gebruikt voor onderzoek).
Tja, wat wil je daarmee zeggen dat we met zijn allen op het verkeerde been gezet zijn? Mensen die AI toepassen zien toch direct de beperkingen? De huidige toepassingen zijn toch duidelijk?
Nee, dit zien ze niet. Dat is deel van het probleem. Heel veel mensen bij mij op het werk blaffen gewoon ongezien de AI notulen door, inclusief de disclaimer "AI generated, check for accuracy". Dat betekent dus dat je ZELF moet checken voor je die shit doorstuurt 8)7.

Die notules kloppen vaak voor geen meter. Met name zie ik heel vaak dat een actiepunt wordt toegeschreven aan de persoon die er het meest over sprak en niet aan de persoon waarvan afgesproken is dat die het gaat doen. Nou, deel van het probleem is overigens dat de transcriptie van MS Teams echt waardeloos werkt met mensen die geen standaard Amerikaans accent hebben. Dus je krijgt een beetje het probleem van 'garbage in, garbage out'. Het verbaast me zelfs nog wel dat het uberhaupt nog ergens op lijkt, als ik de rauwe transcripts nalees.

Ik lees ze daarom altijd wel door, want het gaat geheid gebeuren dat ik 6 maanden later geconfronteerd word met die notulen en beschuldigd word dat ik iets had moeten doen. Tegen die tijd zijn de originele opnamen allang verwijderd en niemand weet precies meer hoe het nou zat. Alleen die flut notulen zijn er nog. Daarom spreek ik de persoon die de notulen doorstuurt altijd aan (meestal niet al te vriendelijk want ik vind dat ongezien doorblaffen echt vreselijk irritant). De bedoeling is dat het je werk bespaart, niet dat het je werk helemaal voor je doet. Zelfs Microsoft die zichzelf helemaal gek maken van hun eigen marketing hype zeggen dit: "Copilot is geen Autopilot".

De industrie is hier niet duidelijk genoeg over en verkoopt het ook voor usecases waar het geen touw aan vast kan knopen zoals data analyse in Excel. Ik heb al een paar keer totale flauwekul sheets gekregen van mensen die even 2 zinnetjes in copilot hadden getypt en dachten dat ze even een halve dag werk bespaard hadden. Zonder het resultaat na te kijken.
In heel uw betoog kan ik aflezen dat je vooral erg onverschillig en niet realistisch bent. Ik hoop dat je over 10 jaar nog eens kan terug kijken naar wat je hier schrijft. Dat je dan nog gaat zeggen 'Ja, maar' hoed gaat opzetten of toegeven dat je er compleet naast zat en dat het echt wel een startschot was van een nieuwe soort AI die een heel groot effect heeft op alles wat digitaal is.
Het gaat niet om mijn gelijk hebben, dat interesseert me niet. Ook ben ik geen fanboi of team player van welk merk of techniek dan ook. Ik maak me meer zorgen over de ongeremde invoering hiervan terwijl er nog heel veel aangeklooid wordt. En ik ben niet de enige, de EU heeft hier duidelijk ook grote zorgen over.

Het kan best zijn dat de wereld in 10 jaar echt ingrijpend veranderd is maar dat vind ik eigenlijk nog een stuk zorgelijker dan als dat niet gebeurt. Een van de grote bezwaren die ik heb is dat we onszelf steeds afhankelijker maken van Big Tech. De grote modellen zijn allemaal niet lokaal te draaien. Zelf een model maken kan niet zonder een heel datacenter maanden te laten draaien. En het grote geld heeft al veel te veel invloed op onze maatschappij.

[Reactie gewijzigd door Llopigat op 22 oktober 2024 22:32]

Het kan best zijn dat de wereld in 10 jaar echt ingrijpend veranderd is maar dat vind ik eigenlijk nog een stuk zorgelijker dan als dat niet gebeurt. Een van de grote bezwaren die ik heb is dat we onszelf steeds afhankelijker maken van Big Tech. De grote modellen zijn allemaal niet lokaal te draaien. Zelf een model maken kan niet zonder een heel datacenter maanden te laten draaien. En het grote geld heeft al veel te veel invloed op onze maatschappij.
Yes, daar heb je een punt waar ik ook veel zorgen over heb. De AI core kan enkel ontwikkeld worden door grote multinationals maar als je een model ziet als een OS dan zal we ook wel de Linux van de AI komen (bijv FB) en je voelt nu al dat de toepassing (lees software) heel toegankelijk wordt.

De angst die voortkwam uit de eerste GPT demo werd ook door tegenstanders van AI gepropageerd. Iedereen zou zijn job verliezen.

Je haalt verder concrete cases aan waar co-pilot V1 de mist in gaat. Again, V1. Je focust nu op wat nu slecht gaat maar mensen gaan de beperkingen begrijpen en AI-ontwikkelingen gaan die counteren.
De banen die serieus op de tocht staan zijn volgens mij vooral zaken als vertalers (want het doet het veel beter dan een google translate)
Als ik de dingen die een ChatGPT of een CoPilot zie die vertaald zijn, komen daar vaak toch nog enorm foute zaken uit of dingen die op niets slaan.

Het is goed voor mensen die elkaar totaal niet begrijpen of een aanzet te geven, maar voor belangrijke zaken zou ik toch nog geen ChatGPT of CoPilot gebruiken. Onlangs nog enkele dingen gezien die zo grappig waren, het probleem is natuurlijk dat de andere partij niet kan verifiëren wat er in de originele tekst wordt bedoeld en dus de automatische vertaling voor waarheid aanneemt.

Het niveau wordt natuurlijk wel altijd beter en beter maar voorlopig zijn we er absoluut nog niet :-)
Hier zit wel de crux van het probleem.

Als jij een andere taal niet kunt spreken, maar wel vertrouwen hebt in AI, kun je een vertaling maken die 'goed lijkt'.

Maar omdat jij geen ervaring hebt in die taal, kun jij het niet valideren.

Het probleem is dat jij, met overtuiging incorrecte informatie deelt.
Hmm dat is wel erg snel in de richting van het opsouperen van banen :/
Mooi zo. Niks zo dom als een mens laten ploeteren op een klusje dat door een computer gedaan kan worden. Trek de kosten van de AI af van het salaris van die persoon en laat hem/haar wat anders doen of desnoods de hele dag in het zonnetje zitten. Als de AI goedkoper is dan de mens dan houden we geld en tijd over.

Het is alleen een domme beslissing als we die persoon ontslaan zodat de bedrijfseigenaar meer geld kan storten op een toch al goedgevulde bankrekening waarna die persoon afhankelijk is van een uitkering terwijl de belastingdienst minder geld binnenkrijgt omdat de baas/eigenaar de belasting kan ontwijken.
Zolang we de voordelen maar netjes verdelen wil ik zoveel mogelijk banen vervangen door AI.

Het probleem is niet dat AI banen overneemt maar de ongelijke verdeling van rijkdom in onze maatschappij.
Het is alleen een domme beslissing als we die persoon ontslaan zodat de bedrijfseigenaar meer geld kan storten op een toch al goedgevulde bankrekening waarna die persoon afhankelijk is van een uitkering terwijl de belastingdienst minder geld binnenkrijgt omdat de baas/eigenaar de belasting kan ontwijken.
Echter is dit natuurlijk precies wat er gaat gebeuren. Dat is ook wat er is gebeurd toen we de fabrikage naar lage lonen landen verschoven.

Het probleem is onze neoliberale kapitalistische grondslag. Niet AI, daar ben ik helemaal mee eens. Maar ik denk dat dat eerste nog lastiger te veranderen is want er zit heel veel geld achter de beweging die het zo wil houden.

[Reactie gewijzigd door Llopigat op 22 oktober 2024 22:13]

Anoniem: 1849202 @Llopigat22 oktober 2024 03:50
Dat is allang al gaande, als je kijkt hoeveel banen richting India verdwijnt als tussenstap voordat ze volledig overgaan naar AI ..

Er verdwijnen links en rechtsom een hoop banen naar het buitenland(India), de politiek doet echter niks, die vindt het blijkbaar prima dat er niet geconcurreerd kan worden met mensen die amper 200 euro per maand verdienen.

Waar ik momenteel werkzaam ben gaat komend jaar de volledige IT eruit getrapt worden, van servicedesk tot system engineers en specialisten.. Sommigen die hier al 20+ jaar zit.

Honderden collega's staan straks op straat, maar gelukkig gaat het geld richting het buitenland.. en kan de regering voor een deel van die mensen uitkeringen uitkeren voor een aantal maanden. Weer een succesverhaal voor de Nederlandse economie.
Er verdwijnen links en rechtsom een hoop banen naar het buitenland(India), de politiek doet echter niks, die vindt het blijkbaar prima dat er niet geconcurreerd kan worden met mensen die amper 200 euro per maand verdienen.
De politiek kan er enerzijds niet zo heel veel aan doen, en anderzijds zijn bijv. de VVD in handen van de mensen die daar alleen maar rijker van worden.
Waar ik momenteel werkzaam ben gaat komend jaar de volledige IT eruit getrapt worden, van servicedesk tot system engineers en specialisten.. Sommigen die hier al 20+ jaar zit.
Oh ja, outsourcing. Ook iets dat je eigenlijk alleen doet als je niet echt om het werk geeft. Echt goede outsourcers bestaan niet. Dat zie ik in de callcenters (of contact centers zoals het tegenwoordig heet) ook, bedrijven die om support geven doen het in-house en in het land zelf en dicht bij de R&D, sales en field support.

De bedrijven die er geen fuck om geven zijn degenen die naar goedkope outsource centers in India en Oost Europa afwijken (Oost Europa ivm talenkennis). Nou moet ik zeggen dat daar ook wel goede callcenters zitten hoor. Maar over het algemeen gaat men daar niet heen vanwege de kwaliteit.
Mensen onderschatten hoe moeilijk vertalen is.
Voor sommige texten kan het wel goed genoeg zijn om het met AI te doen, maar heel vaak ook niet.
En zeker mensen die het nooit zelf hebben moeten doen onderschatten het vaak heel erg.
En maar blijven duwen om iedereen aan de copilot te krijgen.
Als je van enige betekenis wilt blijven in die markt denk ik dat je als bedrijf weinig keus hebt. Waar je wel keus in hebt is hoe je jezelf in die markt duwt. Als de data blijft waar die hoort te blijven, bij het bedrijf, dan zou dat toch geen probleem moeten zijn?

Er zijn genoeg voorbeelden waar een juiste implementatie echt wel van meerwaarde kan zijn. HR zal niet overbodig worden, er moet genoeg gedocumenteerd worden om het systeem te voeden. Maar uiteindelijk is het toch ideaal als je een spraakopdracht kunt geven en je krijgt antwoord (via audio of prompt) op vragen als:
- Hoeveel weken kan ik dit jaar nog vrij nemen?
- Welke vormen van verlof zijn voor mij beschikbaar?
- Heb ik mijn reiskosten voor de afgelopen maand al gedeclareerd?
- Zijn mijn uren al geaccordeerd?
- Welke vormen van verlof kan ik nemen na de geboorte van mijn kind?
- Wie kan ik bereiken voor vragen over <insert onderwerp>?
- Ik wil mij ziekmelden, wie moet/kan ik daar nu voor bellen?
- enz...

Dan zijn er ook nog een hoop vakgebied specifieke onderwerpen waar je hele (interne) wiki's van kunt bevragen. Met de juiste (interne) bron er bij waar de AI-agent zijn antwoord op heeft gebaseerd kan je ook nagaan of die informatie ook betrouwbaar is.
Als je van enige betekenis wilt blijven in die markt denk ik dat je als bedrijf weinig keus hebt. Waar je wel keus in hebt is hoe je jezelf in die markt duwt.
Oef, in combinatie met de use cases die jij aanhaalt kan ik niets anders dan denken aan deze blog post: I Will Fucking Piledrive You If You Mention AI Again

Alle zaken die jij opnoemt hebben pertinent geen AI nodig en zijn nu vaak onoverzichtelijk bij bedrijven omdat men geen tijd en moeite heeft gestoken in het overzichtelijk neerzetten van deze gegevens. Daar gaat een AI niet bij helpen. Bedrijven gaan namelijk niet plotseling wel de investering doen om al deze data netjes te ontsluiten richting een AI systeem.

Ook betreffende interne wikis. Je kan er niet simpelweg alle data ingooien en hopen dat een LLM er een goed overzicht uithaalt. Bij veel bedrijven zijn er sowieso meerdere kennissystemen (nieuwste systeem, legacy systeem wat nog half in gebruik is en soms nog een legacy legacy systeem). Zelfs als er één wiki is dan staat daar vaak een hoop troep in en ronduit conflicterende data. LLMs gaan niet magisch helpen met orde scheppen in deze chaos. Daarvoor hebben ze, zeker op dit moment, simpelweg te weinig (zeg maar geen) besef van context voor.

Het is niet voor niets dat bij het trainen van LLMs er een heel leger aan mensen wordt ingezet om de ingevoerde data zorgvuldig te controleren. Als dat niet werd gedaan dan zouden ze echt veel slechter werken dan ze nu doen. Dus dat bedrijven verwachten dat zij wel "garbage in" kunnen werken en verwachten dat er geen garbage uit komt is natuurlijk best bizar.
Alle zaken die jij opnoemt hebben pertinent geen AI nodig en zijn nu vaak onoverzichtelijk bij bedrijven omdat men geen tijd en moeite heeft gestoken in het overzichtelijk neerzetten van deze gegevens. Daar gaat een AI niet bij helpen. Bedrijven gaan namelijk niet plotseling wel de investering doen om al deze data netjes te ontsluiten richting een AI systeem.
Ik zie dat anders. De vraag is niet of het AI nodig heeft, maar of het met AI beter, makkelijker of goedkoper kan. Als het veel beter, makkelijker óf goedkoper is dan telt dat misschien wel zwaarder dan andere aspecten.

AI hoeft niet beter te zijn dan mensen om succesvol te zijn. AI moet goed genoeg zijn om een bepaalde taak te vervullen.
LLMs gaan niet magisch helpen met orde scheppen in deze chaos.
Mensen ook niet. Misschien dat mensen het beter kunnen dan AI's maar perfect zijn ze zeker niet.
De vraag is wederom niet of en AI het beter kan dan mensen, maar of het goed genoeg is om er iets aan te hebben. Misschien kan een AI maar 50% van wat een mens kan bij een bepaalde taak maar misschien is dat wel genoeg.


PS. De hele term "AI" is zo vaag dat het maar moeilijk is om er in het algemeen over te praten. Bij de speelgoedwinkel koop ik voor €20 euro een schaakcomputer waar ik niet van kan winnen. Ooit vonden we dat het hoogtepunt van AI. AI is vooral een modewoord voor nieuwe algoritmes. Ik ben er van uit gegaan dat we het allemaal hebben over taalmodellen zoals LLMs.
Allereerst hebben ik het inderdaad over LLMs, dat lijkt me in een discussie over copilot niet meer dan logisch.
Als het veel beter, makkelijker óf goedkoper is dan telt dat misschien wel zwaarder dan andere aspecten
Als alle input garbage is dan, zal het niet beter zijn, ook niet makkelijker en zeer waarschijnlijk ook niet goedkoper.
Mensen ook niet.
Als je hoopt dat LLMs enigzins kunnen helpen zal je toch eerst mensen nodig hebben. Het idee dat je gewoon een hoop (vaak conflicterende) data in een LLM kan gooien en dat deze er dan orde in aanbrengt is simpelweg een fabeltje.
Misschien kan een AI maar 50% van wat een mens kan bij een bepaalde taak maar misschien is dat wel genoeg.
Nee, je mist nog een stap. Kan een traditioneel geautomatiseerd systeem het niet veel goedkoper en simpeler. Specifiek in de contest van de reactie waar ik op reageerde
- Hoeveel weken kan ik dit jaar nog vrij nemen?
- Welke vormen van verlof zijn voor mij beschikbaar?
- Welke vormen van verlof kan ik nemen na de geboorte van mijn kind?
- Heb ik mijn reiskosten voor de afgelopen maand al gedeclareerd?
- Zijn mijn uren al geaccordeerd?
- Wie kan ik bereiken voor vragen over <insert onderwerp>?
- Ik wil mij ziekmelden, wie moet/kan ik daar nu voor bellen?
Diverse werkgevers hebben het in de loop der jaren voor elkaar gekregen om al deze informatie praktisch op 1 pagina neer te zetten. Zelfs met een FAQ waar sommige van deze vragen bijna letterlijk in stonden. Ik kan me eigenlijk niet voorstellen dat al deze zaken zo slecht geregeld en gedocumenteerd zijn bij bedrijven dat het niet al makkelijk inzichtelijk is. Als het wel zo dramatisch gesteld is dan gaat een LLM daar echt niet bij helpen want dan zijn de basis processen simpelweg niet op orde.
Dank je voor die link!
En dan geeft de AI een verkeerd antwoord en kom je erachter dat je teveel verlof hebt opgenomen en dat je dat moet compenseren. Lekker dan. :/
Hoe zou werk er over vijf jaar uit zien? Het lijkt wel alsof deze ontwikkelingen gaan zorgen voor een situatie waar kenniswerk en handmatige digitale taken volledig geautomatiseerd zullen worden - je hebt misschien nog iemand nodig voor QA om een team van vijf mensen te vervangen, bij wijze.

Ik gebruik het in iedere geval al dagelijks in mijn werk en kan daardoor gemiddeld 55 uur factureren met 3-4 dagen werk (mijn klanten weten hiervan). Maar het zou mij niets verbazen dat ik mijn werk volledig door AI over kan laten nemen binnen enkele jaren, uiteindelijk doe ik niets anders dan beslissingen nemen, mensen aansturen, documentjes schrijven en de buhne tevreden houden.
Dat is uiteindelijk de juiste instelling. In het verleden zijn er ook duizenden banen geweest, die er nu niet meer zijn, omdat er nu betere geautomatiseerde processen zijn die dat veel beter en sneller kunnen.

Er komen vast weer nieuwe banen. En anders kunnen we allemaal ons uitleven in hobbies aangezien de machines alles voor ons doen.

De nederlandse economie bestaat al voor een groot percentage uit de zogenaamde service economie.. wat eigenlijk al mensen zijn die weinig toevoegen, maar toch geld verdienen met vergaderen ;-) (ok een beetje gechargeerd maar ok)

Ik gebruik zelf ook AI als hulpmiddel bij coderen.. voorlopig heeft het nog het niveau van een junior engineer, maar het is toch al super handig om em domme kleine codeerprobleempjes op te laten lossen, zonder dat ik daar nog zelf over hoef na te denken, maar mijn hersencapaciteit voor
het grotere plaatje gebruiken.
Er komen vast weer nieuwe banen. En anders kunnen we allemaal ons uitleven in hobbies aangezien de machines alles voor ons doen.
Ik hoop het. Maar in onze kapitalistische maatschappij lijkt het me waarschijnlijker dat de aandeelhouders het bespaarde geld gewoon voor zichzelf houden.

Het is wel iets dat ik vaak hoor van mensen uit de DDR. Dat ze destijds zoveel tijd hadden voor hobby's, iedereen moest een baan hebben en daarom werkte niemand eigenlijk echt heel hard en daarom was er veel vrije tijd.

Dat was wel iets DDR specifieks want het was wel een van de rijkste warschaupact landen en had ook een wat socialere insteek op economisch gebied (niet op sociaal gebied, met die stasi natuurlijk). Terwijl de russen mensen gewoon als wegwerpartikel zien natuurlijk.

[Reactie gewijzigd door Llopigat op 21 oktober 2024 21:53]

Euhhhh dit klinkt veel te romantisch. Ik kan zo legio voorbeelden verzinnen waarom de DDR een heel eng land was.

Dit zegt ChatGPT: “De DDR was in veel opzichten een ‘openlucht gevangenis’ waar bewegingsvrijheid en persoonlijke vrijheid sterk beperkt waren door de staat. Toch hadden de mensen veel vrije tijd, omdat werk en basisvoorzieningen gegarandeerd waren, en ze werden aangemoedigd om die tijd te besteden aan hobby’s en georganiseerde recreatie. Dit creëerde een vreemde situatie: weinig vrijheid, maar wel veel tijd voor ontspanning.”
Dat is toch ook precies wat ik zeg? Mensen hadden veel vrije tijd voor hobby's maar verder was het een eng land.

Maar ik hoor dit veel van mensen uit de toenmalige DDR. Vergeet ook niet dat de meeste mensen helemaal niet zoveel merkten van de Stasi. Die deden gewoon hun werk en staken hun hoofd niet boven het maaiveld.
Je geeft er een leuke draai aan, maar het was een heel naar land waar mensen 24 × 7 in de gaten gehouden werden. Waar mensen doodgeschoten werden als een vrijheid wilde. Wat heb je aan vrije tijd als je niet vrij bent?

Ik kan mij nog herinneren hoe blij de mensen waren toen ze eindelijk uit die hel verlost waren. Iedere verwijzing dat er iets goed was in de DDR, is naïeve romantiek.
De Oost-Duitse overheid onderdrukte de bevolking door middel van Stasi-spionage, reisbeperkingen met gewelddadige grensbewaking, en strikte censuur. Politieke gevangenschap en dwangarbeid waren veelvoorkomende straffen voor dissidenten, terwijl kinderen soms op jonge leeftijd werden gescheiden van hun ouders om deel te nemen aan staatssportprogramma’s. De gecentraliseerde economie veroorzaakte schaarste en beperkte eigendomsrechten. Indoctrinatie werd toegepast in onderwijs en jeugdorganisaties, en vrijheid van vereniging en demonstratie was verboden. Mensen werden zelfs geëxecuteerd voor politieke misdrijven.
Ja je kan niet in de toekomst kijken, maar als alle banen verdwijnen, verdwijnt daarmee ook het geld dat mensen hebben om spullen te kopen. En dus ook de vette beurskoers winsten en dividenten voor aandeelhouders. Dus er komen echt wel nieuwe banen.. Dat is altijd al zo geweest.

Je kan wel in het verleden kijken en dan een reflectie maken op de toekomst.. Ooit waren er banen voor aardappelplukkers, mensen die voor auto's uit moesten lopen met een bel om aan te geven dat er een auto aankwam. Paardepoep gescheppers. etc..

Al die banen zijn verdwenen omdat er een nieuwe technologie uitgevonden werd die die banen nutteloos maakten.

Mischien ben ik een optimist.. en als het niet zo is.. dan is het niet zo.. Ik denk niet dat een te stoppen wave is, dus het is beter om mee te rijden als er tegenin te zwemmen.
Mischien ben ik een optimist.. en als het niet zo is.. dan is het niet zo.. Ik denk niet dat een te stoppen wave is, dus het is beter om mee te rijden als er tegenin te zwemmen.
Ja daar zijn wij dan anders in, ik ben niet bang om tegen de stroom in te zwemmen als ik dat beter vind. Ik ben geen 'team player' :) Al weet ik nu ook niet zo gauw wat er tegen te doen is.

Natuurlijk zijn banen afgeschaft en vervangen maar ik vraag me af wat hier dan voor terug gaat komen. De dingen die niet geautomatiseerd kunnen worden zijn vooral dingen die ik niet kan of wil doen zoals zorgwerk.
Aardappels pluk je niet, die groeien onder de grond ;)
Je kan wel in het verleden kijken en dan een reflectie maken op de toekomst.. Ooit waren er banen voor aardappelplukkers, mensen die voor auto's uit moesten lopen met een bel om aan te geven dat er een auto aankwam. Paardepoep gescheppers. etc..
Hoe zie jij het voor je aardappels te plukken? Want mijn piepers groeien onder het maaiveld, daar is plukken niet zo makkelijk.

Paardenpoep scheppers is nog steeds nodig :+
Waarom denk je dat AI eerst taken overneemt als schrijven, plaatjes maken en muziek maken? Al die vervelende kunstenaars werken voor zichzelf en daar kunnen de grote bedrijven de lonen niet van bepalen. Kom maar lekker bij ons aan de lopende band werken voor minimumloon. De AI gaat wel al het werk overnemen wat mensen eerst moeten leren
CGP Grey heeft daar in 2014 een interessante video over gemaakt:

YouTube: Humans Need Not Apply
Er gaan heel snel behoorlijk wat banen sneuvelen / overbodig worden met het tempo waarin AI geaccepteerd wordt.

Zie het nu al in mijn dagelijkse werk waarin veel door AI wordt gedaan en één iemand alleen even moet checken of het goed gaat wat is opgeleverd door AI. 'Vroeger" was dit het werk van 3 - 4 FTE's.

Vind AI als digital marketeer super tof, maar ook een spannende tijd hoe mijn werk er over 5 jaar uit gaat zien.

[Reactie gewijzigd door Dynazap op 21 oktober 2024 21:10]

Toen ik net van school kwam was ik minimaal een hele ochtend kwijt om een server installatie te doen, vaak een dag of meer. Nu is dat twee keer klikken, en 30 seconden later draait de server. En vaker nog gaat het automatisch op basis van traffic analyse. Is m'n werk minder geworden? Welnee, er zijn nu simpelweg vele malen meer servers onder beheer, en de taken zijn wat anders geworden. Dat zal nu ook wel weer gebeuren, de tijd dat ik me met echte installatie van software bezig moest houden zal snel voorbij zijn, dat doet een AI tegenwoordig wel.

Maar hoe meer er kan, hoe meer er gevraagd wordt. Waar een eigen server 20 jaar geleden alleen voor een redelijke mkb' er nodig was, zet je nu al met gemak een schaalbare dienst op voor elk kleine team.
Klinkt heel naïef. Er kunnen door kunstmatige intelligentie best een hele hoop banen verdwijnen.
Ik begrijp heel goed wat @barbarbar bedoelt. Toen de auto's kwamen, zei men ook dat er veel banen zouden verdwijnen. Toen de ponskaarten kwamen zouden er veel banen verdwijnen, want het manuele werk viel weg. Toen de computer kwam, zouden er veel banen verdwijnen (want men moest niet meer ponsen). Toen virtualisatie kwam, zouden er veel banen verdwijnen (want men moest niet meer zo veel fysieke servers onderhouden). En zo kan je nog honderden voorbeelden bedenken.

Zullen er veel banen verdwijnen door AI? Absoluut, daarin heb je gelijk. Zal er geen werk meer zijn? Absoluut niet. Er worden gewoon andere banen gecreëerd in plaats van de banen die je kent.
Ben eens benieuwd welke banen er zouden gecreerd worden door AI?
Toen de computers er waren moest iedereen een computer hebben en die moest geinstalleerd, onderhouden worden en zo verder. Dus er was nog veel werk voor de boeg. Nu Co-Pilot is een licentie dat je in 2 kliks kunt verkrijgen en derest moet je maar vragen aan Co-Pilot zelf. Eens de opzet is gebeurd onderhoud het systeem zichzelf en doe het aan self-learing. Welke banen zouden er bij komen door AI ? Er zullen zeker AI-specialisten moeten komen. Maar de 20 man die hun job kan worden vervangen gaan niet allemaal kunnen AI-specialist worden.
Ben eens benieuwd welke banen er zouden gecreerd worden door AI?
(knip)
Welke banen zouden er bij komen door AI ?
Ik denk dat je niet naar nieuwe werk moet zoeken maar naar werk dat financieel rendabel is als je AI gebruikt om je er bij te helpen. Ik kan niet tekenen maar heb wel eens illustraties nodig voor mijn werk. Een AI helpt me snel aan eenvoudige tekeningen. Als ik iemand zou moeten inhuren om die tekeningen te maken dan zou dat zoveel kosten dat het allemaal niet meer de moeite waard is.

Met hulp van AI kan ik in mijn eentje meer werk doen en dus is de totaal prijs een stuk lager en dat maakt het weer makkelijker om mijn diensten verkopen.
CGP Grey heeft daar in 2014 een goede video over gemaakt:

YouTube: Humans Need Not Apply
Super toch! Er is op dit moment een tekort aan werknemers, niet een tekort aan werk.
Hopelijk krijgt zo iedereen het wat minder druk en minder burnout klachten.
Een auto is minder precies en is duurder dan een paard. Sinds de uitvinding van de auto is de paardenfokkerij ingestort. Toch zijn er nog steeds meer banen dan we kunnen vullen. En dat zal hier ook zo zijn. (Zeker icm. vergrijzing).
Dat is dan wel weer een beetje een manke vergelijking. De redenen dat de auto het paard vervangen heeft als vervoermiddel hebben weinig tot niets te maken met precisie of kosten, in tegenstelling tot AI. Als je een algemeen verhaaltje wil houden over hoe nieuwe technologie oude vervangt is dit niet zo'n bijster pakkende analogie. Voorbeelden te over uit de industriële revolutie.

AI gaat er bijvoorbeeld ook niet voor zorgen dat er minder mest op straat ligt. Althans -- ik denk van niet. :P
Er werken nog steeds heel veel mensen in de paardensector. Uitgedrukt in geld is het een enorme business.

Bij auto's is dat net zo en zal nog veel meer zo worden als de AI-zelfrijdende auto iets normaal zal worden.

Ook in de oldtimersector gaat heel veel geld om en zorgt rondrijden met een oude langzame bak waar rook uitkomt voor status.

Mensen zijn rare wezens. Op de evolutie van AI zal er ongetwijfeld een tegenreactie komen in de andere richting, een zoektocht naar het 'authentieke', 'langzame',... want status.
YES!! Nu kan ik mezelf automatiseren en hoef ik alleen nog maar op de maandelijkse borrel te verschijnen! :D
Wat mij vaker opgevallen is is dat AI toch steeds als iets volledig nieuws gezien word net als zeg maar zoals tijdens die hele industriele revolutie. Automatisering is niets nieuws en AI alleen een vorm van automatisering is maar niets met intelligentie te maken heeft. Ja oke in vergelijking misschien met automatisering van jaren geleden mag AI dan wel intelligenter zijn geworden.

Waar het volgens mij de mist in gaat is dat je ook nu weer ziet dat je zovele vormen van AI ziet ontstaan, ene bedrijf met dit tooltje, andere bedrijf weer met dat tooltje en ga zo maar door. Eenheid, nee hoor, want de AI van bedrijf X is slimmer als AI van bedrijf Z, tja....... En ja dan blijkt opeens weer dat AI zich niet houd aan regels en daarvoor weer een tooltje moet komen om AI in de gaten te houden, zuchtt......

Misschien word ik oud maar er is toch niets prettigers wanneer je gewoon even de telefoon kan pakken en een medewerker(ster) aan de lijn krijgt die je verder kan helpen. Niet zoals nu dat je je eerst door zo'n irritante chatbot heen kan gaan werken die het uiteindelijk ook niet weet.
Ja ja, helpdesk agents gebaseerd op MS oplossingen? …die ken ik nog van de tijd van de MSCE ‘gewilde antwoorden’…de praktijk was vrij vaak gewoon rebooten die hap :)
En maar lucht blijven blazen in de AI-zeepbel
Tja, daar zeg je zoiets. Daar had ik nog niet aan gedacht. 8)7

Op dit item kan niet meer gereageerd worden.