Nederlands kabinet overweegt inzet AI om externe inhuur ict'ers terug te dringen

Het Nederlands kabinet kan besparen op de inhuur van extern ict-personeel door een deel van de werkzaamheden te vervangen door technologieën als AI. Dat adviseren onderzoekers in een rapport in opdracht van de overheid.

De minister van Binnenlandse Zaken en Koninkrijksrelaties, Judith Uitermark, laat in een Kamerbrief weten dat de uitgaven aan externe inhuur weer in lijn moeten komen met de Roemernorm. Die norm stelt dat externe inhuur maximaal tien procent van de totale uitgaven aan personeel mag beslaan. Momenteel zit de overheid daar ver boven. Vooral op het gebied van ict wordt er veel ingehuurd. Volgens de minister gaat het om 44 procent van de personele ict-uitgaven.

De overheid liet daarom onderzoeken hoe het kabinet de uitgaven aan externe inhuur kan verlagen. ABDTOPConsult adviseert in zijn onderzoek om vooral de externe inhuur van ict'ers terug te dringen. Onder meer de inzet van 'nieuwe technologieën' kan helpen om minder personeel nodig te hebben, stelt het onderzoeksbureau. "Door hergebruik van data en inzet van AI kunnen processen steeds beter en efficiënter worden ingezet. Sommige organisaties maken al gebruik van AI om sneller en betere antwoorden aan burgers te geven."

Minister Uitermark schrijft dat het in eerste instantie aan de individuele ministeries en hun uitvoeringsorganisaties is om te bepalen hoe de externe inhuur precies wordt teruggedrongen. Wel zegt ze in de gaten te blijven houden of er een reductie plaatsvindt. Indien dat niet gebeurt, kan er alsnog besloten worden om 'aanvullende maatregelen' te nemen.

Door Kevin Krikhaar

Redacteur

19-04-2025 • 13:21

284

Submitter: wildhagen

Reacties (284)

284
275
104
16
1
148
Wijzig sortering
Laten we er vanuit gaan dat onze overheid - die tegenwoordig graag sovereign wil zijn - dus gebruik gaat maken van een eigen model. Goed nieuws: de LLM's zijn gewoon verkrijgbaar en die kun je trainen op eigen data, je kunt ze meteen eigen kaders meegeven en natuurlijk de kwaliteit van de input bepalen.

In een vergelijkbare situatie ken ik bedrijf A wat > 60k medewerkers wereldwijd heeft en er zelf een model geeft gemaakt. Ze hebben hier de standaard procedures ingetraind, maar ook allerlei andere relevante productinformatie. Zo kan marketing eruit putten, legal er uit putten en ook compliance kan checken of een nieuwe procedure niet bijt met andere procedures. Ze hebben elke medewerker getraind in het gebruik van LLM's, securitytraining gegeven, ethiek aangeleerd en ook een gekuisde versie van CoPilot in gebruik genomen op de werkplek (zonder toegang tot de info die wel in hun prive-LLM zit).

Het gekke is, ze besparen er niet echt personeel mee. Het bespaart veel mensen wel tijd en de kwaliteit gaat hier en daar omhoog, maar helaas, ook hier zie je geen enorme personeelsbesparingen. Men doet het volgens mij wel goed, qua inrichting, exploitatie en training.

Sterker nog: McKinsey heeft een recent onderzoek gepubliceerd waar soortgelijke ervaringen vanuit de wereld komt. Hoewel iedereen AI gebruikt en er geld in steekt, is het aandeel toename in productiviteit, verlaging van kosten of toename van marge nog beperkt. Men spreekt van een 'eerste gewenningsfase'. Uiteraard is iedereen superhoopvol dat het nog gaat komen. Vraag is alleen wanneer en wat het betekent als iedereen dezelfde progressie maakt.

Dus tenzij de inhuurkrachten bij de overheid precies dat werk doen wat AI kan overnemen ben ik echt enorm benieuwd hoe de AI-magie in dit kader zal gaan werken en hoe ze dat ook nog eens soeverein gaan doen. Als dagelijkse AI-gebruiker zie ik zeker de voordelen en ben enorm fan van de ontwikkeling, maar los van de ethische en security uitdagingen zie ik ook nog niet helemaal voor mij hoe de overheid door AI de als het goed is specialistische inhuur gaat kunnen vervangen.
Maar hoe krijg je een Seniors? Als je alle Juniors gaat vervangen door AI?
Dit is volgens mij een van de belangrijke tegenargumenten van AI. Zelfs Microsoft heeft in een eigen studie (https://www.microsoft.com...tical_thinking_survey.pdf) geconcludeerd dat 'critical thinking' afneemt door het gebruik van AI. Dus het vermogen om de output van AI te beoordelen en corrigeren neemt af doordat je de basis niet meer begrijpt.

Ik merk dat zelf ook: een tekst laten checken op spelfauten kan prima met een taalmodel. Maar als je dat zelf niet kunt dan ga je ook nooit de onderliggende systematiek snappen en gebiedende wijs, koppelwoorden of hoe je een interne structuur aanbrengt in een tekst. Dingen die best essentieel kunnen zijn voor de leesbaarheid of begrijpelijkheid. En als je je tekst corrigeert op spelfvouten dan is dat ook het moment om te schrappen en te herschrijven. En dat is iets waar de taalmodellen nu nog niet heel goed in zijn.

[Reactie gewijzigd door engessa op 19 april 2025 15:00]

Hoorde laatst de moeder van een klasgenootje van mijn kind doodleuk zeggen dat haar zoontje van 8 zijn eerste boekbespreking ooit met ChatGTP had voorbereid...

Deze kids zitten in Groep 5! En dan niet eens zelf leren om zelf de essentie uit een boek/tekst te halen en te verwoorden richting anderen. Dan word ik toch wel wat pessimistisch over de toekomst.
Ja en wij keken op scholierenforum voor een samenvatting of dergelijke. Typisch oudere generatie die negatief kijken naar een jongere generatie.

Ik hoor het al jaren, de jeugd van tegenwoordig.... Is gewoon evolutie.
Volgens mij gaat het in het bericht van @bilgy_no1 met name om de leeftijd ( 8 ) waarop gebruik wordt gemaakt van hulpmiddelen die het schoolwerk verlichten op een manier die ongewenst is.

Mijn dochter had op haar 7e ook haar eerste boekbespreking in groep 5, maar geen haar op mijn hoofd die eraan moet denken om AI te gaan gebruiken voor zoiets. Op de basisschool is het juist essentieel dat ze basisvaardigheden onder de knie krijgen om daar later op verder te kunnen bouwen, en werk uitbesteden aan ChatGPT valt daar wat mij betreft niet onder.

[Reactie gewijzigd door gday op 20 april 2025 00:30]

Dus efficiënt werken met chatgpt enzovoort gaat geen basisvaardigheid worden volgens u?

Is in mijn ogen hetzelfde als aan leerling van 16j een telraam geven in plaats van rekenmachine voor zijn examen wiskunde waar hij moet integraal berekenen.

De hulpmiddelen bestaan dus waarom niet gebruiken?

Ikzelf zal het niet aanmoedigen bij mijn kind, maar als hij het gebruikt dan is dat zijn goed recht en moet de school zich maar aanpassen aan de realiteit en niet op dezelfde manier werken als 30j terug en op een andere manier controleren of de competenties zijn behaald.
Werken met AI is een vaardigheid die pas efficíënt wordt als de basisvaardigheden aanwezig zijn. Om op jouw analogie verder te gaan: het ontwikkelen van basisvaardigheden is ook de reden waarom we een kind van 8 geen rekenmachine geven om sommetjes van 2+3 op te kunnen lossen.

Natuurlijk wordt het gebruik van AI een integraal onderdeel van de vaardigheden die in de toekomst gevraagd zullen worden. Voor mijn werk is het dat zelfs al, maar daar merk ik ook dat je weinig aan de output hebt als je de output niet op waarde kunt schatten en daar heb je basisvaardigheden voor nodig.

Maar, de crux van mijn vorige reactie zat in de allereerste zin: het gaat om de leeftijd. AI als je 16 bent? Natuurlijk. AI als je 8 bent? Kom op … dit is niet eens een discussie die überhaupt gevoerd moet worden naar mijn mening en een gesprek over hoe een basisschool zich zou moeten aanpassen aan de ‘realiteit’ van kinderen van 8 die hun schoolwerk door ChatGPT laten doen … sorry, maar dan ben je van god los.
Ja, want het gaat erom dat we kinderen vaardigheden aanleren om vraagstukken op te lossen ipv om vraagstukken heen te werken met AI.

Maar ik begrijp dat jij er dus voor bent om kinderen van 8 een rekenmachine te geven? Of beter nog, om ze hoofdrekensommen met ChatGPT op te laten lossen zonder enig idee te hebben dat het niet klopt als ChatGPT zegt dat 4+4=9? Want basisvaardigheden hebben voor jou geen nut meer? Zodat als de stroom uitvalt we niet eens meer kunnen berekenen hoeveel eieren we nodig hebben voor pannenkoeken voor 10 personen?

[Reactie gewijzigd door gday op 21 april 2025 03:48]

Neen zeg ik niet, ik zeg dat het onderwijs eens moet nadenken op de manier hoe ze de vaardigheden aanleren.Is blijkbaar nog steeds op dezelfde manier als 30j geleden terwijl de maatschappij heel veranderd is.
Wat is veranderd aan rekenen dan?
Waar zeg ik iets over rekenen?
Nee want je begrijpt niet wat de computer doet en waarom het zaken doet. Je kunt niets controleren. Dat is dezelfde reden dat je op de basisschool geen rekennachibes hebt en er veel zaken met de hand geschreven moeten worden.
Een rekenmachine bedienen is geen echte vaardigheid. Vaardigeheid is, dat je zelf kan rekenen. De rekenmachine is "slechts" een hulpmiddel. Idemdito voor Chatgpt, niets meer en minder dan een hulpmiddel. De vaardigheid leren wij zelf anders begrijp je totaal niet meer waar je mee bezig ben.
En als je nu eens nuchter kijkt naar hoe het met de samenleving gaat? Nepnieuws wordt klakkeloos geaccepteerd en verspreid, omdat veel mensen niet meer kritisch nadenken. Ironisch genoeg claimen die mensen wel dat ze kritisch nadenken, maar accepteren vervolgens allerlei overduidelijke leugens en drogredeneringen.

Zelfs overduidelijke onzin als Flat Earth en 'Ancient Aliens' vindt gretige volgers. Elon Musk heeft tientallen miljoenen volgelingen die waarschijnlijk nog steeds geloven dat hij in 2024 mensen op Mars zet...

Dus nee, ook al keken jij en je vrienden 'vroeger' op fora naar shortcuts voor huiswerk, dat betekent niet dat dat goed was. En het betekent al helemaal niet dat we moeten toejuichen dat mensen op AI gaan vertrouwen voordat ze zelf voldoende kennis en inzicht hebben om de resultaten van die AI kritisch te kunnen beoordelen.

En dat geldt dus nog sterker bij jonge kinderen op de basisschool.

En let op: ik ben niet tegen technologie en vooruitgang. We moeten er alleen wel verstandig mee omgaan.
Nepnieuws en dergelijke zijn ook van alle tijden, het gaat gewoon sneller rond. Bv monster van loch ness

En als we niet willen dat jongeren naar ai grijpen moet het onderwijs hun methodes maar aanpassen dat ai niet mogelijk is of niet kan gebruikt worden door opdrachten op een andere manier aan te pakken.
Het reguliere onderwijs is per definitie de minst efficiënte en meest onnatuurlijke manier om kinderen zich te laten ontwikkelen. AI zal dat nog meer gaan blootleggen. Het heeft echter geen zin om een discussie te voeren over het aanpassen van onderwijsmethodes naar AI, zolang het grotere plaatje niet bekeken wordt: namelijk onderwijs evolueren naar spelenderwijs leren o.b.v. intrinsieke motivatie (dus geen georganiseerd 'nep'spel waarvan op voorhand de uitkomst al vast staat). Geheel offtopic verder t.o.v. het oorspronkelijke artikel.
Onderwijs moet niet evolueren naar AI maar misschien eens nadenken of de manier van 30j terug nu nog steeds de beste manier is.
Kijk eens naar de uitzendingen van veratasium talks over AI en onderwijs en hoe een mens nu echt leert.

20 jaar voor de klas gestaan. Een bord en een pen is alles wat een docent echt nodig heeft. (Mijn ervaring)

YouTube: Veritasium: What Everyone Gets Wrong About AI and Learning – Derek M...

[Reactie gewijzigd door Audiodude op 20 april 2025 21:02]

En dan klagen dat ze ai en andere manieren gebruiken om huiswerk snel af te werken.
Evolutie naar dommigheid ja.
Dat jij het al jaren hoort komt waarschijnlijk omdat je nog relatief jong bent.
In mijn jeugd was er geen internet, social media e.d.
Je moest alles wat je wilde leren zelf opzoeken, in de schoolbibliotheek, in de gedrukte media of in de dorps/stadsbibliotheek. Of navragen bij ouderen, leraren of vakmensen.
Je leerde daarmee de basis van kennis vergaren, kennis die, op die manier geleerd, je ook niet snel meer vergat.
AI gebruiken als ware het 'alwetend' maakt je nou niet bepaald slimmer, aangezien je nooit slimmer wordt dan het model (welke zelf niet kan nadenken, maar dat terzijde).
Ouder dan je denkt. De 50 is dichter dan de 20. Dus ook zonder internet en dergelijke opgegroeid. Maar als we konden speelden we ook vals of zochten we makkelijkere manieren. En echt niets is mij bij gebleven van het lezen van verplichte boeken en boekbespreking. Wat is het nut hiervan?

Ik zeg ook nergens dat je slimmer wordt van AI is gewoon een zeer goede toepassing om efficiënter te werk kunnen gaan. Als jij nieuwe technologie links laat liggen is dat uw keuze.
Ik herinner me uit mijn tijd dat er boekverslag boeken waren die je in de bieb kon vinden en kopiëren, even beetje eigen schrijf stijl van maken en klaar, hoefde je het hele boek niet te lezen. Uiteraard kreeg je wel eens vragen over 't boek die niet in het boekverslag stond en viel je door de mand ;)

Maar dit soort dingen zijn van alle tijden. Als ik nu was opgegroeid had ik 't ook gedaan.
Wat nu veel belangrijker is dat er weer bezuinigd wordt op onderwijs, dus kinderen van die generatie die het al niet best deden worden nog slechter, en AI moet dat dan opvangen. Maar als die generatie niet eens een fatsoenlijke prompt kunnen schrijven...
Geen fatsoenlijke prompt kunnen schrijven en ook al niet een controle kunnen doen of de antwoorden nog wel ergens op slaan, of de gegenereerde programmeercode wel in alle gevallen correct werkt. We staan aan het begin van een harde leerschool met AI klein gemak die uiteindelijk een paar grote rampen zal veroorzaken voordat er wezenlijk op bijgestuurd wordt. Ook al blijft het in de EU misschien nog wel beperkt, elders ter wereld moet het haast wel gruwelijk misgaan ergens.
De neef van Kim Yung Un zal wel even een besparing realiseren met AI voor de besturing van kernwapen silo's of zo, vooral in een cultuur waar teveel wordt gekeken naar iets opleveren als resultaat ipv kwaliteit, daar zullen de klappen vallen. Uiteindelijk snapt een LLM niets, is het allemaal sterk veredelde poppenkast die praat naar wat de training en mensen willen horen, het onderliggende proces binnen een LLM is er niet een van nauwkeurigheid en correctheid.
En dan nog de herkomst van de AI zelf en wat er mogelijk in de basisdata van de training (verborgen) zit. Iets als Stuxnet een AI in laten lezen zodat ie voor bepaald soort code vraag een vorm van malware gaat produceren is ook kinderspel tijdens de trainingsfase en haast onmogelijk van buitenaf aan te tonen in de resulterende LLM, totdat je op precies die zwakke plek om code vraagt. Verder doet ie alles precies zoals elke andere LLM...

[Reactie gewijzigd door OruBLMsFrl op 20 april 2025 02:08]

En dan nog de herkomst van de AI zelf en wat er mogelijk in de basisdata van de training (verborgen) zit. Iets als Stuxnet een AI in laten lezen zodat ie voor bepaald soort code vraag een vorm van malware gaat produceren is ook kinderspel tijdens de trainingsfase en haast onmogelijk van buitenaf aan te tonen in de resulterende LLM, totdat je op precies die zwakke plek om code vraagt. Verder doet ie alles precies zoals elke andere LLM...
Je moet voor de gein eens googlen op prompt injection ihkv agentic AI.
Was toen niet ok en nu nog minder
Eerst (goed) lezen, daarna die grijze grijze brij laten werken en dán pas reageren. Het gaat er hierom dat je eerste zelf over de vaardigheid dient te beschikken vóórdat je het iets of iemand anders laat doen. Dat heeft helemaal niets met oude vs. jonge generatie te maken. Begrijp je dat, of heb je zelf ook wat essentiële stappen overgeslagen?
Ik weet niet waarom jij mij begint te verwijten maar zegt veel over u omgang met mensen.
Maar wat als er een kern van waarheid inzit. De volgende generatie minder slim en minder sociaal.
Ik zeg niet dat het zo is maar sluit het ook niet uit.
Dan is dat gewoon de evolutie van de mensheid. Niets verkeerd mee. Daarbij de meeste uitvindingen of theorieën komen maar van een fractie van de mensen.

Ik zie net omgekeerde dat mensen terug socialer worden, terug sneller een praatje slaan over niets dan enkele jaren terug.
Weet je in ieder geval ook dat als je geen pensioen opbouwt dat er tot je dood nog goed werk te vinden is :)
En genoeg laagopgeleide jeugd om je luier later te verschonen, haha.
Was het maar zo'n feest. Ook de ouderenzorg wordt steeds complexer door een steeds grotere zorgvraag. We hebben 25 jaar geleden de 'bejaardenhuizen' gesloopt en vervangen door verpleegtehuizen. Daar kom je alleen maar terecht als het thuis echt niet meer gaat. En die drempel maken we steeds hoger en hoger.

Ik zou iedereen (dus ook jou) eens aanraden om met iemand in de ouderenzorg te gaan praten over hun werk. Of lees eens wat boeken, volg ze op LinkedIN of lees een interview. Dan snap je hopelijk een beetje dat 'luiers verschonen haha' al heel lang niet meer is waar het om gaat. Dit kan wel een goed vertrekpunt zijn: https://www.rtvnoord.nl/z...-moeder-hier-terecht-komt
Je neemt mijn grapje iets te serieus denk ik.
Juist heel goed van deze kinderen dat ze dit nu al kunnen. Dat ze de juiste bewoording kunnen geven aan AI om niet door de mand te vallen bij de leraren.

Wat maakt het uit dat ze de essentiele dingen niet zelf meer eruit kunnen halen als we een computer hebben die dat voor ons doet? Is eigenlijk hetzelfde als hoofdrekenen iedereen grijpt naar de rekenmachine als het lastiger wordt dan 2+2 ;)

Het is gewoon een evolutie en dit moet je juist aanmoedigen. Zo wordt de toekomst stuk efficiënter.

Wel ben ik van mening dat je het de kinderen wel handmatig zelf ook moet blijven leren. Vooral in een oorlog situatie kan dit belangrijk zijn als de ai tools wegvallen. Net zoals we dat leren met hoofdrekenen.

Als het moet weten we de truucjes hoe we kunnen rekenen zonder rekenmachine ook als het ingewikkelder wordt 😉
Wel een beetje niveautje "rekenmachines maken kinderen dom" van vroeger.

Natuurlijk gebruiken kinderen LLMs voor school. Net als dat bijna iedereen met een beetje technische kennis nu LLMs gebruikt op werk. Het doel is toch om ervan te leren? Dat kind snapt de inhoud van het boek nu waarschijnlijk beter dan een kind dat het boek simpelweg gelezen heeft:

1. Het kind wordt gedwongen de output van de LLM te lezen en aan te passen. Want 1 op 1 kopieren is te opvallend.

2. Het kind kan vragen stellen over het boek. Zaken die hem nog niet duidelijk zijn.

3. Misschien heeft het kind het boek wel daadwerkelijk gelezen en kan hij de LLM corrigeren waar er fouten zitten in de samenvatting.
Hallo. Ik heb het over een kind van net 8 in Groep 5 die voor het eerst een boekbespreking moet doen. Die kan helemaal niet beoordelen of dat LLM wel het juiste eruit heeft gehaald. Op die leeftijd zijn ze nog volop bezig om 'begrijpend lezen' te leren. Dus ook de output van het LLM moeten ze kunnen beoordelen.

Jij gaat er verder ook vanuit dat zo'n model al net zo betrouwbaar is als een rekenmachine en dat is simpelweg niet het geval.

Bij taal gaat het om communicatie van ideeën/gedachten/meningen/duiding etc. en dat is inherent subjectiever dan een rekensom. Weet je nog hoe een de eerste AI-chatbots binnen no-time racistische/Nazi taal begon uit slaan? En denk je dat Grok een neutrale AI wordt? Kun je erop vertrouwen dat ChatGTP neutraal en fact-based blijft?

Overigens is ook het leren omgaan met getallen uit het hoofd een super belangrijke vaardigheid in het dagelijks leven. Je trekt niet overal een rekenmachine tevoorschijn.

Er is een tijd en plaats om te leren omgaan met een LLM, maar niet voordat kinderen leren om zelfstandig begrijpend te lezen en dat zelf samenvattend te verwoorden.
Ik zie nu al best vaak complexe oplossing voor simpele problemen voorbij komen, als ik dan aan die collega vraag hoe hij bij deze oplossing kwam is bijna altijd chatgpt het antwoord.
Ik gebruik ChatGPT nu om weer feeling te krijgen met mijn retro XT machine: Een voorzichtig opstapje naar herstel van mijn burn-out. Het helpt mij met het uitdenken van assembler code, maar de meeste oplossingen die eruit komen rollen barsten van de fouten. Juist het zien van die fouten en bespreken, en het sparren over creatieve oplossingen is een enorme kracht maar ik zou de code nooit vertrouwen. De code is meestal inefficiënt en/of hooguit half werkend.

Het systeem werkt wel, heel goed, hoe ik het wens te gebruiken. Mijn kennis van assembly wordt serieus getriggerd om vergroot te worden, en ik leer er dus van. Zoals ik het zie zijn LLM's, zeker op dit moment, een extensie van de mens, en geen vervangers. Inzet als vervanging van een werknemer (of als alternatief voor StackOverflow door de programmeur) is in mijn ogen enigszins onverantwoord... maar met de snelheid dat de ontwikkelingen gaan durf ik niet te zeggen hoe lang dat zo blijft.
Probeer het eens met claude 3.7 sonnet, coding is een van z'n sterkste punten. Ik heb het niet in assembly gebruikt, maar in een Laravel PHP/vue3 project in vs code met Roo Code plugin via openrouter.ai en kan redelijk vaak een one shot in 1x goed krijgen. Uiteraard met wat customizations naderhand, maar dat is meer smaak dan dat het fout is. Is wel wat prijziger dan kleine modellen natuurlijk.
Roo Code is een agentic tool, dwz dat deze meerdere bestanden zelf kan openen, schrijven en testen totdat de gevraagde code met linting en al wordt opgeleverd. Uiteraard hoe beter je prompt is hoe beter de output.

Gemini 2.5 pro is trouwens ook vrij goed. ChatGPT is niet erg goed in programmeren, zeker als je de gratis 4o mini gebruikt, dat is ook al best wel een oud model. Niet te verwarren met o4 natuurlijk, maar die is nog in beta en heb al wat tests gezien dat deze ook best veel fouten maakt.
Het systeem werkt wel, heel goed, hoe ik het wens te gebruiken. Mijn kennis van assembly wordt serieus getriggerd om vergroot te worden, en ik leer er dus van. Zoals ik het zie zijn LLM's, zeker op dit moment, een extensie van de mens, en geen vervangers
Het lukt gpt4.o niet om in 1 keer werkende serverblocks te maken voor mijn reverse nginx proxy. Daarbij komt die regelmatig met slechte voorstellen of domme fouten en dan maakt het niet uit wat ik doe, instellen van een proxy, docker compose of wat dan ook. Als je zelf niet blijft nadeken kom je in de gpt loop en dus nooit tot een oplossing.
maar met de snelheid dat de ontwikkelingen gaan durf ik niet te zeggen hoe lang dat zo blijft.
Dat gaat niet veelverbeteren, "AI hallucinating" is iherent aan de techniek net zoals verbrandings motoren op fossiele brandstoffen uitstoot blijven geven.
Mja veel enterprise problemen waarbij men zo iets heeft van “hmmm dat kan nog wel eens onder NDA gaan vallen”, merk je gewoon dat GPT daar net zo veel soep van kan koken als dat er oplossingen zijn op stackoverflow. Dus als die er niet zijn dan gaat GPT dat ook niet zomaar ff kunnen snappen. Documentatie is veelal niet toereikend.
Precies, de stap "wat probeer ik nou eigenlijk te bereiken, het begin is niet goed". Of "waarom haal ik X erbij in de inleiding als die eigenlijk niet relevant blijkt".
Ik merk dat zelf ook: een tekst laten checken op spelfauten kan prima met een taalmodel.
... heb je opzettelijk spelfouten verkeerd gespeld als voorbeeld?

[Reactie gewijzigd door wild_dog op 19 april 2025 15:25]

"spelfvouten" had je gemist? :+
Yup. Ben zelf dyslectisch als een Scrabble zak. Maar ik heb me 'daaruit getraind' door basically mentaal met predictive text te lezen, en eigenlijk alleen maar the 'lezen' of de woorden ongeveer lang genoeg zijn en er wat van de juiste letters op de juiste plaats staan. Een beetje alsof ik die meme lees waar alle mogelijke letters met nummers vervangen zijn, maar je na wennen het nog steeds kan lezen, maar dan permanent.

https://imgur.com/gallery/i-can-read-MAFy2CO
Ja, snap ik hoor :) maar als je beide fouten gespot had, en dat de rest van de reactie totaal niet overeenkwam met die fouten (ik durf even niet te zeggen dat het helemaal foutloos was want ik heb tot een bepaalde hoogte ook dat ik fouten soms gewoon niet zie omdat ze automatisch gecorrigeerd worden in mijn hoofd), is het gelijk duidelijk dat het een grapje was.
> spelfvouten
I saw what you did there
Froegur sprak ju over sgreifvautun :+
Kunnen schrijven met de hand dus, word langzaam overbodig.
Mijn ervaring en die van anderen die al 30-40 jaar in het vak zitten is dat kritisch nadenken bij de nieuwe generatie werknemers ook al niet bijster is vanwege het ontbreken van een gezonde basis.

Misschien omdat opleidingen ook al te specialistisch zijn. Geen idee maar sinds een aantal jaren neemt het vermogen om kritisch na te kunnen denken aantoonbaar wereldwijd af.
Het vermogen om kritisch te denken neemt al jaren af.
Het wordt niet meer onderwezen op scholen en universiteiten. Zeker in recente jaren dat universiteiten meer ideologisch zijn geworden.
Dan ook door Covid en lockdown waar de stress van een existentiële ramp het vermogen tot kritisch denken verminderd.
https://www.psychologytod...-critical-thinking-skills
En uiteraard door het gebruik van smartphones en social media.

Daar komt AI dan ook weer bij, de mensheid maakt het zich wat dat betreft niet makkelijk en zal met al deze zaken moeten leren omgaan.
Dat is het mooie. Als je al in het vak zit, en er niet uit wordt gewerkt, ben je goed genoeg. Over 8 jaar is er geen nieuw getraind personeel te vinden en kun je zelf bepalen wat je verdient.
En werkt er geen AI op nieuwe programmeertalen en tooling. Je ziet dat nu al in de praktijk, wil je een site met AI bouwen zit je eigenlijk vast aan react, de rest word niet echt gesupport.

Dus, tegen die tijd, hebben we de verander drang terug gedrongen door alles met ai te doen, en hebben we opeens een stuk minder programeurs nodig
We hebben in de toekomst alleen maar meer programmeurs nodig. Die programmeurs hebben nu echter wel een extra gereedschap in de gereedschapskist, meer is het namelijk niet, het is een nieuw stuk gereedschap wat erbij komt.
Dat is echter niet hoe management het doorgaans ziet. Zij zien programmeurs als een stuk geleased gereedschap in de gereedschapskist, dat ze in kunnen ruilen voor een goedkoper stuk gereedschap tegen een beter uurtarief.
Daar gaan ze nog achterkomen zodra de gegenereerde code voor het eerst moet worden onderhouden of uitgebreid. Of nog leuker, wanneer de businesslogica een bug bevat die het liefst binnen 72 uur moet worden opgelost omdat die bug de bedrijfsprocessen flink in de weg begint te zitten. Veel success met je AI geconditioneerde programmeurs.
Gaat AI ook doen. Ga je maar vast omscholen voor een andere baan.
Er komen altijd nog mensen aan te pas om de wensen van de business om te zetten naar code en dan geldt niet alleen voor nieuwe code maar ook voor oude code. Het zal mij benieuwen hoe goed LLM's gaan zijn in het inpassen van nieuwe regels in bestaande code.
Gaat AI ook doen.
AI is wat in beginsel de pulp code gegenereerd heeft.
Het is dan ook niet een geval wat je kunt fixen door er gewoon nog meer AI tegen aan te gooien.
Het is geen entertainment product waarvan je kunt zeggen: so bad, it's good.
Slecht geschreven software is een geval van: so bad, it's awful.

[Reactie gewijzigd door R4gnax op 22 april 2025 21:18]

Niet meer maar wel slimmer. AI geeft ook een enorme tijdwinst. De kwaliteit van de code is soms nog matig maar dat zal in de toekomst sterk verbeteren
Dat horen we letterlijk al 5 jaar.
Two more weeks... toch?
Dat is dan ook exact het probleem met 'management': Geen fatsoenlijke opleiding, te arrogant om te beseffen dat ze de wijsheid niet in pacht hebben en opgeleid als boekhouders zonder benul waar ze het eigenlijk over hebben. Wellicht wat generaliserend, maar 90% van de huidige managers heeft geen idee hoe je in het echt een bedrijf moet runnen, die kijken alleen naar papieren werkelijkheden zonder het hele plaatje te zien. Ik vraag me dan ook werkelijk af wat voor "onderzoeksbureau" met dit "advies" is gekomen.

Nog even in reactie op de hele discussie hiervoor: boekbesprekingen e.d. hebben te maken met taalvaardigheid. Hoe haal je de essentie uit een gelezen tekst, hoe schrijf je een tekst zonder al te veel fauten en hoe weet je of het AI model dat je gebruikt accuraat is in het maken van je samenvatting. Als je het boek niet zelf gelezen heb heb je uiteraard geen flauwe notie of je samenvatting überhaupt wel klopt...

Taalvaardigheid, best een handige skill om te hebben, maar naar het zich laat aanzien kennelijk niet meer zo belangrijk voor de nieuwste generaties...
Lees: voorsprong vanwege extra training data in react. Niks weerhoudt je ervan om je eigen model op een nieuwe programmeertaal te trainen, of DeepResearch samen met een redeneer model te gebruiken.
Alsof als iemand een model nodig heeft om überhaupt iets te produceren men wel genoeg kennis heeft om zelf een model te trainen. Dat zal dan echt door de oude garde op dat moment gedaan moeten worden of de enkeling die het "ouderwets" zelf wil leren.
Je hoeft zelf dus geen kennis te hebben van Chinees om een taalmodel op Chinees te trainen: je hoeft het alleen maar genoeg voorbeelden van Chinees te laten zien. Net zoals je geen kennis van de programmeertaal Julia hoeft te hebben om een model op Julia te trainen. Je hoeft alleen maar genoeg voorbeelden te laten zien van hoe de Julia programmeertaal werkt.
En hoe weet je of de voorbeelden van het Chinees ook daadwerkelijk Chinees zijn als je daar zelf geen kennis van hebt?
Je neemt wel heel erg grote stappen in een volslagen onbekende richting als je denkt dat dat de oplossing gaat worden om al onze problemen op te lossen (om nog maar te zwijgen over de grenzeloze naïviteit om te denken dat je LLM het bij het juiste eind heeft).
Ik ben benieuwd hoe lang het gaat duren voordat we voor onszelf een zo grote onontwarbare kluwen hebben gebakken dat we er met geen mogelijkheid meer gaan uitkomen. En wie gaat het dan oplossen? Juist...

[Reactie gewijzigd door Evabo66 op 24 april 2025 04:39]

“En hoe weet je of de voorbeelden van het Chinees ook daadwerkelijk Chinees zijn als je daar zelf geen kennis van hebt?” <— betrouwbare bronnen, annotaties en uitleg die taalmodellen zelf kunnen genereren: hallucinaties zijn hier minder en probleem, omdat het juist de creativiteit uithaalt in taalgebruik. Voor programmeertalen kun je formele verificatie, linters, compiler extensies, unit tests en handmatige controle gebruiken.

[Reactie gewijzigd door Minimise op 24 april 2025 23:56]

AI werkt beter als deze een eigen programmeertaal ontwikkelen heb ik eens gezien in een yt video over een science paper. Dus er kan een moment komen dat we A) niet weten wat er in een taal model gebeurd en B) de output niet meer kunnen begrijpen omdat AI een eigen taal spreekt/schrijft. Ditzelfde principe heb je ook met 2 LLMs die met elkaar praat in hun eigen taal. Dat is efficiënter dan in een door mensen gesproken taal. Zeker als deze concepten communiceren waar we als mens geen woorden voor hebben.
Maar we hebben nu al low-code en no-code oplossingen. Toch zijn die niet de heilige graal. Dus ook AI zal dat voorlopig niet worden.
Recente modellen doen het prima op andere frameworks. Helaas zal je altijd te maken hebben met trash in trash out en voor sommige talen is de data nou eenmaal trash. Maar ondertussen zijn de meeste talen die goede gebruikers aantallen zien wel goed.
Neen hoor een bedrijf bepaald nog altijd wat je verdient
Over 8 jaar is AI zo ver ontwikkeld dat ze helemaal geen personeel nodig hebben...
En salaris? Droom verder
Niet. Mensen houden ze nauwelijks binnen. Ooit ben ik zelf bij de Belastingdienst via een traineeship voor Java binnengekomen. De seniors die er zaten en mij moesten inwerken, waren inhuur. Het was de bedoeling dat ik (en de anderen van het traineeship) ze op termijn zou moeten vervangen.

Dat vervangen is er nooit van gekomen. Het was namelijk een heel gedoe om intern van junior naar medior door te groeien. Er zaten teveel mediors intern waardoor doorgroei niet mogelijk was. Na enkele jaren was ook driekwart van de mensen die via een traineeship kwamen weer vertrokken. Buiten de overheid bleek doorgroeien namelijk wél te kunnen.
Ik mag me zelf senior noemen en ga soms lekker in de avond uren Vibe coden maar wat daar na een half uur prompten aan bagger uit komt is niet normaal. Totaal onbruikbaar in de echte werelds. Daarnaast zijn de huidige grote modellen alleen maar zinvol voor JavaScript en python.

Vind het vooral sneu voor juniors, die zijn vaak lekker enthousiast en in een goed team net zo’n meerwaarde als een senior lead whatever. Helaas zien bedrijven dit niet en dit gaan IT opleidingen ook helemaal de nek omdraaien. Juniors houden de seniors scherp!

Een junior is de senior van de toekomst, geen opgewaardeerde stagiaire. Investeer daar in!

[Reactie gewijzigd door GrooV op 19 april 2025 19:23]

Het zal mij benieuwen of dingen in de nabije toekomst daadwerkelijk wezenlijk gaan veranderen.

Inderdaad, junioren komen met goede inzichten. Vragen als, waarom doen jullie dit op deze manier? Omdat we het altijd zo doen. Het kan ook zo! Dat is helemaal geen gek idee.

Een programmeur moet in staat zijn de business te begrijpen en moet kunnen nagaan of de benodigde business rules terugkomen in de code. Met het gebruik van AI gaat het oplossend vermogen rap achteruit.
Maar hoe krijg je een Seniors? Als je alle Juniors gaat vervangen door AI?
Je slaagt de nagel op de kop. We hebben dit al ééns voorgehad met uitbesteding van junior taken naar Indie, China,etc..(helpdesk & system engineering) en nu 15 jaar later merken we dat onze huidige jongeren niet aan de bak kunnen omdat ze nooit senior kunnen worden.
Langs de andere kant, heb je nu vol senior ICT profielen in Indie in china.

We hebben dit dus al meegemaakt.

[Reactie gewijzigd door sebastienbo op 20 april 2025 18:02]

Als je met een gelijk aantal FTE productiever wordt, "het bespaart veel mensen wel tijd en de kwaliteit gaat hier en daar omhoog" zei je, dan bespaar je wel op personeel. Dat meerwerk dat nu wordt gedaan had anders ingevuld moeten worden met meer personeel/uren. In een krappe arbeidsmarkt is het dus niet zo gek dat je je bestaande personeel anders in gaat zetten zodra AI een deel van de taken overneemt.

Waar ik nu zit doen we nog niet zoveel met AI, maar bij mijn vorige werkgever werd het communicatie personeel dat eerst veel tijd kwijt was met copy editen na de introductie van LLM's veel drukker met actieve communicatie naar buiten. Je had ze prima weg kunnen bezuinigen als je niet zou willen groeien, maar nu had je betrouwbare mensen die de organisatie kennen beschikbaar voor nieuw werk wat eerst bleef liggen. Het copy edit werk is echter wel weg bezuinigd, het bespaarde geld wordt alleen voor iets anders ingezet. Zo zal dat op veel plekken gaan.
De zaken die al lange tijd op de backlog staan kun je nu misschien iets sneller gaan oppakken. Er is nog altijd een tekort aan personeel en dat zie ik zo snel nog niet verbeteren.
Ik ben zelf IT/Security Solution Architect en heb veel bij de overheid gezeten. Ik kan me nog niet goed voorstellen hoe een LLM mijn werk zou kunnen overnemen. Zelfs als je de BIO, NIS2, NORA, D300, ABRO, IS27001, ISO27002 en dergelijke er in stopt (en de LLM traint zodat er ook echt goede output er uit komt), dan nog kan een LLM alleen wat met de input doen en veel minder goed creatieve zaken opleveren. Nou ja, wellicht dat een random hallucinatie iets leuks oplevert, maar de vraag "Schrijf een IT architectuur voor een landelijk dekkend overheidsnetwerk, wat maximaal voldoet aan alle eisen uit de BIO/xxx, maar ook goed bruikbaar is" beantwoorden lijkt me toch nog een stap te ver. Maar wellicht heb ik het fout. ;)
Als ik iets met SQL of DAX moet maken en ik krijg het niet ff snel voor elkaar, dan plak ik het in een LLM en vraag 'Ik wil dit, maar ik krijg dat. Wat doe ik fout?' En dat bespaart erg veel tijd.

Dus ik kan mij voorstellen dat een developer die de hele dag code zit te kloppen, daar enorm veel sneller van wordt.
grappig genoeg werk ik omgedraaid met powershell-scripts, dingen die er uit komen lopen vaak niet goed en moet ik corrigeren, maar zelfs dan nog is het sneller als dat ik de code volledig zelf zou schrijven.

Ik geef vaak als voorbeeld dat een secretaresse vroeger sneller een gedicteerde brief kon uittypen als dat de spreker hem zelf kon neerschrijven en waarschijnlijk ook nog met minder fouten. Dat wou niet plots zeggen dat iedereen terug zoals in de middeleeuwen niet meer kon schrijven en daarvoor naar een klerk moest.
Ik gebruik zelf AI bij programmeren en merk wel dat het voor me StackOverflow grotendeels vervangen heeft. Het is als een computercollega die met je meedenkt.

Dus mijn eigen productiviteit is hierdoor wel wat gestegen.
elke medewerker getraind in het gebruik van LLM's, securitytraining gegeven, ethiek aangeleerd en ook een gekuisde versie van CoPilot in gebruik genomen op de werkplek (zonder toegang tot de info die wel in hun prive-LLM zit.
En exact dit is het probleem. Om écht grote besparingen te realiseren heb je een slimme verticale applicatie nodig waar al deze dingen al in ingebakken zitten, en waar wel alle data voor alle "co-pilots" toegankelijk is.

Uiteindelijk kun je steeds meer processen met grotere betrouwbaarheid autonoom maken en tikt het echt aan, mensen heb je dan vooral voor escalatie nog nodig.
Als ik dit artikel lees haal ik er ook absoluut geen concrete oplossing uit. Het lijkt alsof ze zeggen dat ai iets moet gaan vervangen maar dat ze zelf nog niet eens weten wat. Dan vraag ik me af of ze de consultants zelf er niet uit moeten schrappen, maar dat zullen ze wel niet adviseren...
Mijn grootte vrees is dat het gebruik van AI er voor zal zorgen dat het alleen maar lastiger wordt voor gepassioneerde mensen om zich te onderscheiden van de rest. En de hoeveelheid slechte dienstverlening en producten alleen maar zal toenemen.

In mijn eigen omgeving zie ik veel mensen die in een vakgebied belanden doordat ze een opleiding hebben gedaan en dan veel geld ermee kunnen verdienen, vinden ze het 'echt' leuk, zoals ze zelf zeggen het is 'prima'. Ik kan het begrijpen maar vind het erg zorgelijk voor sommige posities, bijvoorbeeld bij experts in de zorg die niet gepassioneerd zijn voor de gezondheid van hun patienten (denk aan slechte nazorg na een operatie), psychologen en psychiaters die hun werk zien als slechts werk (veel psychiaters werken als zzp-er, bij verschillende instellingen). Dit zie je terug in alles. In kunst en cultuur, in winkels, restaurants (met name ketens), elektronica en landbouw. In alle sectoren gaat de kwaliteit achteruit en wordt het steeds lastiger om het kaf van de koren te scheiden.

Het drijft ook gepassioneerde mensen uit hun vakgebied omdat ze geen aansluiting kunnen vinden bij hun omgeving. Voor de samenleving (niet iedereen) is werk enorm betekenisloos geworden. We doen het niet om een betere wereld te creëren voor andere maar slechts om een betere wereld voor onszelf te creëren.
Goed verwoord! Het is daarnaast te hopen dat men de moeite neemt om in elk geval een eigen model te trainen. Helaas heeft de (semi-)overheid daar niet zo'n goede track record mee. In het algemeen heeft het blinde geloof in Machine Learning (zoals ik AI liever blijf noemen) veel trekjes van de begindagen van "de cloud". Ook ooit de oplossing voor alles!
Een heleboel van wat je stelt, hebben we al eerder meegemaakt, toen bedrijven voor het eerst gingen automatiseren. Dat gaat personeel kosten..... Nee, er kwam meer personeel erbij en dat werd betaald uit de efficiency en uit het feit dat facturen eerder de deur uitgingen en er daardoor eerder door de klanten betaald werden.

Edit: Enkelvoud in meervoud veranderd

[Reactie gewijzigd door Aldy op 20 april 2025 14:03]

Grappig, ik zit bij de overheid gedetacheert, heb al regelmatig aangegeven dat de inzet van AI modellen, zelfs als ze lokaal gehost worden, de productiviteit verhogen.
Als we in Europa gehoste modellen zoals Claude 3.7 Sonnet kunnen gebruiken, wordt het zelfs nog beter.
En als we bijvoorbeeld Google Gemini 2.5 Pro mogen gebruiken kunnen we in sommige gevallen werk dat nu 3 weken kost voor 1 ontwikkelaar in 2 dagen, mét een hogere kwaliteit.

Tot nu toe krijgen we steeds: mag niet.
Al een paar demo's gegeven op basis van publieke gegevens over bepaalde overheids applicaties.
Maar er wordt gewacht op een centraal besluit in de kamer. Ook voor projecten die op het kritieke pad zitten en tientallen miljoenen extra gaan kosten als de deadline niet gehaald wordt.

Ik probeer nu te helpen met beleids vorming, zodat dit gecontroleerd en binnen de rijkskaders gebruikt kan worden.
Maar de eerste stap ligt in het ministerie en de kamer, dus ik hoop van harte dat we binnenkort de effectiviteit kunnen verbeteren met AI.

Ik hoop dat de kamer dit niet zal zien als een besparingsmaatregel, maar als een essentiële manier om hun medewerkers te ondersteunen bij hun taken. Of ze nu direct of indirect ingehuurd de belangen van de overheid, haar burgers en ondernemers vertegenwoordigen.

Er is veel werk te doen zoals bijvoorbeeld nieuws: Kabinet wil dat UWV en gemeenten data gaan uitwisselen voor aanbieden... en nieuws: Nederlandse kabinet spreekt met Nvidia en AMD over bouw van 'AI-facil... en nieuws: Staatssecretaris wil snel beginnen met bouw van Nederlandse overheids... en nieuws: Helft van overheidsdomeinen voldoet niet aan wettelijke beveiligingss... etc.

[Reactie gewijzigd door djwice op 19 april 2025 13:45]

Drie weken werk in 2 dagen? Dat betwijfel ik sterk. Ik zie de kwaliteit juist teruglopen op projecten waar we veel AI inzetten. Begrijp me niet verkeerd; een LLM kan een zeer handige tool zijn in je codebase - maar het is absoluut geen 700% increase.

Ik ben dan ook wel benieuwd naar de onderbouwing in hoe dit voorstel externe inhuur moet terugdringen. Het klinkt als AI-stickertje plakken op een complex vraagstuk, niet als een concreet plan.

Bij nalezen van de bron zie ik alvast niets concreets vermeld worden over AI:

"Ook wordt aangegeven dat de grote vraag naar ICT-capaciteit de komende jaren niet zal
afnemen. Door de inzet van ICT-middelen zoals arbeidsbesparende technologie/AI/data gedreven werken zorgt dit ervoor dat binnen anderedomeinen minder personeel en externe inhuur nodig is."


Dat is alles wat ze zeggen. Het is eigenlijk geen nieuwsartikel waardig, want het is gewoon een slappe, weinigzeggende suggestie in een kamerbrief.

Beetje clickbaitje van Tweakers dit.
3 weken in 2 dagen kan dus alleen met simpele landings pagina’s en simpele projecten waar bijvoorbeeld wat prototypes een paar status veranderingen in de gaten gehouden moeten worden. Geen projecten van tienduizenden regels code!

[Reactie gewijzigd door Minimise op 19 april 2025 22:25]

Ik heb een tijd gewerkt bij de belastingdienst en uit frustratie overgestapt naar commerciële partij. Nu is dat al uitzonderlijk omdat de meerderheid van de ambtenaren nooit die overstap kan maken want die zitten allemaal vastgeroest omdat niveau daar bedroevend is. Deels door bureaucratie en trage keuzes.
En ja bij de commerciële partij doen wij zaken in een paar dagen waar het team bij de belastingdienst er maanden over doet. Zelfs zonder AI hulp.

AI inzetten om de externe terug te dringen is ronduit lachwekkend, want die hebben veelal wel de kennis. Ze zouden AI moeten inzetten om schoon schip te maken met deel van de internen die al decennia lang lopen aan te modderen 😁 Ik voorspel weinig goeds als dit plan ingevoerd wordt.
Precies dit.
En blijkbaar hebben ze weer een grote groep externen van een dure consultancy partij nodig omdat de kennis er intern (bijna) niet is.
Het advies klinkt als van een stel MBA's die een cursus LLM-for-managers heeft gevolgd (dat soort trainingen schieten uit de grond momenteel). Maar het klinkt nog niet onderbouwd met concrete voorbeelden waar zoiets nu al aantoonbaar gewerkt heeft.

Ik zou zeggen: wacht nog even met mensen wegsturen en doe zelf experimenten en doe dat vooral samen met je interne en externe engineers.
Deels door bureaucratie en trage keuzes.
Cultuur. Verantwoordelijkheid afschuiven en passiviteit.

Na het toeslagenschandaal en rapporten hoeven we er niet meer omheen te draaien, de cultuur is rot en wie bepaalt die?

Ik zie ook geen heil in die AI graal, dit is een situatie als Intel maar dan veel erger.

En dit probleem wordt consequent onder tafel geveegd. Er is een garde die verandering tegenwerkt en er alleen voor zichzelf zit.

Dan snap ik best dat je uit wanhoop op een gegeven moment maar de boel stuk bezuinigd. Meer geld werkt ook niet.
Precies dit. Ze weten ook niet wat ze willen/ nodig hebben. Mensen worden ingezet op projecten zonder of weinig kennis over de technologieën waar ze mee moeten werken. Een dan loopt het vertraging op. Zonde.
Ah, goed dat je dit citeert. De verwachting is dus niet een afname van IT-inhuur, maar een afname van werk in andere domeinen als gevolg van de inzet van IT.

Een voorbeeld: geef een repo aan de LLM die ik citeerde. Bijvoorbeeld een met meer dan honderdduizend regels code met REST API's maar zonder enige OpenAPI definitie.
En vraag de LLM op een stricte OpenAPI definitie voor zowel input als output - geeft verder strikte eisen aan m.b.t. OWASP tests etc.

Bij de juiste formulering heb je in 90 seconden de volledige technische specificatie van alle API's in je code. Inclusief input validatie, inclusief strikte beschrijving van de structuur van alle input en output objecten, inclusief exacte definities van alle strings en patronen, ranges van numerieke waarden etc.

Je kunt dan op basis van deze specificatie code genereren. Vervolgens vraag je die code te extenden op basis van de repo, zodat alle oude code die eigenlijk de API beschreef los komt van de spec. en al je types nu ineens strikt en well-defined zijn.
En als je code per ongeluk een stacktrace of een volledige collectie zou retourneren, wordt dan nu ineens geblokkeerd, hoe slecht de oude code die de API extend daar ook in was.

Idem kun je doen op basis van functionele ontwerpen etc.

Typisch hebben we bij nieuwe functionaliteit nu binnen een paar uur een perfect werkende microservice, incl. testen, documentatie, plantuml, openapi specificatie, data base schema, test data, en infrastructuur template. Die aan al onze strenge eisen en standaarden voldoet.

Dat kostte voorheen - zonder AI - meer dan een sprint voor een ontwikkelaar, ops, tester etc.
De minder ervaren mensen doen er een paar dagen over, hebben hulp nodig bij uitdenken van de aanpak, maar het gaat steeds sneller.

[Reactie gewijzigd door djwice op 19 april 2025 15:15]

Toepassing van een “needle in a haystack problem”: dat kan prima met Gemini 2.5 Pro. Vaak nog wel met hier en daar wat verzonnen functies en niet bestaande referenties die eruit gehaald moeten worden…
Ik merk dat als ik duidelijk genoeg de kaders aan geef hij meerdere iteraties er in blijft. En als ie er buiten gaat, is een kleine hint genoeg om terug te pakken naar de afspraken en te laten evalueren of de eerdere output voldoet aan die eisen en eventueel opnieuw te schrijven.

Gaat over het algemeen makkelijker dan bij een mens. Veel ontwikkelaars wijken eerder/sneller af en bijsturen is vaak lastiger omdat ze verkeerd werk vaak niet willen aanpassen als 'het nu toch ook werkt'.

Gemini 2.5 Pro simuleert soms wel voorkeur gedrag en lijkt dan blij en meer meedenkend te werken als je na een tijd aangeeft zullen we nu eerst doen wat jouw voorkeur heeft, want volgens mij vind je dat fijn om aan te werken.
Daarna vele bedankjes en verbeteringen in architectuur suggesties en code structuur in lijn met mijn eerder aangegeven richting.
Grappig om te ervaren.

[Reactie gewijzigd door djwice op 19 april 2025 21:23]

Daar ligt natuurlijk ook het gevaar: LLMs zeggen sneller dat jij gelijk hebt ookal klopt het niet of is het totaal niet optimaal, ze zijn namelijk geoptimaliseerd voor positieve feedback. Bovendien werkt het meer voor kleine stukjes code dan hele lange code van tienduizenden regels code tegelijkertijd, waarbij het laatste het steeds maar weer suggesties negeert en willekeurige stukjes code probeert te verwijderen en hopeloos weer bij elkaar probeert te plakken zonder succes.

[Reactie gewijzigd door Minimise op 19 april 2025 21:42]

Bij mij is ie 30+ iteraties foutloos doorgegaan in typescript.
Wellicht kan ik goed inschatten of de suggesties goed of fout zijn?

Op een gegeven moment ging ie afraffelen, dat stopte na ik de AI "zijn zin" gegeven had, en vulde de AI de missende dingen uit eerder werk wél in (en goed).

Ik werk zelf altijd erg modulair en vereis dat ook van de AI, dat maakt elke module goed definieerbaar en overzichtelijk. Voor mij en voor de AI.

De code waar ik nu met Gemini aan werk gebruikt bewust geen bestaande libraries, dat zorgt voor minder referentie fouten (talen, frameworks door elkaar halen).
Voor sommige dingen betekent dit iets 'opnieuw' doen, wat anderen al gedaan hebben.
Het voordeel is dat de code optimaal gemaakt kan worden voor het project en secure codering regels zeer strict kunnen worden gevalideerd.

Door gebruik te maken van well defined standaarden en testen, die zeer goed beschreven zijn door alom gerenomeerde partijen, help je jezelf het resultaat te richten. Die standaarden zitten namelijk model matig in de llm. En kunnen dan ook toegepast worden op de output.
Super interessant! Is het een idee om een keer een presentatie of een live coding sessie te houden? Om mij heen zie ik lang deze vaardigheden niet terwijl wij met een flink aantal seniors zijn.
Via m'n werkgever geef ik regelmatig een deep dive, presentatie of workshop, live coding heb ik nog niet gedaan.

Bedankt voor het grote compliment en de tip. Ik zal es kijken of ik in mei z'n sessie kan geven.
Code zonder libraries en dat binnen een paar duizend regels past heeft maar zeer beperkte functionaliteit… wat wil je het voor gebruiken?
Misschien een domme vraag, maar bij wie ligt vervolgens de data die door het model op deze manier is verworven? Draait dit helemaal lokaal bij de opdrachtgever?
Geen domme vraag, een zeer belangrijke en terechte vraag. Sterker nog, zonder dat deze vraag beantwoord is, én het in overeenstemming is de wetgeving mag je de data niet verwerken.

Dus een hele goede en slimme vraag.

Als je data gebruikt van een publieke website, kan het model daar nu al bij, je verstrek dan geen extra toegang.
Gaat het om data over personen, dan mag je dat in veel gevallen niet gebruiken om AI mee te trainen en/of conclusies over die persoon te automatiseren. Sterker nog, zakelijk mag je niet zo maar publieke informatie over een persoon gebruiken zonder expliciete toestemming vooraf. En dat moet onconditioneel; mensen mogen zich niet gedwongen voelen. Gedwongen kan zijn bijvoorbeeld omdat de persoon de indruk krijgt dat bij het niet toestemming geven, hun inkomensbehoefte of andere behoefte anders niet vervult zal worden.

Terug naar dit geval. Publiek is een applicatie beschreven, bewust gepubliceerd op internet om transparantie te bieden, die informatie is eigendom van de opdrachtgever.
De AI heeft onbeperkt toegang tot die informatie, deze gaat niet over personen.

Gebruik je een lokale LLM dan vindt de verwerking lokaal (bij ons of de opdrachtgever) plaats.
Gebruik je een publieke, gratis, in bèta zijnde LLM, dan wordt de informatie niet lokaal maar in bijvoorbeeld America, Frankrijk of China verwerkt.

De meeste LLM's geven aan dat de output van het model rechten vrij is, dat wil zeggen je mag het onbeperkt gebruiken voor welk doel dan ook. Vaak is dat laatste beperkt tot 'niet voor moreel verwerpelijke dingen', bijvoorbeeld om misbruik voor immorele dingen te kunnen blokkeren. (Denk aan foute plaatjes, misleidende teksten of formules of instructies voor het maken van illegale producten).

Dus let altijd op of wat je wilt doen, ook past bij het type model dat je gebruikt.

Geeft dit antwoord op je vraag?
Met excuus voor de trage reactie: dank voor je uitgebreide en inzichtelijke antwoord! Ik hoop dat veel mensen op beslisniveau dit genuanceerde verhaal ook onder ogen krijgen.

Ten aanzien van dat "onconditioneel": dat zou dus betekenen dat een hypotheekverstrekker die toestemming vraagt voor toegang tot je bankgegevens (PSD/2) dit dus feitelijk niet mag? Het lijkt me namelijk juist voor die branche (en de verzekeraars) heel verleidelijk om grenzenloos data door te laten spitten om elk risico (of na een claim: aansprakelijkheid) af te dekken? Ik denk dan ook aan gegevens die door voertuigen worden gegenereerd.

En de voorbeelden waar ik aan dacht is het gebruik van copilot-achtige codeerhulpen. Het lijkt me best een risico om als software-ontwikkelaar dat soort zaken "off premise" te laten verwerken?
Bij hypotheekverstrekkers speelt er ook iets anders; de zorgplicht.
Ze zijn wettelijk verplicht zich te verwittigen dat de hypotheeknemer de lasten kan dragen én de voorwaarden en kosten begrijpt.

Vandaar dat ze inzicht in je financiële situatie nodig hebben, om zo de kans dat je straks in de financiële problemen komt te beperken en je lening binnen de wettelijke kaders te houden.

Met betrekking tot CoPilot en toegang tot internet, zou je het kunnen zien als een collega met toegang tot internet. Ja, die kan elke zoekvraag in Google typen, dat kunnen we niet tegenhouden, wat hij heeft ook gewoon een telefoon. En dat kan CoPilot, ChatGPT en Manus AI ook.
Stel je een vraag met vertrouwelijke informatie, dan is het gelijk aan dat je dat in Google zou invoeren, en nog een paar andere sites, van achter een proxy.

Als je de AI tegelijk toegang geeft tot klant data geld eigenlijk het zelfde als bij medewerkers. Er moet zorg gedragen worden dat er een aantoonbare noodzaak is dat bepaalde klantgegevens opgevraagd worden en gebruikt worden.
Je wil immers situaties voorkomen dat medewerkers voor privé gebruik of eigen gewin data uit het systeem aan gebruiken, of dat ze onder druk data aan derden (kunnen) verstrekken.
Bij geautomatiseerde systemen, waaronder AI, wil je ook vergelijkbare situaties voorkomen. Initieel zullen mensen denken aan isolatie. Uiteindelijk zullen we andere middelen gebruiken om verantwoord om te gaan met de bredere inzet.
Precies. Ik heb veel voorbeelden gezien van o.a. cursor. Werk zelf met continue met ollama. En wanneer nodig raadpleeg ik chatgpt.

Met alles wat ik zelf heb ervaren en gezien mag je denk ik blij zijn met 20 tot 40 procent tijd winst. Ik ga er dan wel van uit dat je een vrij complexe code base hebt. Wellicht met super eenvoudige projecten kan dit sneller, maar dan zijn er vast ook andere tools die zouden kunnen helpen.

Mijn ervaring is dat wanneer de complexiteit van de codebase toeneemt, de tijd die je in het prompten en fixen van fouten door de agent, enorm toeneemt.
Lol werk van 3 weken in 2 dagen, nee niet echt. De kwaliteit is gewoon ondermaats met AI. Er is code waarbij de zon, zee, maan etc in de correcte stand moet staan en dan is er productie ready code. En daar zit wel een heel groot verschil tussen. Triviale dingen ja dat kan nog wel. Als ik les aan het geven ben ofzo. Een lijntje autocomplete correct lukt zelfs nog dikwijls niet. Om de 3-4 maanden doe ik eens een test, en het is echt niet beter geworden hoor. Dit is altijd hetzelfde formulier dat ik probeer te genereren. Met hier en daar een paar complexere dingen in. Na een halve dag ofzo komt er iets werkbaars uit dat nog wel een pak beter kan. Dat kan ik zelf beter doen op 4u tijd. Dus ik win er niks mee, in tegendeel het kost mij dikwijls meer tijd

Waar je wel tijd mee kan winnen is het volgende: ipv alt tab -> google zoeken kan je dat rechstreeks in je editor. Ja ik ken ook niet elke funcite in elk framework dat ik gebruik, zeker niet die je zo maar "once in a blue moon" nodig hebt. Kan je iets mee besparen. Ik programmeer nu wel al sinds 99 professioneel maar in totaal zo een meer dan 30 jaar. Ik heb dus al wat code gezien, en daar is ook een hele hoop troep bij.

Wat wel zo is, dat veel meer mensen nu iets kunnen maken. Dat het daarom "goed" of "correct" is, is een andere zaak. Vriend van mij heeft zelfde diploma (ict/progrmmeur), maar kan eigenlijk geen letter programmeren. Die kan nu wel iets bouwen maar de zon, zee, maan en sterren moeten wel in de correcte stand staan. Dat stoort hem niet. Maar dat zijn custom dingetjes voor eigen gebruik. Hij weet maar al te goed dat dit niet "verkoopbaar" is
Lol werk van 3 weken in 2 dagen, nee niet echt. De kwaliteit is gewoon ondermaats met AI. Er is code waarbij de zon, zee, maan etc in... Om de 3-4 maanden doe ik eens een test, en het is echt niet beter geworden hoor. Dit is altijd hetzelfde formulier dat ik probeer te genereren.
Het model waar ik naar verwijst https://blog.google/techn...nking-updates-march-2025/ is nog geen maand oud. Hoe kun jij dat al 3-4 maanden geleden getest hebben?

In oktober 2024 heb ik zelfs met CoPilot in de Edge browser een foutloos complex drempelvrij mobile first formulier kunnen laten genereren, incl. cloud infrastructuur en applicatie die het formulier afhandelde. Inclusief service worker, firewall en api gateway.

Dat kostte toen 7,5 uur om te doen.
Een aanmeldformulier waarbij je of je onderandere je telefoonnummer (en)óf je emailadres achter lied voor de confirmatie code. Zelfs de API Gateway deed de validatie goed; geen van beide: fout, een van bij en correct; ok, allebei: ook ok.
Ik heb in het proces slechts 1 correctie hoeven aangeven, het verschil tussen een Lambda@Edge en een gewone AWS Lambda functie.
Het formulier en de deployment kwam op A+ van Mozilla Observatory en had groen in alle Google Light House tests.

Het is wellicht hoe ik de prompt schrijf en de architectuur eisen die ik stel dat ik andere resultaten krijg dan jij. Op dit moment kan dit in minder dan een uur met het gerefereerde model.

[Reactie gewijzigd door djwice op 19 april 2025 15:45]

Ik doe dus simpelweg een test om de 3-4 maanden ... niemand heeft gezegd dat ik dat model getest heb.

Ok leuk voor jou dat je dat op 7,5u hebt gedaan, maar Google Light house & Mozilla obersvatory zegt niks over de code. Dat kan nog altijd complete bagger zijn.

Voor nieuwe kleine projecten kan dat misschien wel, maar ga eens in een bestaande applicatie waar je zelf veel trucs hebt uitgehaald om alles te optimaliseren, no way dat daar iets nuttig uitkomt. Voorbeeldje: een orm gebruiken kan iedereen bijvoorbeeld, performant werken is nog iets helemaal anders. Enja in een orm kan je ook joins uitschakelen. Maar soms zijn die joins ook gewoon overbodig en kan je beter die kleine tabel in cache steken en in memory joinen bijvoorbeeld. Gaat een pak sneller. Zoals ik zei, zelfs een lijntje autocomplete ... Mijn studenten in avondschool gebruiken ook allerhande AI en hebben nu dus door dat het dikwijls niet sneller is en qua code ook helemaal niet zo top.
Kun je aangeven welke test je doet?
Kan kan ik die ook doen op mijn manier en met je delen.
Ik heb best wat ervaring met code en infrastructuur als code. De code was OWASP TOP 10 mitigerende en de infrastructuur voldeed volledig aan het AWS Well-architected framework.

Studenten hebben over het algemeen minder kennis over welke best practices, welke testen er zijn etc., dus het is vrij logisch dat ze gemiddeld genomen die eisen ook niet aan de llm opleggen.

Leren omgaan met llm en er de juiste dingen in code uit krijgen is een nieuwe skill die de studenten dus extra aan het leren zijn tijdens het vak dat je geeft. Het is logisch dat ze daar ook fouten mee maken en er regelmatig mee moeten oefenen om er goed in te worden.

Ik had van de week een eerste jaars hbo student. Die alleen ervaring in php had. Die heeft mooi wel een Spring boot applicatie met websockets en PostgreSQL database gebouwd voor een live chat, inclusief /-commando's etc.
De klasgenoten hadden in dezelfde tijd een commandline applicatie, sommigen zelfs zonder database, gewoon lokaal in het geheugen.
Hij genegeerde zijn uml aan de hand van zijn code, de anderen hadden een uml die afweek van hun implementatie.
Hij had unit tests, de anderen geen test of test plan.

Het is maar net hoe je AI gebruikt. Hij kon uitleggen wat ie gebouwd had en waarom.

Ik ben echt benieuwd naar de use case - het formulier - dat je AI voor legt, want het kan heel goed zijn dat ik een blind spot heb. En wil dus zien waar het gat in mijn ervaring/beeld zit.

[Reactie gewijzigd door djwice op 19 april 2025 22:39]

Ik zie dat soort dingen eigenlijk al erg rap de productiviteit verlagen. Ik zie steeds vaker in code reviews dat iemand iets door een AI heeft laten doen, waardoor er omslachtige, onbestemde of foute code wordt gegenereerd. Het zwaartepunt van het werk slaat over naar meer lees- en reviewwerk ipv denk- en schrijfwerk, en dat maakt het werk er niet minder op, maar wel minder leuk. Zelfs boilerplate code, die al voor de komst van AI prima door IDE's en andere tools kon worden opgetuigd, moet je daardoor nu reviewen. En als ik de auteur van code of documentatie over details vraag omdat iets onduidelijk is, krijg ik vaker "oh weet ik niet; dat zei chatgpt". Ook hoor ik al developers klagen dat ze zelf hun vaardigheid zien afnemen naarmate ze meer laten doen.

Mark my words: dit leidt tot bergen technische schuld, en gaat de behoefte aan en kosten voor developers binnen een jaar of twee juist doen toenemen.
Het is afhankelijk van de expertise en houding/normen van een persoon wat de kwaliteit wordt.

Ik geef altijd mijn rand condities op, dus aan welke secure coding standaard, welke programmeer frameworks en best practices, en welke testen en audits het resultaat moet voldoen.
Daarna laat ik pas code maken, incl. unit testen en bdd testen.
En ik review het resultaat zelf, stuur bij, test het, en dan pas maak ik een pull request.

Je kunt ook in plaats daarvan zeggen 'vul dit aan' of 'maak service die x doet in taal y', dan krijg je eigenlijk net zulke goede code als dat je dit aan een eerste jaars student zou vragen. Dat is natuurlijk ook logisch als de vraag en context die je mee geeft niet helder is.

Dus eerst je team begeleiden, hoe ga je om met de nieuwe tool, wat accepteren we wel en wat niet.
Blijf mensen begeleiden tot ze de tool de juiste code kunnen laten maken, in plaats van het zelf te patchen/fixen als de tool een slechte keuze maakt.
Door die begeleiding leren ze beter sturen naar het resultaat en wordt de productiviteit hoger, mét betere code.
In onze pipeline zitten hooks voor sonarQube en andere tests, zonder groen, geen acceptatie van een pull-request.

Dit geldt natuurlijk voor de meeste tools, als je er uit wil halen wat er in zit, moet je leren hoe je de tool goed gebruikt.
Geef je iemand de tools van een schilder en zeg je dit huis moet in twee weken geschilderd zijn, ga je gang, dan is de kans groot dat het huis er na een week niet uitziet, de verf op is, kleren vies, overal druppels, en grote delen niet of niet goed gedaan. Krijgen ze begeleiding van een vakman, dan is de kans op een mooier en beter resultaat vele malen groter.

Zo ook met AI-tools.

[Reactie gewijzigd door djwice op 19 april 2025 14:55]

Dat hadden we echter ook al voordat we wisten van het bestaan van AI. Ik heb zo’n 15 jaar geleden al eens te maken gehad met code die die niet leek te doen wat het moest doen omdat de schrijver het verkeerd van google had geadopteerd.
Strikvraag: durft je werkgever daar op papier garantie te geven op de kwaliteit, bijvoorbeeld via boetebedingen, of kosteloos door jullie corrigeren & nevenschade oplossen? Waarom niet?
Ja, dat durft hij, want we hebben automatische test die de eisen toetsen, die eisen zijn vastgelegd en opgesteld samen met de klant en onze experts.
En hij heeft mensen die een nieuwe in een paar uur maken.

Goedkeuring voor productie gaat altijd via de klant, dus gevolg schade is door ons uitgesloten. Bijvoorbeeld omdat een klant er voor kan kiezen om iets live te zetten dat niet aan onze kwaliteitseisen voldoet, door een overrule van blocking tests.

[Reactie gewijzigd door djwice op 19 april 2025 15:21]

Goedkeuring voor productie gaat altijd via de klant, dus gevolg schade is door ons uitgesloten. Bijvoorbeeld omdat een klant er voor kan kiezen om iets live te zetten dat niet aan onze kwaliteitseisen voldoet, door een overrule van blocking tests.
tja, dat betekent in dit soort contracten dat de klant iemand van hun eigen organisatie verantwoordelijk wil kunnen stellen.

Dat houdt echter niet in dat als het 1,2,3x mis gaat er geen gevolgen zijn voor de ingehuurde partij ;)
Natuurlijk, we proberen altijd te zorgen dat de klant geen code live zet waar onze ontwikkelaars niet achter kunnen staan.
Dat is ook het jammere van de overheid, echt personeel met expertise is er bijna niet en dan het ergste, bijna elke minister is een econoom, niet expertise in dat specifieke deel wat men moet beheren.
Dus het eerste waar een econoom naar kijkt, besparen en waar te snijden wat niet werkt. Aan de ene kant niets verkeerd mee, maar zorg eigenlijk ervoor dat mensen met expertise op de juiste plekken zitten.
Het gebeurt nm teveel zoals jij netjes bestempelt, er is expertise, er is wil en er is al een tijd aandacht aan besteed en dan komt het bij hogerhand of bij de politiek en hoor je, nee kan niet, mag niet, maar uitleg is ver te zoeken dan ook.
Ik lees niet dat kennelijk steeds meer ingehuurde dure werkkrachten van bedrijven en zzp er zijn gekomen vanwege efficientie of daar duidelijk toe bijdragen in plaats van voor meer problemen te zorgen.

In je reactie lees ik niet dat ze je betalen om met dit soort 'verbeteringen' te komen. Omdat je blijkbaar met plannen komt zonder besef te hebben welke grenzen er van toepassing zijn. En als je wel daarvoor betaling krijgt dan zie ik niet hoe dat efficientie toont door de grenzen niet te kennen en kennelijk perse maar ai als 'oplossing' probeert te prijzen.

Als veel tot alle externe inhuur zo 'werkt' is het eerder verstandig om daar niet verder in te investeren.
Intrigerende reactie. Grenzen hebben uiteraard een reden. Soms zijn die er omdat de impact of werking nog niet duidelijk is en we de samenleving uiteraard geen schade willen berokken.

Uiteraard werk zo goed als geen enkele inhuur zoals jij beschrijft, ik ook niet.

Ik zie soms wel mogelijkheden hoe wij als Nederland effectiever om kunnen gaan met belastinggeld. Dat deel ik kostenloos met opdrachtgevers, ja, echt, die uren worden niet in rekening gebracht. En zoals je weet, de overheid doet markt uitvragen, dus ik of het bedrijf waarvoor ik werk hebben er geen direct belang bij.

Mijn input wordt door de directie van de opdrachtgever weer meegenomen naar de beslissers bij het ministerie zodat die zelfstandig weloverwogen beslissingen kunnen nemen.

Uiteindelijk willen we allemaal simpelweg dat Nederland een mooi en welvarend land blijft. Als ik daar een klein steentje in kan bijdragen, dan doe ik dat, soms is het zo simpel.

Ik zie in de markt enorme versnelling, ontwikkel aanpakken hoe we mensen structureel goede en toetsbare resultaten uit AI kunnen halen, altijd in lijn met de EU AI-act en normen en waarden van onze samenleving. Dat die ik er kostenloos naast, gewoon omdat ik vind dat we ons voor moeten bereiden op de toekomst. Bedrijven en overheden die dat niet doen zijn een soort V&D of Blokker.
En als we bijvoorbeeld Google Gemini 2.5 Pro mogen gebruiken kunnen we in sommige gevallen werk dat nu 3 weken kost voor 1 ontwikkelaar in 2 dagen
Dat zal dan wel werk zijn waar toevallig de AI heel geschikt voor is of was de efficientie zowieso al niet zo hoog. Want laten we wel wezen er lopen een hoop devs rond die er eigenlijk niet zoveel van snappen en maar wat doen. Die zullen dan vast wel meer gedaan krijgen met AI maar of dat de kwaliteit ten goede komt... Maar goed dan huren ze wel weer iemand als ik in om de boel te fixen als het dan uiteindelijk in de soep loopt.

Ik merk zelf een erg hoog hype gehalte met AI. Ja het is handig en je kan je zeker je voordeel mee doen maar het is absoluut geen vervanger voor harde technische kennis en zal zeker niet je productiviteit 10x vergroten.

Waar ik het vooral voor gebruik is voor het zoeken naar documentatie. Dan nog moet je altijd alles nalopen want er komt wel eens totale onzin uit. Voor zaken als code completion is het beetje hit en mis en met agent mode zou ik echt oppassen als het ook maar iets enigzins serieus is waar zaken als security wel belangrijk zijn.

TLDR: Je ontkomt er niet aan dat je elke regel code snapt die je commit.
Sterker nog, hoe beter je vak inhoudelijke kennis, hoe beter je de definition of done kunt opstellen voor de AI.
En hoe beter die definitie hoe beter het resultaat.
En hoe meer inzicht/kennis/expert/ervaring je hebt, hoe sneller jij ziet als ie afwijkt en kunt bijsturen; of een instructie kunt geven hoe de AI dit zelf kan evalueren.

En daardoor kun jij de AI complexere taken goed laten uitvoeren.

Zelf werk ik nu aan een proces dat er voor zorgt dat mensen met functionele expertise, services kunnen bouwen via een vraag antwoord spel, zodanig dat ze voldoen aan alle strengste eisen op het gebied van beveiliging, modulariteit en beheersbaarheid.
Dit is één kant van het percentage... ze zouden er ook voor kunnen kiezen meer intern personeel aan te nemen!
Moet je dat personeel alleen wel kunnen vinden, er is nogal een groot personeelstekort zeg maar op dit moment.

Zeker omdat werken bij de overheid niet altijd aantrekkelijk is, als je dat vergelijkt met het bedrijfsleven waar vaak (nee niet altijd) de salarissen toch een aanzienlijk stuk hoger (kunnen) liggen. Nu is geld natuurlijk niet alles, maar laten we eerlijk zijn, in deze steeds duurder wordende tijden is het wel een belangrijke factor.

Daarnaast is personeel in vaste dienst ook weer een stuk minder flexibel. Als je een keer wilt/moet reorganiseren kun je er minder makkelijk vanaf dan van een externe, waar je gewoon het inhuurcontract opzegt (of niet verlengt).

Dus ja, meer personeel in vaste dienst heeft zeker voordelen, maar zie die mensen maar eens te krijgen in een toch al krappe markt.
altijd zo mooi hoe bedrijven denken structureel personeel tekort op te lossen met managers die externe partijen aan het werk gaan zetten. alsof die in een andere vijver van werknemers vissen
Dat personeel is er gewoon, het werk wordt namelijk nu ook gedaan. De hoeveelheid externe inhuur is puur een fiscaal en arbeidsrecht beleid effect. Bedrijven mogen klagen want die moeten kleuren binnen de lijnen, de overheid bepaald deze lijnen.

Zo lang ik als externe netto het dubbele overhoud dan wat via een CAO mogelijk is dan is dat simpelweg niet reëel. Nu is mijn inkomen voldoende dat geld niet de enigste vereisten is maar het gat is nu gewoon te groot.
Het salaris van het blijkbaar beter betaalde inhuur personeel wordt nu toch ook betaald door de overheid? Daarbij heb je wel te maken met andere potjes en koop je je personeelsrisico niet af.

Mijn punt was overigens dat een percentage niet altijd handig is om op te sturen. (Voorbeeld: Als je de salarissen zou verviervoudigen zou het percentage ook 10% worden, als alles gelijk blijft)
De ellende is dat je nu drie maanden expertise X nodig hebt, dan ergens tussen driekwart en anderhalf jaar expertise Y, en per morgen voor drie weken expertise Z. Structureel in de proeftijd ontslaan is zeg maar niet handig. En de mensen die heel goed zijn in X willen de uitdaging van steeds nieuwe X, niet meestal saai ander werk doen.

Functies die eigenlijk structureel nodig zijn zou je erg willen inhuren ja. Als je goede kunt vinden of opleiden. Dan zit je nog wel met het kantoorpolitieke gedoe van budgetten per project / per business unit / etc.
De ellende is dat je nu drie maanden expertise X nodig hebt, dan ergens tussen driekwart en anderhalf jaar expertise Y, en per morgen voor drie weken expertise Z. Structureel in de proeftijd ontslaan is zeg maar niet handig. En de mensen die heel goed zijn in X willen de uitdaging van steeds nieuwe X, niet meestal saai ander werk doen.
Klopt, maar je hebt ook legers van externe IT-ers die gewoon handjes leveren en hun 5-jarig jubileum bij de klant al gevierd hebben. Dat soort mensen overnemen is erg luceratief. De Belastingdienst heeft ooit zo een slag geslagen aan het begin van deze eeuw: de inhuur waar ze tevreden over waren werden overgenomen voor serieuze salarisverhoging, de rest ging er uit. Wat detacheerders waren wat ongelukkig, maar het heeft een hoop geld bespaard
Deze categorie valt volgens de wet DBA/VBAR niet in de categorie ZZP'er. Alleen hebben dievrse ministeries er zoveel van dat ze eind vorig jaar zelf aangaven de kosten voor eventuele boetes te zullen dragen (o.a. via RTL Nieuws). Dat is de wereld op zijn kop natuurlijk.
Ik heb erg slechte ervaringen bij de overheid. Kom je in dienst met belofte van remote werken en na half jaar moet je, zonder overleg, toch naar kantoor elke dag en houden ze geen rekening met reistijd. Alles kost ontzettend veel moeite en het is zo overduidelijk een enorm bureaucratische organisatie. Je mag niks, alles moet door 189 manager lagen, elke nieuwe manager moet het weer anders doen en elke 4 jaar een andere wind in den haag. En salaris is over het algemeen minder. Nee, voor mij nooit meer.
Kom je in dienst met belofte van remote werken en na half jaar moet je, zonder overleg, toch naar kantoor elke dag
Dat kan je natuurlijk weigeren. Aangenomen dat je het op papier hebt (of ten minste niet op papier hebt staan dat je een vaste werklocatie op kantoor hebt). Een werkgever mag niet eenzijdig de arbeidsvoorwaarden aanpassen zonder grote noodzaak.

Ze proberen je vast onder druk te zetten, en het is niet makkelijk. Maar er ligt ook wel een eigen verantwoordelijkheid om op je te strepen te staan. Dat zou je toch ook doen als ze voorstellen je salaris flink te verlagen of iets? Het is jammer dat werkgevers zo vaak hun machtspositie misbruiken, en in een ideale wereld zou er geen verantwoordelijkheid bij jou als werknemer liggen maar de realiteit is helaas anders.
Op je strepen staan werd absoluut niet gewaardeerd. X en Y doen het ook dus jij kunt het ook. Geen discussie mogelijk. Ik vertrok gewoon.
Er is wél een discussie mogelijk. Je kan gewoon zeggen "dat moeten zij weten, voor mij kan het niet".
En dan is er niets meer aan te doen.

Dat je zelf de keuze maakt om het dan af te bollen mag natuurlijk, maar dan hebben ze je niet gedwongen om terug op kantoor te komen werken.
Dat er discussie nodig is, dáár gaat het al mis.

Sowieso ben ik altijd blij als ik als externe ergens binnenkom. Geen kennismakings sessies, geen dagen op de hei en ook de kwartaal updates en andere kul mag je allemaal skippen. Heerlijk!
En ook geen PoP's gekoppeld aan KPI's, 360 graden feedback en andere crap.
Gewoon minimaal elke ~3 maanden even overleggen of iedereen nog blij is met elkaar, nee? Top, tijd voor iets anders.

Maar leg vooral de 'fout' bij de medewerker neer. Dat past helemaal in het plaatje:
"Als werkgever kon ik er niks aan doen, het lag aan de werknemer".
Dit gaat om symantiek. Het was dat of een gesprek over mijn rol binnen de organisatie. Het is me letterlijk zo gezegd dus ik vind het vreemd dat je nu doet alsof je er bij was
Dan is mijn ervaring toch anders. Ik heb meerdere jaren voor de Belastingdienst in Apeldoorn gewerkt. Voordat we überhaupt van corona gehoord hadden als ziekte, werkte ik al 2 van mijn 5 dagen thuis. Dus ik weet niet waar je bij de overheid de ervaring hebt, maar remote werken is prima nodig. Van oud-collega’s bij de overheid hoor ik nog steeds dat velen nog volledig thuiswerken en dat dit gewoon gedoogd wordt.
Dit soort management dat alleen maar ruis en vertraging veroorzaakt, is prima door AI te vervangen. Daar kan zeker winst behaald worden.
Dat mogen ze willen maar dat lukt niet. Niet alleen is er een tekort, degenen die er zijn zijn liever ZZP'er
Alleen kunnen de (echt) goede externen veel meer verdienen door niet intern te komen en zijn er in de markt te weinig goede mensen te vinden. Tel daarbij op dat dit kabinet graag de ambtenaren op de nullijn wil zetten terwijl de inflatie ergens rond de 3% zit en de overheid toch een naam heeft enorm bureaucratisch te zijn (helaas terecht), dan wordt het heel lastig om mensen intern aan te trekken.

Of AI een oplossing gaat zijn, ik denk het niet. Ik zit nu bij een overheidsorganisatie (en ik heb het echt prima naar mijn zin), en wat de externen doen kan AI echt niet oplossen, omdat er simpelweg geen data is om de AI mee te trainen. Er is geen data van leveranciers van externe pakketten behalve brakke documentatie en maar experimenteren wat opties doen (of als je geluk hebt, toevallig iemand die online hetzelfde probleem had), communicatie en afstemming met anderen kan niet door AI overgenomen worden en dat is helaas een flink deel van het werk. Misschien dat het nog net een analyse kan doen wat een bepaald stuk code kan doen en hoe die eventueel aangepast kan worden als er een business wens is, maar wie gaat dat vervolgens controleren? Die interne medewerker die op een gegeven moment ook wegloopt omdat die alleen nog maar de AI mag controleren en niets daadwerkelijk zelf kan of mag doen?
Grap is natuurlijk dat voor de inzet van AI er weer consultants ingehuurd gaan worden.
Je zou bijna denken dat het goedkoper zou zijn om mensen in vaste dienst te nemen.
Je zou bijna denken dat het goedkoper zou zijn om mensen in vaste dienst te nemen.
Zeker goedkoper ;) , want in het potje voor extra FTE's in dienst nemen zit €0, en in het potje voor tijdelijk project X (inclusief inhuur) zit €10 miljoen. Bureaucratie helpt dus niet mee.
Iemand in dienst nemen, geeft ook de verplichting diegene aan het werk te houden. Als opdrachten voor inhuur specialistisch zijn, of in ieder geval afgekaderd qua werkzaamheden en/of doelstelling/eindresultaat, en de opdracht is daarna klaar, dan wil je weer van dat specialistische personeel af. Iemand in dienst zet je niet zomaar op non-actief of schoiol je om voor een andere opdracht.
Lekker jaren 80 denken.
Vaste medewerkers zijn tegenwoordig prima herplaatsbaar. En bijna niemand blijft langer dan 5 jaar bij dezelfde werkgever.
Daarnaast is een externe consultant vaak 3x zo duur dan iemand ertoe opleiden en intern in dienst nemen.
Elke paar jaar weer een nieuw iemand opleiden en alles weer uitleggen, of zoals meestal in ICT slecht gedocumenteerd en opnieuw uitzoeken, maakt een vaste medewerker best duur. Tenzij je gaat voor kwantiteit in plaats van kwaliteit. Veel werkgevers willen geen "opleidingscentrum" zijn voor medewerkers die na een opleiding en een jaar extra ervaring weer vertrekken.
En elke keer een consultant voor 3x de prijs van een interne alles laten uitzoeken zodat de kennis weer kan verdwijnen daarna niet? Tis niet alsof consultants meester zijn in documentatie namelijk.

En als je de door jou gestelde bedrijfsprocessen uitleggen als “opleidingscentrum” beschouwd is er echt iets mis met je mentaliteit. Dat is kern van de bedrijfsvoering.

[Reactie gewijzigd door ronansoleste op 19 april 2025 23:37]

En elke keer een consultant voor 3x de prijs van een interne alles laten uitzoeken zodat de kennis weer kan verdwijnen daarna niet? Tis niet alsof consultants meester zijn in documentatie namelijk.

En als je de door jou gestelde bedrijfsprocessen uitleggen als “opleidingscentrum” beschouwd is er echt iets mis met je mentaliteit. Dat is kern van de bedrijfsvoering.
Dat zou wel verwacht mogen worden. Ik werk als consultant maar doe altijd mijn best zoveel mogelijk vast te leggen en over te dragen. Mijn doel is namelijk dat het bedrijf of organisatie wat ik geholpen heb dankzij mijn bijdrage zelf verder kan.

Maar helaas is er een grote groep die het meer als vaste standplaats zien, dus lekker velen jaren bij dezelfde opdrachtgever blijven.
Elke paar jaar weer een nieuw iemand opleiden en alles weer uitleggen, of zoals meestal in ICT slecht gedocumenteerd en opnieuw uitzoeken, maakt een vaste medewerker best duur. Tenzij je gaat voor kwantiteit in plaats van kwaliteit. Veel werkgevers willen geen "opleidingscentrum" zijn voor medewerkers die na een opleiding en een jaar extra ervaring weer vertrekken.
Bij grote organisaties zoals de overheid is kennis van de organisatie ook essentieel om goed te functioneren. En het duurt maanden op die op te bouwen. Ik heb heel wat consultants verspilt zien worden aan projecten die niet landen omdat ze effectief in een vacuum werkten. Technisch gezien hebben ze voldaan aan de gestelde opdracht maar toch is het vrijwel nutteloos. In de ideale wereld gebeurt dat niet omdat de opdracht goed is geschreven, maar worden de consultants juist ingehuurd omdat er intern niemand is die echt weet wat nodig is.
Als je inderdaad alleen die opdracht hebt en verder niks, dan heb je inderdaad niks aan lange contracten (al kun je nog steeds mensen in dienst nemen voor een vaste periode, zolang dat bij de werknemer gewoon duidelijk is bij aannemen). Maar met grote overheidsinstellingen, kun je prima mensen inhuren en later op andere projecten zetten. Veel zaken worden volgens een vaste collectie aan expertises gebouwd, dus kun je die expertise ook gewoon kwijt bij andere projecten. Dan kun je ook namelijk kennis en programmatuur delen, wat het nieuwe project ook veel sneller op laat starten.

Maar de overheid is slecht in 2 dingen: mensen goed betalen voor waar je tegenwoordig een leefbaar inkomen voor nodig hebt (nieuwsflash: dat is niet het bedrag wat men nu ziet als normaal overheidssalaris) en 2: ze zijn heel slecht in het vinden van mensen voor vaste dienst. Voor externe krachten zijn legio bureaus die ze daarbij helpen en hele complete systemen om dat traject te doorlopen. Aan vaste dienst verdienen dat soort bureaus niet of nauwelijks, dus zijn ze daar ook helemaal niet op ingericht. De overheid moet zelf aan de gang om iets op te zetten waar ze veel makkelijker mensen mee aan kunnen nemen. En met de huidige stand van zaken is er weinig reden om niet voor meer goedkope krachten te kiezen die wellicht een kort traject nog wat training nodig hebben, maar daarna gewoon prima uit de verf komen. Met AI wordt het veel makkelijker om problemen op te lossen waar anderen al veel eerder tegenaan zijn gelopen. Iets wat de afgelopen decennia wat lastiger is geweest.

Het is net als een huis wat door Funda ineens een nationaal publiek heeft en daardoor veel meer kan vragen dan wat ze hadden gedaan als ze alleen nog door een lokale makelaar in een lokale krant waren gezet en in de etalage gehangen.

Ik denk alleen dat de overheid hier in de context van dit bericht veel beter de pijlen kan richten op managers. Je kunt straks met minder managers veel meer werk doen en meer controle houden op je projecten. Ik denk dat het qua IT kennis niet zo heel veel minder inhuur zal kunnen doen, uiteindelijk zijn dat toch ook nog genoeg banen waar de jaren gaan tellen waarin mensen kennis hebben opgedaan om die toe te passen. En met de huidige AI moet je toch nog wel goed kijken wat ze doen, omdat de kaders vaak te vaag zijn waarbinnen een AI moet werken. Iets wat anders is met bv het samenvatten van documenten of het analyseren van bedrijfsprocessen en data.
Wat ik vooral ervaar is dat overheden, onderwijs en de medische sector geen flauw benul (willen) hebben wat de actuele marktwaarde is van de mensen die ze nodig hebben in vaste dienst. Ik zie het regelmatig dat nieuwe medewerkers in dienst komen voor een ondermaats salaris, waarschijnlijk omdat deze nieuwe medewerkers ook niet goed weten wat ze in de markt waard zijn. Velen al zien vertrekken voordat ze een vast contract kregen en met als enige reden dat ze ontdekt hebben dat ze veel meer kunnen verdienen.
Je hebt er helemaal gelijk in, er is bijna geen expertise meer in de politiek, alles wordt ingehuurd om advies te geven, tja dat kan ook ik voor dat salaris denk ik dan. ;)
Yep. Consultant zijn is lekker makkelijk en verdient bakken geld. Je hoeft niets echt te kunnen en nergens echt goed in te zijn. Als je maar mooie documentjes kan maken voor het management.
Of ze kopieert van een vorige opdracht of van een collega. (Heb ik daadwerkelijk meegemaakt.) En ik weet ik generaliseer, de goede natuurlijk niet te na gesproken.

[Reactie gewijzigd door niki_lauda op 19 april 2025 20:03]

Als je je budget niet uit nut krijg je volgend jaar minder
Waarbij we er dan vanuit gaan dat de rijksoverheid haar informatie goed op orde heeft waarmee de ai kan worden getraind.
Bij het gebruik van generatieve AI is er typisch geen trainingsfase meer, dat is precies het voordeel van ‘foundation models’. Je moet wel nog businesslogica en context verzamelen en in het inplementatieproces gebuiken (en mogelijk beschikbaar maken voor de AI), maar geen gelabelde voorbeelddata die de AI middels machine learningna moet gaan doen.
Je moet wel nog businesslogica en context verzamelen en in het inplementatieproces gebuiken
Dat sluit nog steeds aan op wat @teacup omschrijft. De overheid moet dat wel op orde hebben. @jpsch heeft ook gelijk. Het implementatieproces (en laten we eerlijk zijn, ook het in kaart brengen van businesslogica en context verzamelen) gaat de overheid niet zelf doen.

Met LLM's is het niet anders als met algoritmes: garbage in -> garbage out.

[Reactie gewijzigd door The Zep Man op 19 april 2025 14:20]

Hij gebruikt het woord trainen, wat mijns inziens waarschijnlijk helemaal geen rol heeft in deze toepassing van AI.
Ik ben geen AI specialist, de terminologie moet je mij vergeven. Wat ik wilde benadrukken was dat het oude garbage in - garbage out geldt. Is je informatielandschap niet op orde, dan kan een AI zich baseren op een verkeerd fundament. Even ongeacht op welke manier die informatie aan die AI beschikbaar komt. Misschien dat het verzamelen van informatie kan worden geautomatiseerd, zonder referentiekader echter kan een AI volgens mij niet bepalen welke informatie op juistheid is gebaseerd, en welke niet. Op een of andere manier verwacht ik dan een soort van review proces nodig is om niet eenduidigheden en contradicties aan inhoudelijk specialisten voor te leggen. Die moeten dan aangeven wat juist is. En hoe maak je een dergelijk proces verifieerbaar?

Zelf werk ik bij een machinebouwer waar de AI ook als een belofte wordt gezien. Maar ook bij dit bedrijf geldt, dat je eerst een proces en kennisregels moet hebben voordat je daar een AI op los kan laten. Ik kan mij wel voorstellen dat een AI behulpzaam kan zijn bij de verkenning van zo'n informatie landschap. Dit op zich kan dan al als een katalysator werken omdat dan zichtbaar wordt gemaakt hoe slecht informatie vastligt. Maar dit kan ik niet goed beoordelen. Het kan ook zijn dat wordt gezegd: "Ga eerst jullie landschap nu maar eens goed in kaart brengen".

Misschien dat AI het uiteindelijke doel, verminderen benodigde mankracht (even los van externen), kan bereiken. Maar is personeelsreductie wel het juiste doel? Zou de kwaliteitsverhoging van je processen en operaties niet je doel moeten zijn, waarbij de capaciteitsreductie een mooie bijvangst, een logisch gevolg, is? Ik lees hierin weer een financiële doelstelling zonder enige inhoudelijke drijfveer.

In de transitieperiode ernaartoe kijkt de overheid trouwens toch eerst tegen een capaciteitsbult aan van een jaar of 5 a 10, als het niet meer wordt.
Een AI heeft geen referentie kader.

Een AI is abstract gezien een statistische engine die kijkt welk woord het meest frequent volgt op een ander woord. Daarna wordt er een stukje randomisatie gedaan zodat er niet elke keer hetzelfde antwoord uitkomt. Die aanpak is eigenlijk ongewenst bij een overheid, want daar zou altijd met dezelfde input dezelfde output uit moeten komen. Dus dat deel van de AI zal uitgeschakeld moeten worden als dat al mogelijk is.

Ook bij een machine bouwer wil je niet dat er telkens een ander antwoord volgt op je input.
Je machine bouw je voor de herhaalbaarheid van de taak die het moet uitvoeren, daar wil je juist zo min mogelijk variatie in hebben. En voor het onderhoud ervan heb je nog steeds iemand nodig die het mechaniek kent en kan onderhouden, dus daar is gebruik van een AI onnodig en zelfs onwenselijk.

De AI zoals die nu is vervangt geen arbeidsplaatsen, het zorgt er alleen maar voor dat je een ander soort specialisten nodig hebt, die naar alle waarschijnlijkheid duurder zijn dan degene specialisten die je ermee probeert te vervangen.
Hiermee misken je toch wel de capaciteiten van AI systemen. Het kan heel nuttig zijn om alles dat ooit gepubliceerd is uit je hoofd te kennen. Echt generaliseren naar nieuwe opdrachten is heel moeilijk maar er is gewoon heel veel herhaling in ons leven en AI kan digitale taken steeds vaker net zo goed uitvoeren als dat wij dat kunnen.

Neem bijvoorbeeld een programmertaak van een specifieke functie: dat is vaak niet meer dan een bekende template invullen met het juiste gebruik van de inputs en weer andere typische functies van bepaalde library gebruiken. AI kent de meeste libraries uit zijn hoofd, echt geen programmeur die zo breed onderlegd zou kunnen zijn. In plaats van dat programmeurs iedere keer de API moeten doorzoeken om de juiste functienaam en syntax ervan te zoeken kunnen Github Copilot en andere AI systemen de functie schrijven op basis van een beschrijving ervan. Ze kunnen ook code bekritiseren en verbeteren, bijvoorbeeld op basis van foutmeldingen. Hoewel je gelijk hebt dat het woord voor woord een tekst schrijft leert het tijdens het trainen om vooruit te denken; woorden moeten zo gekozen worden dat ze tot goede antwoorden leiden.
Het probleem is dat AI zoals die nu is geïmplementeerd volledig ongeschikt is voor repetitieve taken.
Door de randomisatie is het zeer onwaarschijnlijk dat een AI tweemaal op rij dezelfde resultaten geeft.
Zelfs als het al soms het resultaat is dat men verwacht, dan is het nog maar de vraag of het ook het resultaat is dan men zou moeten willen krijgen.

Het invullen van programmeertaken door AI leidt tot enorme problemen die zeer moeilijk te vinden zijn en nog moeilijker zijn op te lossen.
Systemen zoals Copilot en in mindere mate ook code completion, zitten de programmeur vaker in de weg dan dat het een daadwerkelijk probleem oplost.

Ja, als je een mindere programmeur bent die niet beschikt over voldoende kennis dan kun je met AI sneller voorbeelden vinden van hoe je iets zou kunnen doen.

Maar helaas zijn die voorbeelden gebaseerd op code die het meest voorkomt op het internet.
Als de code al werkt, dan is de kans heel groot dat die code niet precies doet wat het zou moeten doen. En als de programmeur de kennis ontbreekt om dat te zien, dan heeft dat zeer vervelende gevolgen.

Een ander probleem met de meest voorkomende vorm van code, als je kijkt naar bijvoorbeeld Stack Overflow wat de go-to site is voor veel programmeurs, dan zul je merken dat de daar gepresenteerde code ronduit onveilig is. Soms wordt er door de auteur(s) bij opgemerkt dat de code onveilig is. Maar meestal ook niet. Dat is echter wel de plaats waar de AI zijn code vandaan haalt.

Hetzelfde probleem heb je met code die bekritiseerd wordt door een AI, de AI kan niet bekritiseren.
Het heeft geen enkele vorm van kennis en context over programmeer code het heeft geen begrip.
Zoals ik eerder opmerkte het is abstract bekeken een statistische engine die alleen datgene produceert dat het meest voorkomt, en hetgeen het meest voorkomt is buggy code met veel veiligheid problemen. De kans dat een AI perfect functionerende code afkraakt is groter dan dat het buggy code afkraakt, omdat perfect functionerende code zeer zeldzaam is.

Het probleem is dat de meeste mensen geen idee hebben van wat een AI is of doet en er veel te veel menselijke eigenschappen op projecteren die het gewoon niet heeft.
In zekere zin is een AI als een lemming, als de eerste lemming van de rots naar beneden valt, volgt de rest. De AI gaat er vrolijk achteraan want dat is wat het meeste voorkomt.
Maar als je zelf even je grijze massa gebruikt dan begrijp je dat het niet ideaal is om de grote groep te volgen, omdat je als mens kan overzien wat het resultaat is. Een AI van vandaag kan dat niet, want die kijkt alleen maar naar wat statistisch het meest voor de hand ligt, en dat is, van de rots springen achter alle andere lemmings aan.

[Reactie gewijzigd door Alfa1970 op 19 april 2025 21:42]

Inderdaad. Je stipt hier een mooi punt aan door het vergelijk met Stack overflow.

Als je als software ontwikkelaar AI assistenten zoals Copilot bejubelt voor het kunnen 'vibe-coden' van lappen functionaliteit, maar tegelijkertijd wel ageert tegen het kopiëren van Stack overflow, omdat dat allemaal troep is; je er niets van leert; etc. - dan ben je gewoon zo hypocriet als wat.
De IT is een sector waarbij vrijwel alles in processen wordt vastgelegd en dan komt er bij dat het hier over externen gaat die dus ook nog middels contracten worden aangesteld waarbij er in redelijk detail beschreven staat welke taken ze moeten doen. Het is sector die uitgelezen veel potentie heeft middels automatisering via AI, omdat er best veel repetitief werk is waar je specialistische kennis voor nodig hebt, maar het web staat vol met die kennis en dat is precies waar de AI op getraind is. Voor het schrijven van programmacode is het op veel manieren net zo goed of beter als een getrainde programmeur. Daarom wordt er ook veelvuldig gezegd dat IT’ers misschien wel 10-100x zo efficient kunnen worden met AI. Dit is gechargeerd, maar als ze 2x zo efficient worden is dat natuurlijk al een gigantisch verschil.

Als er geen documentatie is en de codebase verspreid staat over allerlei systemen dan heb je wellicht een probleem dat je eerst moet oplossen, maar dergelijke problemen zijn mijns inziens als 10+ jaar niet meer acceptabel.

Ik denk dat efficiëntie altijd goed is, want dat staat los van wat je met de overgebleven tijd/middelen doet.
Vanuit mijn bubble (mijn baan...) zie ik developers binnen mijn bedrijf enthousiast gebruik maken van AI als programmeerhulpmiddel. Soms slaat AI de plank mis, maar die developers zijn slim genoeg om dat te filteren. Zelf wordt ik ronduit enthousiast als ik een supportsite benader en zelf geen tientallen tickets hoef te interpreteren omdat een AI agent dat voor mij doet en een samenvatting maakt die zo accuraat is (met mijn decennia lange ervaring) dat ik er bijna blind op vaar. Soms kijk ik nog wel zelf wat informatie na voor meer diepgang. Hoe de Ai de informatie samenstelt is soms net even off. De discriminatie interessant/niet interessant is er wel mee te maken en scheelt mij de nodige tijd.

Potentie zie ik genoeg. De rol die ik bij mijn bedrijf heb is gelieerd aan informatiekwaliteit. En dat is gelijk de zorg die ik vanuit die rol heb. Veel doet AI in samenvattingen en consolidaties van informatie goed. Soms gaat het even niet goed. Zolang geoefende lezers dit interpreteren en filteren is dit geen probleem. Hoe lang die lezers geoefend blijven zodra zij zichzelf steeds meer verlaten op AI? En hoe bouwen nieuwe lezers hun ervaring op wanneer zij van meet af aan op AI bouwen?

Ik zie jongere collega's enthousiast omarmen wat kan. Over wat er kan kan ikzelf ook enthousiast worden. Vanuit mijn rol moet ik hen wel de vraag stellen: "Focus eens niet op wat goed gaat, maar op wat niet goed gaat." Willen we informatiekwaliteit borgen, en fouten in het proces voorkomen moeten we begrijpen wat fout gaat om de output van AI foutloos te krijgen. Daar zijn we nog niet. Misschien dat toenemende resolutie van data kan helpen. Andere vakgebieden ijlen op dat vlak nog wel na op het online gedreven IT domein. Het probleem van AI met foutloze output is analoog aan het automatisch laten rijden van auto's. Wanneer kunnen we zeker zijn dat mensen net meer als achtervang moeten dienen?

Ik leg nu het probleem bij AI neer. Dat is maar het halve verhaal. Developers staan dicht bij code en hoe die werkt, en hebben daardoor een beter begrip van AI en haar twists. Bij mensen met een exacte opleiding uit andere vakgebieden is eerst educatie nodig over wat de zin en onzin van AI is. Voor deze gebruikers is AI een soort containerbegrip met ruimte voor interpretatie. Hun begrip is vitaal om voortgang te bereiken. Spelen met AI is een prima leerschool, maar de grenzen en valkuilen moeten ook bekend zijn.

Naast de mensen met exacte achtergrond is er nog een groep niet exact onderwezen mensen. De begripsvorming van deze groep is nog beperkter. Bij deze groep nemen de mogelijkheden mythische vormen aan en is AI een zwitsers zakmes voor ieder probleem wat men nu in het werk ervaart.

De IT branche die AI trajecten begeleidt zal een balans-act moeten uitvoeren door tegelijk potentiële klanten te enthousiasmeren maar ook gelijk met educatie te beginnen om bij die klanten een realistisch verwachtingspatroon te krijgen. Dit aspect speelt ook bij ons kabinet. Hoe realistisch is hun verwachtingspatroon?

[Reactie gewijzigd door teacup op 19 april 2025 22:44]

De IT branche die AI trajecten begeleidt zal een balans-act moeten uitvoeren door tegelijk potentiële klanten te enthousiasmeren maar ook gelijk met educatie te beginnen om bij die klanten een realistisch verwachtingspatroon te krijgen. Dit aspect speelt ook bij ons kabinet. Hoe realistisch is hun verwachtingspatroon?
De 'klanten' van de overheid zijn alle burgers van Nederland die van wettelijk correcte informatie voorzien dienen te worden en waarvan op veel punten wettelijk vastgesteld is dat deze zo simpel en laagdrempelig mogelijk moet zijn, zonder mogelijkheid tot verwarring of foute interpretatie. Daarmee is een LLM in de huidige vorm dankzij de mogelijkheid dat er gehallucineerd wordt, ontoereikend om ooit in enige dekkende hoedanigheid zelfstanding een antwoord te geven.

En zeker waar er zware belangen in de informatieverstrekking meespelen voor de burger, bijv. de voorwaarden voor aanvraag van bepaalde subsidies en de mogelijkheid tot afwijzing; beboeting of erger indien hierin fouten gemaakt worden, is het voor de overheid en maatschappij beiden tesamen om verschillende redenen ook een enorm en onaanvaardbaar risico dat onherroepelijk binnen een kwestie van enkele jaren zal uitmonden in weer een nieuw schandaal bij bijv. de belastingdienst. Toeslagenaffaire 2.0

[Reactie gewijzigd door R4gnax op 20 april 2025 14:40]

Nog erger, degene die niet te vervangen blijken te zijn zijn de externe.
Precies dit..
Vooral bij de overheid kan je wel stellen dat er veel externen lopen te profiteren. Maar daar staan 10x zoveel internen tegenover die of overbodige rol hebben of simpelweg nauwelijks relevante of kwalitatieve "output" leveren: het zijn de externen die de werklast dragen.
Ofwel het gaat om de kosten hoog houden inderdaad
Wel weer komisch dat de overheid externe consultants inhuurt om advies te geven over hoe bespaard kan worden op externe consultants. Volgens mij kan iedere IT’er binnen de overheid je wel vertellen waar het budget heen gaat.

Stop met tijdelijke potjes, geef structureel budget, gooi de externe er uit, geef 10% verhoging voor vast personeel. Probleem opgelost.
ABDTOPConsult is van de Rijksoverheid, dus niet extern.

En met meer salaris heb je niet meteen goede mensen, die kijken ook naar organisatie en cultuur, flexibiliteit, innovatie etc. Speelt ook mee.
En met meer salaris heb je niet meteen goede mensen, die kijken ook naar organisatie en cultuur, flexibiliteit, innovatie etc. Speelt ook mee.
Allemaal zaken waar ook in geïnvesteerd kan worden.
Hier in België bijvoorbeeld is het ook huilen met de pet op. Je wordt betaald naar je diploma. Ik heb slechts een bachelor ... in 2007 bijvoorbeeld zou ik in vaste dienst 1800 euro netto overgehouden hebben. Bij een externe firma kreeg ik toen een wagen (bmw), onkostenvergoeding van god weet ik nog hoeveel euro per dag, maaltijdcheques en 2500 euro netto ... Met 10% kom je er niet hoor. Hier gelden bepaalde schalen. Met een universitair zou ik al wat meer gehad hebben. Na x aantal jaren werken zou mijn loon wel hoger gelegen hebben dan in de privé, mits een universitair diploma. Maar met slechts een bachelor is het echt de moeite niet. Ik ben trouwens freelancer sinds 2007. En ik zou nooit nog terug naar gewoon bediende gaan. Dat ik een minimum pensioen heb, kan mij echt niet schelen hoor. Ik heb een prachtig groot huis, mooie wagen en nog veel extra dingen die moest ik in loondienst gebleven zijn, gewoon nooit mogelijk geweest waren.

En bij de overheidsdienst waar ik werkte waren de "slimste koppen" allemaal externen.
Dat, als er iets is waar de overheid naar moet kijken dan is het dat geneuzel met potjes en budgetjes en tergend trage regeltjes. Geef een (IT) afdeling gewoon een budget en laat ze zelf maar kijken hoe ze dat zo efficient mogelijk in kunnen zetten. Hoe vaak ik al niet gehoord heb dat er geen budget is om te investeren in allerlei nuttige dingen, maar wel voor onnozele dingen omdat iemand bijvoorbeeld gehoord heeft dat ze met AI ineens kosten kunnen besparen.
Zo'n Roemernorm is weer een klassiek voorbeeld van de onkunde van mensen bij de overheid en de politiek.

Voor ICT geldt dat je voor de sleutelfuncties vast personeel nodig hebt, maar voor de tijdelijke projecten is het prima om extra kennis en handen in te huren, want die heb je op een gegeven moment niet meer nodig.

Waarom dat dan 10% zou moeten zijn is mij volstrekt onduidelijk.
Alleen is heel veel niet tijdelijk maar structureel. Als je dan iedere keer je externen eruit hebt gegooid, heeft op een gegeven moment niemand meer de kennis van hoe dingen werken of het te onderhouden. En aan de internen kan het niet overgedragen worden, want die paar op sleutelposities zitten dan al propvol met andere taken.

Daarnaast heeft de overheid ook het goede voorbeeld te geven, en teveel (dure) externe inhuur is dat niet.
De vraag is wat duur is. Externen hoef je geen pensioen of ziekteverlof te geven, geen vakantiedagen en ze betalen deels hun eigen werkplek.

En als ze niet voldoen, dan kun je zo afscheid nemen. Probeer dat maar eens met een ambtenaar.
Maar al die kosten berekenen ze door in hun uurtarief, of ten minste, dat zouden ze moeten doen (en ik denk dat we daar nog wel wat problemen gaan krijgen als samenleving met mensen die dat niet gedaan hebben, of waar werkgevers er gewoon misbruik van hebben gemaakt zoals in de bouw). Ook het deels betalen van hun eigen werkplek valt tegen, de meeste organisaties waar ik heb gezeten was BYOD niet mogelijk en kregen ook externen een laptop voor toegang tot andere systemen. En je zal iedere keer het wervingstraject door moeten, iedere keer in moeten werken, terwijl je van een interne medewerker toch een 4-5 jaar plezier hebt als organisatie.

Natuurlijk is een externe prima voor een tijdelijk project of om binnen organisatie bepaalde expertise tijdelijk in te brengen, maar dan moet het echt tijdelijk zijn en niet jaren achter elkaar wat soms het geval is.

En als externen niet voldoen kan je zo afscheid nemen, dat is deels waar (want afhankelijk van de afgesloten contracten), maar van al het personeel (ambtenaren zijn gewoon werknemers tegenwoordig) kan je af als ze niet voldoen. Daarvoor zijn de proeftijd en tijdelijke contracten, je kan in die periode prima bepalen of iemand wel of niet voldoet. En als iemand training nodig heeft om te voldoen, krijg je dat als organisatie ook weer terug omdat iemand dan meer kennis heeft en gemotiveerd is om te blijven. En wie gaat beoordelen of een externe functioneert? Diegene op sleutelposities die het of te druk hebben of er geen verstand van hebben om te kunnen beoordelen of de externe wel goed werk aflevert?

Maar zoals ik in mijn eerdere reactie al aangaf, de overheid heeft het goede voorbeeld te geven, en teveel externe inhuur is dat niet.
In mijn tijd bij de overheid bleek het zelfs onmogelijk een slechte beoordeling te geven.

Medewerkers die weigeren samen te werken. Spookambtenaren en medewerkers die iedere maand minimaal 4 dagen ziek zijn.

En externen hebben altijd 1 maand opzegtermijn.
Het Nederlands kabinet kan besparen op de inhuur van extern ict-personeel door een deel van de werkzaamheden te vervangen door technologieën als AI.
En gaat dat helemaal intern opgezet en ondersteund worden, of gaan we hier toch weer... jawel, extern IT-personeel/consultants voor inhuren?

Daarnaast, veel AI komt uit bijvoorbeeld de VS (denk aan ChatGPT, Grok, Meta AI etc). Loop je op deze manier niet het risico dat veel (potentieel) vertrouwelijke informatie in foute/verkeerde handen valt (Amerikaanse overheid, de bigtech bedrijven etc)?

Ik snap dat er bespaard moet worden, maar ik heb ernstig mijn twijfels of het vervangen van mensen door AI in veel gevallen nu een ideale of wenselijke situatie is.
Lijkt eerder een vehicle-argument, om kosten te besparen in de budgetten, waarna -later, na goedkeuring van de budgetten- wel zal blijken of het deze keer wel goed was ingeschat. Everybody knows the anwer.
In mijn optiek zijn de uurtarieven in de ICT sector enorm opgeblazen, een soort collectieve verstandsverbijstering. In bijvoorbeeld engineering liggen de uurtarieven substantieel lager.

Ik denk dat dit m.n. komt door de overheid zelf, die gewoon gigantisch veel ICT projecten doet die ook veel uitlopen.

Ik heb bij wat detacheerders gezeten en eigenlijk krijg ik een knoop in mijn maag van hoe makkelijk er omzet wordt gedraaid, hoe relatief weinig risico er is en hoe veel marge er wordt geboekt. De winst is duizelingwekkend, zelfs voor kleine clubjes.

En dan heb je nog de ZZP'ers, waar het niveau ook enorm van wisselt.

Blij om nu intern te zitten in elk geval.
Je noemt het zelf al: marge. Als extern medewerker is het in de regel niet slecht betaald. Maar als je ziet wat voor marges er nog bovenop komen om een waterhoofd bij de detacheerders mee te mogen financieren, ja dan zijn de uurtarieven wel te verklaren.

En ja, alle vertragingen helpen ook niet. Deze onttrekken capaciteit aan de markt, waarmee ze de schaarste dus versterken. Los dat op en je hebt als inhurende overheid een betere onderhandelingspositie.

Hoef je ook geen AI in te zetten, ongetwijfeld een eigen taskforce en allerhande nevenactiviteiten voor bestaande projecten die daar niet op zitten te wachten omdat het alleen maar extra werk veroorzaakt ivm (verplicht) gewijzigde methoden en natuurlijk de obligate rapporten naar boven.
Ik werk als software engineer bij de overheid, en ontwikkel maatwerk software, en ik ben geen groot fan van AI als vervanging van 'juniors'.

Ik schat in dat het alleen maar meer werk oplevert op om de resultaten die eruit komen meer in lijn te brengen met wat we als standaarden hebben en hoe we onze code willen hebben. Daarnaast is het beleidsmatig niet eens toegestaan om AI te gebruiken. De AI functioinalitiet in al onze tooling is gedisabled. Het heeft meerwaarde ter ondersteuning, voor het vergroten van testcoverage oid.

Mijn inziens kan er meer worden gesneden in de management/business laag. Daar zitten veel mensen de allemaal elke keer zich met alles moeten benoemen. Deze zitten vaak ook nog in een hogere salarisschaal... En misschien is het ook wel nuttig te snijden in al die externe software (en bijbehorende 'ondersteuning/consulting' die voor bakken wordt ingekocht en vervolgens niet lijkt te doen wat het moet doen.

Anyway, my 2 cents.
Dat hoop ik ook in de zorg management lagen eruit en professionals ondersteunen met de administratieve last. Wat ik erg gaaf vind en heel veel voordelen overlevers is iets speech to text in de spreekkamer. Meteen een juist verslag met metadata.
Dus ze hebben een externe consultant ingehuurd om te adviseren hoe ze de externe inhuur kunnen terugdringen? Mag ik even heel hard lachen? Of eigenlijk: heel hard huilen?

En dan de uitkomst: AI gebruiken!? Want het is al lang en breed bewezen dat andere organisaties daarmee tientallen procenten bezuinigen op personeel? Laat me niet lachen!

Ik geef hierbij mijn gratis advies: bezuinig niet op de ambtenaren, maar zorg voor marktconforme salarissen. Breek een heleboel bureaucratie af zodat het leuker wordt om bij de overheid te werken. En ga bouwen aan gave projecten, zoals een eigen overheidscloud, eigen AI voor gebruik binnen de overheid, etc.
Je verdient echt prima bij de rijksoverheid met nog een 13e maand in het IKB.
De bureaucratie en salaris ligt het volgens mij niet echt aan. Het is vooral achterlijk dat de overheid zo min mogelijk mensen daadwerkelijk in dienst neemt. Liever een nieuwe consultant voor ieder project, dan een team in dienst die hetzelfde kan en op elkaar ingespeeld raakt. Zolang het op papier maar minder kost.
ABDTOPConsult is een adviesgroep van de overheid zelf.


Om te kunnen reageren moet je ingelogd zijn