Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

Nederlandse ambtenaren kunnen vanaf 2026 lokaal gedraaide AI-tool Vlam gebruiken

Nederlandse ambtenaren van de Rijksoverheid kunnen vanaf volgend jaar een in Nederland gemaakte, lokaal draaiende AI-assistent gebruiken in hun werk. 'Vlam' draait in Nederlandse datacenters en gebruikt alleen Europese taalmodellen.

De chatbot kan vanaf 2026 worden gebruikt door 26.000 ambtenaren. Het gaat om werknemers van de ministeries van Algemene Zaken, Binnenlandse Zaken, Volkshuisvesting, Financiën, Infrastructuur en Waterstaat, Onderwijs, Sociale Zaken en Volksgezondheid. Die ministeries hebben zich aangemeld en dragen ook bij aan de kosten van het project.

Het gaat om een chatbot die Vlam-chat heet. Dat is een project van SSC-ICT, het Shared Service Center, een ict-dienstverlener voor de Nederlandse Rijksoverheid. De tool werd een paar maanden geleden al getest onder andere ministeries.

De naam Vlam staat voor Veilige lokale AI-modellen, zegt SSC-ICT. De tool bestaat uit een chatbot, maar ook een zoekfunctie waarmee documenten in overheidsdatabases kunnen worden doorzocht, en een api waarmee ontwikkelaars zelf applicaties kunnen bouwen. De chatbot moet lokaal draaien in Nederlandse datacenters en 'Europese taalmodellen' kunnen draaien, al noemt SSC-ICT daar geen specifieke voorbeelden bij.

Volgens SSC-ICT kunnen ambtenaren de chatbot gebruiken om documenten samen te vatten, teksten op te stellen en te bewerken. Ook kan de tool programmeren en teksten opstellen in bepaalde taalniveaus, zoals B1 wat voor teksten richting burgers de standaard is.

Door Tijs Hofmans

Nieuwscoördinator

21-11-2025 • 12:08

52

Submitter: Westpjotr

Reacties (52)

Sorteer op:

Weergave:

Het lijkt me uitermate belangrijk dat ambtenaren ook worden getraind in het nalezen en redigeren van wat Vlam produceert en ervan doordrongen worden dat ze zelf verantwoordelijk blijven voor het resultaat. Ik kom nog altijd veel fouten tegen in AI-samenvattingen en merk dat de reden om erop te vertrouwen - tijdswinst - dezelfde reden is waarom sommige mensen de output niet controleren. Ik verwacht een volgend schandaal als blijkt dat mensen verkeerd zijn geïnformeerd omdat ambtenaren klakkeloos AI-fouten doorsturen.
Gelukkig is tegenlezen altijd de norm binnen de rijksoverheid bij belangrijke documenten.Ook nu de teksten gewoon nog met de hand worden opgemaakt, zijn er altijd een paar werknemers die de rol van tegenlezer op zich hebben genomen en een document desgevraagd controleren.
Afgezien dat een norm niet zomaar een plicht is en dus niet altijd maar praktijk. Dit ai middel lijkt ook bedoeld voor 'minder belangrijke' verwerking en voor verwerking die om andere redenen niet onder bestaande uitgangspunten vallen. Bijvoorbeeld dat zowel een gebruiker als een ander persoon niet gewend zijn op fouten van een ai te letten. En tenzij dit soort 'normen' daar expliciet wel rekening mee houden is het dus niet verstandig daar op te vertrouwen.
En die tegenlezer stopt het dan ook weer in Vlam...
Zolang het niet EuroLLM is, want deze produceert zeer onbetrouwbare resultaten in LM Studio (GGUF formaat). Ook vragen worden compleet verkeerd begrepen. Wat vreemd is want, de 50 andere getestte lokale modellen begrijpen de vragen wel.

Er is nog een andere 'Omol' of zoiets dergelijks, getraind met alleen publieke domein data. Dat is nog slechter dan EuroLLM.

Van alle getestte modellen zijn SmolLM2, en LFM2 (in de reeks 1b tot 8b modellen) eigenlijk best wel goed (Engels-only). Gwen3n, qwen3vl (4b) ook erg goed. Granite4.0 van IBM is redelijk tot goed, wel erg kortaf. Dat vindt ik persoonlijk wel prettig, maar kan me voorstellen dat er mensen zijn die dit niet op prijs stellen.

Daarnaast heb ik alleen modellen getest, getraind voor specifieke domeinen (code, wetenschap) (in de reeks 10b tot 14b modellen). Deze doen het best goed met algemene vragen, en in hun domein een stuk beter.

gpt-oss:20b is dan weer een algemeen model. Doet het ook behoorlijk goed voor algemene zaken. Nog een paar 30b modellen getest, maar dat werd al gauw te zwaar voor mijn hardware en dus veel te sloom. Kwaliteit van antwoorden gaat wel met stappen omhoog.

Vandaar dat ik nog altijd van mening ben dat de crux tussed lokale en cloud AI ligt tussen de 30b en 70b modellen. Kun je 70b modellen lokaal draainen (met redelijke tkn/sec prestaties), dan zul je nog maar weinig geneigd zijn om steeds de cloud AI's aan te spreken.

Want realiseer je 1 ding, stel een vraag aan cloud-AI en zij routeren het intern naar het kleinst mogelijke model in hun beheer, wat dus vaak een 70b model is. Scheelt hen enorm in kosten en houdt de grotere modellen vrij voor personen met een uitgebreider abonnement dan jij hebt. Als je in het geval van OpenAI uberhaupt een abonnement hebt genomen. Schijnt daar namelijk nogal tegen te vallen.

Zelf maak ik graag gebruik van de AI op phind.com, op de momenten dat ik vragen stel aan cloud-AI. Gratis gebruikers krijgen antwoorden van hun 70b model. En deze zijn vaak al zeer uitgebreid, en toont ook gelijk alle referenties (inclusief links voor persoonlijke verificatie). Zij deden dat al veel eerder dan andere cloud-AI aanbieders dat deden.

Heel veel woorden om te zeggen dat ik niet zo onder de indruk ben van de lokale LLMs die in de EU worden geproduceerd. Apertus uit Zwitserland, deze bevalt me het best van de lokale EU modellen. Vaak beter dan de lokale Mistral LLMs.
Goede zaak, zeker omdat dit intern blijft draaien. Ik ben wel benieuwd wel LLM model hieronder gebruikt wordt? Is dit een eigen ontwikkeld taal model of wordt er een LLM gebruikt die is ontwikkeld door een andere partij zoals openAI? Als het laatste het geval is, hoe weten we dan zeker dat dit veilig te gebruiken is?
Vlam' draait in Nederlandse datacenters en gebruikt alleen Europese taalmodellen.

In ieder geval dus geen openai. Maar omdat er specifiek staat Europese taalmodellen kan je verwachten dat het wellicht Mistral is. Anders zouden ze wel een lokale LLM hebben geschreven vermoed ik.
hoe weten we dan zeker dat dit veilig te gebruiken is?
Een taalmodel is maar een setje met data dat je zelf in je code moet aansturen, dus in principe kun je dat zeker weten.

In principe, omdat je ook zaken zoals tool-calling hebt. Maar dat is ook eigen code ipv van een derde partij. Dat is met een model van eigen afkomst net zo gevaarlijk.
De naam Vlam staat voor Veilige lokale AI-modellen
Een open deur, maar: het kan ook gezien worden als een (niet zo) subtiele verwijzing naar het energieverbruik :+
of het verbranden van grote hoeveelheden belastinggeld
En bij meerdere fouten door ongecontroleerd gebruik van deze tool door ambtenaren kan je dan in meerdere opzichten spreken van Vlam in de pan
Snel de deksel er op en uit het raam gooien dan, toch? :P

[Reactie gewijzigd door DropjesLover op 21 november 2025 12:31]

Het is niet zo dat AI en elk model per definitie zoveel energie verbruikt. De hardware zal sowieso schalen op het gebruik. Gezien het gaat om 26k medewerkers, is dit helemaal niet te vergelijken met "de grote jongens".

Eens dat ze infrastructuur moeten kopen, maar dat is iets eenmalig en op budgetten van de overheid valt dat mee. Zeker met de winst dat ze hiermee kunnen maken in sneller informatie vinden, correcter handelen, zaken automatiseren, etc...

Bedenk dit: was het in 1990 ook verkwisting van energie en geld om een computer aan te schaffen voor de overheid?

Het gros van energieverbruik is het trainen van een model. Laat dit nu net niet het trainen van modellen zijn; ze geven het zelf aan: ze gebruiken europese modellen (bvb Mistral). De extra informatie die ze toevoegen is gewoon RAG.
Hardware kopen is nooit eenmalig. Dat is iets wat je in 5 jaar afschrijft, en dan moet vernieuwen omdat werknemers anders gaan klagen dat het allemaal te lang duurt.

Verder wordt die energie linksom of rechtsom toch wel gebruikt, i.p.v. een eigen model wordt anders wel chatgpt gebruikt. Kun je toch beter een eigen model/infra hebben voor security.
Dan zou je dat moeten afzetten tegen de hoeveelheid energieverbruik als je informatie door mensen laat zoeken.
Vlam.ai is gebaseerd op het in het Frankrijk ontwikkelde Mistral model. Er is nu al bijna 10x zo veel behoefte aan vlam.ai dan dat er in januari beschikbaar komt.

Bij justitie is er een vergelijkbare omgeving die Robin heet.

[Reactie gewijzigd door djwice op 21 november 2025 12:38]

Robin?

Naar de Engelse vigilant Robin Hood die het leven van de corrupte doch officiele overheid moeilijk maakte?

Of naar het woord Robijn, waar criminelen graag op jagen?
De naam Vlam staat voor Veilige lokale AI-modellen, zegt SSC-ICT. De tool bestaat uit een chatbot, maar ook een zoekfunctie waarmee documenten in overheidsdatabases kunnen worden doorzocht, en een api waarmee ontwikkelaars zelf applicaties kunnen bouwen. De chatbot moet lokaal draaien in Nederlandse datacenters en 'Europese taalmodellen' kunnen draaien, al noemt SSC-ICT daar geen specifieke voorbeelden bij.
Volgens mij snappen ze niet helemaal wat er met het woord "lokaal" wordt bedoelt.

[Reactie gewijzigd door ShadLink op 21 november 2025 12:17]

Bart ® Moderator Spielerij @ShadLink21 november 2025 12:29
Het woord 'lokaal' kan uiteraard meerdere betekenissen hebben. Ik interpreteer het in deze context als 'niet in een buitenlands datacenter'.
Dat is dan eerder nationaal dan lokaal. Maar ja, dan zou de afkorting niet meer kloppen. Lokaal is gewoon altijd op de lokale machine. Tenzij de medewerker in het datacenter is, is dit geen lokaal.

Als je de term onnodig gaat trekken zou je ook kunnen zeggen dat "ergens op aarde" ook lokaal is, waardoor je dus direct het woord alle waarde verliest. Maw. dubbelspraak.

[Reactie gewijzigd door ShadLink op 21 november 2025 12:45]

Jij gebruikt een definitie van IT-ers. Lokaal kan nog veel meer betekenen. Het kan op een PC zijn, in een kantoorgebouw, binnen een organisatie met meerdere vestigingen, landelijk. En dan klopt het allemaal. Net zoals "regio" meerdere betekenissen kan hebben. Een IT-term, cloud, Zuid-Holland Zuid, Europeses Economische regio.
Zo kan je elk woord een andere betekenis geven. Hierdoor hebben die woorden ineens geen waarde. Zelfs een brede "lokaal" zou nog in hetzelfde gebouw moeten betekenen. Maar ergens in hetzelfde land is in mijn optiek nooit lokaal.
Lokaal heeft geen absolute betekenis maar is context afhankelijk. Dus ja, in de ruimtevaart zou het kunnen betekenen dat het ergens op aarde is, versus ergens daarbuiten.
Maar definieer je dan buitenland als alles buiten Europa of alles buiten Nederland ?
De chatbot moet lokaal draaien in Nederlandse datacenters
Zo kan je alles wel lokaal gaan noemen. :+
Ja lokaal is toch op de eigen PC? Of ben ik nou gek?
Dat hangt van je context af. Lokaal in IT is inderdaad vaak geassocieerd met op de eigen hardware. Lokaal in deze context is op Nederlandse bodem?
Sorry, maar nee.

"Local LLM" is een super bekend begrip en betekent alleen het draaien van modellen op je eigen hardware, als persoon. Dus het model draait op je laptop.

Zie bijv: https://www.reddit.com/r/LocalLLM/

Een model dat in een datacenter van de overheid draait, draait niet lokaal. Het draait wel "on-prem" als de overheid het datacenter ook zelf beheert of het is "soeverein" als je wil benadrukken dat het niet bij een Amerikaanse partij draait.

Maar hoe goed de ontwikkeling ook is, een model gebruiken vanuit een datacenter is precies het tegenovergestelde van 'lokaal'.
Ja, en dat is dus het stukje ' in de it' waar ik het over had. Lokale groente bedoelen we ook niet mee dat het in je tuin staat? Het woord lokaal zoals het in het artikel staat is dus on premise. Het gaat dus om context

[Reactie gewijzigd door Webgnome op 21 november 2025 12:51]

Ja en de context van Tweakers en dit bericht is de IT, toch? Niet groente?
Hangt er van af. Buiten de software wereld is "lokaal geproduceerd" namelijk ook een dingetje.
Is toch gewoon context afhankelijk? In de context van aardappelen kopen bij de lokale boer betekent het bijvoorbeeld "in de eigen regio" en hebben computers er niets mee te maken.

In de context van AI modellen voor de overheid draaien gaat het natuurlijk om soevereiniteit.
JA en in de context van IT, wat de context van Tweakers is, is "lokaal" niet "in een datacenter".

Sterker nog, in de IT betekent 'lokaal' zo ongeveer precies dat het niet in een datacenter draait ergens.

De term voor een datacenter in eigen beheer is "on prem".
Dat is de hele nauwe definitie van een IT-er. Als jij morgen op de markt "lokaal geproduceerde kaas" ziet, is die dan in jouw gemeente gemaakt of in jouw keuken?

[Reactie gewijzigd door R_Zwart op 21 november 2025 12:55]

Lokaal is in je eigen dorpje.
Beetje flauw en ik denk ook een misinterpretatie van het originele artikel:

Vlam.ai is een veilig, verantwoord en gebruiksvriendelijk alternatief voor de (vaak Amerikaanse) commerciële partijen en hun AI-diensten. Vlam.ai wordt gehost op servers van SSC-ICT. Ingevoerde data blijft op deze manier van ons, én bij ons.’

Zo staat het letterlijk bij de bron. In dit geval dus on-premise in het eigen datacenter van de overheid. Kunnen we alleen maar toejuichen toch?
Als deze AI straks alle ambtelijke brieven naar begrijpelijk B1-niveau vertaalt, is dat de investering al dubbel en dwars waard!
Ik zie het liever andersom. Laat de ambtenaar het maar zo duidelijk en feitelijk mogelijk beschrijven, en geef inwoners die een brief ontvangen de mogelijkheid via Vlam deze brief te herschrijven in een voor hen begrijpbaar formaat. Voor de ene zal dat B1-niveau zijn, voor de andere als stripverhaal.
Dan ga je dus een requirement opleggen dat mensen die taalkundig al niet zo vaardig zijn even op hun PC of smartphone met AI moeten gaan werken.... Als ze al een PC of smartphone hebben.
Ik mis nog altijd de businesscase. Er is inmiddels lang en breed bewezen dat dataveiligheid niet het grootste risico is, en als je dit ziet gecombineerd met het feit dat LLM's vrijwel uitontwikkeld zijn (en we dus een doorbraak richting échte kunstmatige intelligentie moeten hebben, ipv een taalmodel dat het volgende woord voorspelt) is die businesscase ver te zoeken.

Dus wáárom wordt hier zoveel tijd en geld in gestoken, behalve 'omdat AI'? Het maakt de output niet beter, het scheelt in de meeste zaken weinig/geen tijd (of scheelt tijd, maar gaat ten koste van kwaliteit), en het kost handenvol geld. Juist bij een overheidsinstelling lijkt mij 'omdat het het schrijven van leuke berichtjes makkelijker maakt' geen geldig argument.
Bart ® Moderator Spielerij @Oon21 november 2025 12:32
Denk je dat de overheid alleen maar bezig is met berichtjes schrijven? Ik weet wel zeker dat er ook besluitvorming plaatsvindt op basis van allerlei gegevens uit allerlei bronnen. Met AI kunnen die gegevens mogelijk beter geduid en vergeleken worden, waardoor besluitvorming beter kan worden. Om maar een voorbeeld te noemen. Daarnaast kan AI oplossingen voor vraagstukken aandragen waar ambtenaren zelf nog helemaal niet aan gedacht hadden. Of heel makkelijk zoeken naar eerdere oplossingen die men door personeelswisselingen al lang weer vergeten was.
Overheden krijgen ook steeds meer te maken met door AI gegenereerde inspraak vanuit burgers. Om inspraakmogelijkheden te ordenen en te categoriseren vormt AI een geschikte tool om daadwerkelijk flinke tijdwinst te boeken in de beantwoording. Uiteraard dient ook dat nog allemaal nagelezen en gecontroleerd te worden, maar daar kan AI zeker tijdswinst opleveren.
(...) De tool bestaat uit een chatbot, maar ook een zoekfunctie waarmee documenten in overheidsdatabases kunnen worden doorzocht, (...).

Volgens SSC-ICT kunnen ambtenaren de chatbot gebruiken om documenten samen te vatten, teksten op te stellen en te bewerken. Ook kan de tool programmeren en teksten opstellen in bepaalde taalniveaus, zoals B1 wat voor teksten richting burgers de standaard is.
Hierboven staat de business case beschreven. Helaas doet mijn werkgever, een ander onderdeel van de Rijksoverheid, (nog?) niet mee met Vlam, maar voor mijn werkzaamheden zouden deze functies zeker een nuttig hulpmiddel kunnen zijn.

Ik ben de meeste tijd kwijt met dossiers doorspitten en leesbare samenvattingen maken van de ambtelijke en juridische taal daarin. Een tool die daarbij helpt zou ik heel nuttig vinden, aangezien ik zelf vanwege beroepsdeformatie nog wel eens in "moeilijk taalgebruik" wil blijven hangen. Dat wordt wel gecontroleerd natuurlijk, maar soms pingpongt correspondentie daardoor ook een paar keer heen en weer tussen mij en mijn collega's voor het uiteindelijk verstuurd wordt. Dus in die zin kan zo'n tool best wat efficiëntie opleveren.
Bij ons op het werk is de BC heel duidelijk: als we AI tools inzetten gaat de kwaliteit omhoog. Van veel dingen is het praktisch onmogelijk om met mensen de kwaliteit van veel zaken nog te verbeteren. Bijvoorbeeld:

- Contractdocumenten, statements of work etc van honderden bladzijden zijn niet door mensen te reviewen op consistentie, Als je het met een team doet vindt je conflicterende statements niet, als je het alleen doet is het gewoon teveel werk.

- Als we een oplossing bouwen met tientallen producten en we proberen een geconsolideerd overzicht van bijvoorbeeld alarmen te maken (die per product vaak in een ander formaat zijn beschreven) is dat monnikenwerk als je het met de hand doet. Met een goede AI prompt is het minuten.
Wat wel een beetje jammer is, is dat Vlam.ai niet in het Register Internetdomeinen Overheid te vinden is.
Waarom is zoals altijd weer het wiel zelfstandig opnieuw uitgevonden , er zijn in dit verenigde Europa al landen die hun Ai tool al in gebruik hebben en deze Ai tools gebruiken dezelfde taal modellen. Waarom dan weer zelfstandig iets ontwikkelen , waarvan we weten dat zodra het wat groter uitgerold gaat worden al weer tegen capaciteits en configuratie problemen gaat aanlopen. . De bestaande ict van de ministeries werkt al niet lekker met elkaar laat staan nu weer een universele Ai tool er bij. Heeft de overheid , na al die onderzoeken , na al die kamervragen al die budget overschrijdingen , etc nog steeds niets geleerd. De Ingehuurde ICT consultants bij de overheid zullen weer met massa’s naar binnen geduwd worden ,om er voor te zorgen dat er nog iets werkbaars uit komt voor de ambtenaren

Om te kunnen reageren moet je ingelogd zijn