Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

Nederlandse Rijksambtenaren kunnen lokaal gedraaide AI-tool Vlam gaan gebruiken

Nederlandse ambtenaren van de Rijksoverheid kunnen vanaf volgend jaar een in Nederland gemaakte, lokaal draaiende AI-assistent gebruiken in hun werk. 'Vlam' draait in Nederlandse datacenters en gebruikt alleen Europese taalmodellen.

De chatbot kan vanaf 2026 worden gebruikt door 26.000 ambtenaren. Het gaat om werknemers van de ministeries van Algemene Zaken, Binnenlandse Zaken, Volkshuisvesting, Financiën, Infrastructuur en Waterstaat, Onderwijs, Sociale Zaken en Volksgezondheid. Die ministeries hebben zich aangemeld en dragen ook bij aan de kosten van het project.

Het gaat om een chatbot die Vlam-chat heet. Dat is een project van SSC-ICT, het Shared Service Center, een ict-dienstverlener voor de Nederlandse Rijksoverheid. De tool werd een paar maanden geleden al getest onder andere ministeries.

De naam Vlam staat voor Veilige lokale AI-modellen, zegt SSC-ICT. De tool bestaat uit een chatbot, maar ook een zoekfunctie waarmee documenten in overheidsdatabases kunnen worden doorzocht, en een api waarmee ontwikkelaars zelf applicaties kunnen bouwen. De chatbot moet lokaal draaien in Nederlandse datacenters en 'Europese taalmodellen' kunnen draaien, al noemt SSC-ICT daar geen specifieke voorbeelden bij.

Volgens SSC-ICT kunnen ambtenaren de chatbot gebruiken om documenten samen te vatten, teksten op te stellen en te bewerken. Ook kan de tool programmeren en teksten opstellen in bepaalde taalniveaus, zoals B1 wat voor teksten richting burgers de standaard is.

Door Tijs Hofmans

Nieuwscoördinator

21-11-2025 • 12:08

112

Submitter: Westpjotr

Reacties (112)

112
110
54
11
0
36

Sorteer op:

Weergave:

Ik mis nog altijd de businesscase. Er is inmiddels lang en breed bewezen dat dataveiligheid niet het grootste risico is, en als je dit ziet gecombineerd met het feit dat LLM's vrijwel uitontwikkeld zijn (en we dus een doorbraak richting échte kunstmatige intelligentie moeten hebben, ipv een taalmodel dat het volgende woord voorspelt) is die businesscase ver te zoeken.

Dus wáárom wordt hier zoveel tijd en geld in gestoken, behalve 'omdat AI'? Het maakt de output niet beter, het scheelt in de meeste zaken weinig/geen tijd (of scheelt tijd, maar gaat ten koste van kwaliteit), en het kost handenvol geld. Juist bij een overheidsinstelling lijkt mij 'omdat het het schrijven van leuke berichtjes makkelijker maakt' geen geldig argument.
Bart ® Moderator Spielerij @Oon21 november 2025 12:32
Denk je dat de overheid alleen maar bezig is met berichtjes schrijven? Ik weet wel zeker dat er ook besluitvorming plaatsvindt op basis van allerlei gegevens uit allerlei bronnen. Met AI kunnen die gegevens mogelijk beter geduid en vergeleken worden, waardoor besluitvorming beter kan worden. Om maar een voorbeeld te noemen. Daarnaast kan AI oplossingen voor vraagstukken aandragen waar ambtenaren zelf nog helemaal niet aan gedacht hadden. Of heel makkelijk zoeken naar eerdere oplossingen die men door personeelswisselingen al lang weer vergeten was.
Ik weet wel zeker dat er ook besluitvorming plaatsvindt op basis van allerlei gegevens uit allerlei bronnen. Met AI kunnen die gegevens mogelijk beter geduid en vergeleken worden, waardoor besluitvorming beter kan worden.
Dat hoop ik toch zeer zeker niet, want dat is net een doel waar de huidige LLM's écht niet geschikt voor zijn. Een scriptje schrijven om wat data te verwerken, prima. Maar data verwerken en daar conclusies uit trekken absoluut niet, want de kans op hallucinaties is daarbij véél te groot.
Bart ® Moderator Spielerij @Oon21 november 2025 13:49
Je kunt conclusies controleren.
Overheden krijgen ook steeds meer te maken met door AI gegenereerde inspraak vanuit burgers. Om inspraakmogelijkheden te ordenen en te categoriseren vormt AI een geschikte tool om daadwerkelijk flinke tijdwinst te boeken in de beantwoording. Uiteraard dient ook dat nog allemaal nagelezen en gecontroleerd te worden, maar daar kan AI zeker tijdswinst opleveren.
(...) De tool bestaat uit een chatbot, maar ook een zoekfunctie waarmee documenten in overheidsdatabases kunnen worden doorzocht, (...).

Volgens SSC-ICT kunnen ambtenaren de chatbot gebruiken om documenten samen te vatten, teksten op te stellen en te bewerken. Ook kan de tool programmeren en teksten opstellen in bepaalde taalniveaus, zoals B1 wat voor teksten richting burgers de standaard is.
Hierboven staat de business case beschreven. Helaas doet mijn werkgever, een ander onderdeel van de Rijksoverheid, (nog?) niet mee met Vlam, maar voor mijn werkzaamheden zouden deze functies zeker een nuttig hulpmiddel kunnen zijn.

Ik ben de meeste tijd kwijt met dossiers doorspitten en leesbare samenvattingen maken van de ambtelijke en juridische taal daarin. Een tool die daarbij helpt zou ik heel nuttig vinden, aangezien ik zelf vanwege beroepsdeformatie nog wel eens in "moeilijk taalgebruik" wil blijven hangen. Dat wordt wel gecontroleerd natuurlijk, maar soms pingpongt correspondentie daardoor ook een paar keer heen en weer tussen mij en mijn collega's voor het uiteindelijk verstuurd wordt. Dus in die zin kan zo'n tool best wat efficiëntie opleveren.
Bij ons op het werk is de BC heel duidelijk: als we AI tools inzetten gaat de kwaliteit omhoog. Van veel dingen is het praktisch onmogelijk om met mensen de kwaliteit van veel zaken nog te verbeteren. Bijvoorbeeld:

- Contractdocumenten, statements of work etc van honderden bladzijden zijn niet door mensen te reviewen op consistentie, Als je het met een team doet vindt je conflicterende statements niet, als je het alleen doet is het gewoon teveel werk.

- Als we een oplossing bouwen met tientallen producten en we proberen een geconsolideerd overzicht van bijvoorbeeld alarmen te maken (die per product vaak in een ander formaat zijn beschreven) is dat monnikenwerk als je het met de hand doet. Met een goede AI prompt is het minuten.
Sowieso gebruik ik LLMs vaak voor review werk. Het laten herschrijven van teksten is meestal geen goed idee maar het is een handig om een LLM met mogelijke aanpassingen of fouten te laten komen. Ik mis dat soms ook wel bij Tweakers omdat je - zeker aan het einde van een artikel - van tegen fouten aan loopt. Momenteel way minder trouwens, die misschien doen ze het tegenwoordig al.
Niet helemaal mee eens. Wij (grote gemeente) gebruiken nu een licentie van Microsoft voor Copilot en gebruik het zelf regelmatig. Met name voor vergelijken van aanbieders bij een (onderhandse) aanbesteding; waar verschillen de partijen in. Maar ook voor het vertalen van bestuursstukken/beleidsadviezen naar B1. Tegenwoordig moet alles wat naar de buitenwereld gaat in B1 of simpeler.

Of het uitkauwen van anonieme big-data. Binnen 2 minuten een hele lijst met samenvattingen/vergelijkingen en conclusies.

[Reactie gewijzigd door Source90 op 21 november 2025 15:31]

De businesscase is dat ambtenaren op ministeries véél tijd kwijt zijn aan tekstueel werk:
  • Het in geschikte stijl opschrijven van bepaalde informatie (kamerbrief, burgerbrief, beslisnota, informele nota, rapport, korte beknopte samenvatting, bijlage, infographic, etc etc). Het bent veel tijd kwijt met dit soort aanpassingen terwijl je niet persé over de inhoud hoeft na te denken.
  • Op basis van veel tekst (1000 pagina's inhoud is geen uitzondering) een goed advies kunnen uitbrengen binnen de gestelde tijd. Het zal niet de eerste keer zijn dat je minister/baas "morgenochtend" spontaan een advies nodig heeft :P.
  • Digitale soevereiniteit is tegenwoordig echt wel een belangrijk element bij de (rijks)overheid. Het is zelfs dusdanig erg dat een aantal overheidsorganisaties (nu) nog niet meedoet omdat ze nog niet genoeg vertrouwen in SSCICT hebben op dit vlak en zelf alternatieven ontwikkelen waar ze nog meer eigen controle over hebben. En meer digitale soevereiniteit kost nou eenmaal geld.
  • Kritische adviseur: wat ben ik als ambtenaar vergeten?
  • Kunnen omgaan met een buitenwereld die het wel gebruikt: je staat anders al 1-0 achter qua verwerkingssnelheid.
Ergo, ambtenaren hebben meer tijd om kwaliteit te leveren als ze generatie AI op een verantwoorde manier kunnen gebruiken. Met alle extra taken en bezuinigen een welkome afwisseling ;).
LLM's vrijwel uitontwikkeld
Mag ik hier een bron van?
Naast vlam.chat, wat (nu) op Mistral Medium 3.1 gaat draaien, gaat SSC-ICT ook een API aanbieden. Daarop komen (in eerste instantie) vier standaardmodellen, allemaal van Mistral:
  • Mistral Medium 3.1
  • Mistral Small 3.2
  • Mistral OCR
  • Mistral Embed
Ook wordt er nog gekeken naar een transcriptiemodel, waarschijnlijk Wishper of Voxtral.

Alles draait op lokale servers, B300-nodes zijn in bestelling. Dus op de een of andere manier hebben ze een kopie van Mistral Medium 3.1 gekregen wat ze lokaal mogen hosten.

[Reactie gewijzigd door Balance op 21 november 2025 15:41]

Het lijkt me uitermate belangrijk dat ambtenaren ook worden getraind in het nalezen en redigeren van wat Vlam produceert en ervan doordrongen worden dat ze zelf verantwoordelijk blijven voor het resultaat. Ik kom nog altijd veel fouten tegen in AI-samenvattingen en merk dat de reden om erop te vertrouwen - tijdswinst - dezelfde reden is waarom sommige mensen de output niet controleren. Ik verwacht een volgend schandaal als blijkt dat mensen verkeerd zijn geïnformeerd omdat ambtenaren klakkeloos AI-fouten doorsturen.
Gelukkig is tegenlezen altijd de norm binnen de rijksoverheid bij belangrijke documenten.Ook nu de teksten gewoon nog met de hand worden opgemaakt, zijn er altijd een paar werknemers die de rol van tegenlezer op zich hebben genomen en een document desgevraagd controleren.
En die tegenlezer stopt het dan ook weer in Vlam...
En als Vlam goed geconfigureerd is zegt die dan, hey, dit is 1 op 1 een tekst van mij, die kan en mag ik niet verifieren.

On topic vind ik het goed om te zien dat ook de overheid niet naar Big Tech stapt voor dit soort oplossingen, echter staat deze wel een beetje vreemd in het licht van de belastingdienst die wel vol op het Copilot 365 orgel gaat.
Zo werkt het helaas niet helemaal. LLMs die geen geschiedenis en/of context opslaan per unieke ambtenaar hebben geen weet van teksten die voorafgaand gegenereerd zijn. Zelfs als deze LLM dit wel heeft, dan raakt deze informatie op een gegeven moment verloren omdat de geschiedenis / context niet voor altijd zal blijven bestaan (oudere geschiedenis / context wordt vervangen door recentere berichten en antwoorden van LLM).

Waar problemen zijn kun je natuurlijk genoeg oplossingen bedenken zoals een ander programma die de check altijd correct kan uitvoeren, maar wederom "vertrouwen" op een LLM om je te vertellen dat deze een gegenereerde tekst kan herkennen is niet aan te raden.

Verder goed punt over het niet vertrouwen op big tech maar gewoon iets wat op eigen bodem ontwikkeld is te gebruiken.
Je zou natuurlijk een watermerk in de teksten op kunnen nemen, ja dat is te verwijderen maar als je die rouleert gaat dat de gemiddelde ambtenaar niet lukken.
Afgezien dat een norm niet zomaar een plicht is en dus niet altijd maar praktijk. Dit ai middel lijkt ook bedoeld voor 'minder belangrijke' verwerking en voor verwerking die om andere redenen niet onder bestaande uitgangspunten vallen. Bijvoorbeeld dat zowel een gebruiker als een ander persoon niet gewend zijn op fouten van een ai te letten. En tenzij dit soort 'normen' daar expliciet wel rekening mee houden is het dus niet verstandig daar op te vertrouwen.
Maar faliekante fouten komen zeker voor omdat - vermoedelijk - de tegenlezer het ook erg druk heeft.
En als de foutfrequentie 'automagisch' omhoog gaat dan vrees ik toch het ergste....
Zolang het niet EuroLLM is, want deze produceert zeer onbetrouwbare resultaten in LM Studio (GGUF formaat). Ook vragen worden compleet verkeerd begrepen. Wat vreemd is want, de 50 andere getestte lokale modellen begrijpen de vragen wel.

Er is nog een andere 'Omol' of zoiets dergelijks, getraind met alleen publieke domein data. Dat is nog slechter dan EuroLLM.

Van alle getestte modellen zijn SmolLM2, en LFM2 (in de reeks 1b tot 8b modellen) eigenlijk best wel goed (Engels-only). Gwen3n, qwen3vl (4b) ook erg goed. Granite4.0 van IBM is redelijk tot goed, wel erg kortaf. Dat vindt ik persoonlijk wel prettig, maar kan me voorstellen dat er mensen zijn die dit niet op prijs stellen.

Daarnaast heb ik alleen modellen getest, getraind voor specifieke domeinen (code, wetenschap) (in de reeks 10b tot 14b modellen). Deze doen het best goed met algemene vragen, en in hun domein een stuk beter.

gpt-oss:20b is dan weer een algemeen model. Doet het ook behoorlijk goed voor algemene zaken. Nog een paar 30b modellen getest, maar dat werd al gauw te zwaar voor mijn hardware en dus veel te sloom. Kwaliteit van antwoorden gaat wel met stappen omhoog.

Vandaar dat ik nog altijd van mening ben dat de crux tussed lokale en cloud AI ligt tussen de 30b en 70b modellen. Kun je 70b modellen lokaal draainen (met redelijke tkn/sec prestaties), dan zul je nog maar weinig geneigd zijn om steeds de cloud AI's aan te spreken.

Want realiseer je 1 ding, stel een vraag aan cloud-AI en zij routeren het intern naar het kleinst mogelijke model in hun beheer, wat dus vaak een 70b model is. Scheelt hen enorm in kosten en houdt de grotere modellen vrij voor personen met een uitgebreider abonnement dan jij hebt. Als je in het geval van OpenAI uberhaupt een abonnement hebt genomen. Schijnt daar namelijk nogal tegen te vallen.

Zelf maak ik graag gebruik van de AI op phind.com, op de momenten dat ik vragen stel aan cloud-AI. Gratis gebruikers krijgen antwoorden van hun 70b model. En deze zijn vaak al zeer uitgebreid, en toont ook gelijk alle referenties (inclusief links voor persoonlijke verificatie). Zij deden dat al veel eerder dan andere cloud-AI aanbieders dat deden.

Heel veel woorden om te zeggen dat ik niet zo onder de indruk ben van de lokale LLMs die in de EU worden geproduceerd. Apertus uit Zwitserland, deze bevalt me het best van de lokale EU modellen. Vaak beter dan de lokale Mistral LLMs.
Apertus uit Zwitserland, deze bevalt me het best van de lokale EU modellen.
Bedoel je niet Europa? Ze zijn geen onderdeel van de EU.

[Reactie gewijzigd door watercoolertje op 21 november 2025 13:10]

Heb je GPT-NL van TNO ook getest toevallig?
Volgens mij heeft GPT-NL nog nooit iets uitgebracht. En om heel eerlijk te zijn, kan ik me niet voorstellen dat uit een dergelijk bureaucratische club iets komt dat in de buurt komt van de modellen die wereldwijd dagelijks uitgebracht worden.
Modellen als Qwen, Kimi, GLM, Gemma en Granite worden dagelijks van updates voorzien en worden elke dag beter. Elke week komen er nieuwe modellen uit die nog beter zijn dan de modellen van de week er voor. Ondertussen is de ambtenarenclub van GPT-NL vooral aan het roepen dat ze eigenlijk niet voldoende funding hebben, en doen jaren over hun eerste model.
We moeten in de spiegel kijken in Europa, deze boot gaan we totaal missen met onze meest ethische LLM's :O .
Ik ben ambtenaar. Er komt binnenkort een training voor mijn dienstonderdeel beschikbaar met betrekking tot AI. Verder is er uiteraard al veel geschreven over AI. Ambtenaren zijn meestal niet wereldvreemd.

[Reactie gewijzigd door SniperEye op 21 november 2025 17:32]

Ingevolge de AI-verordening moeten medewerkers worden opgeleid voor gebruik van AI.
De chatbot moet lokaal draaien in Nederlandse datacenters
Zo kan je alles wel lokaal gaan noemen. :+
Beetje flauw en ik denk ook een misinterpretatie van het originele artikel:

Vlam.ai is een veilig, verantwoord en gebruiksvriendelijk alternatief voor de (vaak Amerikaanse) commerciële partijen en hun AI-diensten. Vlam.ai wordt gehost op servers van SSC-ICT. Ingevoerde data blijft op deze manier van ons, én bij ons.’

Zo staat het letterlijk bij de bron. In dit geval dus on-premise in het eigen datacenter van de overheid. Kunnen we alleen maar toejuichen toch?
kunnen we gelijk digid en consorten daar naar toe migreren
Lokale AI is gewoon een gedefiniëerd begrip en dat betekend op je eigen computer en niet op cloud services.
Ja lokaal is toch op de eigen PC? Of ben ik nou gek?
Dat hangt van je context af. Lokaal in IT is inderdaad vaak geassocieerd met op de eigen hardware. Lokaal in deze context is op Nederlandse bodem?
Sorry, maar nee.

"Local LLM" is een super bekend begrip en betekent alleen het draaien van modellen op je eigen hardware, als persoon. Dus het model draait op je laptop.

Zie bijv: https://www.reddit.com/r/LocalLLM/

Een model dat in een datacenter van de overheid draait, draait niet lokaal. Het draait wel "on-prem" als de overheid het datacenter ook zelf beheert of het is "soeverein" als je wil benadrukken dat het niet bij een Amerikaanse partij draait.

Maar hoe goed de ontwikkeling ook is, een model gebruiken vanuit een datacenter is precies het tegenovergestelde van 'lokaal'.
Ja, en dat is dus het stukje ' in de it' waar ik het over had. Lokale groente bedoelen we ook niet mee dat het in je tuin staat? Het woord lokaal zoals het in het artikel staat is dus on premise. Het gaat dus om context

[Reactie gewijzigd door Webgnome op 21 november 2025 12:51]

Ja en de context van Tweakers en dit bericht is de IT, toch? Niet groente?
Meeste mensen verbouwen thuis geen groente. En thuis verbouwde groente noemen we dan ook niet lokaal maar zelfvoorzienend of thuis. Waar we in het geval van een AI we met lokaal altijd 'op de huidige machine' bedoelen.
Lokale servers draaien toch echt wel in de server room en niet op mijn laptop.
Dus iemand die z'n foto's op een NAS heeft, bekijkt die nooit lokaal? (tenzij die NAS een schermpje heeft ;)). Of als je via Airplay een foto op je televisie laat zien? Of is het dan pas als het je huis uit gaat? (diezelfde NAS staat bij de buurman, en je hebt een kabel door de dakgoot)

Het wordt zo natuurlijk wel een beetje een taal-neuk-sessie. We weten prima wat er bedoelt wordt. Het zijn dan een beetje dezelfde discussies als PAN/LAN/MAN/WAN. Tot wanneer noem je het je LAN? Dat verschilt per organisatie.
maar enkel IT'ers kennen de term on-prem
men had gewoon " op eigen servers" moeten gebruiken
'De cloud' is ook een ander woord voor: een lokale server in een lokale datacenter van iemand anders.

Dus voor de gebruiker is het een SaaS-applicatie dat draait het bij 'cloud-provider' SSC-ICT.
Hangt er van af. Buiten de software wereld is "lokaal geproduceerd" namelijk ook een dingetje.
Is toch gewoon context afhankelijk? In de context van aardappelen kopen bij de lokale boer betekent het bijvoorbeeld "in de eigen regio" en hebben computers er niets mee te maken.

In de context van AI modellen voor de overheid draaien gaat het natuurlijk om soevereiniteit.
JA en in de context van IT, wat de context van Tweakers is, is "lokaal" niet "in een datacenter".

Sterker nog, in de IT betekent 'lokaal' zo ongeveer precies dat het niet in een datacenter draait ergens.

De term voor een datacenter in eigen beheer is "on prem".
De term voor een datacenter in eigen beheer is "on prem".
Perfect voorbeeld van hoe (ook binnen deelgebieden van de IT, wat nogal een brede context is) betekenissen kunnen verschuiven. Want voorheen betekende On Prem natuurlijk juist "Niet in een datacenter maar op je eigen terrein".
Dat is de hele nauwe definitie van een IT-er. Als jij morgen op de markt "lokaal geproduceerde kaas" ziet, is die dan in jouw gemeente gemaakt of in jouw keuken?

[Reactie gewijzigd door R_Zwart op 21 november 2025 12:55]

Lokaal is in je eigen dorpje.
Tja als ik naar lokale winkels ga dan moeten die allemaal bij mij in huis zitten? Dan wordt het lastig en ga ik wel naar - externe maar wel om de hoek - winkels...

Imo is dit vanuit de (landelijke) overheid wel degelijk lokaal te noemen.

[Reactie gewijzigd door watercoolertje op 21 november 2025 13:24]

Waarom is zoals altijd weer het wiel zelfstandig opnieuw uitgevonden , er zijn in dit verenigde Europa al landen die hun Ai tool al in gebruik hebben en deze Ai tools gebruiken dezelfde taal modellen. Waarom dan weer zelfstandig iets ontwikkelen , waarvan we weten dat zodra het wat groter uitgerold gaat worden al weer tegen capaciteits en configuratie problemen gaat aanlopen. . De bestaande ict van de ministeries werkt al niet lekker met elkaar laat staan nu weer een universele Ai tool er bij. Heeft de overheid , na al die onderzoeken , na al die kamervragen al die budget overschrijdingen , etc nog steeds niets geleerd. De Ingehuurde ICT consultants bij de overheid zullen weer met massa’s naar binnen geduwd worden ,om er voor te zorgen dat er nog iets werkbaars uit komt voor de ambtenaren
Er wordt gewoon gebruik gemaakt van bestaande Europese tools. Maar er is geen "standaard" overheid. Ieder land zal het aan moeten passen aan de eigen omgeving, eigen wetgeving, eigen organisatie. Jullie hebben op het werk ongetwijfeld ook een ander IT landschap dan wat wij hebben, Er is geen enkele organisatie waarbij je zaken "zomaar" over kunt nemen en dat het dan past. Technologie is maar een stukje van het geheel.
Dat is toch helemaal niet wat ik zeg, gebruik bewezen technieken , integraties, koppelingen tussen de verschillende systemen die al bestaan, en de as ze aan , aan de Nederlandse omgeving . Maak gebruik van bestaande infrastructuur en software en koppel die aan de bestaande ict structuur van de ministeries. Nu maken weer maatwerk.
Je beschrijft anders precies wat de aanpak is van SSC-ICT. Ontwikkeld met bewezen techniek binnen de eigen infrastructuur. Geen eigen LLM, maar de mogelijkheid om te koppelen met bestaande LLM's (poc met Gemini, beoogde livegang met Mistral, mogelijk begin 2026 ook gpt-nl). Koppelingen tussen bestaande systemen. Ontwikkeld in een bestaand rijks datacenter (ODC Rijswijk)
Dit lijkt me zeiken om het zeiken. Ze gebruiken al een Europees model maar op eigen interesses die dan ook nog eens is gedeeld tussen ministeries. Het lijkt me niet handig om de infra van een ander land hiervoor te gebruiken. Afspraken maken hierover moet het zo goed geld en je gebruikt het model op dezelfde tijd.

Ik denk dat je ook had lopen zeiken als er geen AI, en Amerikaanse AI of een EU AI was gebruikt.
Goede zaak, zeker omdat dit intern blijft draaien. Ik ben wel benieuwd wel LLM model hieronder gebruikt wordt? Is dit een eigen ontwikkeld taal model of wordt er een LLM gebruikt die is ontwikkeld door een andere partij zoals openAI? Als het laatste het geval is, hoe weten we dan zeker dat dit veilig te gebruiken is?
Vlam' draait in Nederlandse datacenters en gebruikt alleen Europese taalmodellen.

In ieder geval dus geen openai. Maar omdat er specifiek staat Europese taalmodellen kan je verwachten dat het wellicht Mistral is. Anders zouden ze wel een lokale LLM hebben geschreven vermoed ik.
hoe weten we dan zeker dat dit veilig te gebruiken is?
Een taalmodel is maar een setje met data dat je zelf in je code moet aansturen, dus in principe kun je dat zeker weten.

In principe, omdat je ook zaken zoals tool-calling hebt. Maar dat is ook eigen code ipv van een derde partij. Dat is met een model van eigen afkomst net zo gevaarlijk.
Wat is dan je grens voor wanneer een middel een goede zaak is? Want ai onder voorwaarden toepassen maakt het toepassen nog niet duidelijk nodig of nuttiger. En daar lezen we in het nieuws ook niets over.

Het is kennelijk getest, maar zonder dat duidelijk is wat de doelen waren. Zonder duidelijkheid waar bij het testen wel en niet op gelet is. En zonder duidelijkheid wat redelijke grenzen zijn een nieuw middel in te zetten als redelijke vervanging of aanvulling. Een nieuwe auto kan nog zo aan veiligheidseisen voldoen, dat maakt het aanschaffen en gebruik nog niet zomaar gelijk of meer waardevol dan bestaande werkwijze. En dus niet zomaar een goede zaak.
Het is kennelijk getest, maar zonder dat duidelijk is wat de doelen waren. Zonder duidelijkheid waar bij het testen wel en niet op gelet is.
Waar baseer je dit statement op?

Het lijkt mij persoonlijk logisch dat niet het gehele testplan en besluitvorming mbt Vlam is opgenomen in het artikel op Tweakers. Maar daaruit concluderen dat er geen duidelijke doelen waren lijkt mij onterecht. Als je doorklikt op de linkjes in het artikel kun je een hoop vinden over het hoe en waarom. En mocht je het nog steeds onduidelijk vinden, dan staat het je vrij een Woo-verzoek te doen.
Ik stel niet dat er hoe dan ook geen duidelijke doelen waren, ik stel dat die doelen niet duidelijk zijn. Ik lees ze tenminste nergens terug en er is geen verwijzing in het nieuws. En zonder dat het duidelijk is is het dus te makkelijk om te stellen dat het dus maar aan redelijke grenzen voldoet. Natuurlijk kunnen we het hopen, maar dat is meestal geen verstandig uitgangspunt als je verbeteringen wil.
Je hebt natuurlijk een basis nodig en dat maakt het moeilijk en super complex. Maar ik ben voor het creëren van eigen modellen, ook al kost dat veel energie! Wel alles onder de vlag van benoemen van alle bronnen en het publiceren van het model in een Open Source formaat. Moeilijk: Ja! Onmogelijk : Nee!
Vlam.ai is gebaseerd op het in het Frankrijk ontwikkelde Mistral model. Er is nu al bijna 10x zo veel behoefte aan vlam.ai dan dat er in januari beschikbaar komt.

Bij justitie en veiligheid is er een vergelijkbare omgeving die Robin heet.

[Reactie gewijzigd door djwice op 21 november 2025 13:16]

Mistral zou mooi zijn. Heb je bronnen?
Ja, de directe techneuten die het opgezet hebben. Mistral Medium 3.

[Reactie gewijzigd door djwice op 21 november 2025 13:20]

Naar Bassie en Adriaan natuurlijk, waar Robin altijd het beste idee heeft.
Laat de Baron het niet ho.. oh wacht
Ik ga voor Robin, de pratende robot van Bassie en Adriaan
Of misschien gewoon een acroniem zoals VLAM blijkbaar ook een acroniem is. Redundant Opererend Bijzonder INformatiesysteem ofzo. Soms worden dat soort namen gewoon bedacht omdat het een lekker bekkende naam oplevert.
Eerder het Robotje van Bassie en Adriaan.
@TijsZonderH als ontwikkelaar leest "lokaal" een beetje als "op eigen machine" waar in het artikel aangegeven staat dat het toch op (Nederlandse) data centers draait. Ligt denk ik aan vanuit welke context de titel gelezen wordt maar dit zijn mijn 2 centjes in ieder geval :)
Eens, lokaal is "op mijn eigen computer" en niet ergens in een DC in Europa :)
De naam Vlam staat voor Veilige lokale AI-modellen
Een open deur, maar: het kan ook gezien worden als een (niet zo) subtiele verwijzing naar het energieverbruik :+
of het verbranden van grote hoeveelheden belastinggeld
Ja inderdaad, want de grote AI leverende bedrijven zijn gratis! Mens, denk eens!
nergens heb ik gezegd dat ze dan maar andere duurbetaalde AI diensten moeten gebruiken!

Mens, stop met verkeerde aannames doen!

Om even wat nuance te plaatsen: je hoeft niet overal AI voor in te zetten. Misschien eens zelf nadenken of een collega raadplegen in plaats van een hallucinerende AI-tool waarmee je mogelijk grotere fouten maakt dan je zelf al zou doen…

[Reactie gewijzigd door Carino op 21 november 2025 19:53]

En bij meerdere fouten door ongecontroleerd gebruik van deze tool door ambtenaren kan je dan in meerdere opzichten spreken van Vlam in de pan
Snel de deksel er op en uit het raam gooien dan, toch? :P

[Reactie gewijzigd door DropjesLover op 21 november 2025 12:31]

Het is niet zo dat AI en elk model per definitie zoveel energie verbruikt. De hardware zal sowieso schalen op het gebruik. Gezien het gaat om 26k medewerkers, is dit helemaal niet te vergelijken met "de grote jongens".

Eens dat ze infrastructuur moeten kopen, maar dat is iets eenmalig en op budgetten van de overheid valt dat mee. Zeker met de winst dat ze hiermee kunnen maken in sneller informatie vinden, correcter handelen, zaken automatiseren, etc...

Bedenk dit: was het in 1990 ook verkwisting van energie en geld om een computer aan te schaffen voor de overheid?

Het gros van energieverbruik is het trainen van een model. Laat dit nu net niet het trainen van modellen zijn; ze geven het zelf aan: ze gebruiken europese modellen (bvb Mistral). De extra informatie die ze toevoegen is gewoon RAG.
Hardware kopen is nooit eenmalig. Dat is iets wat je in 5 jaar afschrijft, en dan moet vernieuwen omdat werknemers anders gaan klagen dat het allemaal te lang duurt.

Verder wordt die energie linksom of rechtsom toch wel gebruikt, i.p.v. een eigen model wordt anders wel chatgpt gebruikt. Kun je toch beter een eigen model/infra hebben voor security.
Dan zou je dat moeten afzetten tegen de hoeveelheid energieverbruik als je informatie door mensen laat zoeken.
Subtiel maar goed gevonden!
Wat wel een beetje jammer is, is dat Vlam.ai niet in het Register Internetdomeinen Overheid te vinden is.
.ai is de TLD van het land Anguilla (buurland van Sint Maarten). Deze extensie valt buiten het domeinnaambeleid van de Rijksoverheid, zie https://www.communicatierijk.nl/vakkennis/rijkswebsites/verplichte-richtlijnen/domeinnaambeleid "Criteria voor gebruik topleveldomeinen door de Rijksoverheid"

WHOIS Search Results

Domain Name: vlam.ai
Registrar WHOIS Server: whois.godaddy.com
Registrar URL: http://www.godaddy.com/domains/search.aspx?ci=8990
Updated Date: 2025-04-02T20:53:44Z
Creation Date: 2025-01-13T09:23:16Z
Registry Expiry Date: 2027-01-13T09:23:20Z
Registrar: GoDaddy.com, LLC
Registrant Name: Registration Private
Registrant Organization: Domains By Proxy, LLC
Registrant Street: DomainsByProxy.com, 100 S. Mill Ave, Suite 1600
Registrant City: Tempe
Registrant State/Province: Arizona
Registrant Postal Code: 85281
Registrant Country: US

[Reactie gewijzigd door ocn op 21 november 2025 17:19]


Om te kunnen reageren moet je ingelogd zijn