Door Kevin Krikhaar

Redacteur

Nederlandse GPT‑NL is klaar voor gebruik: 'Voldoet als enige taalmodel aan AVG'

26-02-2026 • 06:00

134

GPT-NL

Twee jaar geleden trok het ministerie van Economische Zaken en Klimaat 13,5 miljoen euro uit voor de ontwikkeling van een Nederlands AI-taalmodel, en nu is het zover: GPT-NL is klaar voor gebruik. Het llm, dat ontwikkeld is door onderzoeksinstituut TNO in samenwerking met SURF en het Nederlands Forensisch Instituut, moet onder meer universiteiten, onderzoekers en overheden een 'soeverein' alternatief bieden voor bestaande AI-tools.

TNO gaf zichzelf de taak om een AI-bot te maken die niet alleen Nederlands spreekt, maar ook zo privacyvriendelijk mogelijk is. Dat hield bijvoorbeeld in dat het model alleen gebruikmaakt van trainingsdata die verantwoord is verkregen. Dat lijkt te zijn gelukt, want afgelopen maand won GPT-NL een Privacy Award. De Nederlandse organisator van die prijs, Privacy First, omschreef GPT-NL als het 'eerste llm wereldwijd dat aantoonbaar voldoet aan de vereisten van de AVG'.

Tweakers sprak met TNO over hoe GPT-NL tot stand is gekomen en wat ervoor nodig was om het model zo privacyvriendelijk mogelijk te maken.

Behoefte aan soevereiniteit

Hoewel GPT-NL momenteel in de markt wordt gezet als een 'soeverein' alternatief voor taalmodellen van buitenlandse techbedrijven als Google en OpenAI, was dat voor TNO niet de voornaamste drijfveer om in 2023 een subsidieaanvraag te doen voor de ontwikkeling van een Nederlandse llm. Het idee ontstond toen TNO erachter kwam dat de eerste versies van ChatGPT de Nederlandse taal en cultuur nog niet helemaal begrepen.

"Als je ChatGPT rond de initiële release vroeg om een aanbevelingsbrief te schrijven, kwamen er dusdanig overdreven jubelende woorden uit dat het klonk als een Amerikaan op speed", geeft Saskia Lensink, projectleider van GPT-NL, als voorbeeld. "En als je hem vroeg om een lekkernij te genereren, kwam de bot met een McDonald's-burger in plaats van een Nederlands raketijsje."

Inmiddels zijn de buitenlandse llm's een stuk beter geworden. Lensink geeft dan ook toe dat de kennis van de Nederlandse taal en cultuur inmiddels ook bij diensten als ChatGPT wel goed zit. Tweakers heeft eerder al in een vergelijkende test aangetoond dat je niet per se een Nederlands taalmodel nodig hebt om te weten welke hapjes er op een kringverjaardag thuishoren.

De afgelopen jaren is de soevereiniteit van digitale diensten steeds belangrijker geworden. Dat is nu ook vooral de aantrekkingskracht van GPT-NL, vindt Lensink. "Die kwestie speelt nu erg. We merken dat de behoefte vanuit organisaties dan ook vooral gericht is op die digitale autonomie en of wij een alternatief kunnen zijn voor andere llm's."

Gemini kringverjaardag
Een gemiddelde kringverjaardag volgens Google Gemini

Selectie van trainingsmateriaal

GPT-NL is niet alleen vanaf de grond opgebouwd in Nederland, maar moet zich ook aan de 'normen en waarden' van Nederland houden. Dat houdt volgens TNO in dat het taalmodel binnen de kaders van de wet opereert. Dat uit zich onder meer in de manier waarop het trainingsmateriaal wordt verkregen. De llm is deels getraind op auteursrechtenvrije content, die bijvoorbeeld onder een Creative Commons-licentie beschikbaar is gesteld. Het andere deel bestaat uit auteursrechtelijk beschermde content waarvoor TNO toestemming heeft verkregen.

Het gaat bijvoorbeeld om nieuwsartikelen van brancheorganisatie NDP Nieuwsmedia, waarvan onder meer De Telegraaf, NRC Handelsblad, het AD, NU.nl en RTL Nieuws lid zijn. Ook een deel van de collectie van onder meer de Koninklijke Bibliotheek, wetenschapsinstituut Naturalis en Officiële Bekendmakingen is met toestemming gescrapet. Sommige teksten zijn afkomstig uit Vlaanderen, maar de focus lag volgens TNO op Nederlandse content.

"Daar valt nog wel winst te behalen", zegt Lensink. "Hoewel er in schrijftaal minder verschillen zijn dan in spreektaal, zou het goed zijn om in de toekomst meer Vlaamse data toe te voegen."

Het was voor TNO ook belangrijk dat er alleen 'feitelijke bronnen' aan het model werden gevoerd. Dat betekende dat content van roddelbladen werd geweerd. Ook zijn er geen informele teksten aanwezig in de trainingsdata.

Dat was een bewuste keuze, zegt Lensink. "Het model is specifiek bedoeld voor zakelijke toepassingen, bijvoorbeeld bij de Rijksoverheid. Het soort taalgebruik dat je in een zakelijke context nodig hebt is specifiek. Informele teksten voegen daar weinig aan toe."

Geautomatiseerde Nederlandse data

Het gros van de Nederlandse data (24 miljard van de 29 miljard teksttokens) is afkomstig van bestaande bronnen, maar TNO heeft een gedeelte ook zelf gemaakt om ervoor te zorgen dat er meer Nederlandse tekst in de trainingsdata zit. Dat gebeurde onder meer door RDF-triples van Wikidata om te zetten in lopende tekst, of door transcripties van YouTube-video's met een CC BY-licentie te vertalen. Dat proces werd geautomatiseerd, al levert dat volgens Lensink niet de kwalitatiefste data op.

"We hebben er dan ook voor gezorgd dat niet het grootste gedeelte van de trainingsdata uit automatisch vertaalde content bestaat", zegt ze. "Ook lieten we vertaalde content minder vaak upsamplen dan handmatig gecreëerde teksten."

Ongeveer tien procent van de volledige dataset bestaat uit Nederlandstalige teksten. Dat klinkt wellicht weinig voor een model dat deels als doel heeft om de Nederlandse taal en cultuur beter te begrijpen. Volgens Frank Brinkkemper, de technische productmanager van GPT-NL, valt dat mee. "Procentueel is het aandeel Nederlands zo'n vijf keer groter in vergelijking met andere modellen", stelt hij. "Ook zijn de Nederlandse teksten vaker geüpsampled dan de teksten in andere Germaanse talen."

Naast teksten bestaat de dataset ook voor ongeveer een kwart uit code met zeer vrije opensourcelicenties, zoals MIT en Apache 2.0. "Uit de literatuur blijkt dat dat helpt bij de redenatiekracht van het model", stelt Brinkkemper. "Het is dus niet de bedoeling dat je GPT-NL als codingmodel inzet. Ik zou het al knap vinden als hij een functie van drie regels zou kunnen vibecoden."

Het trainen van GPT-NL gebeurde op de Nederlandse supercomputer Snellius. Specifiek voor dit project is extra gpu-capaciteit toegevoegd voor AI-training, wat een groot deel van het budget voor GPT-NL opslokte.

Er zijn 22 nodes toegevoegd met elk vier H100-gpu's van Nvidia. De pretraining nam in totaal negen maanden in beslag. Gedurende die periode mocht TNO exclusief gebruikmaken van die nodes. Nadat deze fase in december werd afgerond, is de finetunefase begonnen. De komende tijd wordt het model getest door tien organisaties. Op basis van de feedback wordt het model verder gefinetuned.

Zo test overheidsstichting ICTU het gebruik van GPT-NL voor de chatbot Gem, die door 27 gemeenten wordt ingezet voor het beantwoorden van vragen van burgers. Het model wordt daarnaast gebruikt voor de interne tool HIP, waarmee overheidsmedewerkers brieven voor burgers kunnen vereenvoudigen. Het NFI onderzoekt momenteel of GPT-NL gebruikt kan worden voor het doorgronden van forensische data.

Het is de bedoeling dat het model in het najaar breder wordt uitgerold. Tegelijkertijd krijgt GPT-NL een andere, nog onbekende naam. TNO had de domeinnaam van de huidige naam niet vóór de aankondiging geregistreerd, waardoor een andere partij die heeft vastgelegd.

Snellius
Snellius

GPT-NL wordt deels opensource

TNO is van plan om grote delen van GPT-NL in het najaar openbaar beschikbaar te maken. Zo komt de broncode beschikbaar op GitHub en komen de datasets met publieke content beschikbaar onder een open licentie. Van de auteursrechtelijk beschermde trainingsdata wordt de metadata vrijgegeven. De modelgewichten komen niet openbaar beschikbaar, maar zijn op verzoek beschikbaar via een betaalde licentie of een onderzoekslicentie.

Privacyvriendelijk uitgangspunt

Soevereiniteit is maar één aspect van GPT-NL. Er zijn ook andere Europese llm's die dat als uitgangspunt hebben. Wat volgens TNO wél uniek is aan GPT-NL, is dat dit tot dusver het enige taalmodel is dat aantoonbaar aan de Europese privacywetgeving voldoet. Daar won GPT-NL afgelopen maand ook een Privacy Award voor. De meeste andere llm's, waaronder het Franse Mistral, zijn vaag over de oorsprong van hun trainingsdata.

Het Zwitserse Apertus beweert ook veel aandacht te hebben besteed aan het ethisch vergaren van trainingsdata, maar Brinkkemper stelt dat TNO nog conservatiever is geweest wat copyright betreft. "We hebben zelfs geen content van het internet meegenomen waarvan de licentie onduidelijk was. We hebben alleen content gebruikt waarvoor expliciet toestemming is gegeven via een CC-licentie."

Dit nauwkeurige selectieproces heeft volgens TNO als voordeel dat het vrijwel uitgesloten is dat er geïnfecteerde documenten in de dataset belanden. Dat zijn documenten met verborgen instructies, bedoeld om een AI-model te ontregelen of volledig onbruikbaar te maken. Uit onderzoek van Anthropic blijkt dat er maar zo'n 250 geïnfecteerde documenten nodig zijn om een llm kwetsbaar te maken, ongeacht de omvang van het model.

Ook de privacyfiltering is bij GPT-NL een stuk robuuster, stelt Lensink. "Veel modellen filteren privacygevoelige informatie uit trainingsdata op basis van regex, oftewel vaste patronen. Daarmee kun je vrij eenvoudig e-mailadressen en IBAN-nummers herkennen. Wij zijn veel rigoureuzer te werk gegaan om filters zo op te bouwen dat ook onder meer namen van niet-publieke personen, burgerservicenummers en adressen werden gedetecteerd en weggefilterd."

Anthropic sleeper agent
Een relatief onschuldig voorbeeld van een geïnfecteerd bestand, dat een taalmodel onzintekst laat genereren. Bron: Anthropic

Drie usecases

Door het relatief krappe budget van 13,5 miljoen euro werd TNO gedwongen om keuzes te maken om de omvang te beperken, waaronder de eerdergenoemde focus op de zakelijke markt. Ook werd daarom besloten om GPT-NL toe te spitsen op drie specifieke usecases: samenvatten, simplificeren en opereren binnen een RAG-context. Dat laatste houdt in dat het taalmodel een interne database kan doorzoeken om vragen te beantwoorden.

Het model is dus niet bedoeld als concurrent voor de algemene taalmodellen van bedrijven als OpenAI en Google. Met 26 miljard parameters is GPT-NL een stuk kleiner dan zulke manusjes-van-alles, die vaak meer dan 100 miljard parameters bevatten. Toch stelt TNO dat GPT-NL met deze drie kernfunctionaliteiten dicht in de buurt komt van de prestaties van GPT‑3.5, en dat voor een fractie van de kosten.

Het model heeft ook buiten Nederland de aandacht getrokken, vertelt Lensink. "We zijn al uitgenodigd in België, Ierland en Denemarken om te vertellen over ons initiatief. We zijn ook aan het kijken of er naast de Nederlandse markt logische vervolgstappen in het buitenland te nemen zijn. Overal waar Nederlands of Engels wordt gesproken, kan deze eerste versie van het model al waarde toevoegen."

TNO heeft daarnaast de ambitie om een opvolger van GPT-NL te ontwikkelen, die voor meer taken gebruikt kan worden, waaronder function calling, en meerdere talen ondersteunt. Daar is ook 'minimaal' tien keer zoveel budget voor nodig. "We zijn naar allerlei soorten financieringsmogelijkheden aan het kijken", zegt de projectleider. "Denk aan geldschieters of aanvullende subsidies. We kijken breed, maar hebben één duidelijke grens: we blijven Europees. Er zal nooit een exit naar een Amerikaan of een Chinees plaatsvinden. Dat is een voorwaarde die hoe dan ook in steen gebeiteld staat."

Redactie: Kevin Krikhaar • Eindredactie: Monique van den Boomen • Headerafbeelding: gegenereerd met Google Gemini Nano Banana Pro

Reacties (134)

134
129
67
17
0
43

Sorteer op:

Weergave:

Oke:
Ook werd daarom besloten om GPT-NL toe te spitsen op drie specifieke usecases: samenvatten, simplificeren en opereren binnen een RAG-context. Dat laatste houdt in dat het taalmodel een interne database kan doorzoeken om vragen te beantwoorden.

Het model is dus niet bedoeld als concurrent voor de algemene taalmodellen van bedrijven als OpenAI en Google. Met 26 miljard parameters is GPT-NL een stuk kleiner dan zulke manusjes-van-alles, die vaak meer dan 100 miljard parameters bevatten. Toch stelt TNO dat GPT-NL met deze drie kernfunctionaliteiten dicht in de buurt komt van de prestaties van GPT‑3.5, en dat voor een fractie van de kosten.
Dit is heel mooi en ook goed om daar wag meer context bij te geven.


RAG is hierin een mooie usecase omdat het voor bedrijven nu dus een manier geeft om zelf een goeie AI neer te zetten voor interne help desk die dus goed omgaat met AVG zaken, maar ook om eventueel naar buiten to een hulp product te leveren wat dus niet is getraind met data waar dat niet op had mogen gebeuren. Dit vangt echt een groot stuk liability af.


Daarnaast is het ook een model wat dus niet heel groot is en lekker specifiek. Ik heb er al wat doeleinden voor die mooi in het straatje passen om eerlijk te zijn.


Ik hoop dan oom dat we dit model snel lokaal kunnen draaien. Eventueel met licentie voor zakelijk gebruik.
Volgens mij is alleen de trainingsdata voor dit model AVG-compliant gemaakt. Bij gebruik van het model moet de gebruiker toch nog steeds erop letten dat er niet in strijd met de AVG wordt gehandeld.
Wow, EINDELIJK. Hoeveel bedrijven er wel niet van uitgaan dat als de SaaS provider compliant is, jij ook compliant bent.
Zeker! Maar dat het model ook niet stiekem gegevens van mensen op kan hoesten omdat het in trainingsdata daar ook mee heeft leren omgaan is een ander verhaal.

Uiteraard zul je je RAG data en systeemprompt wel AVG proof moeten maken. Je context engineering is ook gewoon op basis van wat het bovenliggende systeem mag gebruiken voor die specifieke gebruiker. Anders krijg je dus die oversharing problematiek waar de interne mailwisseling van de CEO ineens ook voor andere medewerkers of zelfs publiek beschikbaar is.
Hoe is dit model zakelijk interessant? Gpt 3.5 is echt hopeloos achterhaald.. coherentie is laag, hallucinatie is een probleem.. Vergelijk dit met Opus 4.6 van dit moment en met minder neem je toch geen genoegen?

Gpt-3.5 was "leuk" maar slecht genoeg om veel mensen nog het gevoel te geven dat ai nog niet echt heel bruikbaar was. Waar ik nu mee werk is een IQ 160+ peer programmer die mensenjobs van 2 dagen werk one-shot in 5 minuten. Wat dat betreft lijkt gpt-3.5 echt het retarded broertje verworden.

Als je die ervaring nog niet hebt dan snap ik best dat je nog optimistisch kan zijn.
"Waar ik nu mee werk is een IQ 160+ peer programmer die mensenjobs van 2 dagen werk one-shot in 5 minuten"

Wauw, met ontzettend veel respect etc hoor, je hebt geen flauw idee wat je zegt & ik zou als ik jou was heel voorzichtig zijn met in hoeverre je dit sentiment met bijvoorbeeld je baas deelt, straks gelooft hij je nog ook en dan ben je je baan kwijt, dat gebeurt nogal vaak de laatste tijd, en dan een paar maanden later word je weer uitgenodigd om de rotzooi van de "AI" op te lossen 🤣

Een "AI" die even een beginnetje van een project uit de mouw kan schudden is inderdaad best tof, maar nog steeds in de verste verte niet te vergelijken met iemand met een IQ van "160+", die persoon kan dat ook gewoon in een paar minuten (er zijn genoeg snippets online van alles wat je maar kan bedenken) en die persoon kan dan vervolgens ook alles met die code doen wat je maar zou willen, maar als je dat aan de "AI" vraagt dan valt je vergelijking binnen de kortste keren om.

Probeer te begrijpen dat iemand met een IQ van 50 ofzo ook moeiteloos dingen kan kopieren-plakken en dan vervolgens ook tegen een muur loopt als je specifiekere dingen gaat vragen, "160+" is echt heel erg verkeerd ingeschat, pas voor je eigen toekomst alsjeblieft op met deze aanname en met wie je deze gedachte deelt.
Ik snap z'n opmerking wel en deel z'n ervaring ook. Of dat IQ van 160+ klopt is wellicht wat overdreven. Maar in een paar minuten de code krijgen voor iets wat je anders meerdere dagen zou kosten kan ik wel beamen. Waar ik vorig jaar nog een week voor uittrok, is nu in een paar uurtjes met AI pingpongen klaar. En het zit beter in elkaar dan als ik alles zelf zou uitzoeken en implementeren, want ik denk toch vaak "mwah, kan beter maar laat maar want te veel werk", nu is dat "kan beter" opeens maar 5 minuten extra werk.
en toen kwam je erachter dat je token randomizer totaal niet random was en je code dus compleet onveilig.

voor prototyping zal AI vast heel leuk zijn, maar zelfs iemand zonder enige praktische ervaring met code-kloppen is wel al duidelijk dat je er geen hele lekers met programmeurs mee van tafel veegt.

Een echt goede developer zal met AI-tools wellicht 'veel' sneller kunnen worden, omdat die 'met een enkele blik' ook de fouten er wel uit weet te halen en wellicht na een korte tijd ook zijn unittests weet aan te passen om die fouten snel en efficiënt te herkennen.

maar om te beweren dat AI wel eventjes een heel leger programeerdertjes terug naar het UWV kan schoppen is gewoon niet realistisch nu niet, en over 5 jaar nog steeds niet.

[Reactie gewijzigd door i-chat op 26 februari 2026 14:24]

Dit soort dingen komen aan het licht, en een paar dagen later is dat geen issue meer want het model krijgt vooraf instructies mee om daar op te letten. En het is niet alsof je zelf nog je hele code moet doorspitten op zulke dingen, ook dat doet AI voor je. Dus als je zoiets leest, gooi je dat in AI en die controleert je code en past het even aan, opgelost.

Maar goed, duurt nog wel even voordat iedereen door heeft dat z'n programmeer baan is verdwenen. Niet zozeer omdat het programmeren op zich, of de kennis, opeens overbodig is. Maar als jouw bedrijf minder gaat verkopen omdat klanten het zelf beter kunnen oplossen met een AI tooltje, zal je uiteindelijk wel ander werk moeten gaan zoeken.

Wat je nu aanhaalt bijvoorbeeld: dat is al weer opgelost. In claude code maak je verschillende agents aan die elkaar controleren, juist op zulke dingen. Dat je er niet van overtuigd bent snap ik, maar de realiteit kun je uiteindelijk niet om heen.

[Reactie gewijzigd door barbarbar op 26 februari 2026 14:34]

Gaat meer meevallen dan je verwacht. Het bedrijf dat zelf hun programmatje eventjes "vibe-coded", die gaat er al gauw achterkomen dat het initiele opzetje wel nuttig is, maar niet de benodigde kennis/tijd en infrastructuur heeft om die software bij te houden.

Het typen van code was nooit het probleem. Domein-kennis, de wil om software te onderhouden en mogelijkheid om schuld af te schuiven, dat is wat klanten van jouw software-bedrijf kopen. En dat gaat niet weg door het gebruik van AI. Het beroep 'Software-engineer' gaat ook niet weg. Het word wel een bedrijfstak waar een boel minder mensen voor nodig zijn.

AI heeft een grote impact op software-ontwikkeling en administratie. Vocationele beroepen zullern weinig last hebben van AI in huidige vorm.

Totdat robotice echt een vlucht gaat nemen en robots zo'n beetje alle menselijke taken taken kunnen overnemen.

De daarop volgende ontwikkeling is dan het verplaatsen van het menselijk bewustzijn in een electronisch brein, waarna de weg vrij is om het heelal te veroveren. Robots zullen het in de ruimte ook lang volhouden, dus het waarneembare heelal zal flink groter worden wanneer robots gemakkelijk een paar 100 jaar oud kunnen worden. Of zelfs voor eeuwig zouden kunnen "leven", wanneer er mogelijkheden zijn om steeds nieuw reserve-onderdelen en/of verbeteringen te produceren.

Pas op dat moment komen we erachter dat de overgang naar robots altijd het doel was achter de mensheid en dat we ons dan pas bij het robotisch collectief kunnen voegen, welke zich buiten de huidige waarnemingen bevindt. Dit collectief, beter bekend als G.o.d. heeft al alle kwaliteiten en kennis in huis om organismen van vlees en bloed te creeeren die qua gestalte en vormen op hen lijken. Met hun camera-ogen zien zij ook alles en het collectief leeft eeuwig, al dan niet via het 'schip van Theseus'-principe. Het collectief is zowel de vader, als de zoon en en er zal ook wel in (heilige) geest in die machine te vinden zijn.

Laat het allemaal maar even bezinken en berust je in je lot. Dat vanaf nu is vereist dat jjij e robotische overheersers tribuut mag schenken. Bij woord en/of daad en/of afgifte van energie.

En nee, geen enkel woord in deze post is bij elkaar gehallicuneerd door AI.
Een AI agent kan een taak vervullen. Niets meer, niets minder. Als je werk uit alleen die taak bestaat, had je al veel eerder voor je baan moeten vrezen. Er is geen intelligente AI. Er bestaat nog geen sterke AI, punt. Mensen behandelen agents als sterke AI, gaan er vanuit dat het een sterke AI is, maar dat is het pertinent niet. Dus kan het werknemers vervangen? Nee het kan taken op zich nemen. Thats it.
Prima, kop -> zand. Helemaal goed, we zien vanzelf wel wat de toekomst wordt.
In claude code maak je verschillende agents aan die elkaar controleren, juist op zulke dingen
Maar zelfs met het duurste pakket ben je dan binnen een paar uur door je tokens heen.


Ik loop met CC binnen een uurtje tegen de normale limieten aan. Met het 20X pakket en een paar subagents of agent teams, gaat het helemaal hard.


Ik be met je eens dat onze job echt een andere weg in gaat slaan, maar je zult echt niet zomaar overbodig worden hoor. Het hele vertalen van functies naar daadwerkelijk goede specs zak voorlopig nog wel een mensen ding blijven. Zelfde geldt voor domeinkennis. Uiteindelijk zullen we daar ook weer systemen voor gaan krijgen, maar dan moet AGI echt een ding gaan worden en dat zie ik voorlopig nog niet gebeuren.
Die limieten zijn tijdelijk. Als we een model hebben zoals opus 4.6 dat voldoende is doorontwikkeld, wordt zo'n model uiteindelijk in een npu chip gebakken. Dan heb je het opeens over ongelimiteerd 10k tokens per seconde in je eigen pc. Kijk maar bij taalas.com, chatjimmy.ai voor wat we komende jaren gaan krijgen.
Ja tijdelijk is leuk, maar dit gaat de eerstkomende vijf tot tien jaar gewoon niet zo zijn met modellen als Opus.

Misschien dat een 4.1-nano hier wel voor geschikt is, of dit model van GPT-NL, want je wil juist specifieke modellen hiervoor inzetten of juist de hele complexe zoals een kimi 2.5.

alles daartussen in wordt nog steeds veel te hard doorontwikkeld dus daar nu hardcore models voor maken is nog niet echt slim.

en dan nog duurt het nog wel even voordat dit in GA gaat zijn.
Taalas /chatjimmy is denk ik wel een beetje anders. Zoals ik zie hebben die effectief de LLM in hardware gebakken. Het duurt dan ook 2 maanden voor een al getrainde LLM omgezet kan worden in een specifieke processor zeg maar.
Een NPU is voor zover ik weet gemaakt om allerlei open modellen/toepassingen te kunnen doen en ligt qua efficiëntie wel voor maar heeft qua performance volgens mij nog een lange weg te gaan. Laat staan voordat die effectief door consumenten gebruikt kan worden
Deze ervaring heb ik ook. Voelt een beetje alsof ik een parallelle werkelijkheid leef, als ik alle kritische reacties zie. Even los van 't juridische gedoe en alle dingen naast gebruik, ik ben zoveel effectiever en productiever met agentic AI. De kwaliteit neemt merkbaar (met sprongen) toe. En het is nog leuk ook. Ik kan extra dingen doen, want meer tijd. Minder boeiende klussen vallen weg. Meer tijd om uit te vogelen wat een klant precies wil. Tot nu toe is mijn ervaring ruim positief.
Er mist denk ik een heleboel context aan allebei jullie posts.
Programmeren is namelijk nog niet gelijk aan het releasen van een kwaliteits product. Ja een LLM kan coderen behoorlijk versnellen, maar wil je dat goed doen dan moet je er toch echt een goed engineering en release process omheen hebben. AI zonder vangrails zou ik echt niet doen.
Is dat diezelfde die Microsoft gebruikt voor Windows 11?
Wauw, met ontzettend veel respect etc hoor, je hebt geen flauw idee wat je zegt
Beste OlivierH, ik programmeer al 25 jaar webapps in java, js, php, etc etc. Dat wij obviously niet dezelde ervaring hebben met betrekking tot het gebruik van Cursor met Opus 4.6 wordt mij duidelijk aan de hand van jouw opmerking.

Ik heb het absoluut niet over "maak een loopje" of 'scafold een projectje' oid. Ik heb het over opdrachten als; refactor onze zmq microservice architectuur naar NATS gebaseerde "plumbing". of "op basis van deze logregels, vind de bug die dit veroorzaakt" etc etc.. wel iets beter geprompt dan dat uiteraard maar dat werkt dus.. ik kan er ook niets aan doen dat jij die ervaring niet hebt :shrugs:..

Jouw waarschuwing voor mijn "toekomst" is ansich niet misplaatst, maar mijn inziens geldt dat voor alle developers, want de tsunami komt er aan en dat gaat geen jaren meer duren. Better get the surfboards out and ride the wave.
Alleen al omdat er geen privacy schendende zaken in zitten. Hier is hard op ingezet.

Niet dat het gaat gebeuren, maar mòcht de EU een keer terecht hard ingrijpen op AI waarvan de bronnen niet bekend zijn of zelfs illegaal, dan blijft deze gewoon werken.


Daarnaast kent het de Nederlandse en West-Europese zaken zeer goed. Het is geen manusjevanalles. Dat zorgt voor specifieke usecases waar het juist erg goed in is. Waaronder dus ambtenaren ondersteuning. Volgens mij is deze niet bedoeld voor programmeurs, en dat is prima, daar zijn andere voor.
Integendeel, dit model is juist ontzettend nuttig omdat het ingezet kan worden in een specifieke context waar het zowel goed in is als veilig gebruikt kan worden in Nederland. Dit is waardevol voor zowel ons Nederlands als de bedrijven hier.

Heb je het artikel wel gelezen of ga je nu alleen maar in op één zin in een opmerking die je niet aan staat?
Wat is het nut van dit model dan als een model als dit al beschikbaar is en ook aan de AVG voldoet: https://docs.mistral.ai/models/mistral-small-3-2-25-06

Ik heb het namelijk precies gelezen en zie dus ook dat dit model:
- kwa vaardigheden achter ligt op Mistral 3.2
- nog eens betaald is ook
- en ook nog eens meer dan een jaar later uitgebracht gaat worden.

Dus mijn vraag aan u: waar is dit ontzettend nuttig voor?

[Reactie gewijzigd door ApexAlpha op 26 februari 2026 11:37]

In ieder geval om de kennis om zo'n model te bouwen in NL zit. Je moet ergens beginnen...
Waar ik nu mee werk is een IQ 160+ peer programmer die mensenjobs van 2 dagen werk one-shot in 5 minuten
Ik weet niet wat voor programmeer werk je doet, maar als ik de laatste LLM gebruikt maakt hij nog steeds meer fouten dan het mij zelf kost als ik zonder de LLM programmeer. Voor standard boiler plate is hij inderdaad erg goed, maar zodra ik wat specifieks wilt moet ik het toch echt zelf doen.
Het ligt gewoon aan voor wat een hoe je het inzet. Sommige dingen vallen tegen en sommige dingen zijn geniaal of tenminste zeer nuttig.

Modellen als gpt5.x Codex and opus zijn goed. Maar je betaald en wel voor. Neem dan nog eens augment code die er een speciale context engine aan toegevoegd om structuur in grote projecten te begrijpen en het is dubbel geniaal.

Ik heb er lol in om de capaciteiten te testen. Dus ik heb de laatste tijd verschillende dingen gedaan die mij anders veel tijd zouden kosten.

Ik heb heb een nieuwe frontend laten genereren voor llvm met een programmeer taal met mijn syntax voorkeuren, inclusief build systemen en extensie voor code completion, syntax controle voor bekende ide's. Je hebt binnen een halve dag een werkende functionele taal.

Ik koppel ze ook aan ghidra om te reverse engineeren. En zelfs zonder ghidra heb ik ze hex files voor microcontrollers laten reverse engineeren. Het is niet foutloos. Maar het is zo goed dat ik binnen een dag een dos executable zo gedocumenteerd en uit elkaar heb dat ik zelf het kan bijschaven om het correct te krijgen. Dit zelf wat te doen of vervolg vragen. De modellen herkennen schrijven naar geluidskaarten, vga, file io etc met gemak en van daaruit redeneren ze terug. Loopjes, VGA retrace, timers, ze rekenen zo uit hoe lang alles loopt en de timing.

Het kost een klein vermogen, ik extrapoleer dat een volledige game reverse engineeren je zo duizend euro kost, maar dat kan je omlaag werken met spot pricing en combineren van dure en goedkope modellen voor verschillende taken. Met lokale ai die gewoon lang om de achtergrond kan rekenen op zonnepanelen.

De opties zijn legio. Als je er niets mee voor elkaar krijgt, dan heb je in mijn opinie gewoon geen idee hoe je ze moet gebruiken of geen goede modellen betaald. Er zijn echt wel dingen waar ze veel moeite mee hebben. Maar dan opsplitsen in stapjes helpt enorm. Ze instrueren om gebruikers hulp te vragen om acties efficient te maken helpt enorm. Ik klik wel voor ze in ghidra voor wat niet via de mcp kan.

Zelfs voor de acties die ik makkelijk zelf kan. De type snelheid van die dingen is onovertroffen.
edit:
ik vraag mij echt af wie mijn reactie als irrelevant markeert. Het is een reactie over mijn AI gebruik en resultaten tegenover iemand die zegt dat het niets kan. Hoe is dat "niet relevant"???? Zijn het gewoon de AI haters?

[Reactie gewijzigd door bzuidgeest op 26 februari 2026 10:35]

Ik heb voor een van mijn hobbyprojecten een update/upgrade mechanisme door codex laten maken dat automatisch bij een systeemstart de juiste versies van een stel docker containers en een losse applicatie ophaalt en start. Ik was aangenaam verrast over de kwaliteit van de gegenereerde code. Er zitten nog wel wat ruwe randjes aan (vind ik zelf) maar het scheelt zo wel enorm veel tijd.
Ja dat is gewoon wat ik bedoel, ook ansible "scripts" en dergelijke. Je definieert wat je wil en kan zo vlug itereren. Ik kan gewoon niet zo snel typen.
Ansible is dan ook wel weer super verbose. Dat is ook bijna niet te doen. Ook als mens is dat gewoon erg lastig om dat goed en onderhoudbaar te doen. Als ik dat uit kan besteden dan graag.
Misschien eens een andere workflow proberen. Over het algemeen heb ik het gevoel dat de kwaliteit redelijk goed is als je het juiste erin stopt. Je moet hem wel actief sturen en het eerste antwoord niet perse geloven (inhoudelijke kennis)
Full-stack webdevelopment (react/node etc) + DevOps (ansible, ci/cd scripting, Bash etc).

Tja wat kan ik zeggen.. misschien ligt het aan de manier waarop je prompt? Ik gebruik het voor alles, refactoring, unit testing, query optimalisatie, bug hunting, scaffolding, feature vibe-coding.. etc etc. ik geef dat ding ook gewoon ssh root op de devserver.. "doe maar ff haproxy config opruimen etc"..

Opus 4.6 is echt 🤯.. kost wat.. maar dan heb je ook wat.
ik geef dat ding ook gewoon ssh root op de devserver..
Hoewel ik best onder de indruk ben van Opus, ik zou dit echt nooit aandurven. Het is minder vaak dan een jaar geleden maar ik krijg nog vaak genoeg een antwoord wat net niet goed is (aannames, hallucinatie, noem het maar op). Root access geven is mij nog een brug te ver. Ik zie LLM op dit moment nog als een hele slimme stagair die af en toe echt rotzooi oplevert.
En dan? Een de server mag crashen. Daar is het een dev server voor.
Het zijn ook vooral de minder ervaren developers die dit soort zaken boasten, simpelweg omdat bij hen de kennis ontbreekt om echt de kwaliteit van AI code output op de juiste waarde te kunnen schatten.
Maar even terug naar de ai code kwaliteit. Who cares?

Als mens ga je het toch niet onderhouden. Ik schrijf tegenwoordig ook gewoon in talen die ik helemaal niet ken. Gewoon simpelweg omdat het niet uitmaakt.

ik heb specificaties voor functionaliteit en cases die input en output tegen elkaar kunnen valideren. de rest is puur wiring en domeinkennis.
Probeer eens jules.google.com op een bestaande git. Je kan veel leren van hoe die prompts opbouwt voor taken. Deze functie bedoel ik: Suggested Tasks | Jules
Als je gebruik maakt van een llm in je software, dan is het vaak niet nodig om het top model te gebruiken. Alleen al om de kosten. Een goedkoop llm kan best een prima samenvatting maken, of beslissingen nemen over gecomplexe zaken. Het gaat om de grootte van de context.
Nog even een kleine toevoeging, ik kwam net een video tegen waardoor ik aan deze conversatie dacht, laatst ook iets hierover op Tweakers gelezen maar de video geeft wat meer details:
1) YouTube: Amazon's AI Bot Deleted AWS — Then They Blamed the Engineers
2) nieuws: 'Amazons AI-tools haalden door fouten AWS twee keer offline'

Het is dus al op enorm grote schaal mis gegaan en dat heeft nauwelijks aandacht gekregen omdat Amazon hun best heeft gedaan dat ergens onder een tapijt te vegen, want het is hun brood dat hun brood verwijderde & gelukkig zijn er nog slimme mensen daar die zorgen dat backups gemaakt blijven worden...

Pas dus nogmaals alsjeblieft op met "AI" volledige toegang tot je server te geven, zelfs al maak je backups, wie weet hoe ver die "AI" kan gaan in z'n gevecht tegen bugs of wat daar dan ook precies fout is gegaan 😉
Ik heb hier voor onze organisatie wel interesse in. Is niet commercieel overigens, maar we zouden in mijn ogen wel baat hebben bij RAG en daar is in ons geval niet het topmodel voor nodig.
Omdat je niet alles kunt afvangen met een Opus 4.6 of een GPT5.2.

GPT 5 is gewoon kansloos traag tov 4o of een 3.5-turbo en echt totaal niet geschikt voor kleine automatiseringstaken.

Het boeit voor dit soort dingen gewoon simpelweg niet dat je 160+ IQ hebt. Juist snelheid, juistheid en resourcekosten zijn bij dit soort modeltoepassingen belangrijk.

Opus 4.6 is zwaaaaar overkill hiervoor.
Mistral is redelijk goed en Europees. Ik zou Europees gaan omdat ik vind dat we met ze alle actief geld moeten investeren in Europese bedrijven. Maar realistisch zie ik zakelijk vooral OpenAI en Claude.
RAG is hierin een mooie usecase omdat het voor bedrijven nu dus een manier geeft om zelf een goeie AI neer te zetten voor interne help desk die dus goed omgaat met AVG zaken, maar ook om eventueel naar buiten to een hulp product te leveren wat dus niet is getraind met data waar dat niet op had mogen gebeuren. Dit vangt echt een groot stuk liability af.
Welke liability? Ga je nu zeggen dat werkelijk iedereen die ChatGPT of Claude gebruikt liabel is? Dat is echt niet zo.

De hele wereld heeft allang besloten dat die modellen zo getraind mogen worden. Wat Nederland zelf ook vind.
Welke liability? Ga je nu zeggen dat werkelijk iedereen die ChatGPT of Claude gebruikt liabel is? Dat is echt niet zo.
Heel eerlijk, de meeste bedrijven hebben er dusdanig slecht over nagedacht dat het antwoord in veel gevallen eigenlijk wel degelijk gewoon “ja” is.

Alle data die je via de chat interface opstuurt of casussen die je ff voorlegt, zijn gewoon AVG technisch direct een probleem.
De hele wereld heeft allang besloten dat die modellen zo getraind mogen worden
Behalve alle auteursrechtenhouders. Dusse ja. Meningen verschillen daar wel over hoor.

Ben laatst nog door iemand volle bak uitgescholden op LinkedIn omdat ie het er dus absoluut niet mee eens was dat AI überhaupt gebruikt mocht worden vanwege dus de plagiaat zaken.
Ik denk dat Nederland weer het braafste jongetje van de klas is.

De Franse overheid heeft al bepaald dat LeChat prima is onder GDPR. Laten we niet (alweeeeer) Roomser dan de Paus zijn hier in Nederland.
Je kunt het prima gebruiken, maar je moet zelf natuurlijk wat zaken gaan regelen om het compliant te houden. Als het model daar zelf al beter mee om kan gaan door PII te negeren cq niks mee doet, dan is dat gewoon heel mooi meegenomen.
Maar laten we ook niet stellen dat er geen persoonsgegevens in mogen. Dat is ook onzin.
Nouja. Technisch gezien kan je dat natuurlijk niet zomaar beschikbaar stellen. Als jij PII als trainingsdata gebruikt ben je als verwerker wel verantwoordelijk waar die data komt.

Als iemand jouw model dan hackt zodat ie flarden van trainingsdata terug gaat geven en dan lekt een adres oid, dan heb je wel gewoon een datalek. Je kunt dus niet gewoon zomaar zeggen hee dat is het dan en let’s go.
Dit gaat alle kanten op. AVG 101: de AVG eist niet dat er geen datalekken plaatsvinden. Je mag prima persoonsgegevens in llm gooien zodra je daar grondslag voor hebt.
Heel andere discussie. Gebruik aan de voorkant is niet waar het hier om gaat.

En je kun zeggen grondslag zus of zo, maar als ne verwerkersovereenkomst met je LLM provider niet goed is ga je alsnog nat.

again je bent zelf verantwoordelijk voor je compliancy, maar het helpt als het model weet wat PII is en wat niet.
Jij maakt er een hele andere discussie van. Ik irriteer me kapot aan die verwerkersovereenkomst. Perfect voorbeeld van compliance op papier. Een VWO is niet de reden dat jij PII in de llm mag gooien. Sterker nog, als je wel een vwo hebt, maar geen grondslag dan doet die vwo helemaal niks. Dat is wel hoe het nu in de praktijk gaat. Typische papieren compliance.

Sterker nog. Ik adviseer regelmatig om geen VWO af te sluiten. Doe niet zo moeilijk, gaat erom dat je gebruikt wat nodig is en een goede reden hebt.

[Reactie gewijzigd door Quintiemero op 27 februari 2026 06:38]

Sterker nog. Ik adviseer regelmatig om geen VWO af te sluiten. Doe niet zo moeilijk, gaat erom dat je gebruikt wat nodig is en een goede reden hebt.
En dat is dus hoe je als bedrijf alle grip verliest op je data en er dus dingen lekken naar partijen die er geen zak mee te maken hebben.

Dat jij een legitieme reden hebt om data te verwerken betekent niet dat je die data maar aan iedereen mag geven op hun voorwaarden nee integendeel.

dat heeft niks met papieren compliancy te maken, dat is gewoon een afspraak met een derde partij dat de data niet gebruikt wordt op andere manieren dan voor jouw doel.

Bij ChatGPT en Copilot heb je die afspraken ook gewoon met het enterprise pakket.

Met een individuele licentie niet en dan is gebruik via de UI gewoon een probleem onder de AVG, want jij hebt het recht helemaal niet om die data te delen met anderen zodat zij het ook weer kunnen gebruiken.
En dan staat het op papier? En dan? Moet het ook nog geïmplementeerd worden hè ;). Ik kijk juist meer naar het laatste. Ik vraag naar hoe de leverancier met onze data omgaat en vertrouw niet op marketingpraatjes of proactief een VWO aanbieden. Zelfde met bewaartermijnen, veel organisaties hebbem een beleid, maar daadwerkelijk gegevens verwijderen, ho maar.
Moet het ook nog geïmplementeerd worden hè
Ja en dan helpt het dus als je model dat dus ook al snapt dat was het punt. mistral en GPT doen dat namelijk niet en hebben er vaak gewoon schijt aan.

Plus alles wat je via de app doet wordt daarna gewoon gebruikt voor training. Dat mag dus helemaal niet conform AVG/GDPR. Je moet als bedrijf dus enterprise licenties gebruiken. Ook al ben je met 5 man.
maar daadwerkelijk gegevens verwijderen, ho maar.
Eens. Compleet waardeloos.
Hoezo betalen ?? Is met subsidie gemaakt !!
Dus moet het maar gratis zijn?

subsidies betekent niet dat er niet ook private investment is gedaan.

Zeker zakelijk mag er best betaald worden voor het model hoor.
Waarom voldoet dit taalmodel als enige aan de AVG? Ik dacht dat Le Chat ook voldeed.
Volgens mij wijkt AVG op een paar puntjes af van de GDPR.
Dat klopt niet. "AVG" is simpelweg de Nederlandse titel van "GDPR". De Nederlandse vertaling bevat dezelfde inhoud als de Engelse en heeft dezelfde gelding. Wel heeft de Nederlandse wetgever gebruik gemaakt van de optie om aanvullende wetgeving te maken. Deze aanvullende wetgeving is te vinden in de Uitvoeringswet AVG.
Dus AVG in Nederland is niet hetzelfde als GDPR dan?

Je zegt zelf dat Nederland dus wél allemaal eigen zaken weer erboven op gegooid heeft.

Ik snap niet waarom diegene boven jou op 0 staat terwijl je volledig bevestigd wat hij zegt.
De (Nederlandse) uitvoeringswet AVG is niet de (Europese) AVG. Ze houden uiteraard wel verband. De AVG vereist nationale uitvoeringswetten.
En bij de vereiste Nationale Uitvoeringswet heeft Nederland er dus voor gekozen om er een aantal schepjes bovenop te doen.

Dat lijkt mij prima in lijn met de comment van R_Zwart.
Niet helemaal, want de AVG is de GDPR. 'Algemene verordening gegevensbescherming' is simpelweg de 'General Data Protection Regulation' maar dan in het Nederlands. Binnen de Europese wetgeving hebben de versies van elke taal dezelfde gelding.

In het geval van de AVG kan een nationale wetgever er ook nog voor kiezen om er een schepje bovenop te doen, maar die wetgeving is dan dus niet hetzelfde als de AVG. Overigens wijkt de Nederlandse Uitvoeringswet AVG niet in zinvolle mate af van de AVG. In ieder geval niet wanneer het om "AI" gaat.
De AVG is geen Nederlandse wet maar gewoon de Nederlandse naam van de Europese "Regulation" GDPR. Een Regulation wordt zonder dat implementatie door lidstaten nodig is, direct in heel de EU van toepassing. Dit is anders dan een "Directive", waarmee lidstaten opgedragen wordt een bepaalde wet te implementeren.

De "Uitvoeringswet AVG" is niet de AVG, maar een Nederlandse wet die enkele zaken die de GDPR openlaat invult.

[Reactie gewijzigd door ZinloosGeweldig op 26 februari 2026 15:26]

Ja dat zal best, maar voorde sake of discussion betekent dat dus precies dat de Nederlandse invulling als geheel (dus inclusief de uitvoeringswet AVG) gewoon afwijkt.

dus ja AVG is exact GDPR, maar praktisch is ons totaalpakket aan wetten om de GDPR te implementeren, uitgebreider/verdergaand dan noodzakelijk
Omdat ze met de "hand" alle data hebben geselecteerd en opgeschoond. Het is dus AVG en flink gecensureerd. Bij automatisch opschonen zoek je naar patronen en vervang je die. Dit vind bijv wel info.test@bla.nl maar niet info . test @ bla.nl


Hun AVG opmerking gaat over de data en niet een eventuele dienst die ze leveren zoals Le Chat dat is.
Leuk initiatief, maar dit licentiemodel is gedoemd om te falen. Je hebt een model van GPT-3.5-niveau dat je niet vrij kunt downloaden, maar waarvoor je een licentie moet aanvragen en betalen. Ondertussen kun je modellen als GLM-5, gpt-oss, MiniMax-M2.5, Kimi-K2.5 en verscheidene Mistral of Qwen3.5 versies gewoon van HuggingFace plukken en direct draaien. Elk van die modellen draait rondjes om dit model heen.

Wie gaat er pay-per-use betalen voor GPT-3.5-niveau? En welke onderzoeker kiest voor een model met licentierestricties als er tientallen open-weight alternatieven zijn zonder die rompslomp?

Het hele verdienmodel is gebaseerd op het terugbetalen van contentproviders via licentieopbrengsten. Maar als niemand die licentie afneemt omdat de concurrentie beter én toegankelijker is, vallen die opbrengsten weg en daarmee ook de goodwill van diezelfde contentproviders. Dan sta je daar met je Content Board en je verdeelsleutel, maar zonder gebruikers.

En laten we niet vergeten: dit is betaald met €13,5 miljoen gemeenschapsgeld. Als wij als belastingbetalers de rekening betalen, mogen we dan op het minst het model zelf mogen gebruiken? De broncode open is fijn, maar geef de gewichten gewoon vrij.
Ja dit klinkt echt als een "model by committee" waarbij eerst is besloten hoe we het gaan doen zonder enige input van buiten. Het zal technisch een prima model zijn voor het geld maar er is gewoon geen use case voor.

Dit is alsof de NPO besluit een eigen videocodec te gaan maken en verkopen ondanks dat VP9 gewoon bestaat.

Oke, een licentie verkopen op een taalmodel dat slechter is dan gratis modellen uit 2023 en dat dan verkopen vanaf eind 2026.

Juist.

p.s. Niks ten nadelen van de onderzoekers, die is technisch best knap voor €13 miljoen, oprecht. Maar alles eromheen ruikt gewoon naar ambtenarenonzin.
De BBC heeft een eigen video codec gemaakt (Dirac) wat nog best ok was en opgenomen is in de standaardset (VC-2). Het is geen X.265 niveau (maar komt dan ook uit 2008 ofzo).

Grootste probleem voor dit model is de trainingsdata: alles moet open zijn. Dat geeft ook direkt aan dat de andere modellen dat niet geregeld hebben (Anna's archive anyone). Dus je kan zeggen ambtenarenonzin of je realiseert je dat de andere modellen op illegaal verkregen materiaal draaien en je afvragen of dat iets is wat je wilt ondersteunen.
Ik denk dat dit voor een €13 miljoen kostend onderzoek is om te bewijzen dat NL wetgeving dus inderdaad innovatie doodwurgt.

Dit is wat je krijgt in Nederland als je de wet volgt: een gehandicapt model dat ook nog eens betaald is.

Nee prachtig.
Als innovatie is: steel alles en stop het in een LLM dan ja, dat wurg je dood. Wellicht is werk van anderen stelen het probleem. We roepen dat de chinezen alles stelen wat los en vast zit om dat vervolgens na te maken en juichen het toe als een Amerikaanse club het doet. Ik zit te wachten op het punt dat de grote jongens (Disney etc.) gaan handhaven. Het probleem is dat al die partijen zeer schimmig doen over hun trainingsdata en we dat accepteren en doen alsof het allemaal de gewoonste zaak van de wereld is. Als jouw werk gestolen wordt en in een LLM gegoten en je wordt overbodig verklaard ben ik benieuwd of je je mening bijstelt over het belang van zuivere traingingsdata en naventante kosten of kwaliteit van de modellen.
Als innovatie is: steel alles en stop het in een LLM dan ja, dat wurg je dood.
Op basis van deze innovatie is nu de hele wereld (exclusief Nederland) bezig met AI inderdaad.

Veel plezier met jullie puristische, moreel verheven houding! Ondertussen staat Mistral 3.2 op mijn GPU te draaien thuis, dus wat er ook gebeurd dat model bestaat al.

Veel succes met wachten op handhaving!
Sure. En ik draai ook modellen lokaal. Alleen hoop ik dat meer mensen zich realiseren wat ze eigenlijk doen ipv. 'oh, shiny new thing, must have'. En moral high ground is ook weer zo overdreven, het gaat er om dat mensen onvoldoende snappen van wat ze eigenlijk aan het doen zijn en hoe het tot stand komt en wat dat betekent. Zeg maar de ethische kwesties. Het verschil tussen noord-koreanse en een westerse maatschappij zeg maar.
Euh, geen usecase??

Ik vind het plezierig dat we zelf iets voor onszelf hebben. Niet afhankelijk van Amerika en zonder copyright issues.

Moet je kijken wat voor shit we hier, nu al, zouden hebben als amerika aan de stekkers trekt.

[Reactie gewijzigd door familyman op 26 februari 2026 13:01]

Ik zit helemaal niet in deze business, maar misschien dat ze het "volledig AVG compliant" punt goed kunnen of willen verkopen? Zeker als de regelgeving in de EU in de toekomst strenger zou worden. En dat kan ik me ook wel voorstellen, want dat gebeurt vaker bij nieuwe dingen in de EU. Of als de Nederlandse overheid alle rijksoverheden verplicht een AVG-compliant (qua training ja) model te gebruiken?

Misschien zijn er gebruikers die zelf ook gewoon van zichzelf wat ethischer bewust zijn en daarom dit model zouden gebruiken ipv een ander? Geen idee, de toekomst zal het leren.

Misschien moeten we het als een proof-of-concept zien? Zo van "kijk het kan gewoon, een llm AVG-compliant trainen". Dan heb ik wel weer de vraag, is die AVG-compliancy, en daarmee de restricties die je hebt in je trainingsmateriaal de reden dat het model 'maar' GPT3.5-niveau is? Of laat dit zien dat je dus ook AVG-compliant betere modellen (in de toekomst) zou kunnen maken?

Ik ben het verder natuurlijk met je eens, als je puur kijkt naar de prestaties van het model, en de beschikbaarheid van andere betere modellen, dan is het een vrij kansloze missie ;).
Leuk initiatief, maar dit licentiemodel is gedoemd om te falen. Je hebt een model van GPT-3.5-niveau dat je niet vrij kunt downloaden, maar waarvoor je een licentie moet aanvragen en betalen. Ondertussen kun je modellen als GLM-5, gpt-oss, MiniMax-M2.5, Kimi-K2.5 en verscheidene Mistral of Qwen3.5 versies gewoon van HuggingFace plukken en direct draaien.
https://huggingface.co/GPT-NL
Nog geen model, maar er staat wel al iets in de steigers, blijkbaar.
Als dit het enige model is dat aan de AVG voldoet, waarom zijn andere modellen dan nog actief in de EU?
Ik vind dit wel een goede vraag. Let wel: Ik weet het ook niet, maar wat ik vermoed is "aan de AVG voldoet" voor een LLM eigenlijk niet zo heel boeiend - als het om het gebruik gaat.

Stel jij tankt brandstof bij een tankstation wat zich niet aan de AVG houdt, dan heeft dat niet impact op de brandstof zelf. Ik vermoed dat iets soortgelijks geldt voor een LLM. Ook al train je die op data die verkregen is die niet AVG-compliant zijn, dan is nog maar de vraag of dat echt impact heeft op de resultaten van je LLM. Misschien dat er eens een naam op-popt als de LLM weer eens aan hallucineren is, of een geboorte-datum o.i.d., maar verder?

Dat maakt het natuurlijk niet allemaal goed, maar Pandera's box is allang open. We weten allang dat al die grote LLM's ook trainingsdata gebruikt hebben die ze eigenlijk niet hadden mogen hebben. C'est ca.

Ik ben wel nieuwsgierig naar deze GPT-NL. Niet zozeer om de kwaliteit, ik vermoed dat die echt niet beter is dan modellen waar een veelvoud van data en geld ingepompt is. Maar als het model kleinschalig genoeg is dan kan het verdomd handig zijn om binnen een bedrijf als lokaal-model te draaien!
Dat maakt het natuurlijk niet allemaal goed, maar Pandera's box is allang open. We weten allang dat al die grote LLM's ook trainingsdata gebruikt hebben die ze eigenlijk niet hadden mogen hebben. C'est ca.
De doos van Pandora kan in deze prima gesloten worden. Stel organisaties die een aanwezigheid hebben in de EU aansprakelijk voor gebruikte data in hun modellen. Laat die dit verantwoorden. GPT-NL toont aan dat het kan.
Vraag 1 is dan of dat op deze zaken het een "onschuldig tot het tegendeel bewezen is", of andersom. En ja er bestaan zaken waarbij je moet bewijzen dat je volgens de wet handelt, maar vaak moet natuurlijk de aanklager bewijzen dat de verdachte iets fouts heeft gedaan.

Vraag 2 is wie er verantwoordelijk wil zijn voor een gerede kans dat de EU economische zelfmoord pleegt. Want natuurlijk zijn er de onderzoeken waaruit blijkt dat LLMs zeker geen gegarandeerde productiviteitsverbetering opleveren. Tegelijk is het toch ook wel duidelijk ondertussen dat er best zaken zijn waarbij ze echt zowel consumenten als bedrijven enorm kunnen helpen. Als je dan elk model hier gaat verbieden hier (je behalve dit beperkte model), wat voor een enorme schade veroorzaak je dan aan de Europese economie?
Vraag 1 is dan of dat op deze zaken het een "onschuldig tot het tegendeel bewezen is", of andersom. En ja er bestaan zaken waarbij je moet bewijzen dat je volgens de wet handelt, maar vaak moet natuurlijk de aanklager bewijzen dat de verdachte iets fouts heeft gedaan.
Bedrijven moeten in de context van AVG al zaken doen om hun onschuld te bewijzen. Dit zou een verlengde daarvan zijn.
Vraag 2 is wie er verantwoordelijk wil zijn voor een gerede kans dat de EU economische zelfmoord pleegt. Want natuurlijk zijn er de onderzoeken waaruit blijkt dat LLMs zeker geen gegarandeerde productiviteitsverbetering opleveren. Tegelijk is het toch ook wel duidelijk ondertussen dat er best zaken zijn waarbij ze echt zowel consumenten als bedrijven enorm kunnen helpen. Als je dan elk model hier gaat verbieden hier (je behalve dit beperkte model), wat voor een enorme schade veroorzaak je dan aan de Europese economie?
Dat argument kan voor van alles bedacht worden: milieu en klimaat, mensenrechten, dierenwelzijn, ... Je kan van alles de standaarden opofferen op het altaar van het neoliberalisme voor de allerheiligste economie.

[Reactie gewijzigd door The Zep Man op 26 februari 2026 09:33]

Dat laatste wordt dan ook gedaan continue natuurlijk. Als je niks wil opofferen voor eg milieu en leefomgeving, dan moet je per direct elke vorm van gemotoriseerd verkeer verbieden. En toch doen we dat niet. Dan kan je wel de standaard dooddoener van AWM erin gooien, "het is de schuld van de neoliberalen!", maar los van de preciese invulling van onze economie (waarbij je echt bij de SP of nog links daarvan moet zijn wil je grootschalig markwerking weghalen), wil iedereen dat gemak. En willen we allemaal een economie. Anders ben je ook heel snel uitgepraat over wie de hogere zorgkosten moet betalen, want dan is er niemand om die hogere zorgkosten te betalen.

Als je kijkt naar de grootste uitgaven van de overheid, dan zijn dat zorg, onderwijs en sociale zekerheid. Dat kost een hoop geld. Als je de economie om zeep helpt is dat geld er niet meer, dus daar zal dan bezuinigd moeten worden. En natuurlijk kan je het hebben over welke impact die economie om alles eromheen mag hebben. Maar het gaat wel altijd impact hebben, anders is er nog een gigantische lijst andere zaken die je kan gaan verbieden voordat je bij de AVG compliance van LLMs uit komt.

Edit_: Onderstaande ga je er totaal niet inhoudelijk op in en maak je er een Vals dilemma van.

[Reactie gewijzigd door Sissors op 26 februari 2026 09:42]

De AVG zou ook het einde der tijden, hel en verdoemenis betekenen. Dankzij de AVG is er in de EU immers geen effectieve vrijbrief meer voor wat bedrijven met persoonsgegevens doen.

Regulering werkt voor de maatschappij. De maatschappij constant laten gijzelen voor commerciële belangen is enkel ten gunste van een kleine club rijken die nog rijker worden.

Onderschat niet het Brussels effect.
De realiteit is natuurlijk dat links, rechts, boven en onder de AVG met voeten wordt getreden. Sure, er worden boetes opgelegd, maar ook heel veel boetes worden schaamteloos betaald, geen verbetering en geen enkele verbetering voor getroffenen.

Ik krijg nog, bijna wekelijks, e-mails, telefoontjes en spam van bedrijven waar ik al 5 jaar geen zaken (meer) mee doe. Komt gewoon binnen. Odido zijn laatste lek bevatte data van mensen die al 5+ jaar geen klant meer zijn.

Er is zoiets als een papieren werkelijkheid. Ik vind het prima dat een of andere stichting Grok aanklaagt, maar het zal geen enkel effect hebben voor gedupeerden, handhaving ontbreekt, toezicht ontbreekt, etc.

Dat is misschien geen argument om het dan maar niet te doen, maar het is ook geen argument om het dan maar wel te doen. Het is net zoiets als de ene overheids-organisatie die de andere een boete oplegt, maar onder de streep verandert er niets. En al helemaal niet voor de gedupeerden.
Sorry, maar dat is zo verschrikkelijk naief en je zelf in de voet schietende.

Wat je dus feitelijk zegt: "Geen enkel bedrijf mag AI gebruiken in de vorm van ChatGPT, Claude, CoPilot, etc etc" want al die modellen hebben trainingsdata waarvan niet helemaal duidelijk is waarvan het afkomstig is OF waarvan al duidelijk is dat het niet AVG-proof is.

Als je op die manier redeneert dan is de concurrentie-positie van bedrijven met "aanwezigheid binnen de EU" meteen om zeep geholpen. Sterker nog, veel bedrijven (zoals ook MS) zullen dan geen aanwezigheid meer kunnen hebben in de EU.

Nogmaals: Pandora's box is open en die krijg je niet meer dicht.

Dat je zegt "GPT-NL toont aan dat het kan" is leuk, maar zeker niet aangetoond. Misschien binnen een beperkte context en sub-optimaal. Dat dat binnen een (semi-)overheidsorganisatie goed functioneert zegt meer over de overheidsorganisatie dan over het model, vrees ik.
Maar data is juist waar de modellen op draaien. Zowel wat de gebruiker als input geeft als hoe het model is getraind. Het is alsof het tankstation uit jou voorbeeld bewust gesanctioneerde brandstof uit Rusland verkoopt, daar dient de overheid ook in te grijpen,
Is de realiteit niet gewoon dat we een (obscuur) tussenlaagje erin hebben en we nog steeds olie-producten vanuit Rusland gebruiken, maar dan geimporteerd via een tussenhandelaar die ons valse gegevens levert?

Dat lijkt dan ook verdomd veel op hoe AI-modellen met de AVG omgaan: De illusie dat er niets aan de hand is.
Haha. 90% van de applicaties voldoet niet volledig aan de AVG. Maar laten we soms ook stoppen met die onzin om moeilijk te doen over het ontbreken van diagnostische data bij inzageverzoeken.. Dan kijk ik even met een schuin oog naar Surf-DPIA’s.
Ik snap ook niet wat ze bedoelen. Bedoelen ze dat de traininsdata legitiem verkregen is? En zo ja wat is de relatie daarmee met AVG?

AVG gaat toch over jouw persoonsgegevens ik snap niet wat een model daar mee moet?
Voornamelijk omdat de AVG helemaal geen LLMs regelt. (De EU AI act doet dat wel) Dit is een redelijk loze claim van een club die hun subsidie moet rechtvaardigen.

Dat gezegd hebbende, het is geen compleet dom idee of zo. Dit zou (mits compleet open) een prima basis kunnen zijn voor specifieke situaties. Maar nu is het blijkbaar niet open, dus dit lijkt me falen voor een open goal.
Jammer dat de weights niet openbaar zijn. Er is publiek geld in gestoken en de datasets zijn openbaar. Er zal geen bedrijf zijn die die dataset weer gebruikt om een zelfde model te trainen terwijl finetunen aan de hand van de weights kan zorgen voor verdere verbetering.
Absoluut gaan mensen die dataset gebruiken. Ik knutsel soms zelf met transformers, vaak met mijn eigen mails. Dit is een veel betere set om mee te werken om mee te mixen. Het is inderdaad een gemiste kans om het basis-model niet te delen, dat zou fine-tunes een stuk beter maken.
Ik weet niet het fijne ervan maar ik weet wel dat er data is gebruikt die normaliter achter een betaalmuur zit. Bijvoorbeeld krantenartikelen die je alleen met een abonnement kunt lezen. Hiervoor zijn netjes overeenkomsten gesloten. Dan lijkt het me op zich logisch dat niet alleen openbaar wordt gemaakt.
Leg eens uit waarom een model AN SICH AVG-compliant kan zijn? Als alles wat erin en eruit gaat binnen beheer blijft is het toch goed, of bedoelen ze eigenlijk het model + hosting?
Er zit in inderdaad in Wikidata behoorlijk wat data wat onder de AVG zou kunnen vallen, afhankelijk van hoe het gebruikt wordt. Ben ook benieuwd.
Kun je dat concreet maken? De AVG erkent expliciet dat sommige persoonsgegevens inherent publiek zijn, zoals dat Jetten nu een nieuwe baan heeft. Dat mag een LLM dus ook weten.
Ja, hoogleraren hebben een vergelijkbare rol als publiek persoon. Maar onder de Nederlandse wetgeving geld dat naar ik begreep niet voor UD, UHDs, promovendi, etc. Je kan hier aannemen dat hub naam, affiliatie, etc met consent gedeeld zijn om bekendheid aan hun onderzoek te geven, maar helemaal helder is dat volgens mij niet.
De AVG zegt daar niets over, en eerlijk gezegd denk ik niet dat er uberhaupt een poging is gedaan om dingen op dat nivo formeel vast te leggen. Het praktische feit is ook dat publiceren met zich meebrengt dat je publiek wordt - het zit letterlijk in dat woord.
Mee eens. Ik zal kijken of ik dat terug kan vinden rond publieke personen. Er is door experts naar gekeken tijdens het https://www.wikidata.org/wiki/Wikidata:Wiki-wetenschappers project.
Ze hebben het over de licenties en het copyright van de trainingsdata. Wat dat met de AVG te maken heeft weet ik ook niet.

Ook wel weer erg typisch Nederlands om zo extreem braaf te zijn tov de rest van de wereld weer...
Goed dat er ontwikkelingen zijn met eigen modellen. Maar je ziet meteen hoe beperkend de uitkomst is als je aan al die regeltjes en bureaucratie moet voldoen. Als dit het beste is dat we binnen de EU op dit moment vanuit de markt kunnen verwachten zijn we echt gedoemd om te falen. Ik zou er geen euro meer in stoppen als ik een investeerder had geweest.

Anno 2026 een model dat net op GPT3.5 niveau zit. Dan ook nog eens gesloten, duur en verder in de praktijk totaal niet bruikbaar is. Het is een trieste inkijk in de realiteit wat alle bureaucratische beperkingen doen met innovatie. We worden compleet ondergesneeuwd en zijn straks volledig afhankelijk van Amerikaanse of Chinese modellen, structuren en processen.
Ik vind het niet zo erg dat de Amerikanen en Chinezen voorop lopen het gebied van AI modellen. Zo lang er open source modellen zijn met SOTA performance kunnen wij die modellen gewoon gebruiken en in tegenstelling tot die landen, dankzij onze regelgeving, op een verantwoordelijke manier inzetten t.b.v. onze maatschappij.

De performance van GPT-NL vind ik overigens verrassend hoog gezien de limitaties die horen bij de specialisatie van dit model.

[Reactie gewijzigd door ZenMonkey op 26 februari 2026 19:58]

Klaar voor gebruik, maar waar kunnen we hem gebruiken dan?
Kennelijk alleen binnen overheidsinstanties
Ik vind het verwarrend dat de website www.gpt-nl.nl lijkt te zijn, maar er bestaat ook een www.gpt-nl.com

Enig idee welke het moet zijn?
de .com versie ondersteund echt een waslijst aan talen, en de .nl versie heeft in de blogs ook dezelfde foto als in dit artikel, save to say dat gpt-nl.nl de juiste is. Alhoewel de website er wat minder strak uitziet.
edit:
in de FAQ van de .nl versie staat ook nog een dit: Zijn jullie gelieerd aan de website gpt-nl.com?

Wij zijn niet gelieerd aan de website www.gpt-nl.com, noch aan het product dat zij verkopen. Wanneer u nu een taalmodel afneemt onder een soortgelijke naam, is dit niet van ons. Ons model is vooralsnog enkel beschikbaar voor Launching Customers.

[Reactie gewijzigd door NLxDoDge op 26 februari 2026 13:32]

Grappig hoe tno beweert dat ze alleen zakelijke teksten wilde omdat inforle texten niet bij de overheid thuidhoren

En dat alles in het licht van 'klare taal' een project waarin de overheid en de rechtspraak de afgelopen jaren keihard werken aan de verspimpeling van taal in rechtelijke uitspraken of in besluitrn van overheden en zelfs bij het schrijven van wetten (onder andere de algemene wet bestuursrecht) en ook in de aankomende wijzigingen in het wetboek van strafrecht naar ik heb vernomen
Volgens mij moet je dit lezen als zakelijk in de zin van: geen opiniestukken.
Precies dit en dan ook nog eens veel baseren op teksten van nieuws organisaties. Laat nu net een groot deel van de mensen die veel geconfronteerd worden met overheidscommunicatie een hekel hebben aan de manier van schrijven en aan main stream media. :+

Om te kunnen reageren moet je ingelogd zijn