AI zorgt met sneltreinvaart voor een enorm aantal mogelijkheden, en vergroot tegelijk het aanvalsoppervlak. Rens van Dongen (AI Officer bij NS) laat op de Tweakers Developers Summit 2025 zien hoe gecontroleerde pilots en een AI Management Systeem (AIMS) helpen om nieuwe AI-risico’s te beheersen. In systemen, in gebruik en in de supply chain.
Rens verkondigt op de Tweakers Developers Summit 2025 een boodschap die tegelijk nuchter en confronterend is: AI maakt teams echt productiever, maar de kansen voor aanvallers groeien net zo snel mee. Als AI Officer en Senior Information Security Officer bij NS ziet hij die twee lijnen in de praktijk overal samenkomen; van ontwikkelstraten tot supply chains. Het antwoord zit niet in de paniekrem of juist blind gas geven, maar in governance die snelheid mogelijk maakt. “Ik ben bullish op AI”, zegt hij. “Maar je krijgt de lusten én de lasten. Wie het snelst en het best bestuurd is, wint.”
Van one-man-band naar specialisatie op schaal
Rens positioneert zich bewust als onderdeel van een groter geheel. “Ik ben nu een klein radertje in een heel groot security-apparaat”, zegt hij. “Net zoals onze directeur Cybersecurity, Dimitri van Zandvliet, en andere experts in ons team probeer ik te vertolken wat we aan interne expertise hebben opgebouwd en ervaren. Doordat we bij NS eenvoudigweg de schaal hebben, kunnen we veel dieper specialiseren.” Waar hij bij eerdere werkgevers als one-man-band “alles aan informatiebeveiliging, privacy en compliance” oppakte, richt hij zich nu op software security, en ging van AI-security naar AI-governance, risk & compliance (GRC), dwars door andere risicodomeinen heen.
Die focus is geboren uit een simpele, maar urgente vraag die veel organisaties twee jaar geleden stelden: wat moeten we met ChatGPT? “Dat was de checkvraag waar het mee begon”, zegt hij. “Alleen heeft niet iedereen de aandacht en focus om daar structureel beleid, tooling en controles omheen te bouwen. Wij wel, en dat willen we teruggeven.”
Zijn missie is helder: meer organisaties in beweging krijgen, richting een AI-managementsysteem. “Zoals we dat gewend zijn voor privacy, security en safety, hebben we dat nu óók nodig voor AI-technologie. Bijna drie jaar nadat ChatGPT de wereld veranderde, gaat het helaas nog steeds te veel over vermeende datasecurity en risico’s rond privacy compliance. Met andere woorden: of modellen zouden kunnen worden getraind op basis van bedrijfsdata. Hoewel dit een nieuwe verwerkingsvorm is door chatbots, is het technisch gezien eigenlijk een traditioneel IT-security én juridisch onderwerp. Enterprise-licenties en goede contractclausules zijn inmiddels standaard, dus laten we focussen op de echt nieuwe risico’s, zoals privilege escalation door AI-agents als confused deputies.”
Paradox: ontwikkelsnelheid stijgt, de aanvalskans ook
De urgentie schetst Rens als een paradox. Aan de engineeringkant zorgt AI voor meer code, meer changes, meer complexiteit en dus groeiende aanvalsmogelijkheden. Llm-assistenten genereren razendsnel boiler plates, tests, documentatie en IaC; de ontwikkelsnelheid schiet omhoog. Tegelijk versnelt AI de aanvallerskant. Generatieve modellen maken spear phishing op maat en op schaal triviaal; reconnaissance, vulnerability discovery en zelfs exploitgeneratie schuiven richting geautomatiseerd. “De instapdrempel voor onervaren criminelen daalt”, zegt hij. “En de doorvoer, het aantal mogelijke gerichte aanvallen per tijdseenheid, stijgt. Efficiëntie geldt óók voor bad actors.” De uitkomst is voorspelbaar: meer en sneller ontdekte zwaktes aan de ene kant; defenders die worstelen met integratie, budgetten en schaarse specialisten aan de andere kant. Conclusie: de verdediging moet mee-automatiseren.
Pilots & praktijk: gecontroleerd
NS werkt proefondervindelijk. AI-assisted en AI-automated development worden bewust ingezet, maar met ‘hekken’ eromheen. GitHub Copilot draait niet ad hoc op privélicenties, maar als enterprise-voorziening met logging, afspraken en guardrails. Daarnaast verkent NS platforms als Replit, Cloud Code en Cursor. Niet als gimmick, maar om te meten wat het oplevert en waar de risico’s zitten. “We gaan het gewoon proefondervindelijk testen”, aldus Rens. “Supergaaf, maar er zitten AI-securityrisico’s aan.”
Case: slopsquatting
Een voorbeeld dat Rens noemt, is slopsquatting, familie van typosquatting en domainsquatting, maar uitgelokt door llm’s. Taalmodellen schrijven package-namen van populaire libraries soms op voorspelbare manieren verkeerd. Als een kwaadwillende die fout gespelde naam in een registry heeft geclaimd, kan een CI/CD-pipeline zonder compile-fouten de verkeerde dependency installeren. Rens: “Dit probleem bestond niet vóór llm’s. Maar nu is het realiteit.”
Softwaretestingtools zoals Software Composition Analysis (SCA) verkleinen de kans dat een verkeerd gespelde, kwaadaardige dependency ongemerkt in productie belandt. Die maatregel is niet nieuw, maar wordt nog steeds niet altijd vanzelfsprekend en gedisciplineerd toegepast, en is nu urgenter dan ooit. “Elke automatiseringsgolf vereist nóg meer automatisering”, zegt hij. “De complexiteit van de software-supplychain neemt toe, niet alleen door meer dependencies, maar vooral door dependencies met dependencies met dependencies. Dieper in de keten wordt het lastiger om de veiligheid te garanderen door middel van security assessments en trustedsource-validatie. Je pipelinekwaliteit móét daarom mee opschalen.”
AI-gegenereerde code: sneller, maar kwetsbaarder (tenzij je borgt)
Een tweede observatie: AI-gegenereerde code bevat gemiddeld meer triviale kwetsbaarheden dan code door mensenwerk, tenzij teams hun test- en reviewregime net zo hard opschalen. “Dat zou niet erg zijn als je het goed automatisch test,” zegt Rens, “maar dat is voor veel organisaties een grote stap. En wij hebben honderden teams en pipelines. Die krijg je niet overal tegelijk op één volwassenheidsniveau. Gelukkig zien devops-softwaresuppliers hier een kans en innoveren zij volop met AI om softwarequality-validatie over te dragen aan llm’s die dit werk sneller, grondiger en 24/7 aankunnen.”
AIMS: van compliance-minimum naar riskgedreven weerbaarheid
Het structurele antwoord is het AI Management Systeem (AIMS): één set beleid, maatregelen en communicatie voor het hele AI-levenstraject; van idee tot uitrol en afbouw. “Maar naast de focus op AI-systemen, zoals je die terugziet in de nieuwe EU AI Act, hebben wij evenveel aandacht voor het gebruikersgedrag en de supply chain. Gebaseerd op de ISO42001-norm hanteren we AI-objectives die naast cybersecurity ook thema’s behandelen als fairness/bias, transparantie en expertise. We zijn risicogedreven”, zegt Rens. “Compliance met wetgeving is het minimum. Ons AIMS is er voor weerbaarheid en schaalbaarheid. Eigenaarschap is bewust verspreid binnen de organisatie. Onze awareness-experts en training academies stimuleren AI-literacy op alle niveaus. Het AI-toetsingcomité richt zich op risicobeoordeling en het beheer van het AI-register. En via een assurance loop van audits en managementreviews borgen we continue verbetering.”
Governance als enabler: faciliteren in plaats van verbieden
Rens is uitgesproken over cultuur: bot verbieden werkt niet, vindt hij. “Dan lopen engineers eromheen, terecht of onterecht”. De keuze bij NS is faciliteren: enterprise-licenties (met hardening en gedragskaders), awareness-communicatie over verantwoord gebruik, en een open dialoog over beleidskeuzes. “Leuk dat je aan ChatGPT denkt, maar wij gebruiken ChatNS. Dat startte om compliance-redenen, maar biedt inmiddels ook voor NS unieke rag- en integratiefunctionaliteit. En we geven je enterprise-features, community-events, en training. Experimenteer ermee, maar dan wel met de juiste borging.”
Die benadering is niet vrijblijvend. Bij twijfel kan een aantrekkelijke pilot worden gepauzeerd, zeker als iets customer-facing wordt en fairness, transparantie of accountability nog niet aantoonbaar zijn. Als publieke dienstverlener ligt NS onder een vergrootglas. Terecht, vindt Rens. “Reputatie is bij ons een zeer belangrijke risicofactor. Je kunt je geen discriminerend model in klantenservice of recruitment permitteren.”
Van evangelie naar mechaniek
AIMS voelt in het begin vaak als een evangelie: nieuw jargon, nieuwe processen, nieuwe verantwoordelijkheden, bovenop bestaande kaders rond privacy office, data access board en cybersecurity frameworks. Rens erkent die frictie. Maar zijn punt is juist dat een managementsysteem lasten verspreidt en zo schaalbaar maakt wat anders telkens ad hoc moet. In plaats van één team dat alles oplost met lange risico-questionnaires, zijn bewustwording, procurement/supplychain-risico’s, AI-register en toezicht verankerd in de lijn. “Het resultaat is voorspelbaarheid. Teams herkennen de logica van onze andere risico- en compliance-processen.”
Daarom is Rens optimistisch over wat AI kan betekenen. Voor productiviteit, creativiteit en werkplezier. Maar hij wil vooral voorkomen dat organisaties doorschieten, ofwel in verbieden, ofwel in hosanna. “Je kunt dit niet doen zonder dat de risico’s meeliften”, zegt hij. “Governance is niet de rem; het is het onderstel dat harder rijden mogelijk maakt. En het verandert voortdurend. Nieuwe technologie brengt nieuwe risico’s en dus nieuwe maatregelen met zich mee. Dát is de sport: zorgen dat de weerbaarheid mee schaalt naarmate de AI transformatie versnelt.”
Koop de allerlaatste kaartjes voor de Dev Summit 2025
Ook zo’n zin om morgen alle sprekers te zien en horen op de Dev Summit 2025? Scoor dan nu een van de allerlaatste entreekaartjes. Een regulier ticket kost 299 euro, en je kunt nog net gebruikmaken van de actie waarbij je drie tickets voor de prijs van twee kunt scoren.
Als je werkgever de kosten voor het ticket op zich neemt, ontvang je uiteraard een factuur voor de administratie. Persoonlijke gegevens worden niet gedeeld met partners.
Ben je student? Dan bieden we graag een gereduceerd tarief aan. Ook hiervoor kun je terecht in de ticketshop.
Onze partners dit jaar
