'Europees Parlement blokkeert AI-functies op werktelefoons en -tablets'

Het Europees Parlement blokkeert AI-functies op werktelefoons en -tablets. De IT-afdeling maakt zich zorgen om hoe data gedeeld wordt met externe partijen en heeft de AI-functies daarom stopgezet. Dat schrijft Politico op basis van een ingeziene e-mail.

Het gaat om AI-tools en functies die helpen bij het schrijven en samenvatten van teksten, om AI-assistenten en om functies die webpagina's samenvatten, schrijft Politico. De maatregel treft volgens de site zowel parlementariërs als hun medewerkers.

Volgens de mail gebruiken 'sommige' functies clouddiensten, terwijl ze ook lokaal afgehandeld kunnen worden. Daardoor zouden er zorgen zijn rond hoeveel data er met bedrijven wordt gedeeld. Zolang daar nog geen duidelijkheid over is, wil het Parlement het zekere voor het onzekere nemen en de cloudfuncties dus uitschakelen.

Het Parlement wil tegenover Politico geen extra details geven, omdat het gaat om 'gevoelige materie'. Het is dan ook niet duidelijk om welke diensten of functies het gaat. De parlementariërs en werknemers krijgen wel het advies om met hun privéapparaten 'dezelfde voorzorgsmaatregelen' te nemen en AI-apps niet zomaar veel toegang tot data te geven.

Europa / Europese Unie. Bron: Jonathan Kitchen/The Image Bank/Getty Images
Europa / Europese Unie. Bron: Jonathan Kitchen/The Image Bank/Getty Images

Door Hayte Hugo

Redacteur

18-02-2026 • 08:28

133

Submitter: Tribits

Reacties (133)

Sorteer op:

Weergave:

Het verbaast mij dat het EP überhaupt zoveel vrijheid toestaat op informatiebeveiliging.

Misschien dat het bij een democratisch orgaan als dit onwenselijk zou zijn, maar ik had verwacht dat parlementariërs en medewerkers van het EP al lang en breed in een zorgvuldig afgeschermde VM-omgeving zouden werken of iets dergelijks.

Op mijn werk wordt ook met een sloot (maatschappelijk) gevoelige informatie gewerkt. Wij werken allemaal in een goed beveiligde VM omgeving. In deze omgeving zijn alle cloud diensten gemanaged. AI diensten van derden werken niet (per beleid). Wij hadden geluk dat bij een recente upgrade van ons rekencentrum een gedeelte van de oude capaciteit herbestemd werd om een lokale AI chatbot te draaien. Die kan je binnen de virtuele omgeving naar hartelust gebruiken voor samenvattingen en tekst verbetering.

In mijn ervaring is dit een hele goede oplossing, want wij hebben het beste van twee werelden: goede beveiliging én het gemak van AI.

Ben benieuwd of dit voor het EP niet ook op een dergelijke manier kan.
En hoe voorkomt die zorgvuldig afgeschermde VM-omgeving dat de gebruiker zijn/haar mobiel pakt, foto van scherm maakt en dit gebruikt in een random cloud toepassing?
Dit voorkom je niet, maar dit soort "toepassingen" is omzeilen van de beveiliging en mogelijk bedrijfsspionage. Dit kan een rede zijn om iemand op staande voet te ontslaan.
Het EP is geen bedrijf, en volgens mij kan een euro parlementariër niet ontslagen worden. Ik heb ook het antwoord niet, maar een VM-omgeving is een middel, maar niet de volledige oplossing
Je kunt een europarlementariër gewoon uit zijn functie zetten hoor als die bepaalde regels overtreedt.
Na een veroordeling ja, niet zo makkelijk als je het doet voorkomen.

Ik heb niks tegen een VM-omgeving, en kan een goed middel zijn, maar er werd gedaan alsof dat de heilige graal zou zijn, dat is het niet.
Hoe kom je tot die conclusie? Er staat goede beveiliging, geen perfecte beveiliging.

De geschetste oplossing is een bovengemiddelde aanpak voor het A.I. vraagstuk waar veel organisaties mee kampen. Dat er (altijd) restrisico's zijn, doet niets af aan de oplossing.

[Reactie gewijzigd door densoN op 18 februari 2026 12:36]

Dan geen bedrijfsspionage maar gewoon spionage. Ook goed.
Voorbeeld van @E!Ma0RB7 was van een bedrijf. Ik heb een bedrijf en als ik een dergelijke beveiliging opzet wil ik niet dat werknemers die gaan omzeilen. Dan is het direct inpakken en wegwezen.

Ik de praktijk heb ik zo'n beveiliging niet en het staat werknemers vrij om AI te gebruiken. Geheimen hebben wij niet en concurrentie in de bioplastics productie zou ik alleen toejuichen. Natuurlijk zal ik het wel op prijs stellen als men een bijdrage betaalt voor onze R&D als men onze patenten gebruikt.
Ik heb in het kwaliteitswezen geleerd dat je mensen dankbaar moet zijn als ze beveiligingen omzeilen.

Om twee redenen:
  1. Je zet de creativiteit van al je medewerkers in om kwetsbaarheden in je systeem op te sporen. De kennis van jouw medewerkers die al 25 jaar 40 uur per week hun leven makkelijker proberen te maken kan je het best zo snel mogelijk op waarde schatten.
  2. Als je onderzoekt waarom mensen de beveiliging omzeilen, snap je wat hen drijft. Die kennis kan je gebruiken om de beveiliging te verbeteren door in die behoefte mee te gaan.
Uitzonderingen zijn er natuurlijk. Slopen om te slopen (sabotage, fraude, spionage etc.) is er zo één; die zetten we inderdaad vakkundig bij de poort af.

Schiet me een mooie anekdote te binnen:

Ik werkte zo'n 10 jaar geleden als kwaliteitsmedewerker in een productieomgeving waar we een doorvoeroven gebruikten voor het ontlaten van geharde metalen onderdelen. Dat proces verliep bij 180° C voor 2 uur.

De nachtdienst had uitgevogeld dat dit perfect was om een kippetje in te bereiden. Die kip komt er hardstikke giftig uit natuurlijk en brengt zo veel meer risico's met zich mee. Maar man wat hebben we gelachen.

Reactie van management: er werd duidelijk gemaakt dat dit niet de bedoeling was en de risico's werden natuurlijk duidelijk uitgelegd. Maar niemand werd gestraft. Sterker nog, het MT organiseerde een BBQ voor iedereen en op die BBQ kreeg iedereen de opdracht om in de fabriek een eigen manier te vinden om vlees te bereiden (dat werd niet opgegeten). Winnaar met de meest creatieve manier kreeg een bon voor een lokaal all you can eat restaurant.

De gevonden kwetsbaarheden werden in de komende weken aangepakt en voor de nachtdienst werd een overeenkomst gesloten met een lokale shoarma-zaak.

Alleen maar winnaars en ik heb op verjaardagen een leuk verhaal.
Leuk verhaal, maar vooral met veel gevaren. Nu is dit meer een lolletje dan omzeilen van beveiligingen (als ik het tenminste goed begrijp), maar voor mij blijven ook dit soort zaken een rede om iemand acuut naar huis te sturen.

De productie hoort te gaan zoals in de protocollen staat. Voor experimenten hebben we een gescheiden lijn, maar daar moet alles ook gebeuren met een vooraf opgesteld (en goedgekeurd) protocol waarin ook opgenomen is wat het beoogde resultaat moet zijn.
Zo zouden meer bedrijven moeten werken.
Dat is natuurlijk niet de enige maatregel. Genoeg omgevingen waar telefoons en foto toestellen niet on site mogen.
Je kan heel veel maatregelen nemen, maar recent kwam ik ook weer een voorbeeld tegen van een manager die gewoon zijn reviews voor de mensen onder hem liet maken door informatie aan een publiek AI systeem te voeden. Iets wat expliciet niet mag volgens ons beleid.

Je bent dan geen data aan het kopieeren, maar wel gewoon vertrouwelijke informatie aan het doorgeven aan die AI bot, een bot die voldoende context clues heeft om te achterhalen bij welke firma je werkt, wat jouw positie is, wie jij bent, met wie jij samenwerktn, hoe je over die mensen denkt, ... . Want uiteraard worden lange emails en dergelijke ook gewoon met copy/paste in die bot geplakt. Als het moet zelfs op de mobiele telefoon.

Maar ook daarbuiten zien we voldoende gevallen van mensen die gewoon op zoek gaan naar tools die zij denken dat handig zijn voor hen. Een deel sporen we tijdig op, een deel komt vanzelf boven water wanneer ze proberen aan te melden door middel van SSO en dan vast lopen, en een deel blijft gewoon onder de radar.
Hebben jullie geen aanvullende regelementen op het werk die AI verbiedt voor medewerkers?


Wij hadden een tijd terug een 'verplichte' workshop/webinar laten houden over de gevaren van AI voor onze data en hoe gevoelig die data is en kan zijn en hebben nu bijna iedereen expliciet gevraagd of zij geen AI willen gebruiken buiten de lokaal gehoste AI chatbot die in de werkomgeving aanwezig is.
Hoe dat precies geconfigureerd is weet ik niet, dat regelen andere.

Het personeel die met gevoelige info werkt moest daar ook een aanvullende contract voor ondertekenen.
Maar dat is in het EP niet haalbaar toch? Daar gaat het artikel over
Er is een verschil tussen het bewust en onbewust lekken van data.
Een Chinese AI waar je vervolgens je gehele betrouwbare document in upload om m een beetje te polishen is natuurlijk goud voor China.
Dat zal nooit geheel te voorkomen zijn want de gebruiker blijft vindingrijk en vind de terechte beperkingen maar lastig.
Ook binnen de organisatie waar ik werk hebben we een VM omgeving waarin de applicaties draaien m.b.t. patiënten/clientenzorg binnen een afgeschermde omgeving. Maar de gebruiker vindt dit lastig en zoekt dan weer naar zaken buiten de omgeving om.
Dit mag niet, dit is duidelijk beleid en kan ontslag op staande voet betekenen wanneer dit met bepaalde informatie wordt gedaan.
Het beleid is duidelijk, iedereen wordt er met grote regelmaat opgewezen en kan dus nooit zeggen ik wist dit niet. En het staat zelfs in het beginsel in je arbeidscontract onder de geheimhoudingsclausule.
Maar boven de risicomatrix staat eigenlijk altijd dan wel de medewerker zelf.

Maar diezelfde medewerker kan je dan ook weer niet vervangen door een AI mederwerker en blijft dus altijd een grotere uitdaging dan het de hele omgeving waarin je werkt.

Opvoeden van medewerkers blijft lastig net als de pubers in huis die mij toch soms weer te slim af zijn.
En hoe voorkomt die zorgvuldig afgeschermde VM-omgeving dat de gebruiker zijn/haar mobiel pakt, foto van scherm maakt en dit gebruikt in een random cloud toepassing?
Collega's.

Wat je omschrijft is echt zwaar verboden. En echt gevoelige stukken kom je niet met je VPN bij, alleen op een echte locatie.

Daarnaast is dat veel gedoe voor de onschuldige onnozele gebruiker. Want niet alleen moet die input in de cloud dienst komen, maar de output moet ook weer terug komen. (en dat is ook wanneer alarm bellen gaan rinkelen)
Nooit.

Maar xoor een gemakkelijker alternatief te bieden, zoals een lokale eigen AI, kan dit effectief beheerst worden.

Mensen zijn inherent lui en gemakzuchtig, dat kan je als kans inzetten om goed gedrag zacht af te dwingen.

Wanneer jouw eigen lokale (veilige) AI sneller en beter werkt dan schermen fotograferen met je telefoon blijven bijna alleen echte boeven dit verkeerd doen.
De angst die er leeft zit hem in het volgende.

Trump heeft met de laatste wet een middel om elk amerikaans bedrijf te vragen om data op te vragen. Zij moeten deze afstaan waar ook ter wereld. Daarnaast was er een casus waarbij Trump besloot 1 persoon te ontdoen van zijn email. Dus Microsoft deed braaf wat Trump wilde en die man kon niet meer bij zijn email.

Dus gebruik je Azure en heb je afgedwongen dat je data niet buiten de NL landsgrenzen mag worden opgeslagen? Dat helpt je niet.

Dat is de wereld waar we nu in leven, gebruik je amerikaanse software dan ben je de sjaak.
Hoe realistisch die angst is, is een tweede. Het gebeurd al.

In mijn inziens hadden ze al na George Bush Jr. zijn patriot act een Europeesche cloud variant moeten maken die niet overgenomen mag worden. En dat riep ik toen ook al.
Maarjah pro actief dingen opzetten doen ze ook niet.
Sinds dat geintje wat de VS het Internationaal Strafhof heeft geflikt kent elke collega van mij het woord "soevereiniteit".

Bij een actuele aanbesteding komen we er achter hoe ongelooflijk lastig het is om dit probleem te vermijden. Zeker bij gespecialiseerde cloud diensten blijkt dat er altijd wel ergens een sub verwerker is die een vitaal onderdeel van Amerikaanse bodem gebruikt.

Het zal nog wel wat jaartjes duren voordat we om zijn...
Dit is toch geen nieuws? Maar zou best practice moeten zijn voor iedere organisatie die met gevoelige informatie werkt...
Als je goede contractuele afspraken hebt met het AI bedrijf en strikt die AI tool gebruikt, kan dat prima.
Dat ai bedrijf moet dan wel 100% Europees zijn anders kan je ze nergens op vertrouwen. Contract of niet. Der Amerikaanse cloud act en patriot act, overstijgen in Amerika elk contract.
Zelfs dan heb je geen garantie. Je wilt het in eigen beheer hebben en werken met open standaarden waar je niet vast zit aan een partij. Anders krijg je weer het geintje dat het bedrijf wordt overgenomen of stiekem toch dealtjes heeft gemaakt waarbij die gegevens toch gedeeld worden.
Als een Europees bedrijf dat doet kan je in ieder geval je recht halen. Als het bedrijf door een buitenlandse partij word overgenomen dan haal je alles daar weer weg natuurlijk. En dat het verstandig is om open standaarden te kiezen is altijd verstandig. Niet alleen in dit geval.

Een Europees bedrijf levert altijd betere garanties dan de andere opties. Zelf hosten is niet altijd verstandig of efficient. Economy of scale is namelijk een ding.


En zelfs microsoft host het grootste deel van azure op linux. Levert open source producten in een beheerde vorm. Postrgresql, mariadb en vele meer zijn allemaal opties. Niet dat je zaken met ze moet doen, maar ik wil hiermee het punt maken dat cloud niet hoeft te betekenen vendor lock in. Microsoft doet ook kubernetes en docker. Je kan je containers altijd naar een andere plek verhuizen.

Cloud is niet het probleem, het is hoe je die cloud inricht waar je vragen over moet stellen. En je kan prima inrichten zonder vast te zitten. Zelfs bij zo een partij als microsoft.
Je verdedigingsplannen voor Oekraïne liggen bij de vijand maar je kan iig jouw hoster voor een miljoen aanklagen! Goede deal... voor Rusland.
Dat suggereert dat je geen enkele partij ooit kan vertrouwen. Dat is onpraktisch en onrealistisch. Als je een datacentrum gaat zelf hosten en je ontbreekt kennis of ervaring dan is het kan op lekken net zo groot of misschien wel groter.


En jij teelt je eten toch ook niet zelf? Daar ga je ongetwijfeld voor naar de supermarkt of groenteboer. Maar volgens jou stelling kan je die ook niet vertrouwen.
En dan blijkt dat bedrijf toch een achterdeurtje te hebben naar de NSA of Mossad... dit is niet bedrijfsgevoelige informatie over hoeveel winst je nou echt gemaakt hebt het laatste kwartaal, dit is veel gevoeligere informatie en een contract is net zoveel waard als het papier waarop het geschreven is.
Een backdoor of een lek kan altijd, ook bij Europese bedrijven, Cloud of niet. Uiteraard moet de voorkeur gaan naar een Europees bedrijf, maar een complete 'no-AI' regelset voor alle dataverwerking in AI is natuurlijk rigoureus en staat ook innovatie in de weg binnen jouw bedrijf.

Als je goed in kaart brengt welke data je waar in gebruikt en de eindgebruikers goed traint, dan kun je prima AI op de werkvloer gebruiken. Wordt ook gewoon gebruikt in legal environments, waar verschillende AI tools (zoals CoPilot, Ariel en Legora) gewoon zonder problemen worden gebruikt.
Een backdoor of een lek kan altijd
Een lek vanwege een foutje is wel een compleet ander scenario dan een bewuste backdoor, of zelfs een openlijke schending van wetten door andere overheden. Voor een commercieel bedrijf dat met weinig politiek-strategische waarde is het risico bij die tweede categorie misschien niet zo groot - of beter gezegd, te onbekend om naar te handelen. Maar voor een politieke instelling is politieke inmenging de laatste tijd natuurlijk wel een serieus risico geworden.

Juridische afdichting is zoveel waard als de betrouwbaarheid van het rechtssysteem dat die afdichting moet handhaven.

[Reactie gewijzigd door bwerg op 18 februari 2026 09:54]

Tja, en dan is het wachten op een Odido-tje. Maar dan 1000x erger qua impact.
Misschien moeten we s af van die "Het is technisch mogelijk, dus moeten we het maar doen" mentaliteit.

Ik ben in elk geval wel voor de bronaanpak en dat is het gewoon niet gebruiken. Zit je later ook niet op de blaren omdat er toch een eindgebruiker niet zo goed oplette bij de training.
Lokaal hosten is mogelijk, het is geen vergissing, dat je modellen van bijv. mistral, deepseek, qwen, claude en chatgpt kan draaien via aws en azure. Mistral bijv. bied het ook expliciet aan op hun pagina's (in elk geval stond het er vorig jaar nog op).
idd, vergeet nooit het verhaal achter Crypto AG, een Zwitsers bedrijf dat tientallen jaren vertrouwd werd door o.a. Europese landen voor geheime communicatie... maar dat sinds 1970 eigendom / geinfiltreerd was door de CIA en BND.

Als het echt veilig moet dan moet een regering of regeringsinstantie het zelf bouwen, of bedrijven die het bouwen volledig doorgelicht en continu actief gemonitored worden door de AIVD en dergelijke.
Hoe is dat dan anders met bijvoorbeeld sharepoint? Op deze manier kan je dus geen enkele tool / software / cloud service vertrouwen. Als je mening is dat ondanks contractuele afspraken het niet te vertrouwen is, dan geldt dit toch ook voor traditionele software? Met zo'n statement kan je dus niets vertrouwen, AI provider of niet. OpenAI grootste aandeelhouder is Microsoft. Dus stemmen dat openai niet te vertrouwen is, is direct hetzelfde als Microsoft niet te vertrouwen. Waarom zouden ze dan niet trainen op al die sharepoint cloud data?


Je sluit een juridisch contract af, als we er vanuit moeten gaan dat dat geen waarde heeft, dan is het einde zoek natuurlijk.
En dat is nou exact het punt. Niets is te vertrouwen op dit niveau tenzij je het zelf doet. Maar iedereen en z'n moeder keek alleen maar naar de kosten en niet naar het risico dus zijn de Sharepoints van deze wereld zo naar binnen geschoven. En op dat niveau is een contract leuk, maar wat heb je eraan als je verdedigingsplannen voor Oekraïne op straat liggen dat je het bedrijf wat je IT doet voor een paar miljoen kan aanklagen? In het beste geval is het bedrijf failliet, krijg je niets, in het ergste geval is het sowieso een plof BV als front voor 1 of andere dienst en levert het niet eens een klein doekje voor het bloeden op.
Kortom onder deze assumpties maakt het geen hol uit of het nu een LLM service is, Microsoft, Google of enig andere gevestigde orde. Alles wat je met een PC doet die is verbonden ligt dus 100% op straat.
Als dat dus het geval is, dan heeft dus nul nut om überhaupt iets te doen, want onnodig.
Enige oplossing is dan dus offline werken. Niet zelf doen, offline is volgend jou dan de enige oplossing? Good luck anno 2026 om zo een bedrijf te runnen.
Maar waarom zou je dat willen? De toegevoegde waarde van dit soort AI-tools is sowieso ontzettend laag, ongeacht wat sommigen erover roepen.
Dit is zo nietszeggend: als je alles voor elkaar hebt, kan je niets gebeuren.

No shit.
Dat is toch ook mijn punt niet? Mijn punt is dat zo zwart/wit denken niet realistisch is en ook niet wenselijk is.

Je kunt prima AI gebruiken binnen jouw bedrijf als je dit in goede banen leidt, je mensen goed opleidt en je duidelijke afspraken en afkaderingen hebt.
Het is een zwarte doos, zo gauw het je bedrijf verlaat ben je het kwijt. Kijkend naar hoe deze bedrijven met andere regels omgaan (copyright) maakt nou niet dat ik ze vertrouw. Ieder zijn ding natuurlijk.
Als er wel een vraag naar die apps is, en je gaat het gewoon rucksiglos verbieden, dan krijg je dat mensen hun privé devices gaan gebruiken. En dan is hier al snel de oplossing gewoon een ieder die dat doet op staande voet ontslaan. Maar los ervan dat dat in het Euro Parlement nogal lastig gaat, kan je misschien ook bedenken dat het beter is om wel een veilige optie aan te bieden (bijvoorbeeld in samenwerking met Mistral), dan maar gewoon alles verbieden.
Weet iemand hoe het zit met arbeidsvoorwaarden en -regels in het EU parlement? Zijn die voor alle leden hetzelfde of zijn er nog verschillen per land waar ze vandaan komen? Het voorbeeld dat je geeft over op staande voet ontslag kan landafhankelijk zijn of dat zomaar mag en kan. En zo zijn er nog wel meer dingen te bedenken die anders zijn in de lidstaten.
Parlementsleden zijn geen werknemers en kunnen dus niet ontslagen worden. Het lijkt me daarom ook vreemd dat ze aan de genoemde maatregelen onderworpen kunnen worden.
Parlementsleden niet nee, maar er werken nog een hoop mensen omheen voor bijvoorbeeld tolk en ondersteuning. Dat zijn gewoon werknemers.
Vraag is dan wel bij wie ze als medewerker in dienst zijn. Ik meen dat, bijvoorbeeld, medewerkers van Nederlandse kamerleden in dienst zijn bij dat kamerlid, niet bij de overheid (bron: familielid dat als “persoonlijk medewerker” van een kamerlid werkzaam was). De arbeidsrelatie is dan dus niet met een overheidsinstantie.

[Reactie gewijzigd door RSH op 18 februari 2026 11:38]

Ah ja, het eeuwenoude ‘roken op het toilet’ argument. Als je je niet aan de regels van een organisatie kunt houden, moet je misschien maar op zoek naar een andere werkgever.
Ah de typische reactie van sommige systeembeheerders: Mijn wil is wet, we verbieden alles, en als het dan niet blijkt te werken moeten de mensen maar ontslagen worden omdat ze niet volgens jouw regels werken.

Eén klein probleem hiermee: Hoe wilde jij precies Europarlementariers ontslaan? Ik weet dat er systeembeheerders zijn die zichzelf te belangrijk vinden (en natuurlijk zijn er ook zat wel goede!), maar denken dat je maar gewoon Europarlementariers kan gaan ontslaan is wel echt de moeder alle zelfoverschattingen.
Die hoeven niet in dienst te zijn van het EU-parlement, persoonlijk medewerkers van Nl kamerleden bijvoorbeeld zijn vaak in dienst bij het kamerlid, niet bij Nl overheid.
Die 8100 zijn in loondienst bij de EU (en dan specifiek voor het parlement gedeelte van de EU). Aldus de gegeven bron. Daarbuiten heb je dus nog consultants etc en mensen die zoals je aangeeft via andere partijen een werkrelatie hebben.
Dus als een bedrijf een verdienmodel heeft dat ze zomaar andermans gegevens verwerken omdat het kan, niet omdat het mag, moet je er mee gaan samenwerken?

We gaan ook niet samenwerken met criminelen die grootschalig maar proberen te verdienen aan onrechtmatig verwerken van gevaarlikle stoffen beschermde dieren of al dan niet illegaal verkregen goederen? Dan stop je eerst de crimineel, legt straf op en gaat handelen met andere verwerkers met wel onbesproken gedrag.
Euhm, maar waar heb je het over? Je doet nogal een beschuldigingen richting een Mistral bijvoorbeeld. Heb je bronnen om deze beschuldigingen te onderbouwen?
Zolang de ai-bedrijven op geen enkele manier aantonen dat ze alleen legaal gegevens van anderen verwerken is er geen reden om er vanuit te gaan dat dit soort bedrijven wel aan de wetgevingen voldoet. En dat is geen verdienmodel on als bestuur, zoals als Europees Parlemen, gebruik van te maken. Eerder om er ver bij weg te blijven en er geen zaken mee te doen totdat de bedrijven wel uit zichzelf zekerheid geven. Een specifiek ai-bedrijf of organisatie kan dus prima voldoen, als het maar vooraf aantoonbaar is. Maar dat gaat voor de meeste ai-diensten en functies die 'gratis' aangeboden worden niet op. Daar hoort geen gebruik maar ook geen belonen of samenwerken bij.
Dit gaat om het EU parlement je zou mogen verwachten dat werknemers van dat parlement zich aan de regels gaan houden.
Of een organisatie heeft een eigen AI tool die onder water dan van OpenAI gebruik maakt, biedt Copilot aan, of ChatGPT Enterprise.

(Het zou mij trouwens niet verbazen als die gegevens dan stiekem nog steeds voor trainingsdoeleinden gebruikt worden, met die data honger en de enorme concurrentie denk ik dat hier nog wel eens iets over aan het licht gaat komen)
Dat was destijds wel de reden waarom Copilot365 niet door de DPIA van SLMRIJk/SURF kwam.
Onzin, dat was niet eens een risico…
Er was een issue met het aanzetten van zoeken op Web, dat entiteit Bing bepaalde data ontvangt.
Sterker nog, ik vond de bevindingen reuze meevallen, de grootste risico’s waren het gebrek aan transparantie en niet volledig kunnen voldoen aan inzageverzoeken.
Maar dit was er toevallig net eentje wat goed geregeld was ;)

[Reactie gewijzigd door Quintiemero op 18 februari 2026 11:35]

High Risk nr4 in de SLM rijk DPIA beschrijf dit wel degelijk of ik lees hem verkeerd?

"Reidentification of pseudonymised data through unknown retention periods of Required Service Data (including both Content and Diagnostic Data)."
Staat inderdaad los van het trainen van data. Waar gaat om diagnostische data. Dit is ook een bekend issue bij M365 in haar geheel :)
Uiteindelijk kun je het nooit goed doen. Maak je regelgeving die een bepaalde technische innovatie beperkt dan wordt er als blijkt dat je achter bent komen te liggen achteraf geroepen: "De EU ook altijd met zijn regeltjes". Stelt men geen regels in en loopt het achteraf uit de hand, wordt er geroepen: "Had men dat niet kunnen zien aankomen, de EU zit te slapen".
Men kan gewoon lokaal hosten. En regels worden gemaakt met een reden, regels voor de versterking van de digitale soeveraniteit is wat mij betreft een van de regels waar je best blij moet zijn als ingezetene van de EU in het huidige tijdsbeeld. Het is zeer teleurstellend, maar het is gewoon noodzakelijk om de risico's in te perken.
Dat begrijp ik maar ik reageerde vooral omdat men het nooit goed kan doen. Wat men ook doet er is altijd wel iemand die roept dat de EU, de politiek, etc. fout bezig is en de verkeerde beslissingen neemt.
Ja, dat is altijd een mogelijkheid, ik wilde je vooral aanvullen omdat zelf-hosting gewoon een groot deel van de problematiek van tafel kan vegen.

En sowieso, zal men altijd kunnen roepen 'langs de zijlijn', en soms is dat ook terecht. Het is de verantwoordelijkheid van mensen uit het vak/expertise (zoals ook hier op dit forum aanwezig) om politici aan te schrijven en hen aan te moedigen de juiste richting op te sturen. Nu laten we dat nog soms te veel over aan lobby-groepen en willekeur.

Je hoeft niet perse politiek activist te worden om een bijdrage te leveren. Gewoon een net mailtje is al beter dan niets doen.
De meeste mensen die bij dit soort organisaties werken en de besluiten nemen worden niet gekozen om hun digitale vaardigheden en bewustzijn.
Tja het is de keuze van de burger om daar geen waarde aan te hechten bij het stemmen.
Dat zou het zeker moeten zijn, maar ik vrees dat het toch nieuws is dat een organisatie het ook echt doet. Ik denk dat de meesten nog geen enkel beleid rond AI hebben en niet echt beseffen dat hun medewerkers voortdurend data naar AI-clouds toe lekken.
Het is zorgwekkend dat dit nieuws moet zijn inderdaad.

Het zou de defacto standaard moeten zijn dat al die AI tools niet toegestaan zijn, danwel uitstaan. Gezien hoe dergelijke tools werken zou het de norm moeten zijn om eerst uit te zoeken of ze geschikt zijn voor gebruik. Dat is voor andere tools waarin je grote datasets (laat staan datasets met PII) verwerkt ook normaal: Die moeten altijd eerst getoetst worden voordat ze gebruikt mogen worden.

Dat deze tools je ongevraagd door je strot geramd worden en overal standaard in aan staan en steeds vaker al mee aan het lezen zijn, is een serieus probleem wat door heel veel mensen niet ingezien word. Wat ook niet helpt is dat ze het doelbewust moeilijk hebben gemaakt om ze uit te zetten.
Op papier natuurlijk een prima maatregel. Wel vraag ik me af of er dan niet nóg meer loopholes gebruikt gaan worden (zakelijke gegevens doorsturen op privé adres -> in ChatGPT -> samenvatten -> weer terug naar zakelijke e-mail adres) etc.
Ik mag hopen dat het europarlement zaken zoals DLP wel op orde heeft, zodat het doorsturen van interne data naar prive/externe-adressen onmogelijk gemaakt wordt. :+
Denk nog eens goed na over wat je hier zegt. Jij wil de communicatie van democratisch gekozen parlementariers beperken. Zij moeten toch vrij kunnen communiceren met hun kiezers!

Typisch het antwoord van een systeembeheerdeer. Denk iets verder dan je eigen verantwoordelijkheid en zorg dat mensen hun werk kunnen doen.
Er is een heel groot verschil tussen communiceren met de mensen die je vertegenwoordigd en het analyseren en bespreken van vertrouwelijke voorstellen. Ja, zij zijn democratisch gekozen, maar er gebeurt daar enorm veel dat enorm vertrouwelijk is en moet zijn omdat je ook vaak moet onderhandellen met andere landen en regios.

En als systeembeheerders is het in de eerste plaats onze verantwoordelijkheid om te zorgen dat alle systemen goed werken, dat is inclusief het toepassen van het beleid binnen een organisatie en daar hoort ook de bescherming van die data bij.

Je wil niet weten hoeveel mensen denken dat ze met data alles moeten kunnen doen, ongeacht de classificatie van die data. Persoonlijke informatie over mensen? Wat is daar mis mee als ik dat deel met iedereen? Dat contract met geheimhoudingsclausule? Dat mogen we toch gewoon openbaar maken, niet? De klantendata, die mag ik toch gewoon naar mijn prive computer en NAS kopieeren zodat ik er in het weekend thuis ook eens naar kan kijken uiteraard. Want ik moet toch mijn werk kunnen doen?

Als systeembeheerder vind ik het zo spijtig dat wij vaak aanzien worden als moeilijke mensen die er plezier in zouden scheppen om het werken van anderen zo moeilijk mogelijk te maken. Dit terwijl wij voldoende willen meedenken met iedereen aan werkbare oplossingen. Maar wij moeten ook samenwerken met onder andere security, met data management, met legal om ervoor te zorgen dat het beleid dat door het management is goedgekeurd ook correct wordt geimplementeerd en toegepast door zoveel mogelijk mensen. Maar ook dat we shadow IT zoveel mogelijk tegen gaan net om te voorkomen dat iedereen maar zijn eigen ding doet en nieuwe risico's introduceert in een organisatie.

Want nee, dat gratis tooltje dat jij thuis in je vrije tijd gebruikt mag niet zomaar in een bedrijf gebruikt worden. Je zou de eerste niet zijn die de gebruiksvoorwaarden niet leest en dus niet merkt dat het gratis gebruik er enkel is voor een individu en niet voor commerciele doeleinden. Of die mist dat die tool in de achtergrond eigenlijk in de voorwaarden heeft staan dat zij een non exclusief recht krijgen op alles wat je er mee maakt, of een tool die in de achtergrond alle data gewoon naar het internet stuurt maar er wel geen enkele dataverwerkingsovereenkomst is met die partij of ....

Neen, systeembeheer is een heel stuk complexer dan vele gebruikers denken. Het zijn niet wij, de beheerders, die bepalen wat wel en niet mag.
Klopt maar het is slechts aan de systeembeheerder om uitvoering te geven aan het beleid wat is vastgesteld. Niet om het zelfstandig te interpreteren en geen rekening te houden met de werkzaamheden.

Voordat het totaal of topic gaat is voorlichting geven en informeren over het beleid en alle randvoorwaarden zeker een hele belangrijke factor. Net als een fatsoenlijke oplossing leveren op het moment dat er vragen zijn of iemand beperkt wordt in het uitvoeren van zijn werk.

Vaak zit het probleem bij het management die niet nadenkt over de impact van keuzes en/ of er eerst intern naar informeert of keuzes haalbaar zijn. Ze nemen dan al gauw de meest veilige keuze niks mag.

Persoonlijk ben ik groot voorstander van goed voorlichten en mensen wijzen op hun verantwoordelijkheid, zeker omdat er tegenwoordig teveel mogelijkheden zijn om zaken te omzeilen. Desnoods maak je een foto van een tekst en gaat die naar AI.
De 720 leden wel, de andere 7500 medewerkers, die moeten aan wat meer voorwaarden voldoen. En die 720 leden hebben ook enige beperkingen te accepteren voor de hardware die ze geleverd krijgen. Daarbuiten mogen ze natuurlijk eigen hardware gebruiken (ook met wettelijke voorwaarden zoals geheimhouding ofc)
@Frogmen Ik heb nog even hard en lang nagedacht en kom inderdaad tot de conclusie dat ik vind dat de mogelijk vertrouwelijke communicatie die deze mensen hebben, beperkt moet worden tot de daarvoor geschikte en bedoelde kanalen.
Ik kan je 100% garanderen dat ze dat niet onmogelijk kunnen maken. Desnoods maak je een foto van de mail met je telefoon en vraag je je AI app een samenvatting ervan te maken. Ik zie geen enkele manier waarop je dat zou kunnen voorkomen, tenzij je privé telefoons moet afgeven voor je je werk laptop / telefoon krijgt. Wat uiteraard geen optie is hier.
Je kan niets met 100% zekerheid stoppen. Maar er is een groot verschil tussen de mogelijkheid hebben om gewoon data te delen met heel de wereld of waarbij je omwegen moet gaan zoeken. Want in dat laatste geval weet je gewoon dat je veiligheidsmaatregelen aan het omzeilen bent.
Het probleem is vaak de schaduw IT dat bij veel bedrijven draait. Mensen die op privé apparaten werkgerelateerde dingen doen, vaak omdat er restricties zijn op het werk. In het verleden hebben Nederlandse ministers hier ook schuldig aangemaakt (dat is nog een relletje geweest) Je ziet dit fenomeen veel.

Zodra je dingen gaat dichtzetten, gaan mensen er omheen werken. Ik kan garanderen dat het bij het Europees Parlement ook gebeurd. Daarbij komt dat AI overal in wordt verwerkt en daardoor (op den duur) vervaagt (je wordt er blind voor)

[Reactie gewijzigd door NotWise op 18 februari 2026 09:28]

Dit was inderdaad ook mijn eerste gedachte. Daarom mis ik in dit bericht vooral een alternatief. Mensen zijn mensen en die zijn nu gewend aan het gemak van AI voor teksten samenvatten, tekstsuggesties, etc. Dus ik hoop dat ze ook direct een interne, lokale, veilige, etc. oplossing aanbieden om dat soort zaken die je aanhaalt te voorkomen.
Klassieke uitdaging in het sturen van goed gedrag. In mijn ervaring kan je de gemakzucht van mensen ook als wapen inzetten: de foute manier bewust omslachtig maken en de goede manier bewust toegankelijker maken.

In dit geval zou ik alles via een virtuele omgeving dichtgooien en in deze omgeving in eigen beheer een AI aanbieden.
Je hebt geen controle over wat mensen thuis doen. Dus als een medewerker thuis een vertrouwelijk rapport door AI laat maken, op zijn/haar privé laptop, dan heb jij het nakijken. Het enige wat je kan doen is mensen constant wijzen op de gevaren. Het is zaak om op het werk dezelfde functionaliteit en gemak te leveren als thuis en daar zit nou juist het probleem.
Dat risico is bij ons op het werk goed beheerst: wij werken binnen VM's via remote access. Het is voor niet technisch beheerders praktisch onmogelijk om externe data in de VM te krijgen en al helemaal niet onopgemerkt.

Die barrières zijn hoog genoeg dat het praktisch geen toegevoegde waarde heeft zelf een privé AI te gebruiken. Stel je hebt je eigen AI rapportje, dat je vervolgens niet met collega's kan delen.

Zie eerdere post van mij: wij hebben in een lokale eigen AI op eigen apparatuur. Alleen idioten en echte kwaadwillenden kiezen dan voor externe bronnen. Iedereen blij.
,---> ontdekt worden --> ontslagen worden wegens moedwillig onzorgvuldig gebruik van gevoelige informatie.
Dat is idd waar ik ook aan zit te denken, een IT organisatie kan alles nog zo dichttimmeren als ze willen... maar mensen zijn onvolwassen en doen het toch. Denk ook aan bijv. Rutte met zijn Nokia die niks kon archiveren (en SMS is geen beveiligd kanaal), en ondanks dat is hij nu chef van de NAVO.
En de Meta AI bot in WhatsApp?
Zou mooi zijn als dit er toe leid dat die uitgeschakeld kan worden.
Mogen ze whatsapp gebruiken, op mijn werk telefoon mag dat al jaren niet meer.
Wat een omgekeerde wereld; overal waar ik heb gewerkt werd juist gezegd voor communicatie over de telefoon/berichten enkel over WhatsApp te doen en geen enkele andere app.
"WhatsApp is immers end-to-end-encrypted, onze bedrijfsgegevens zijn alleen daar veilig!" Alhoewel, misschien niet...
En intussen trekken ze je contacten leeg en alle mogelijke andere meta data. Nee, we mogen het niet gebruiken, wel BlackBerry messenger.
Staat bij ons, voor zakelijke communicatie, al jaren op de zwarte lijst. Kan in het work profile niet geinstalleerd worden, wel in het reguliere profiel maar tussen die twee kun je geen data uitwisselen zonder 'trucjes'
Die kan uitgeschakeld worden: door WhatsApp te verwijderen.
Net bij een papier/documentenfabriek instituut zoals de EU heeft AI meerwaarde in samenvattingen. Maar tegelijkertijd zit daar ook het gevaar in, belangrijke voetnoten of uitzonderingetjes worden makkelijk vergeten/niet gezien, en nog erger, hele (juridische) documenten worden opgesteld door "AI" waardoor er bizarre legal loopholes in komen die of niet gelezen worden (want iedereen gebruikt de snelle, makkelijke AI samenvattingen) of het meer tijd voor juristen kost om het uit te pluizen en recht te breien.
Net bij een papier/documentenfabriek instituut zoals de EU heeft AI meerwaarde in samenvattingen. Maar tegelijkertijd zit daar ook het gevaar in, belangrijke voetnoten of uitzonderingetjes worden makkelijk vergeten/niet gezien, en nog erger, hele (juridische) documenten worden opgesteld door "AI" waardoor er bizarre legal loopholes in komen die of niet gelezen worden (want iedereen gebruikt de snelle, makkelijke AI samenvattingen) of het meer tijd voor juristen kost om het uit te pluizen en recht te breien.
Kan een lokale LLM of een partij als Mistral hier niet bij helpen? Waar dan wel afspraken over gemaakt kunnen worden?

Zaken als die lijken me niet de meest krachtige modellen nodig te hebben toch?

[Reactie gewijzigd door Pasteis op 18 februari 2026 10:27]

AI-samenvattingen zijn niks waard, want niet te vertrouwen, tenzij medewerkers die samenvatting vervolgens met de hand gaan controleren. Dan kunnen ze net zo goed de samenvatting meteen zelf schrijven, want dat kost ongeveer evenveel tijd.
Maar het heeft de sterke schijn van dat het makkelijker en sneller is, dus gaan mensen (want... mensen gonna mens) gaan het zo gebruiken. Ook al weten ze dat het niet 100% is, en tot meer werk (van anderen) kan leiden. Dat is mijn punt.
Grappig dat AI bij velen nog gelijkstaat aan LLM.

Je zou eens moeten weten hoeveel AI (en andere gevoelige algoritmen) bij overheden draait. Die gaan niet uit en leert vrolijk verder met jouw persoonsgegevens.
Ik denk ook niet dat dit bericht daarover gaat.
Waarom heeft het parlement dan nog geen eigen AI draaien waar ze zelf controle hebben over wat er met de data gebeurt? Het samenvatten van teksten kan ik mij voor die taken best voorstellen, maar je wilt wel dat het goed gebeurt. De kans dat mensen nu teksten buiten je huidige applicaties gaat kopiëren en alsnog doorstuurt, is vrij groot
Als je wilt dat dit goed gebeurt, moet je dit niet met LLM's doen, maar gewoon normaal, met de hand.
Teksten samenvatten en daar vragen over stellen is juist iets waar AI al wel goed in is. Uiteraard moet er ergens in de keten wel iemand naar kijken, maar voor veel zaken is het voldoende om de hoofdlijnen te weten. Verder zoals ik al aangaf: als mensen niet meer via officiële kanalen AI mogen gebruiken, gaan ze het op andere manieren proberen en dat is vaak nog veel gevaarlijker.
Ik vindt dat geen enkele ambtenaar iets van de IC afdeling mag gebruiken , want ze hebben in al de jaren nou niet echt bewezen dat ze er mee om kunnen gaan of wat ze hebben laten maken fatsoenlijk werkt
Gewoon terug naar pen en papier , en het liefst ook naar de oude EU die alleen wetjes controleerde i.p.v. ze verzon
Gebruiken jullie ook SaaS oplossingen van derde partijen?
Dit is onveilig.
“Maar niet voor jullie hoor, alleen voor belangrijke wezens”

Om te kunnen reageren moet je ingelogd zijn