'Europees Parlement blokkeert AI-functies op werktelefoons en -tablets'

Het Europees Parlement blokkeert AI-functies op werktelefoons en -tablets. De IT-afdeling maakt zich zorgen om hoe data gedeeld wordt met externe partijen en heeft de AI-functies daarom stopgezet. Dat schrijft Politico op basis van een ingeziene e-mail.

Het gaat om AI-tools en functies die helpen bij het schrijven en samenvatten van teksten, om AI-assistenten en om functies die webpagina's samenvatten, schrijft Politico. De maatregel treft volgens de site zowel parlementariërs als hun medewerkers.

Volgens de mail gebruiken 'sommige' functies clouddiensten, terwijl ze ook lokaal afgehandeld kunnen worden. Daardoor zouden er zorgen zijn rond hoeveel data er met bedrijven wordt gedeeld. Zolang daar nog geen duidelijkheid over is, wil het Parlement het zekere voor het onzekere nemen en de cloudfuncties dus uitschakelen.

Het Parlement wil tegenover Politico geen extra details geven omdat het om 'gevoelige materie' gaat. Het is dan ook niet duidelijk om welke diensten of functies het gaat. De parlementariërs en werknemers krijgen wel het advies om met hun privé-apparaten 'dezelfde voorzorgsmaatregelen' te nemen en AI-apps niet zomaar veel toegang tot data te geven.

Europa / Europese Unie. Bron: Jonathan Kitchen/The Image Bank/Getty Images
Europa / Europese Unie. Bron: Jonathan Kitchen/The Image Bank/Getty Images

Door Hayte Hugo

Redacteur

18-02-2026 • 08:28

82

Submitter: Tribits

Reacties (82)

Sorteer op:

Weergave:

Het verbaast mij dat het EP überhaupt zoveel vrijheid toestaat op informatiebeveiliging.

Misschien dat het bij een democratisch orgaan als dit onwenselijk zou zijn, maar ik had verwacht dat parlementariërs en medewerkers van het EP al lang en breed in een zorgvuldig afgeschermde VM-omgeving zouden werken of iets dergelijks.

Op mijn werk wordt ook met een sloot (maatschappelijk) gevoelige informatie gewerkt. Wij werken allemaal in een goed beveiligde VM omgeving. In deze omgeving zijn alle cloud diensten gemanaged. AI diensten van derden werken niet (per beleid). Wij hadden geluk dat bij een recente upgrade van ons rekencentrum een gedeelte van de oude capaciteit herbestemd werd om een lokale AI chatbot te draaien. Die kan je binnen de virtuele omgeving naar hartelust gebruiken voor samenvattingen en tekst verbetering.

In mijn ervaring is dit een hele goede oplossing, want wij hebben het beste van twee werelden: goede beveiliging én het gemak van AI.

Ben benieuwd of dit voor het EP niet ook op een dergelijke manier kan.
En hoe voorkomt die zorgvuldig afgeschermde VM-omgeving dat de gebruiker zijn/haar mobiel pakt, foto van scherm maakt en dit gebruikt in een random cloud toepassing?
Dit voorkom je niet, maar dit soort "toepassingen" is omzeilen van de beveiliging en mogelijk bedrijfsspionage. Dit kan een rede zijn om iemand op staande voet te ontslaan.
Het EP is geen bedrijf, en volgens mij kan een euro parlementariër niet ontslagen worden. Ik heb ook het antwoord niet, maar een VM-omgeving is een middel, maar niet de volledige oplossing
Dan geen bedrijfsspionage maar gewoon spionage. Ook goed.
Je kunt een europarlementariër gewoon uit zijn functie zetten hoor als die bepaalde regels overtreedt.
Na een veroordeling ja, niet zo makkelijk als je het doet voorkomen.

Ik heb niks tegen een VM-omgeving, en kan een goed middel zijn, maar er werd gedaan alsof dat de heilige graal zou zijn, dat is het niet.
Dat is natuurlijk niet de enige maatregel. Genoeg omgevingen waar telefoons en foto toestellen niet on site mogen.
Maar dat is in het EP niet haalbaar toch? Daar gaat het artikel over
Er is een verschil tussen het bewust en onbewust lekken van data.
Een Chinese AI waar je vervolgens je gehele betrouwbare document in upload om m een beetje te polishen is natuurlijk goud voor China.
Dat zal nooit geheel te voorkomen zijn want de gebruiker blijft vindingrijk en vind de terechte beperkingen maar lastig.
Ook binnen de organisatie waar ik werk hebben we een VM omgeving waarin de applicaties draaien m.b.t. patiënten/clientenzorg binnen een afgeschermde omgeving. Maar de gebruiker vindt dit lastig en zoekt dan weer naar zaken buiten de omgeving om.
Dit mag niet, dit is duidelijk beleid en kan ontslag op staande voet betekenen wanneer dit met bepaalde informatie wordt gedaan.
Het beleid is duidelijk, iedereen wordt er met grote regelmaat opgewezen en kan dus nooit zeggen ik wist dit niet. En het staat zelfs in het beginsel in je arbeidscontract onder de geheimhoudingsclausule.
Maar boven de risicomatrix staat eigenlijk altijd dan wel de medewerker zelf.

Maar diezelfde medewerker kan je dan ook weer niet vervangen door een AI mederwerker en blijft dus altijd een grotere uitdaging dan het de hele omgeving waarin je werkt.

Opvoeden van medewerkers blijft lastig net als de pubers in huis die mij toch soms weer te slim af zijn.
Dit is toch geen nieuws? Maar zou best practice moeten zijn voor iedere organisatie die met gevoelige informatie werkt...
Als je goede contractuele afspraken hebt met het AI bedrijf en strikt die AI tool gebruikt, kan dat prima.
En dan blijkt dat bedrijf toch een achterdeurtje te hebben naar de NSA of Mossad... dit is niet bedrijfsgevoelige informatie over hoeveel winst je nou echt gemaakt hebt het laatste kwartaal, dit is veel gevoeligere informatie en een contract is net zoveel waard als het papier waarop het geschreven is.
Een backdoor of een lek kan altijd, ook bij Europese bedrijven, Cloud of niet. Uiteraard moet de voorkeur gaan naar een Europees bedrijf, maar een complete 'no-AI' regelset voor alle dataverwerking in AI is natuurlijk rigoureus en staat ook innovatie in de weg binnen jouw bedrijf.

Als je goed in kaart brengt welke data je waar in gebruikt en de eindgebruikers goed traint, dan kun je prima AI op de werkvloer gebruiken. Wordt ook gewoon gebruikt in legal environments, waar verschillende AI tools (zoals CoPilot, Ariel en Legora) gewoon zonder problemen worden gebruikt.
Een backdoor of een lek kan altijd
Een lek vanwege een foutje is wel een compleet ander scenario dan een bewuste backdoor, of zelfs een openlijke schending van wetten door andere overheden. Voor een commercieel bedrijf dat met weinig politiek-strategische waarde is het risico bij die tweede categorie misschien niet zo groot - of beter gezegd, te onbekend om naar te handelen. Maar voor een politieke instelling is politieke inmenging de laatste tijd natuurlijk wel een serieus risico geworden.

Juridische afdichting is zoveel waard als de betrouwbaarheid van het rechtssysteem dat die afdichting moet handhaven.

[Reactie gewijzigd door bwerg op 18 februari 2026 09:54]

Tja, en dan is het wachten op een Odido-tje. Maar dan 1000x erger qua impact.
Misschien moeten we s af van die "Het is technisch mogelijk, dus moeten we het maar doen" mentaliteit.

Ik ben in elk geval wel voor de bronaanpak en dat is het gewoon niet gebruiken. Zit je later ook niet op de blaren omdat er toch een eindgebruiker niet zo goed oplette bij de training.
Lokaal hosten is mogelijk, het is geen vergissing, dat je modellen van bijv. mistral, deepseek, qwen, claude en chatgpt kan draaien via aws en azure. Mistral bijv. bied het ook expliciet aan op hun pagina's (in elk geval stond het er vorig jaar nog op).
idd, vergeet nooit het verhaal achter Crypto AG, een Zwitsers bedrijf dat tientallen jaren vertrouwd werd door o.a. Europese landen voor geheime communicatie... maar dat sinds 1970 eigendom / geinfiltreerd was door de CIA en BND.

Als het echt veilig moet dan moet een regering of regeringsinstantie het zelf bouwen, of bedrijven die het bouwen volledig doorgelicht en continu actief gemonitored worden door de AIVD en dergelijke.
Dat ai bedrijf moet dan wel 100% Europees zijn anders kan je ze nergens op vertrouwen. Contract of niet. Der Amerikaanse cloud act en patriot act, overstijgen in Amerika elk contract.
Zelfs dan heb je geen garantie. Je wilt het in eigen beheer hebben en werken met open standaarden waar je niet vast zit aan een partij. Anders krijg je weer het geintje dat het bedrijf wordt overgenomen of stiekem toch dealtjes heeft gemaakt waarbij die gegevens toch gedeeld worden.
Als een Europees bedrijf dat doet kan je in ieder geval je recht halen. Als het bedrijf door een buitenlandse partij word overgenomen dan haal je alles daar weer weg natuurlijk. En dat het verstandig is om open standaarden te kiezen is altijd verstandig. Niet alleen in dit geval.

Een Europees bedrijf levert altijd betere garanties dan de andere opties. Zelf hosten is niet altijd verstandig of efficient. Economy of scale is namelijk een ding.


En zelfs microsoft host het grootste deel van azure op linux. Levert open source producten in een beheerde vorm. Postrgresql, mariadb en vele meer zijn allemaal opties. Niet dat je zaken met ze moet doen, maar ik wil hiermee het punt maken dat cloud niet hoeft te betekenen vendor lock in. Microsoft doet ook kubernetes en docker. Je kan je containers altijd naar een andere plek verhuizen.

Cloud is niet het probleem, het is hoe je die cloud inricht waar je vragen over moet stellen. En je kan prima inrichten zonder vast te zitten. Zelfs bij zo een partij als microsoft.
Dit is zo nietszeggend: als je alles voor elkaar hebt, kan je niets gebeuren.

No shit.
Dat is toch ook mijn punt niet? Mijn punt is dat zo zwart/wit denken niet realistisch is en ook niet wenselijk is.

Je kunt prima AI gebruiken binnen jouw bedrijf als je dit in goede banen leidt, je mensen goed opleidt en je duidelijke afspraken en afkaderingen hebt.
Het is een zwarte doos, zo gauw het je bedrijf verlaat ben je het kwijt. Kijkend naar hoe deze bedrijven met andere regels omgaan (copyright) maakt nou niet dat ik ze vertrouw. Ieder zijn ding natuurlijk.
Maar waarom zou je dat willen? De toegevoegde waarde van dit soort AI-tools is sowieso ontzettend laag, ongeacht wat sommigen erover roepen.
Als er wel een vraag naar die apps is, en je gaat het gewoon rucksiglos verbieden, dan krijg je dat mensen hun privé devices gaan gebruiken. En dan is hier al snel de oplossing gewoon een ieder die dat doet op staande voet ontslaan. Maar los ervan dat dat in het Euro Parlement nogal lastig gaat, kan je misschien ook bedenken dat het beter is om wel een veilige optie aan te bieden (bijvoorbeeld in samenwerking met Mistral), dan maar gewoon alles verbieden.
Weet iemand hoe het zit met arbeidsvoorwaarden en -regels in het EU parlement? Zijn die voor alle leden hetzelfde of zijn er nog verschillen per land waar ze vandaan komen? Het voorbeeld dat je geeft over op staande voet ontslag kan landafhankelijk zijn of dat zomaar mag en kan. En zo zijn er nog wel meer dingen te bedenken die anders zijn in de lidstaten.
Parlementsleden zijn geen werknemers en kunnen dus niet ontslagen worden. Het lijkt me daarom ook vreemd dat ze aan de genoemde maatregelen onderworpen kunnen worden.
Parlementsleden niet nee, maar er werken nog een hoop mensen omheen voor bijvoorbeeld tolk en ondersteuning. Dat zijn gewoon werknemers.
Ah ja, het eeuwenoude ‘roken op het toilet’ argument. Als je je niet aan de regels van een organisatie kunt houden, moet je misschien maar op zoek naar een andere werkgever.
Ah de typische reactie van sommige systeembeheerders: Mijn wil is wet, we verbieden alles, en als het dan niet blijkt te werken moeten de mensen maar ontslagen worden omdat ze niet volgens jouw regels werken.

Eén klein probleem hiermee: Hoe wilde jij precies Europarlementariers ontslaan? Ik weet dat er systeembeheerders zijn die zichzelf te belangrijk vinden (en natuurlijk zijn er ook zat wel goede!), maar denken dat je maar gewoon Europarlementariers kan gaan ontslaan is wel echt de moeder alle zelfoverschattingen.
Dit gaat om het EU parlement je zou mogen verwachten dat werknemers van dat parlement zich aan de regels gaan houden.
Dus als een bedrijf een verdienmodel heeft dat ze zomaar andermans gegevens verwerken omdat het kan, niet omdat het mag, moet je er mee gaan samenwerken?

We gaan ook niet samenwerken met criminelen die grootschalig maar proberen te verdienen aan onrechtmatig verwerken van gevaarlikle stoffen beschermde dieren of al dan niet illegaal verkregen goederen? Dan stop je eerst de crimineel, legt straf op en gaat handelen met andere verwerkers met wel onbesproken gedrag.
Euhm, maar waar heb je het over? Je doet nogal een beschuldigingen richting een Mistral bijvoorbeeld. Heb je bronnen om deze beschuldigingen te onderbouwen?
Of een organisatie heeft een eigen AI tool die onder water dan van OpenAI gebruik maakt, biedt Copilot aan, of ChatGPT Enterprise.

(Het zou mij trouwens niet verbazen als die gegevens dan stiekem nog steeds voor trainingsdoeleinden gebruikt worden, met die data honger en de enorme concurrentie denk ik dat hier nog wel eens iets over aan het licht gaat komen)
Dat was destijds wel de reden waarom Copilot365 niet door de DPIA van SLMRIJk/SURF kwam.
Uiteindelijk kun je het nooit goed doen. Maak je regelgeving die een bepaalde technische innovatie beperkt dan wordt er als blijkt dat je achter bent komen te liggen achteraf geroepen: "De EU ook altijd met zijn regeltjes". Stelt men geen regels in en loopt het achteraf uit de hand, wordt er geroepen: "Had men dat niet kunnen zien aankomen, de EU zit te slapen".
Men kan gewoon lokaal hosten. En regels worden gemaakt met een reden, regels voor de versterking van de digitale soeveraniteit is wat mij betreft een van de regels waar je best blij moet zijn als ingezetene van de EU in het huidige tijdsbeeld. Het is zeer teleurstellend, maar het is gewoon noodzakelijk om de risico's in te perken.
Dat begrijp ik maar ik reageerde vooral omdat men het nooit goed kan doen. Wat men ook doet er is altijd wel iemand die roept dat de EU, de politiek, etc. fout bezig is en de verkeerde beslissingen neemt.
Ja, dat is altijd een mogelijkheid, ik wilde je vooral aanvullen omdat zelf-hosting gewoon een groot deel van de problematiek van tafel kan vegen.

En sowieso, zal men altijd kunnen roepen 'langs de zijlijn', en soms is dat ook terecht. Het is de verantwoordelijkheid van mensen uit het vak/expertise (zoals ook hier op dit forum aanwezig) om politici aan te schrijven en hen aan te moedigen de juiste richting op te sturen. Nu laten we dat nog soms te veel over aan lobby-groepen en willekeur.

Je hoeft niet perse politiek activist te worden om een bijdrage te leveren. Gewoon een net mailtje is al beter dan niets doen.
De meeste mensen die bij dit soort organisaties werken en de besluiten nemen worden niet gekozen om hun digitale vaardigheden en bewustzijn.
Tja het is de keuze van de burger om daar geen waarde aan te hechten bij het stemmen.
Dat zou het zeker moeten zijn, maar ik vrees dat het toch nieuws is dat een organisatie het ook echt doet. Ik denk dat de meesten nog geen enkel beleid rond AI hebben en niet echt beseffen dat hun medewerkers voortdurend data naar AI-clouds toe lekken.
Op papier natuurlijk een prima maatregel. Wel vraag ik me af of er dan niet nóg meer loopholes gebruikt gaan worden (zakelijke gegevens doorsturen op privé adres -> in ChatGPT -> samenvatten -> weer terug naar zakelijke e-mail adres) etc.
Ik mag hopen dat het europarlement zaken zoals DLP wel op orde heeft, zodat het doorsturen van interne data naar prive/externe-adressen onmogelijk gemaakt wordt. :+
Denk nog eens goed na over wat je hier zegt. Jij wil de communicatie van democratisch gekozen parlementariers beperken. Zij moeten toch vrij kunnen communiceren met hun kiezers!

Typisch het antwoord van een systeembeheerdeer. Denk iets verder dan je eigen verantwoordelijkheid en zorg dat mensen hun werk kunnen doen.
Er is een heel groot verschil tussen communiceren met de mensen die je vertegenwoordigd en het analyseren en bespreken van vertrouwelijke voorstellen. Ja, zij zijn democratisch gekozen, maar er gebeurt daar enorm veel dat enorm vertrouwelijk is en moet zijn omdat je ook vaak moet onderhandellen met andere landen en regios.

En als systeembeheerders is het in de eerste plaats onze verantwoordelijkheid om te zorgen dat alle systemen goed werken, dat is inclusief het toepassen van het beleid binnen een organisatie en daar hoort ook de bescherming van die data bij.

Je wil niet weten hoeveel mensen denken dat ze met data alles moeten kunnen doen, ongeacht de classificatie van die data. Persoonlijke informatie over mensen? Wat is daar mis mee als ik dat deel met iedereen? Dat contract met geheimhoudingsclausule? Dat mogen we toch gewoon openbaar maken, niet? De klantendata, die mag ik toch gewoon naar mijn prive computer en NAS kopieeren zodat ik er in het weekend thuis ook eens naar kan kijken uiteraard. Want ik moet toch mijn werk kunnen doen?

Als systeembeheerder vind ik het zo spijtig dat wij vaak aanzien worden als moeilijke mensen die er plezier in zouden scheppen om het werken van anderen zo moeilijk mogelijk te maken. Dit terwijl wij voldoende willen meedenken met iedereen aan werkbare oplossingen. Maar wij moeten ook samenwerken met onder andere security, met data management, met legal om ervoor te zorgen dat het beleid dat door het management is goedgekeurd ook correct wordt geimplementeerd en toegepast door zoveel mogelijk mensen. Maar ook dat we shadow IT zoveel mogelijk tegen gaan net om te voorkomen dat iedereen maar zijn eigen ding doet en nieuwe risico's introduceert in een organisatie.

Want nee, dat gratis tooltje dat jij thuis in je vrije tijd gebruikt mag niet zomaar in een bedrijf gebruikt worden. Je zou de eerste niet zijn die de gebruiksvoorwaarden niet leest en dus niet merkt dat het gratis gebruik er enkel is voor een individu en niet voor commerciele doeleinden. Of die mist dat die tool in de achtergrond eigenlijk in de voorwaarden heeft staan dat zij een non exclusief recht krijgen op alles wat je er mee maakt, of een tool die in de achtergrond alle data gewoon naar het internet stuurt maar er wel geen enkele dataverwerkingsovereenkomst is met die partij of ....

Neen, systeembeheer is een heel stuk complexer dan vele gebruikers denken. Het zijn niet wij, de beheerders, die bepalen wat wel en niet mag.
De 720 leden wel, de andere 7500 medewerkers, die moeten aan wat meer voorwaarden voldoen. En die 720 leden hebben ook enige beperkingen te accepteren voor de hardware die ze geleverd krijgen. Daarbuiten mogen ze natuurlijk eigen hardware gebruiken (ook met wettelijke voorwaarden zoals geheimhouding ofc)
Ik kan je 100% garanderen dat ze dat niet onmogelijk kunnen maken. Desnoods maak je een foto van de mail met je telefoon en vraag je je AI app een samenvatting ervan te maken. Ik zie geen enkele manier waarop je dat zou kunnen voorkomen, tenzij je privé telefoons moet afgeven voor je je werk laptop / telefoon krijgt. Wat uiteraard geen optie is hier.
Je kan niets met 100% zekerheid stoppen. Maar er is een groot verschil tussen de mogelijkheid hebben om gewoon data te delen met heel de wereld of waarbij je omwegen moet gaan zoeken. Want in dat laatste geval weet je gewoon dat je veiligheidsmaatregelen aan het omzeilen bent.
Het probleem is vaak de schaduw IT dat bij veel bedrijven draait. Mensen die op privé apparaten werkgerelateerde dingen doen, vaak omdat er restricties zijn op het werk. In het verleden hebben Nederlandse ministers hier ook schuldig aangemaakt (dat is nog een relletje geweest) Je ziet dit fenomeen veel.

Zodra je dingen gaat dichtzetten, gaan mensen er omheen werken. Ik kan garanderen dat het bij het Europees Parlement ook gebeurd. Daarbij komt dat AI overal in wordt verwerkt en daardoor (op den duur) vervaagt (je wordt er blind voor)

[Reactie gewijzigd door NotWise op 18 februari 2026 09:28]

Dit was inderdaad ook mijn eerste gedachte. Daarom mis ik in dit bericht vooral een alternatief. Mensen zijn mensen en die zijn nu gewend aan het gemak van AI voor teksten samenvatten, tekstsuggesties, etc. Dus ik hoop dat ze ook direct een interne, lokale, veilige, etc. oplossing aanbieden om dat soort zaken die je aanhaalt te voorkomen.
Klassieke uitdaging in het sturen van goed gedrag. In mijn ervaring kan je de gemakzucht van mensen ook als wapen inzetten: de foute manier bewust omslachtig maken en de goede manier bewust toegankelijker maken.

In dit geval zou ik alles via een virtuele omgeving dichtgooien en in deze omgeving in eigen beheer een AI aanbieden.
Je hebt geen controle over wat mensen thuis doen. Dus als een medewerker thuis een vertrouwelijk rapport door AI laat maken, op zijn/haar privé laptop, dan heb jij het nakijken. Het enige wat je kan doen is mensen constant wijzen op de gevaren. Het is zaak om op het werk dezelfde functionaliteit en gemak te leveren als thuis en daar zit nou juist het probleem.
,---> ontdekt worden --> ontslagen worden wegens moedwillig onzorgvuldig gebruik van gevoelige informatie.
Dat is idd waar ik ook aan zit te denken, een IT organisatie kan alles nog zo dichttimmeren als ze willen... maar mensen zijn onvolwassen en doen het toch. Denk ook aan bijv. Rutte met zijn Nokia die niks kon archiveren (en SMS is geen beveiligd kanaal), en ondanks dat is hij nu chef van de NAVO.
En de Meta AI bot in WhatsApp?
Zou mooi zijn als dit er toe leid dat die uitgeschakeld kan worden.
Mogen ze whatsapp gebruiken, op mijn werk telefoon mag dat al jaren niet meer.
Wat een omgekeerde wereld; overal waar ik heb gewerkt werd juist gezegd voor communicatie over de telefoon/berichten enkel over WhatsApp te doen en geen enkele andere app.
"WhatsApp is immers end-to-end-encrypted, onze bedrijfsgegevens zijn alleen daar veilig!" Alhoewel, misschien niet...
Die kan uitgeschakeld worden: door WhatsApp te verwijderen.
Net bij een papier/documentenfabriek instituut zoals de EU heeft AI meerwaarde in samenvattingen. Maar tegelijkertijd zit daar ook het gevaar in, belangrijke voetnoten of uitzonderingetjes worden makkelijk vergeten/niet gezien, en nog erger, hele (juridische) documenten worden opgesteld door "AI" waardoor er bizarre legal loopholes in komen die of niet gelezen worden (want iedereen gebruikt de snelle, makkelijke AI samenvattingen) of het meer tijd voor juristen kost om het uit te pluizen en recht te breien.
Net bij een papier/documentenfabriek instituut zoals de EU heeft AI meerwaarde in samenvattingen. Maar tegelijkertijd zit daar ook het gevaar in, belangrijke voetnoten of uitzonderingetjes worden makkelijk vergeten/niet gezien, en nog erger, hele (juridische) documenten worden opgesteld door "AI" waardoor er bizarre legal loopholes in komen die of niet gelezen worden (want iedereen gebruikt de snelle, makkelijke AI samenvattingen) of het meer tijd voor juristen kost om het uit te pluizen en recht te breien.
Kan een lokale LLM of een partij als Mistral hier niet bij helpen? Waar dan wel afspraken over gemaakt kunnen worden?

Zaken als die lijken me niet de meest krachtige modellen nodig te hebben toch?

[Reactie gewijzigd door Pasteis op 18 februari 2026 10:27]

AI-samenvattingen zijn niks waard, want niet te vertrouwen, tenzij medewerkers die samenvatting vervolgens met de hand gaan controleren. Dan kunnen ze net zo goed de samenvatting meteen zelf schrijven, want dat kost ongeveer evenveel tijd.
Grappig dat AI bij velen nog gelijkstaat aan LLM.

Je zou eens moeten weten hoeveel AI (en andere gevoelige algoritmen) bij overheden draait. Die gaan niet uit en leert vrolijk verder met jouw persoonsgegevens.
Ik denk ook niet dat dit bericht daarover gaat.
Waarom heeft het parlement dan nog geen eigen AI draaien waar ze zelf controle hebben over wat er met de data gebeurt? Het samenvatten van teksten kan ik mij voor die taken best voorstellen, maar je wilt wel dat het goed gebeurt. De kans dat mensen nu teksten buiten je huidige applicaties gaat kopiëren en alsnog doorstuurt, is vrij groot
Als je wilt dat dit goed gebeurt, moet je dit niet met LLM's doen, maar gewoon normaal, met de hand.
Ik vindt dat geen enkele ambtenaar iets van de IC afdeling mag gebruiken , want ze hebben in al de jaren nou niet echt bewezen dat ze er mee om kunnen gaan of wat ze hebben laten maken fatsoenlijk werkt
Gewoon terug naar pen en papier , en het liefst ook naar de oude EU die alleen wetjes controleerde i.p.v. ze verzon
Gebruiken jullie ook SaaS oplossingen van derde partijen?
Beter dan ongebreideld cryptofascisme zoals in de VS, of totale surveillancestaat zoals China.
Elk bedrijf/organisatie die nu nog geen intern AI-reglement heeft, loopt achter. Bij gevoelige materie het uitzetten en verbieden is perfect normaal.
Heeft er iemand dat gezegd misschien? Jij bent duidelijk anti-EU, geen probleem (of eigenlijk wel maar soit, dat is de discussie hier ook niet). Maar er is geen overheidsorgaan ter wereld die cloud AI toelaat bij vertrouwelijke informatie. Dat jij daar andere dingen aan vastknoopt is irrelevant en een tikje onnozel.
Sorry, maar nee. Dat is hij niet. Hij laat je alleen duidelijk zien dat je vanuit een roze bril (pro-USA) kijkt en laat je zien dat er ook een andere bril is (pro-EU). Anders gezegd, een spiegel voorhouden. Dit kan pijnlijk zijn, zeker als het dicht aan je waarden zit, maar het betekent niet dat hij tegen je is, alleen een andere kijk heeft.

Dan even inhoudelijk, een beleid hebben binnen een bedrijf/overheid hoe om te gaan met (gevoelige) data speelt al een lange tijd. Zo kennen we in Nederland de AVG en een bedrijf/overheid moet zijn eigen draai vinden in welke data wel en niet in een AI gezet mag worden. Als een bedrijf een AI intern draait is hier natuurlijk meer speelruimte. De USA heeft de Privacy Act en de EU GDPR (ook wel bekend als de AVG). Kleine sidenote, AVG telt voor bedrijven en overheid terwijl de Privacy Act alleen voor overheid geldt.

Dus, zowel de overheid van de USA als binnen de EU mag geen privé gegevens in een AI duwen zonder duidelijke kaders en voorkomen van datalekken.

Dit beleid hoeft niets te maken te hebben met of je als regio (EU vs USA) voor of achter loopt. AI ontwikkeling is een andere sport dan het gebruik van AI.
Meer regulering betekent dat je niet meegaat in de race naar AI dominantie

Dat is de essentie van mijn argument
EU is juist bezig om afhankelijk te worden van USA. Dat er mensen zijn die in het parlement lopen die geen verstand hebben van de techniek is een ander verhaal, maar bijna geen elke politici heeft door wat voor impact Big Tech, AI heeft. Maar dat begint wel te komen.
Maar er zijn wel degelijk alternatieven, en steeds meer bedrijven gaan alternatieven verzinnen: https://european-alternatives.eu/ Het duurt even maar MS, Amazon, Google etc zijn straks niet de enige meer.

Om te kunnen reageren moet je ingelogd zijn