Maandag bleek uit nieuw onderzoek dat Google-producten bij zowel de Rijksoverheid als in het Nederlandse onderwijs veel privacyrisico's met zich meebrengen. Het is niet de eerste keer dat Big Tech bij de overheid voor problemen zorgt.
De kern van het nieuwe probleem ligt bij Google-producten die worden ingezet in het onderwijs, en producten waarvan de overheid overweegt ze landelijk te gebruiken. De softwarepakketten zijn Workspace en Workspace for Education. Dat zijn pakketten met Google-tools zoals Docs, Slides en Sheets, Drive, Forms en Gmail. Voor het onderwijs zitten er ook specifieke onderwijstools zoals Classroom bij.
Het gaat dus feitelijk om twee verschillende onderzoeken die werden uitgevoerd naar de veiligheid van de Google-producten. Het onderzoek naar G Suite Enterprise binnen de overheid werd afgelopen maandag gepresenteerd. Minister Grapperhaus van Justitie stuurde een brief naar de Tweede Kamer over de resultaten daarvan. Tegelijkertijd is er een ander onderzoek uitgevoerd naar het gebruik van Google-producten in het onderwijs, het Workspace for Education-pakket dus. Dat werd uitgevoerd door dezelfde onderzoekers die naar G Suite Enterprise keken, omdat dat nagenoeg dezelfde software gebruikte. Over het onderzoek naar Workspace for Education schreven ministers van Engelshoven en Slob van Onderwijs een aparte brief naar de Tweede Kamer.
Resultaten
De resultaten van het onderzoek naar Google liegen er niet om. Er zitten nog elf privacyrisico's aan het gebruik van de software die overheden en scholen willen gebruiken. Acht daarvan zijn 'hoge risico's':
1. Gebrek aan doelbinding: Inhoudelijke gegevens (geen beperking verwerking tot het strikt noodzakelijke): verlies van vertrouwelijkheid persoonsgegevens, verlies van controle, risico van heridentificatie
2. Gebrek aan doelbinding: Diagnostische gegevens (ook voor aparte gegevensstroom uit ChromeOS en Chrome browser): verlies van controle, onrechtmatige verwerking
3. Gebrek aan transparantie: Inhoudelijke gegevens (niet te zien welke inhoudelijke gegevens Google verzamelt via telemetrie, Chrome Enhanced spellcheck niet makkelijk te herkennen en niet op alle apparaten zonder extra kosten uit te zetten): verlies van controle
4. Gebrek aan transparantie: Diagnostische gegevens (toezegging dat er informatie komt over de inhoud van telemetrie in eind 2021, maar geen informatie over bewaartermijnen en verwerkers/derde partijen): verlies van controle en risico van heridentificatie
5. Geen grondslag voor Google en de overheidsorganisaties (Google geen verwerker en geen gezamenlijke verantwoordelijke, geen toezegging naleving cookieregels): verlies van controle, onrechtmatige verwerking
6. Ontbrekende privacycontroles voor beheerders en gebruikers (geen uitknop voor telemetrie en voor het Feedback-formulier): verlies van controle en verlies van vertrouwelijkheid
7. Ontbreken inspraak op doorgifte van Diagnostische gegevens aan verwerkers en derde partijen: verlies van controle, verlies van vertrouwelijkheid
8. Onmogelijkheid voor ambtenaren om hun inzagerechten uit te oefenen
Er zijn daarnaast ook nog drie 'lage risico's':
1. Gebruik van Cloud-aanbieder (mogelijk onrechtmatige toegang tot inhoud en metagegevens): verlies van controle, verlies van vertrouwelijkheid, heridentificatie van gepseudonimiseerde gegevens en onrechtmatige (verdere) verwerking
2. Werknemersmonitoringsysteem (Gebruik van beschikbare log-gegevens door overheidsorganisaties voor beoordeling van werknemers): chilling effect om (aanverwante) rechten uit te oefenen
3. Onmogelijkheid om historische diagnostische gegevens te verwijderen: verhoogd risico op heridentificatie van gepseudonimiseerde gegevens en onrechtmatige (verdere) verwerking
DPIA's
Een DPIA is soms verplicht als er nieuwe gegevensverwerking moet worden uitgevoerd
De onderzoeken die worden gedaan, zijn DPIA's, een afkorting van een Data Protection Impact Assessment. Organisaties en overheidsinstellingen moeten zo'n onderzoek verplicht uitvoeren als ze van plan zijn om gegevens te verwerken. Dat kan bijvoorbeeld zijn als er een nieuw systeem of proces in gebruik moet worden genomen, maar ook als er nieuwe software moet worden aangeschaft die mogelijk data verzamelt.
Dat laatste is nu dus het geval. Als de overheid wil overstappen naar Google-clouddiensten, moet vooraf zo'n impactassessment worden gedaan. Een DPIA hoeft niet standaard te worden uitgevoerd. Dat is alleen als er 'systematisch geautomatiseerd wordt verwerkt' en er op basis daarvan 'besluiten worden genomen die gevolgen hebben voor mensen', of als er 'bijzondere persoonsgegevens' zoals data over religie of etniciteit worden verwerkt, of als er 'op grote schaal mensen gevolgd worden in een publiek toegankelijk gebied'. Het is echter ook mogelijk om buiten die kaders een DPIA uit te voeren, zoals de overheid doet.
Een DPIA wordt meestal geassocieerd met de AVG. Niet gek, want onder de Algemene Verordening Gegevensbescherming werden een heleboel bedrijven ermee geconfronteerd die er eerder nooit mee te maken hadden. Maar de AVG is niet de enige wet waaronder een DPIA moet worden uitgevoerd. Dat moet ook verplicht volgens de Wet politiegegevens, en de Wet justitiële en strafvorderlijke gegevens. Dat betreft instanties zoals gevangenissen of de politie en het OM die te maken hebben met criminelen.
Hoe komt zo'n DPIA precies tot stand? Sommige bedrijven houden het bij een korte beschrijving van de bestaande processen, maar een echt onderzoek kan lang duren.
Strategisch Leveranciersmanagement
Het nieuws over de DPIA werd naar de Tweede Kamer gestuurd door de ministers van Justitie en van Onderwijs. Dat zijn niet de directe opdrachtgevers van het onderzoek. Dat wordt uitgevoerd door het Strategisch Leveranciersmanagement, of SLM. Laat je niet verwarren door de rare benamingen; SLM noemt zichzelf SLM Cloud, maar soms ook SLM Microsoft, en dan zijn er ook nog legio andere SLM's bij de overheid die helemaal niets met Microsoft te maken hebben. SLM is een verzameltitel voor een groep die binnen de Rijksoverheid verantwoordelijk is voor de inkoop en het beheer van cloudproducten. Dat begon in 2014, toen voor het eerst grootschalig werd overgestapt naar Microsoft-producten. Daarom noemt de organisatie zichzelf nog steeds SLM Microsoft, maar nu wordt er dus ook onderzoek gedaan naar andere cloudproviders zoals Google. Ook zijn er andere SLM's binnen de overheid. Waar SLM Microsoft onder verantwoordelijkheid valt van het ministerie van Justitie en Veiligheid, is er bijvoorbeeld ook een SLM Oracle van de Dienst ICT Uitvoering van het ministerie van Economische Zaken.
SLM Microsoft begon al in 2014 met onderzoek naar het gebruik van Windows-software bij de overheid. De conclusie die de instantie nu over Google trekt, staat dan ook niet op zichzelf. Het is verre van de eerste keer dat er privacyrisico's zitten aan software van derde partijen die wordt gebruikt bij de overheid. Het onderzoek lijkt dan ook in veel opzichten, zoals qua opzet en doel, op het onderzoek naar Windows en Office. In 2018 concludeerden de onderzoekers al dat Windows 10 Enterprise en Office risico's opleverden. Destijds bleek al dat er telemetrie werd verzameld door de software, en dat die op servers in de VS wordt geplaatst. Later, in 2020, bleken er ook problemen te zitten in Office 365.
Als SLM die privacykwetsbaarheden ontdekt, betekent dat niet automatisch dat software niet gebruikt kan worden. Dat is juist waar SLM voor bedoeld is: de instantie onderhandelt met Microsoft en andere cloudleveranciers om tot een overeenkomst te komen. De leverancier kan in zo'n geval besluiten bepaalde telemetrie uit de software te verwijderen zodat die toch geschikt is om in Nederland te worden gebruikt. Dezelfde onderhandelingen moeten nu plaatsvinden met Google, nu G Suite en Workspace for Education niet AVG-proof blijken.
Aan- en uitbesteding
Dat onderzoek voert SLM Rijk niet zelf uit. Daarvoor heeft het aangeklopt bij een private partij. Dat is Privacy Company. Die won een paar jaar geleden een grote aanbesteding bij de overheid. Sindsdien is dat het bedrijf dat de meeste privacyonderzoeken uitvoert voor SLM Microsoft Rijk. Privacy Company was ook nauw betrokken bij het advies rondom de Wet op de inlichtingen- en veiligheidsdiensten of Wiv. Het onderzoek naar Workspace for Education werd uitgevoerd door de Hogeschool van Amsterdam en de Rijksuniversiteit Groningen.
Zo'n DPIA wordt in ambtenarentaal veranderd in een gegevensbeschermingseffectbeoordeling. Privacy Company stelde in 2017 een model op waaraan alle PIA's die de overheid uitvoert, kunnen worden getoetst, zeker handig voor een bedrijf dat alle DPIA's toch al uitvoert.
Hoe werkt een DPIA?
Een DPIA heeft veel parallellen met een securityaudit. Een klant geeft een bedrijf een opdracht om kwetsbaarheden te vinden, maar in plaats van softwarekwetsbaarheden gaat het om kwetsbaarheden in dataverwerking. De twee processen beginnen zelfs een beetje hetzelfde, want er moet eerst veel data worden verzameld, al zit er volgens Sjoera Nas ook wel veel verschil tussen. "Je kunt op heel veel manieren naar risico's kijken en een DPIA kijkt specifiek naar de privacyrisico's. Een slecht beveiligd systeem of een leverancier die liegt over hoe hij data versleutelt, levert andere risico's op. Daar moet je echt een pentest voor doen en dan krijg je een heel ander soort onderzoek."
Onderzoekers gebruiken soms pentestachtige technieken om data te onderscheppen voor een DPIA
Toch moeten ook privacyonderzoekers zeker weten welke data er verzameld wordt en dus moeten ze wel een technisch onderzoek doen. "Daar hebben we een soort lab voor waar we een testopstelling kunnen bouwen waar we de software op installeren. Het moet dan gaan om schone apparaten, waar we dan vervolgens alle verzonden data van proberen af te vangen", legt Sjoera Nas van Privacy Company uit.
Het in kaart brengen van dataverbruik is slechts de eerste stap in het uitvoeren van een DPIA. Die data moet daarna ook worden getoetst. Komt het verwerken van die data wel overeen met wat het bedrijf er zelf over vertelt, en mag dat ook op grond van de wet? "Je moet eerst kijken welke soorten persoonsgegevens worden verzameld, en daarna kun je pas beoordelen wat daarvan de risico's zijn", zegt Nas. Dat kan soms lastig zijn om te beoordelen. Dataverbruik wordt onder andere getoetst aan de AVG. Daarin staat niet welke data wel en niet mogen worden verzameld, maar de wet spreekt ambigu over 'dataminimalisatie'.
De vraag bij techbedrijven als Microsoft is dan of er daadwerkelijk een minimale hoeveelheid data wordt verzameld, of dat dat misschien toch wat minder kan. Nas geeft een voorbeeld van hoe Microsoft een paar jaar geleden tijdens onderzoeken nog zei dat telemetrie essentieel zou zijn geweest voor het gebruik van Office. "Inmiddels is er onderhandeld en kunnen systeembeheerders de verzameling volledig uitzetten."
Het is wel degelijk mogelijk om een begrip als minimalisatie te kwantificeren. Bij twijfel over functionaliteit vragen de onderzoekers door bij een leverancier waarom een bepaalde functie nodig is. Op die manier kan het datagebruik direct worden getoetst aan de AVG. Een voorbeeld dat tijdens de huidige DPIA naar boven kwam, was dat van de spellingscontrole in Chrome. Nas: "Er zitten twee spellingscontroles in Chrome. Een ervan stuurt, compleet overbodig, via telemetrie de inhoud van een gecontroleerde zin naar Google. Dat is iets anders dan functionele data. Kijk, dat vinden wij dan bovenmatig datagebruik."

Andere wetten
Tijdens een DPIA wordt niet alleen gekeken naar de privacywet. Ook andere wetten spelen mee. Nas: "Als het bijvoorbeeld om de gezondheidszorg gaat, moet je ook toetsen aan privacyregels uit specifieke medische wetten. "En vergeet de e-privacyrichtlijn niet", zegt Nas. Dat is de wet die regelt wanneer bedrijven cookies mogen plaatsen, waarover Tweakers vorig jaar een achtergrondverhaal schreef.
De verzamelde data geeft nooit een volledig beeld van wat er precies wordt verwerkt door een leverancier. Zeker als dat een cloudprovider zoals Google is, is het moeilijk te zien welke data verwerkt wordt. Nas: "Een deel van de gegevens kun je dan helemaal niet onderscheppen. De hoofdmoot van Googles verkeer vindt bijvoorbeeld plaats op servers in de Verenigde Staten. Daar kom je alleen achter als je een inzageverzoek doet." Tot slot wordt er ook nog een 'grondige juridische analyse' gedaan van de kleine lettertjes van een leverancierscontract, want ook dat moet natuurlijk volledig kloppen.
Scope
De scope van een DPIA is normaal gesproken niet zo moeilijk af te kaderen. Tenminste, bij de meeste partijen. Bij de overheid is dat soms wat moeilijker. Nas: "Normaal doe je een DPIA voor één bedrijf dat of instantie die vaak één specifieke dienst wil gaan gebruiken. Dan heb je meteen de scope al liggen, want dat is de manier waarop die organisatie de data wil gebruiken." Bij de overheid gaat dat iets anders, met name vanwege die eerdergenoemde aanbesteding. De DPIA's die Privacy Company voor het ministerie van Justitie uitvoert, zijn zogeheten paraplu-DPIA's. Dat wil zeggen dat de DPIA zoveel mogelijk risico's in kaart brengt, voor verschillende mensen die te maken krijgen met de gegevensverwerking. Naast werknemers kunnen dat ook klanten zijn of burgers die gegevens met de overheid moeten delen. Maar niet al die risico's zijn altijd van toepassing, en sommige risico's zijn uniek voor een organisatie. Bijvoorbeeld als de identiteit van werknemers strikt geheim moet blijven. Nas: "Daarom staat er in die paraplu-DPIA's altijd als waarschuwing dat elke organisatie zelf nog de details moet invullen, bijvoorbeeld nog zo'n tien procent van je DPIA."
En nu?
De Autoriteit Persoonsgegevens gaat een advies uitdelen over het rapport
Het is de vraag of de overheid in de toekomst aan de slag kan met Google-producten. De conclusies van SLM's DPIA zijn, zoals we hierboven al beschreven, niet bindend. Het is nu aan de overheid om een beslissing te nemen. Daar speelt een belangrijke partij nog een rol: de Autoriteit Persoonsgegevens. De overheid heeft de privacytoezichthouder benaderd. Die zegt tegen AG Connect dat het alleen een advies gaat uitbrengen. De overheid moet zelf weten of het dat advies volgt, maar, zegt de AP ook, de wet is de wet. De overheid kan dus niet zomaar beslissen door te gaan met een product waarvan het aantoonbaar weet dat het gebruik ervan in strijd is met de AVG. Een onderzoek door de AP kan daarvan weer een gevolg zijn en dat kan in het uiterste geval leiden tot een boete. Het zal nog lang duren voordat het zover is.
Ondertussen zal de overheid in gesprek moeten blijven gaan met Google over het gebruik van de software. Die gesprekken zijn er al geweest, schrijft Grapperhaus in zijn brief, maar die leidden niet tot het gewenste resultaat. "Deze gesprekken hebben geleid tot een aantal juridische en technische toezeggingen aan de kant van Google en een aantal mogelijke organisatorische maatregelen aan de kant van de rijksorganisaties. Op basis van deze uitkomsten is er een herbeoordeling van de hoge risico’s afgerond. De uitkomst hiervan is dat er acht hoge risico’s resteren."
Google heeft inmiddels ook op het rapport gereageerd. Het bedrijf zegt dat het de implementatiegids van Workspace for Education heeft bijgewerkt en dat daar meer informatie in staat over hoe het bedrijf data verwerkt. Het bedrijf hamert vooral op transparantie en controle over gegevens, maar schrijft niets over het minderen van datagebruik.