Volgens mij zitten we hier echt al op een verkeerd niveau te kijken naar het lek hoor. De NSW RA is hier al veel te ver gegaan en in dat opzicht ligt het datalek eigenlijk al daar. Kijkend naar hoe we in Nederland een AVG zouden toepassen op een casus zoals dat zien we gewoon dat het echt al veel eerder fout is gegaan.
Medische gegevens van mogelijk 12 duizend mensen in een Excel sheet? Gaat het wel goed met je?
Op basis van onze AVG zijn er meerdere punten in deze casus waar je serieuze vraagtekens bij kunt zetten. Sterker nog: de discussie over ChatGPT is hier eigenlijk niet eens relevant, want het gaat daarvoor al fout.
De
NSW Reconstruction Authority (RA) is in deze situatie de
verwerkingsverantwoordelijke.
Onze Autoriteit Persoonsgegevens (AP) definieert een datalek als:
“Een inbreuk op de beveiliging die per ongeluk of op onrechtmatige wijze leidt tot vernietiging, verlies, wijziging, ongeoorloofde verstrekking van of ongeoorloofde toegang tot persoonsgegevens.”
Het gaat hier dus niet om de vraag of gegevens openbaar zijn gemaakt, maar of er sprake was van
ongeoorloofde toegang of verwerking. Dat is precies wat hier aan de hand lijkt te zijn.
ChatGPT was in dit geval geen “geadresseerde”, het is niet zo dat gegevens van Pietje per ongeluk naar Klaasje zijn gestuurd. Maar OpenAI was evenmin een gemachtigde
verwerker. Er was geen verwerkersovereenkomst tussen de RA en OpenAI, en de contractor had ook geen mandaat om een derde partij in te schakelen voor gegevensverwerking. Daarmee was het uploaden van deze data naar ChatGPT een onrechtmatige verwerking.
De echte vraag is echter fundamenteler:
had de dienstverlener überhaupt toegang tot deze gegevens mogen hebben?
Als blijkt dat de RA een externe dienstverlener toegang heeft gegeven tot een Excel-bestand met persoonsgegevens van 12.000 mensen (waaronder namen, adressen, e-mailadressen, telefoonnummers en zelfs
gezondheidsinformatie) dan is dat op zichzelf al een ernstige overtreding van de AVG.
Onder de AVG is de RA verantwoordelijk voor minimaal drie zaken:
- Er moet een verwerkersovereenkomst (art. 28 AVG) zijn waarin o.a. de doeleinden, aard, duur en beveiliging van de verwerking zijn vastgelegd, en waarin de verwerker niet zelfstandig mag beslissen over verdere verwerking.
- Toegang tot persoonsgegevens moet noodzakelijk zijn voor het uitvoeren van de overeengekomen taak(dataminimalisatie, art. 5(1)(c)).
- Er moeten passende technische en organisatorische beveiligingsmaatregelen getroffen zijn (art. 32 AVG).
Het is volstrekt ongeloofwaardig dat toegang tot de volgende gegevens noodzakelijk was voor de taak van deze dienstverlener:
- Namen en adressen
- E-mailadressen
- Telefoonnummers
- Persoonlijke en gezondheidsinformatie
Vooral dat laatste is problematisch:
gezondheidsdata behoort tot de bijzondere categorieën van persoonsgegevens (art. 9 AVG). Dat zulke gegevens überhaupt in een exporteerbaar Excel-bestand konden belanden, is al een schending van
privacy by design (art. 25 AVG) en van de beveiligingsplicht.
Met andere woorden: de kern van het probleem ligt niet bij de contractor die ChatGPT gebruikte, maar bij de
NSW RA zelf, die haar datahuishouding niet op orde had.
Wanneer gezondheidsinformatie in Excel kan worden geëxporteerd, zonder exportrestricties, logging of toegangscontrole, is er feitelijk al sprake van een datalek.
Dat er “geen bewijs is dat informatie openbaar is gemaakt” zegt in dit kader weinig.
De AVG vereist geen openbaarmaking voor een datalek:
de mogelijkheid van ongeoorloofde toegang is voldoende.
Deze zin uit de verklaring van de RA krijgt daardoor een andere lading:
“There is no evidence that any information has been made public, however, Cyber Security NSW will continue to monitor the internet and the dark web.”
De monitoring is begrijpelijk, maar het probleem zat al eerder in de keten: in de interne processen en toegangsmogelijkheden binnen de RA zelf.
Als een externe partij zonder noodzaak 12.000 records met persoonlijke en gezondheidsgegevens geëxporteerd kan krijgen naar een Excelbestand, dan is het datalek al ontstaan voordat er één byte naar ChatGPT werd gestuurd.