
ChatGPT & privacy
“Ik heb even een cliëntverslag in ChatGPT gezet om de tekst wat netter te maken.”
Het klinkt onschuldig, maar dit soort handelingen brengen grote risico’s met zich mee. Steeds vaker gebruiken hulpverleners AI-tools als ChatGPT om rapportages te verbeteren, te vertalen of samen te vatten. Handig, snel en vaak verbluffend effectief. Maar er zit een grote keerzijde aan: privacy!
ChatGPT in de zorg en waarom dit riskant is
ChatGPT is ontwikkeld voor algemeen gebruik. Het is geen zorgapplicatie, en zeker geen ECD of EPD. Als je er gevoelige informatie in plakt, gebeuren er een aantal dingen waar je meestal geen zicht op hebt:
- Onbekende opslaglocaties – je weet niet waar de data terechtkomt, en of die buiten Europa wordt opgeslagen. Daarmee kan de AVG geschonden worden.
- Geen verwerkersovereenkomst – met een partij als OpenAI heb je geen juridische afspraken over het gebruik, beheer en beveiliging van cliëntgegevens.
- Mogelijk hergebruik van data – zelfs al zegt de aanbieder dat dit niet gebeurt, je hebt er geen harde controle op.
- Gebruik als trainingsdata – alles wat je invoert kan gebruikt worden om het AI-model verder te trainen. Dat betekent dat gevoelige cliëntgegevens later op totaal onverwachte plekken kunnen opduiken.
- Schending beroepsgeheim – gevoelige informatie kan onbedoeld toegankelijk worden voor derden.
- Risico op datalekken en boetes – de Autoriteit Persoonsgegevens kan hoge sancties opleggen bij overtreding van de AVG.
Kortom: wat begon als een handigheidje kan uitlopen op een datalek of verlies van vertrouwen bij cliënten.
Maar wat als ik de naam van de cliënt/patiënt weglaat?
Sommige hulpverleners denken dat het veilig is om ChatGPT in de zorg te gebruiken zolang ze de naam van de cliënt weglaten. Helaas is dat niet zo. Ook zonder naam kunnen teksten gegevens bevatten die indirect herleidbaar zijn: leeftijd, gezinssituatie, diagnose of woonplaats. Dit heet pseudonimisering en valt nog steeds onder de AVG.
Daarnaast blijft het zorginhoudelijke karakter van de tekst een bijzondere categorie persoonsgegevens. Het invoeren ervan in een publieke AI-dienst zonder afspraken is dus nog steeds een overtreding van de regels. Bovendien kan ook deze data worden gebruikt voor modeltraining, waardoor je de controle volledig verliest.
Kortom: zelfs zonder naam blijft het invoeren van cliëntinformatie in ChatGPT een groot risico.
Het spanningsveld: gemak vs. veiligheid
De verleiding is groot. Zorgprofessionals kampen dagelijks met een hoge administratieve druk. Tools als ChatGPT bieden snelheid en gemak. Maar juist in de zorg zijn persoonsgegevens extra beschermd: medische en sociale gegevens vallen onder de strengste categorie binnen de AVG.
Dat betekent dat het gemak van “even plakken in een AI” in geen verhouding staat tot de risico’s. Zeker als je bedenkt dat er alternatieven bestaan die wél veilig zijn. Het probleem is dat die veilige oplossingen nog lang niet overal beschikbaar zijn.
Kan het dan nergens veilig?
Een écht publieke AI-dienst zoals ChatGPT, Gemini of Claude is nooit geschikt om cliëntgegevens in te verwerken. Ze bieden geen verwerkersovereenkomst, draaien meestal op servers buiten de EU en gebruiken ingevoerde data (deels) voor modeltraining of kwaliteitscontrole.
Veiliger opties bestaan wel, maar die werken niet “publiek” via een open website. Denk aan:
- Azure OpenAI Service – toegang tot GPT-modellen binnen Europese datacenters, mét verwerkersovereenkomst en zonder dat data voor training wordt gebruikt.
- Google Vertex AI (EU) – veilige verwerking en beheer van AI-modellen binnen de EU.
- Aleph Alpha (Duitsland) – Europees taalmodel met nadruk op privacy en uitlegbaarheid.
- Mistral AI (Frankrijk) – open modellen die je zelf kunt draaien in een EU-cloudomgeving.
Daarnaast zijn er AI oplossingen specifiek voor de zorg ontwikkeld die momenteel al in gebruik zijn. Een goed voorbeeld is Autoscriber, deze tool maakt automatisch samenvattingen van het gesprek, met belangrijke klinische data, volgens sjablonen voor vele specialismen. Doordat minder tijd hoeft te gaan zitten in typen of handmatig verslagleggen, kunnen arts/therapeut meer aandacht geven aan de patiënt in het consult.
Voor zorgorganisaties geldt dus: AI kan wel degelijk veilig ingezet worden, maar alleen via oplossingen die specifiek voor dit doel zijn ingericht.
Hoe kan het wél?
AI kan een enorme meerwaarde hebben in de zorg, mits goed toegepast. De belangrijkste voorwaarden:
- Data binnen Europa. Zorg dat alle gegevensverwerking plaatsvindt binnen Europese datacenters, onder Europese wetgeving.
- Verwerkersovereenkomst. Werk alleen met AI-partners die bereid zijn een verwerkersovereenkomst te sluiten. Zo is duidelijk wie waarvoor verantwoordelijk is.
- Geen data-opslag buiten de opdracht. AI mag je input alleen verwerken om de taak uit te voeren (bijvoorbeeld: een samenvatting genereren). Daarna moet de data verdwijnen, zonder hergebruik voor training.
- Specifiek voor de zorg. Gebruik AI-oplossingen die zijn ontworpen voor de zorg, met ingebouwde beveiliging en aandacht voor vertrouwelijkheid.
AI als betrouwbare assistent
AI als betrouwbare assistent is dus iets anders dan het gebruik van ChatGPT in de zorg.
Wanneer aan deze voorwaarden voldaan wordt, kan AI juist enorm bijdragen:
- Samenvatten van lange dossiers → meer overzicht en tijdwinst.
- Structureren van rapportages → consistente verslaglegging.
- Taalondersteuning → hulp bij begrijpelijke en foutloze teksten.
- Radiologie → AI wordt gebruikt om röntgenfoto’s, CT-scans en MRI’s te analyseren.
- En in de nabije toekomst nog veel meer.
De winst: minder tijd achter de computer, meer tijd voor cliënten.
Wat wij bij Mextra doen
Bij Mextra zien we dagelijks hoe groot de administratieve druk in de zorg is. Daarom hebben we Mextra AI ontwikkeld: een AI-module die rapportages kan samenvatten en structureren, maar dan volledig binnen een beveiligde, Europese cloudomgeving. Wil je daar meer over weten, lees dan dit artikel.
- Gegevens blijven binnen de EU.
- Er is een verwerkersovereenkomst.
- Data wordt niet gebruikt om AI-modellen te trainen.
- Volledig AVG-proof.
Zo profiteer je van de voordelen van AI, zonder de privacy van cliënten in gevaar te brengen.
Conclusie
AI in de zorg is geen toekomstmuziek meer – het gebeurt nú. Maar gemak mag nooit boven veiligheid gaan. Hulpverleners die cliëntgegevens zomaar in ChatGPT plakken, lopen grote risico’s. Gelukkig zijn er veilige alternatieven die het beste van beide werelden bieden: tijdbesparing én bescherming van privacy. Het is de taak van softwareleveranciers in de zorg om de mogelijkheden van AI veilig in hun applicaties aan te bieden, althans dat vinden wij bij Mextra.
Bronnen:
KNMG
Dirkzwager: Artificial intelligence in de zorg
ChatGPT
Autoscriber
Vragen & antwoorden
Is het veilig om cliëntgegevens in ChatGPT te zetten als ik ‘temporary chat’ gebruik?
Nee. Temporary chat voorkomt wel dat je gesprekken in je accountgeschiedenis worden opgeslagen en beperkt het gebruik voor training, maar het lost de kernproblemen niet op. Er is nog steeds geen verwerkersovereenkomst, je weet niet hoe data tijdelijk wordt verwerkt, en je deelt nog steeds bijzondere persoonsgegevens met een publieke partij. Daarmee blijft het gebruik in strijd met de AVG.
Wie is verantwoordelijk als er toch een datalek ontstaat via ChatGPT?
De zorgorganisatie zelf blijft verantwoordelijk voor de gegevensverwerking. Het gebruik van een publieke AI-dienst ontslaat je dus niet van je AVG-verplichtingen.
Wat moet mijn organisatie regelen als we AI in de zorg willen gebruiken?
Maak beleid over wat wel en niet in AI-tools ingevoerd mag worden.
Train medewerkers in de risico’s van publieke AI-diensten.
Kies een betrouwbare leverancier met de juiste certificeringen.
Leg afspraken vast in een verwerkersovereenkomst.
Waarvoor kan ik ChatGPT wél veilig gebruiken in de zorg?
Het opstellen of herschrijven van beleidsstukken en protocollen.
Training en scholing: bijvoorbeeld samenvattingen of oefenvragen maken.
Communicatie en voorlichting: teksten voor nieuwsbrieven, folders of de website.
Projectvoorstellen of subsidieaanvragen voorbereiden.
Samenvattingen van niet-cliëntgebonden vergaderingen (bijvoorbeeld MT-overleggen).
Administratieve ondersteuning zoals e-mails of standaardbrieven verbeteren.
Brainstormen over nieuwe zorgconcepten, campagnes of verbeterprojecten.

