Sigma Personeelsdiensten
Vragen?

Gebruik AI-chatbots door werknemers leidt tot datalekken

De Autoriteit Persoonsgegevens krijgt steeds vaker meldingen van datalekken door gebruik van AI-chatbots op de werkvloer.

Maak daarom duidelijke afspraken met werknemers over de inzet van AI-chatbots.

Medische gegevens delen via ChatGPT

Werknemers maken op de werkvloer steeds vaker gebruik van digitale assistenten, zoals ChatGPT en Copilot. Ze gebruiken deze AI-tools bijvoorbeeld om klantvragen te beantwoorden of om grote dossiers samen te vatten. Dat scheelt tijd, maar er kleven ook grote risico’s aan, waarschuwt de Autoriteit Persoonsgegevens.

Zo kreeg de AP een melding van een huisartsenpraktijk waar een werknemer medische gegevens van patiënten had ingevoerd in een AI-chatbot. Ook kreeg de AP een melding binnen van een telecombedrijf waar een werknemer een bestand met onder meer adressen van klanten aan een chatbot had gevoerd.

AVG en AI-chatbots

Om generatieve AI-tools te trainen delen werknemers vaak persoonsgegevens. Daardoor ontstaan datalekken. Voor het delen van persoonsgegevens met een andere organisatie (zoals de makers van de chatbots) gelden strenge regels op grond van de Algemene verordening gegevensbescherming (AVG). Je moet bijvoorbeeld het verwerken van de gegevens goed kunnen onderbouwen.

Voor medische gegevens zijn de regels nog strikter, omdat het een grote(re) impact op iemand kan hebben als die gegevens worden verwerkt. Ze vallen op grond van de AVG onder de ‘bijzondere categorieën van persoonsgegevens’ en krijgen extra bescherming.

Bespreek daarom het gebruik van AI-chatbots met werknemers en stel richtlijnen op over het gebruik van digitale assistenten en chatbots. Meld een datalek bij de Autoriteit Persoonsgegevens en aan de getroffen personen als dat nodig is.

naar inspiratie overzicht