Gebruiken uw werknemers ChatGPT? Let dan goed op..

De opkomst van artificiële intelligentie (AI) biedt veelbelovende kansen voor bedrijven, maar het gebruik van AI brengt ook risico’s met zich mee. Vooral de populariteit van AI-chatbots zoals ChatGPT en CoPilot roept vragen op, zeker wanneer uw werknemers deze tools inzetten voor hun dagelijkse werkzaamheden. Één van de grootste risico’s is een mogelijke datalek, zoals de Autoriteit Persoonsgegevens (AP) op 6 augustus 2024 nog eens benadrukte.

Wat zegt de AP?

In hun bericht wijst de AP erop dat het gebruik van AI-chatbots kan leiden tot onbedoelde datalekken. Deze chatbots kunnen gegevens verwerken zonder dat duidelijk is hoe die gegevens worden opgeslagen, beschermd en beheerd.

Wat zijn mogelijke risico’s voor uw bedrijf?
  1. Inbreuk op privacy: gevoelige persoonsgegevens van klanten, werknemers of andere betrokkenen kunnen onbedoeld worden blootgesteld aan derden. Dit kan bijvoorbeeld gebeuren doordat de ingevoerde gegevens van één persoon als trainingsdata worden gebruikt, en uiteindelijk in de output van een ander persoon terechtkomen.
  2. Schending van de Algemene Verordening Gegevensbescherming (AVG): Organisaties zijn volgens de AVG verplicht om passende maatregelen te nemen ter bescherming van persoonsgegevens. Als blijkt dat werknemers persoonsgegevens hebben ingevoerd in een AI-chatbot, en deze vervolgens lekken, kan dit resulteren in aanzienlijke boetes.
  3. Uw bedrijfsgevoelige informatie wordt openbaar: Naast persoonsgegevens kunnen ook bedrijfsstrategieën, interne knowhow of contracten per ongeluk worden vrijgegeven. Dit kan ernstige gevolgen hebben en is allesbehalve gunstig voor uw onderneming.
Hoe kan uw organisatie deze risico’s beperken?

Hoewel het volledig uitsluiten van voornoemde risico’s onmogelijk is, zijn er stappen die u kunt nemen om de kans op datalekken te verkleinen:

  1. Creëer bewustwording bij werknemers: Bespreek met uw werknemers de gevaren van het invoeren van (gevoelige) (persoons-)gegevens in AI-chatbots. Bewustwording is de eerste stap naar betere gegevensbescherming.
  2. Stel duidelijke richtlijnen op voor het gebruik van AI-chatbots: overweeg reglementen op te stellen op basis van uw instructiebevoegdheid uit artikel 7:660 Burgerlijk Wetboek, waarin u vastlegt hoe werknemers AI-tools mogen gebruiken.
  3. Voer een (pre-)Data Privacy Impact Assessment (pre-)DPIA)* uit: Een (-pre)DPIA kan u helpen om de risico’s van het gebruik van AI-chatbots of andere tools in kaart te brengen en passende maatregelen te nemen voordat u dergelijke tools implementeert.
  4. Maak duidelijke afspraken met derde partijen: Maakt u gebruik van AI-systemen van derde partijen? Zorg er dan in ieder geval voor dat uw contracten duidelijke afspraken bevatten over de verwerking, opslag en bescherming van gegevens. Maak een AI reglement en neem dit op in uw personeelshandboek.

Hulp nodig bij het opstellen van een AI reglement en updates nodig van uw Internet, e-mail en social media reglement?! Dan bent u bij ons aan het juiste adres.

Let ook hier op! IE-rechten de prullenbak in door AI?

Een andere interessante ontwikkeling over het gebruik van AI-systemen, betreft de vraag hoe het zit met de intellectuele eigendomsrechten van de door AI gegenereerde output. Volgens artikel 1 van de Auteurswet is auteursrecht namelijk voorbehouden aan werken die het resultaat zijn van menselijke creativiteit. Dit roept de vraag op of AI-creaties hier ook onder vallen. Ondernemers die gebruikmaken van AI moeten zich hiervan bewust zijn, want de juridische status van dergelijke creaties is nog niet volledig duidelijk. Een andere ontwikkeling is dat AI-output wellicht binnen de modelrechtelijke definitie van ‘voortbrengsel’ hoort te vallen. Bij modelrechtelijke bescherming horen weer andere vereisten.

Het Hof van Justitie van de Europese Unie (HvJEU)  zal in ieder geval binnenkort een aantal prejudiciële vragen behandelen over de rol van het creatieve proces en het bewijs van originaliteit in het kader van auteursrechtelijke bescherming van toegepaste kunst. De antwoorden van het Hof zullen van grote invloed zijn op de bescherming van AI-creaties binnen de EU. We zullen u in ieder geval op de hoogte houden van deze ontwikkelingen!

Onze ondernemingsjuristen helpen u graag met het opstellen van duidelijke AI richtlijnen, het controleren van contracten met derde partijen en met het adviseren omtrent privacy, AI en intellectuele eigendomsrechten. Zo minimaliseert u het risico op datalekken, AVG-overtredingen, verlies van waardevolle intellectuele eigendom en boetes. Neem direct contact met ons op via info@thelegalcompany.nl of 020 345 0152.

*Wilt u meer weten over wat een DPIA inhoudt? Klik dan hier.