• Datalekken door het gebruik van AI-tools
  • Datalekken door het gebruik van AI-tools
  • Datalekken door het gebruik van AI-tools
Altijd up-to-date
27-08-2024

De afgelopen maanden zijn er steeds vaker meldingen van datalekken naar voren gekomen, veroorzaakt door het gebruik van AI-tools. Organisaties zetten deze tools in om sneller en efficiënter te werken, problemen op te lossen en meer inzicht te krijgen. Dit gaat echter gepaard met het delen van persoonsgegevens met AI-tools, wat bepaalde risico’s met zich meebrengt.

 

Wil je meer weten over de risico’s van het gebruik van AI-tools? In deze blog delen we onze bevindingen.

 

Datalekken door het gebruik van AI-tools

Het gebruik van AI-tools is de afgelopen tijd toegenomen, en helaas zijn daarmee ook de problemen met datalekken toegenomen. AI-tools, ontworpen om taken efficiënter en effectiever uit te voeren, kunnen grote hoeveelheden data verwerken en analyseren, patronen herkennen en voorspellingen doen. Deze tools hebben echter toegang tot gevoelige informatie nodig om hun taken uit te voeren. Dit kan leiden tot onbedoelde datalekken als de informatie niet goed wordt beveiligd.

 

Risico’s van het delen van Persoonsgegevens met AI-tools

Medewerkers van een huisartsenpraktijk en een telecombedrijf hebben persoonlijke gegevens in een AI-chatbot ingevoerd. Dit heeft geleid tot meldingen van datalekken en een schending van de privacy. Dit gebeurde ondanks bestaande afspraken en vaak op eigen initiatief van de medewerkers. Hoewel het gebruik van digitale assistenten zoals ChatGPT en Copilot voordelen heeft, zoals het beantwoorden van klantvragen en het samenvatten van grote dossiers, zijn er ook grote risico’s aan verbonden. Het gebruik van AI-chatbots is soms onderdeel van het beleid van organisaties. In zulke gevallen is het misschien geen datalek, maar het is vaak wettelijk niet toegestaan.

 

Welke AI-tools zijn het populairst?

Er zijn veel verschillende AI-tools ontworpen, elk met hun unieke functies en voordelen. Hieronder hebben we er een paar voor je op een rijtje gezet:

  • ChatGPT
  • Watermelon Pulse
  • WriteSonic
  • WP-chatbot
  • Microsoft Copilot
  • AI-verordening

 

AI-Wetgeving: Regels voor Betrouwbaar en Verantwoord Gebruik van AI in de EU

De AI-verordening is een wet voor het gebruik van AI-tools. Deze wet moet ervoor zorgen dat het gebruik van AI in de EU betrouwbaar is. Daarvoor stelt de EU eisen aan de ontwikkeling en het gebruik van deze systemen. Afhankelijk van het AI-systeem of de context waarin het wordt gebruikt, gelden er verschillende eisen. Toepassingen van AI die echt ontoelaatbare risico’s opleveren voor mensen, worden verboden. Denk daarbij aan systemen die bijvoorbeeld worden gebruikt voor een oneerlijke beoordeling van mensen (zogenaamde ‘Social Scoring’).

 

Stapsgewijze invoering van nationale regelgeving

De verordening is op 1 augustus 2024 in werking getreden, maar de verschillende onderdelen worden trapsgewijs van toepassing. Dit geeft ontwikkelaars en aanbieders van hoog-risico AI vervolgens de gelegenheid om hun systemen te laten voldoen aan de nieuwe eisen.

 

Februari 2025: bepalingen op verboden AI

  • Augustus 2025: eisen voor AI voor algemeen gebruik (general purpose AI)
  • Augustus 2026: eisen voor hoog-risico AI-toepassingen en transparantieverplichtingen
  • Augustus 2027: eisen voor hoog-risico AI-producten: volledige AI-verordening is dan van toepassing
  • Augustus 2030: eisen voor hoog-risico AI-systemen bij overheidsorganisaties die vóór augustus 2026 op de markt zijn gebracht

 

Welke stappen kun je ondernemen om veilig te werken met AI-tools?

  1. Bewustwording van risico’s en voordelen: Het is essentieel om je bewust te zijn van de risico’s en voordelen van AI-tools. Dit helpt om angsten en weerstand te verminderen en zorgt daarnaast voor verantwoord gebruik.
  2. Ontwikkeling van beleid en richtlijnen: Een eerste stap is het ontwikkelen van beleid en richtlijnen voor veilig gebruik van AI-tools. Duidelijke richtlijnen moeten dadelijk aangeven wat wel en niet acceptabel is.
  3. Bescherming van gevoelige gegevens: Zorg ervoor dat je rekening houdt met de privacy van werknemers en de bescherming van gevoelige gegevens.
  4. Training en educatie: Zorg ervoor dat medewerkers weten hoe ze AI-tools veilig kunnen gebruiken en welke voorzorgsmaatregelen ze moeten nemen.
  5. Implementatie van beveiligingsmaatregelen: Bij het implementeren van AI-tools is het essentieel om de beveiliging van informatie en gegevens te waarborgen. Investeer daarom in robuuste beveiligingsmaatregelen om informatie te beschermen.
  6. Privacy en ethiek: Het beschermen van de privacy van werknemers is cruciaal bij het gebruik van AI-tools.

 

Lees ook: Het UBO-register is in strijd met het recht op privacy

Terug naar overzicht
Cookies
Wij maken gebruik van cookies zoals omschreven in ons Privacy document. Klik op onderstaande button als u hiermee akkoord gaat. Of klik hier om deze melding te verbergen
Akkoord
×