6.3. Belangrijkste privacyrisico’s

Wil je snel iets weten? Voer je vraag in en enkele tellen later rolt er al een antwoord uit. Vanwege het gebruikersgemak staat niet iedereen erbij stil dat AI ‘onthoudt’ welke gegevens je invoert. Soms tijdelijk, een andere keer permanent. AI-bedrijven kunnen daarvoor verschillende redenen hebben, bijvoorbeeld de verdere training van het model of omdat het waardevolle gegevens betreft. Dat kan problematisch zijn als je AI voedt met persoonlijke, vertrouwelijke en/of academische informatie.

Hieronder verschillende privacyrisico's opgesomd:

  1. De meeste AI-modellen zijn ‘black boxes’:
    Je hebt geen zicht op wie toegang heeft tot je data, waar ze worden opgeslagen (buiten de EU of niet) en of ze worden gedeeld met derden.

     
  2. Risico op datalekken of misbruik:
    Als je gevoelige informatie invoert, kunnen die — bij een lek of fout — op straat komen te liggen. Je kunt hierbij denken aan patiëntgegevens, onderzoeksdata of persoonlijke reflecties. Als die in het openbaar terecht komen, kan dit juridische, ethische of reputatieschade opleveren.

     
  3. Wet- en regelgeving:
    Volgens de Europese privacywetgeving (AVG,GDPR) mag je persoonsgegevens alleen verwerken als dat noodzakelijk en rechtmatig is. Veel AI-tools voldoen daar (nog) niet aan. Gebruik van AI in onderwijs of onderzoek vereist dus extra zorgvuldigheid.

     
  4. Vergroting digitale afhankelijkheid:
    Door onbewust veel data te delen met grote techbedrijven, versterk je hun machtspositie. Dit beperkt de controle over je eigen informatie en over de ontwikkeling van publieke, transparante AI-alternatieven.