Privacy-problemen rond ChatGPT en andere generatieve AI

Generatieve AI, waaronder ChatGPT, biedt ongekende mogelijkheden, maar ook risico’s. Onder andere op het gebied van privacy. In dit artikel schetsen we in het kort de problemen, en geven we praktische handvatten voor de oplossing daarvan.

Generatieve AI is een vorm van kunstmatige intelligentie die nieuwe inhoud kan creëren, zoals teksten, afbeeldingen en video’s, op basis van tekstuele instructies van de gebruiker. Ook kan generatieve AI computercode genereren, of ‘sentiment analyses’ uitvoeren  (zie ook: Generative AI: Privacy and tech perspectives). Het bekendste en meest recente voorbeeld van generatieve AI is de chatbot ChatGPT, van het bedrijf OpenAI, die teksten kan produceren met menselijke kwaliteiten.

Allerlei problemen

Generatieve AI biedt veel mogelijkheden, op tal van terreinen, maar brengt ook allerlei – ethische, juridische, en privacy-technische – problemen met zich mee. Zoals:

  • inbreuk op auteursrechten (omdat het systeem zijn kennis verworven heeft op basis van bestaande teksten en beelden, waar mogelijk nog auteursrecht op rust);
  • ingebakken vooroordelen (bias), bijvoorbeeld qua gender en etniciteit (eveneens vanwege het leerproces dat gebaseerd is op bestaande teksten en beelden, die mogelijk discriminerend of racistisch konden zijn);
  • diverse privacy-problemen, zowel qua input als output. Zie de voorbeelden hieronder;
  • en overschatting van de mogelijkheden van AI.

Voorbeeld 1. Wat de (leer)input betreft, dus hoe de AI-kennis tot stand is gekomen: Nederlandse wijkagenten mogen niet structureel of systematisch social media monitoren om eventuele problemen in de wijk te signaleren. Dus waarom zou ChapGPT zich wél mogen baseren op al dat soort teksten?

Voorbeeld 2. Wat de output (en de daarvoor benodigde instructies) betreft: stel dat je het systeem voedt met het transcript van een vergadering. Met de vraag om hier een samenvatting (notulen) van te maken. Dan heeft het systeem dus kennis van personen, en wat ze gezegd hebben. Plus mogelijk gevoelige bedrijfsinformatie. Wat doet ChatGPT daarmee? (Meer daarover bij ‘Gevoelige informatie’ hieronder.)

Onjuiste output zorgt voor onrust

Vooral de verspreiding van onjuiste output zorgt voor onrust. Het gaat daarbij om twee basisvormen:

  • gemanipuleerde output, bijvoorbeeld in de vorm van deepfakes (gefotoshopte video’s);
  • verzonnen output (‘hallucinatie’), die niet gebaseerd is op trainingsgegevens, maar wel gepresenteerd wordt als serieus antwoord (wat meestal niet of nauwelijks te controleren valt, omdat er meestal geen bronnen vermeld worden).

Beide vormen kunnen resulteren in het manipuleren van de gebruiker of de publieke opinie, en zelfs een risico vormen voor de openbare veiligheid. (Zie ook: Generative AI ethics: 8 biggest concerns).

Gevoelige informatie

Naast gemanipuleerde output, waardoor iemands persoonlijke levenssfeer kan worden beïnvloed, is er nog het risico van het delen van te veel persoonlijke en vertrouwelijke informatie met generatieve AI.

Er zijn al verschillende gevallen bekend waarbij individuen of bedrijven grote hoeveelheden persoonlijke gegevens hebben ingevoerd in het algoritme, die vervolgens is gelekt. Die gevoelige informatie kan bijvoorbeeld bestaan uit: medische dossiers, financiële informatie, of persoonlijke contacten (zie ook: AI’s privacy pandora’s box: The risks of oversharing with generative AI). Deze informatie kan door de AI worden gebruikt op manieren die niet betrouwbaar kunnen worden voorspeld.

Adviezen

Privacy First is onder de indruk van de mogelijkheden van generatieve AI maar ziet ook de risico’s. Hoe ga je daar in de praktijk mee om?

Wij adviseren organisaties (en individuen) die generatieve AI willen gebruiken, om zorgvuldig de gebruikersrichtlijnen te hanteren. Dat betekent dat je je bewust moet zijn van zowel de risico’s van het delen van informatie (met generatieve AI tools) als van de beperkingen van de uitkomsten van deze tools.

Verder is een ethisch kader gewenst voor de inzet van deze tools, met name ten aanzien van het bewust produceren van gemanipuleerde output.

Houd er verder rekening mee dat wereldwijd aanvaarde privacyprincipes zoals gegevenskwaliteit, beperking van de gegevensverzameling, doelspecificatie, gebruikslimiet, beveiliging, transparantie, verantwoordingsplicht en individuele participatie van toepassing zijn op alle systemen die persoonsgegevens verwerken, dus ook op generatieve AI.