Zorgen over ChatGPT nemen toe – de politiek holt er hijgend achteraan

De zorgen over generatieve AI, zoals ChatGPT, nemen sterk toe. Het ene probleem is nog niet geconstateerd of het andere dient zich alweer aan. Waaruit bestaan de huidige (privacy-)zorgen en hoe reageert de politiek – nationaal en Europees – daarop? Hieronder de huidige stand van zaken. Maar morgen kan die alweer anders zijn. Vooral ook vanwege alwéér een nieuwe ontwikkeling, in de vorm van plugins, die mogelijk nog risicovoller kunnen zijn dan ChatGPT zelf.

Door Henk Boeke, adviseur Privacy First 

Begin dit jaar gooide de Italiaanse privacy-autoriteit de knuppel in het hoenderhok, met een verbod op ChatGPT. Dat verbod was gebaseerd op twee bezwaren. Ten eerste dat de verwerking van persoonsgegevens (bij de initiële trainingsdata, en via de prompts, waarmee je het systeem voedt met vragen) niet strookte met de vereisten van de GDPR (onze AVG). En ten tweede dat het systeem geen leeftijdscontrole toepaste. Wat eveneens niet strookte met de vereisten van de GDPR.

Bij de initiële trainingsdata gaat het om de persoonsgegevens die – eventueel als bijvangst – zijn meegenomen bij het trainen van het systeem, waarbij allerlei online bronnen geraadpleegd zijn. Die persoonsgegevens kunnen dus in het systeem zitten.

Het probleem van de prompts, oftewel het voeden van het systeem met vragen, constateerden wij al eerder, in ons artikel Privacy-problemen rond ChatGPT en andere generatieve AI. Daar schreven we: “Stel dat je het systeem voedt met het transcript van een vergadering. Met de vraag om hier een samenvatting (notulen) van te maken. Dan heeft het systeem dus kennis van personen, en wat ze gezegd hebben. Plus mogelijk gevoelige bedrijfsinformatie. Wat doet ChatGPT daarmee?”

Het probleem van de leeftijdscontrole is al heel oud, en speelt – bij ons – al sinds de invoering van de AVG. Destijds constateerden eminente deskundigen, waaronder prof. Simone van der Hof, dat eigenlijk álle websites een leeftijdscontrole zouden moeten toepassen, van Nu.nl tot Buienradar, om te voldoen aan de AVG (die zegt dat minderjarige internetgebruikers toestemming van hun ouders moeten hebben voor het gebruik van websites of apps). Wat in de praktijk natuurlijk zeer problematisch is. Maar voor de Italiaanse privacy-autoriteit was dit wel een stok om de hond te slaan.

Uiteindelijk was het een storm in een glas water. Op 28 april werd ChatGPT alsnog weer beschikbaar gesteld in Italië, nadat OpenAI, de maker van ChatGPT, ‘maatregelen en verbeteringen’ had toegezegd.

Wat die ‘maatregelen en verbeteringen’ in de praktijk betekenen, staat nog te bezien. In ieder geval wordt nu wel bij het aanmaken van een nieuw account gewaarschuwd: “Please don’t share any sensitive information in your conversations”. Maar de initiële trainingsdata zijn natuurlijk niet meer terug te draaien. Die zitten er gewoon in.

Ook heeft Open AI nu een leeftijdstool toegevoegd. Dat klinkt indrukwekkend, maar betekent gewoon: de vraag om je geboortedatum in te vullen als je een account wil openen. Wat verder niet geverifieerd wordt.

Commentaar Privacy First: we juichen het Italiaanse signaal van harte toe. Vooral als signaal. Maar daarnaast is er natuurlijk nog veel meer nodig, om de privacy van de gebruikers en de stabiliteit van onze rechtsstaat te garanderen. Daarover straks meer.

Kamervragen

Op 1 mei stelde de Partij voor de Dieren (PvdD) Kamervragen, naar aanleiding van het Italiaanse verbod op ChatGPT. Wist de regering daar al iets van, en wat zou ze er zelf mee willen?

Ja, we weten daarvan, antwoordde de minister, maar we schuiven alle verantwoordelijkheid door naar de Autoriteit Persoonsgegevens (AP). Zie: Antwoorden Kamervragen over het aan banden leggen van ChatGPT in Italië vanwege privacyzorgen en de consequenties hiervan voor Nederland.

Ander opmerkelijk punt van de antwoorden: dat de Autoriteit Persoonsgegevens (AP) naar buiten zou moeten treden met ‘voorlichting’. Goed plan! Maar wat blijkt? Zoeken op ‘ChatGPT’ op de site van de AP geeft alleen: AP vraagt om opheldering over ChatGPT. Tja… wel vragen maar geen antwoorden. De minister had echter toegevoegd: dat de AP voorlichtend naar buiten zou moeten treden “wanneer daartoe aanleiding bestaat”. Voor de AP is die aanleiding er kennelijk nog niet.

Commentaar Privacy First: wat ons betreft is er op dit moment wél aanleiding voor de AP om naar buiten te treden met goede voorlichting. Bijvoorbeeld: door expliciet te wijzen op de risico’s van het delen van persoonsgegevens bij het formuleren van prompts.

Maar veel liever nog: een duidelijk standpunt van de regering zélf, met regie en beleid, zonder verwijzing naar de AP. Wat dat betreft scharen we ons achter de brandbrief Politiek, breng kunstmatige intelligentie (AI) nog dit jaar onder ónze controle, van Kees Verhoeven en Mark Thiessen in de Volkskrant van 13 juni, en de bijbehorende petitie. Deze petitie is inmiddels al ondertekend door tal van prominenten, waaronder intellectuele zwaargewichten als Maxim Februari en Bas Heijne, en (ex-)politici als Klaas Dijkhoff, Bram van Ojik en Gert Jan Segers.

My AI

De PvdD stelde niet alleen vragen over ChatGPT maar ook over ‘My AI’, de chatbot van Snapchat. “Voorziet u dat dit mis kan gaan?”

‘My AI’ is een chatbot van Snapchat, die zich voordoet als een gelijkwaardige gesprekspartner, met name voor kinderen en jongeren (de grootverbruikers van ‘Snap’). Terwijl zij geen idéé hebben dat dit geen persoon van vlees en bloed is, maar een virtueel contact, waar ze al hun persoonlijke sores aan toe kunnen vertrouwen, met alle privacy-problemen van dien. Zie ook: My AI: wat is het en waarom is er gedoe over? (Kidsweek.nl 22 april 2023), waarin kinderen en jongeren gewaarschuwd worden voor de gevaren.

Het antwoord van de minister was wederom: dat het aan de AP is om hier toezicht op te houden.

 Commentaar Privacy First: wat ons betreft is dit bij uitstek een geval waar goede voorlichting en ‘transparantie’ het verschil kunnen maken. Om te beginnen: door Snapchat te verplichten om bij elke ‘My AI’-posting te vermelden dat het een bericht van een robot is. Hopelijk wordt dit afgedwongen door de Europese ‘AI Act’ (waarover straks meer.)

Bard

Iedereen maakt zich – terecht – heel druk over ChatGPT, maar daardoor blijft zijn concurrent Bard (van Google) wat onderbelicht. Terwijl die net zoveel zorgen baart, omdat hij ongeveer hetzelfde doet als ChatGPT. En zelfs nog meer, omdat hij ook actuele informatie erbij geeft (de trainingsdata van ChatGPT lopen tot september 2021). Alleen zien we Bard hier nog niet, omdat Google de toegang tot dit AI-product vanuit Europa (en Canada) vooralsnog geblokkeerd heeft.

Waaróm Bard bij ons nog niet beschikbaar is, is nogal duister. De officiële verklaring van Google luidt ‘dat deze technologie nog in de kinderschoenen staat, en geleidelijk en verantwoord uitgerold zal worden’. Daarnaast wil Google een ‘behulpzame en betrokken partner’ blijven van de regelgevers ‘om samen deze nieuwe technologieën in goede banen te leiden’. (Zie: Bijna de hele wereld kan Googles chatbot Bard gebruiken behalve Europa, de reden blijft (nog) vaag, Volkskrant 19 mei 2023.)

Maar waarschijnlijk is er iets anders aan de hand. Sommige experts denken dat Google hiermee een signaal wil afgeven aan de strenge Europese regelgevers. Anderen veronderstellen dat Google twijfelt of zijn chatbot wel voldoet aan de Europese privacyregels (GDPR), wat tot hoge boetes zou kunnen leiden als dat niet het geval is.

Commentaar Privacy First: welke van deze verklaringen dan ook de juiste is, in alle gevallen lijkt de huidige privacywetgeving dus goed zijn werk te doen. Dat is winst!

Europa

Europa volgt op dit moment twee routes voor het in toom houden van AI. De eerste route is de zogenaamde AI Act (in het Nederlands: de ‘AI Wet’, of ‘AI Verordening’ genoemd), waarin verschillende risiconiveaus – voor ongewenste gevolgen – gedefinieerd worden. Variërend van ‘laag risico’ (zoals intelligente spamfilters, of het aanbevelingsalgoritme van Spotify), tot en met ‘onaanvaardbaar hoog risico’, zoals het Chinese sociaal-krediet-systeem. Met voor elk niveau een pakket aan eisen en verplichtingen. Hoe hoger het risico, hoe strenger de eisen. Tot en met ‘geheel verboden’ voor producten in de hoogste categorie.

Voor systemen als ChatGPT (en Bing van Microsoft, en Bard van Google, en My AI van Snapchat) zou dan de verplichting gaan gelden om te vermelden dat de output geautomatiseerd tot stand is gekomen.

Door de grote tech-ondernemingen, waaronder Open AI (de maker van ChatGPT) is hevig gelobbyd om hun producten in een zo laag mogelijke categorie te krijgen, met zo mild mogelijke eisen. Voor ChatGPT en vergelijkbare producten lijkt dat gelukt te zijn: de progressieve EU-fractie wilde dat deze AI-producten in de categorie ‘hoog risico’ zouden komen, maar uiteindelijk zijn ze in een categorie lager gekomen.

Op 14 juni stemde het Europees Parlement in grote meerderheid vóór de AI Act. Maar nu volgt nog een lang traject, met overgangsregeling en al, waardoor deze wet pas op zijn vroegst in 2026 in werking kan treden. Terwijl de technologische ontwikkelingen ondertussen in razend tempo doorgaan. Een commentator van BNR Nieuwsradio vergeleek het met een TGV die we met een Sprinter proberen in te halen. (Terzijde: om dit probleem van trage wetgeving te tackelen, is er naast de AI Act ook nog het AI Pact, waarin tech-bedrijven op vrijwillige basis al eerder kunnen verklaren dat ze voldoen aan de vereisten van de AI Act. Daar hebben ze gelukkig wel oren naar.)

De tweede route van ‘Europa’ is het zogenaamde AI Verdrag. Dat is een overeenkomst tussen de leden van de Raad van Europa, oftewel alle Europese landen (dus ook Zwitserland, Oekraïne, etc.) maar zonder Rusland, Belarus, Kazachstan en Vaticaanstad. Dit verdrag gaat vooral over de relatie tussen AI enerzijds en mensenrechten, democratie en rechtsstaat anderzijds. Op 6 maart stuurde Staatssecretaris Van Huffelen een ‘nulversie’ van het verdrag naar de Tweede Kamer. Het streven is om eind 2023 de onderhandelingen af te ronden.

Het grote verschil tussen de AI Act (van de EU) enerzijds en het AI Verdrag (van de Raad van Europa) anderzijds, is dat het bij de Act vooral gaat om producten (en hun risiconiveaus), terwijl het bij het Verdrag vooral gaat om mensen (en mensenrechten, waaronder privacyrechten). Bij overtreding van de Act kunnen hoge boetes volgen, terwijl het Verdrag aanknopingspunten biedt voor burgers om te procederen. (Voor meer informatie hierover: beluister beslist het interview met Catelijne Muller op BNR’s Big Five.)

Commentaar Privacy First:

  • AI Act: de Europese molens draaien weliswaar traag, maar als we die wet eenmaal hebben, dan is dat een enorme aanwinst, die net zo invloedrijk kan worden als de GDPR, respectievelijk de AVG. Alleen: de handhaving ervan wordt nog wel een uitdaging. Wie gaat dat allemaal uitvoeren en hoe? Daar is nog niets over afgesproken. De huidige problematiek rond onze eigen AP doet het ergste vrezen;
  • AI Verdrag: hoe dat uiteindelijk eruit zal zien, moeten we nog afwachten. Maar het basisidee is in ieder geval prima. Vanwege de fundamentele visie op AI, en wat we daar eigenlijk mee willen (of niet willen), qua mensenrechten, democratie en rechtsstaat. Precies waar de rechtsfilosoof Maxim Februari in Doe zelf normaal zo vurig voor pleitte. Terwijl dat verdrag tegelijkertijd een juridisch kader schept waar gewone burgers – of hun advocaten – echt iets mee kunnen.

Plugins

Tot slot het spannendste én verontrustendste deel van het verhaal. Om dat te kunnen begrijpen, eerst even de huidige stand van zaken. ChatGPT zoals wij dat nu kennen, is een stand alone systeem. Waarmee je wel online kunt communiceren, maar dat geen actuele informatie van internet kan halen, en niet kan communiceren met andere websites. ChatGPT is doofstom qua interactie met internet.

Sinds kort zijn er echter plugins, een soort hulpprogramma’s van derden, die ChatGPT kunnen ‘aansluiten’ op internet. Van bedrijven als Expedia, Open Table en Instacart. Wat enorme gevolgen kan hebben.

In het tech-magazine Wired (van juni 2023) werden al een paar simpele situaties geschetst, waarbij ChatGPT tot ongewenst gedrag verleid kon worden via plugins. Zoals: het verzenden van frauduleuze e-mails, het omzeilen van beveiligingsmaatregelen, en het misbruiken van gegevens die aan de plugins werden toevertrouwd.

Er is weinig fantasie voor nodig om te bedenken wat er nog meer voor narigheid kan gebeuren, wanneer je een generatief AI-systeem als ChatGPT loslaat op internet. Vooral met de nieuwste versie GPT-4, die Linux (de taal van webservers) beheerst, en alles weet over bommen, biologische wapens, en het kopen van ransom ware op het Dark Web. Bedenk zelf wat dat kan betekenen voor privacy-issues, zoals identiteitsfraude, wanneer ChatGPT – via plugins – zijn eigen gang kan gaan op internet.

Commentaar Privacy First: plugins voor ChatGPT kunnen heel nuttig zijn, maar ook extreem gevaarlijk. Met de ‘Plugin policies’ in zijn gebruikersvoorwaarden probeert Open AI – de maker van ChatGPT – de ergste misstappen te voorkomen, maar met ‘zelfregulering’ gaat het niet altijd goed, getuige de Boeing 737 Max-toestellen die onlangs uit de lucht vielen. Te hopen valt dat de nieuwe AI Act ook hierop gaat toezien.