Van tijdslijn tot trainingsdata: Meta’s misbruik van onwetendheid
Geen bezwaar gemaakt? Dan zit je per vandaag ad infinitum in de krochten van Meta’s trainingsdata.

Gisteren was Privacy First bestuurslid en AI-expert Steven Derks bij RTL Z te gast om onze visie te delen op Meta’s nieuwste stap: het hergebruik van jaren aan gebruikersdata om generatieve artificial intelligence (AI) te trainen.
Berichten, reacties, (profiel)foto’s, statussen van jaren geleden – gedeeld in een andere tijdgeest, soms impulsief, soms in vertrouwen – worden nu aangeboord als grondstof voor commerciële AI. Zonder jouw toestemming. Zonder transparantie. Zonder eerlijke keuze.
Meta schermt met het argument dat het om “publieke informatie” gaat. Maar nergens wordt uitgelegd wat dat precies betekent. Zijn oude, verwijderde of inmiddels afgeschermde posts nog ‘publiek’? Gegevens van gedeactiveerde accounts? Content in het archief? We weten het niet. En zonder zo’n fundamentele afbakening is geïnformeerde toestemming onmogelijk. Dat is geen keuze, dat is misbruik van onwetendheid.
Veel mensen weten niet eens wat in hun profiel openbaar staat (of stond). Facebook was jarenlang ingericht op maximale deling, niet op overzicht of controle. En het internet van toen was een andere wereld. Wat je in 2010 op je tijdlijn zette, kan nu – zonder dat je vroeger de gevolgen kon overzien – in een obscure dataset terechtkomen.
Het grootste probleem? Zodra deze bak data in het model zit, is het praktisch onomkeerbaar. Machine unlearning – het actief ‘ontleren’ van specifieke trainingsdata – staat nog in de kinderschoenen. Wat eenmaal in het model is opgenomen, blijft invloed uitoefenen. De risico’s zijn reëel: denk aan profielinformatie die je schaadt bij migratie of verblijf in autoritaire regimes, of gevoelige gegevens die letterlijk opduiken in gegenereerde tekst.
Meta’s aanpak past in een bekend patroon: eerst massaal uitrollen met een bedenkelijk juridisch fundament, dan afwachten of toezichthouders/rechters ingrijpen. En als er kritiek komt? “Het systeem draait al, het is nuttig, het heeft veel gekost, terugdraaien is geen optie.”
Dat zagen we eerder bij ChatGPT, waar op ongekende schaal auteursrechten zijn geschonden en persoonsgegevens onrechtmatig verwerkt. Dat wordt oogluikend toegestaan door overheden en toezichthouders. Want ja, het is wel handig dat je geen Sinterklaasgedicht meer hoeft te schrijven. Zelfs als Meta formeel binnen de lijntjes blijft, dient de politiek hier paal en perk aan te stellen.
Privacy First is zeker geen tegenstander van AI. Maar de ontwikkeling van systemen mag nooit de afbraak van fundamentele rechten betekenen. AI kun je ook bouwen op data die bewust, geïnformeerd en vrijwillig is gedeeld. Met transparantie. Met echte keuzevrijheid. Geen stilzwijgende instemming, geen begraven instellingen, geen deadlines die niemand kent.
Ja, dat kost meer tijd en geld. Maar dit is de standaard die we moeten eisen van ieder bedrijf dat onze gegevens gebruikt onder het mom van vooruitgang.
Dat is niet teveel gevraagd. Dat is het absolute minimum.
Dit bericht verscheen eerder op LinkedIn.