Het alarmistische verhaal dat deze week in allerlei nieuwsbronnen verscheen over “geïnfecteerde AI-chatbots” die massaal Russische propaganda verspreiden vraagt om nuancering. Hoewel het Pravda-netwerk ongetwijfeld problematisch is, zetten sensationele koppen als “zo worden AI-chatbots geïnfecteerd” de zaak op scherp op een manier die de werkelijke situatie vertekent.

Geen nieuw fenomeen, wel nieuwe kanalen
Desinformatie is zo oud als informatie zelf. Rusland voert al decennialang gerichte desinformatiecampagnes, van Soviet-tijden tot RT en Sputnik. Het Pravda-netwerk is slechts de nieuwste iteratie van een bekende strategie. Wat anders is, is dat deze berichten nu ook hun weg vinden naar AI-trainingsdata – maar dat maakt het niet fundamenteel anders dan desinformatie die eerder via traditionele media, sociale media of forums werd verspreid.
De werkelijke impact valt mee
De alarmbellen over “geïnfecteerde” AI-chatbots moeten in perspectief worden geplaatst. Uit het onderzoek van Pointer (bron: KRO-NCRV) blijkt dat:
- Claude, een van de meest gebruikte chatbots, geen enkele keer Pravda-desinformatie herhaalde
- De Pravda-sites zelf nauwelijks bereik hebben bij menselijke lezers vanwege hun slechte kwaliteit
- Specifieke, sturende vragen nodig zijn om problematische antwoorden te ontlokken
Dit suggereert dat de “infectie” minder wijdverspreid en automatisch is dan de kop doet vermoeden. AI-systemen zijn niet passieve slachtoffers die klakkeloos alles overnemen – ze hebben ingebouwde filters en waarschuwingen.
AI is geen unieke zwakte, maar ook geen wonderoplossing
De bewering dat AI-chatbots bijzonder kwetsbaar zijn voor desinformatie mist een belangrijke vergelijking: hoe presteren mensen zelf? Onderzoek toont keer op keer aan dat mensen net zo vatbaar zijn voor nepnieuws, vooral wanneer het hun bestaande overtuigingen bevestigt. Social media-algoritmes versterken dit door echo-kamers te creëren.
AI-chatbots hebben bepaalde voordelen: ze zijn niet emotioneel gehecht aan standpunten en hebben geen politieke agenda. Maar ze hebben ook specifieke zwaktes die niet te onderschatten zijn. AI-modellen kunnen systematische vooroordelen uit hun trainingsdata overnemen en deze versterken. Waar een mens misschien een verdachte bron herkent door context of intuïtie, kan een AI-systeem misleid worden door technische trucjes zoals SEO-optimalisatie.
Bovendien zijn AI-biases vaak subtieler en hardnekkiger dan wordt gesuggereerd. Ze zitten diep ingebakken in de trainingsdata en zijn moeilijk te detecteren zonder specifieke tests. Een AI-systeem kan bijvoorbeeld systematisch bepaalde perspectieven onderbelichten zonder dat dit direct opvalt.
Technische oplossingen zijn mogelijk, maar complex
AI-problemen lijken in principe technisch oplosbaar, maar de praktijk is weerbarstiger dan vaak wordt voorgesteld. ChatGPT en andere systemen worden inderdaad continu bijgewerkt met betere filters en waarschuwingen, maar elke nieuwe beschermingsmaatregel roept ook nieuwe omzeilingstactieken op.
Het aanpakken van bias in AI-systemen is bovendien geen eenvoudige engineering-uitdaging. Het vereist constant toezicht, diverse testgroepen, en fundamentele keuzes over wat als “neutraal” of “waarheidsgetrouw” geldt – keuzes die inherent politiek en cultureel bepaald zijn. Een AI-systeem dat in Nederland neutraal lijkt, kan in andere landen als bevooroordeeld worden ervaren.
Context is koning
Belangrijker dan paniek over “geïnfecteerde” AI is het besef dat alle informatiebronnen – van kranten tot Wikipedia tot chatbots – kunnen worden beïnvloed door desinformatie. De oplossing ligt niet in het demoniseren van nieuwe technologie, maar in het ontwikkelen van betere informatievaardigheden.
Gebruikers moeten leren AI-output net zo kritisch te beoordelen als ze dat (zouden moeten) doen bij sociale media, nieuwsartikelen of gesprekken met vrienden. Het advies is simpel: controleer belangrijke informatie bij meerdere bronnen, wees sceptisch bij controversiële claims, en besef dat geen enkele informatiebron – menselijk of artificieel – feilloos is.
De echte uitdaging
Het werkelijke probleem is niet dat AI-chatbots “geïnfecteerd” raken, maar dat onze samenleving worstelt met informatieovervloed en afnemende consensus over wat waar is. Dit is een veel dieper probleem dan een technische kwetsbaarheid – het gaat over mediavaardigheden, kritisch denken en democratische veerkracht.
Het Pravda-netwerk is problematisch, maar niet omdat het AI-chatbots “infecteert”. Het is problematisch omdat het deel uitmaakt van een bredere aanval op gedeelde waarheid en democratische instituten. Die aanval bestaat al lang, gebruikt vele kanalen, en zal ook blijven bestaan ongeacht welke technische maatregelen we nemen tegen specifieke AI-kwetsbaarheden.
Conclusie
Russische desinformatie in AI-trainingsdata is een reëel probleem dat aandacht verdient. Maar het is geen apocalyptisch scenario van “geïnfecteerde” systemen die hulpeloos propaganda verspreiden. Het is een nieuwe vorm van een oude uitdaging, die vraagt om technische oplossingen, betere regulering en vooral om een meer mediageletterde samenleving.
In plaats van paniek over “AI-infectie” hebben we een nuchtere benadering nodig: erken het probleem, werk aan oplossingen, maar besef dat perfecte informatie niet bestaat – niet bij AI, en niet bij mensen.