Een pro-Russische desinformatiecampagne gebruikt gratis AI-tools om een 'contentexplosie' te veroorzaken

Een pro-Russische desinformatiecampagne maakt gebruik van kunstmatige intelligentietools voor consumenten om een 'explosie van content' te veroorzaken. Deze is gericht op het verergeren van de bestaande spanningen rondom wereldwijde verkiezingen, Oekraïne, immigratie en andere controversiële onderwerpen, zo blijkt uit nieuw onderzoek dat vorige week is gepubliceerd .
De campagne, bekend onder vele namen, waaronder Operatie Overload en Matroesjka (andere onderzoekers hebben de campagne ook in verband gebracht met Storm-1679 ), is sinds 2023 actief en wordt door meerdere groepen, waaronder Microsoft en het Institute for Strategic Dialogue , gecoördineerd met de Russische overheid. De campagne verspreidt valse verhalen door media te imiteren met als kennelijk doel verdeeldheid te zaaien in democratische landen. Hoewel de campagne zich richt op een wereldwijd publiek, waaronder de VS , is Oekraïne het belangrijkste doelwit. Honderden met AI gemanipuleerde video's van de campagne hebben geprobeerd pro-Russische verhalen aan te wakkeren.
Het rapport beschrijft hoe de hoeveelheid content die werd geproduceerd door de campagnevoerders tussen september 2024 en mei 2025 dramatisch is toegenomen en miljoenen keren over de hele wereld is bekeken.
In hun rapport identificeerden de onderzoekers 230 unieke contentitems die tussen juli 2023 en juni 2024 door de campagne werden gepromoot, waaronder afbeeldingen, video's, QR-codes en nepwebsites. In de afgelopen acht maanden heeft Operation Overload echter in totaal 587 unieke contentitems geproduceerd, waarvan de meeste met behulp van AI-tools zijn gemaakt, aldus de onderzoekers.
De onderzoekers stelden dat de piek in content werd veroorzaakt door AI-tools voor consumenten die gratis online beschikbaar zijn. Deze eenvoudige toegang droeg bij aan de tactiek van 'contentversmelting', waarbij de beheerders van de campagne dankzij AI-tools meerdere contentstukken konden produceren die hetzelfde verhaal vertelden.
"Dit markeert een verschuiving naar schaalbaardere, meertalige en steeds geavanceerdere propagandatactieken", schreven onderzoekers van Reset Tech, een non-profitorganisatie in Londen die desinformatiecampagnes in kaart brengt, en Check First, een Fins softwarebedrijf, in het rapport. "De campagne heeft de productie van nieuwe content de afgelopen acht maanden aanzienlijk opgevoerd, wat wijst op een verschuiving naar snellere, schaalbare methoden voor contentcreatie."
Onderzoekers waren ook verbijsterd door de verscheidenheid aan tools en soorten content die de campagne nastreefde. "Wat mij verraste, was de diversiteit aan content, de verschillende soorten content die ze begonnen te gebruiken", vertelt Aleksandra Atanasova, hoofdonderzoeker open-source intelligence bij Reset Tech, aan WIRED. "Het is alsof ze hun palet hebben gediversifieerd om zoveel mogelijk verschillende invalshoeken van die verhalen te kunnen vangen. Ze voegen verschillende soorten content toe, de een na de ander."
Atanasova voegde toe dat het erop lijkt dat de campagne geen gebruik maakt van aangepaste AI-hulpmiddelen om de doelen te bereiken, maar van AI-gestuurde spraak- en beeldgeneratoren die voor iedereen toegankelijk zijn.
Hoewel het lastig was om alle hulpmiddelen te identificeren die de campagnemedewerkers gebruikten, konden de onderzoekers één hulpmiddel specifiek identificeren: Flux AI.
Flux AI is een tekst-naar-beeldgenerator, ontwikkeld door Black Forest Labs, een Duits bedrijf opgericht door voormalige medewerkers van Stability AI. Met behulp van de beeldanalysetool van SightEngine ontdekten de onderzoekers dat een kans van 99 procent bestond dat een aantal van de nepbeelden die door de Overload-campagne werden gedeeld – waarvan sommige beweerden moslimmigranten te tonen die rellen en brandstichtingen pleegden in Berlijn en Parijs – waren gemaakt met behulp van beeldgeneratie van Flux AI.
De onderzoekers konden vervolgens afbeeldingen genereren die de esthetiek van de gepubliceerde afbeeldingen nauwgezet nabootsten, door gebruik te maken van prompts die discriminerende taal bevatten, zoals ‘boze moslimmannen’.
Dit benadrukt ‘hoe AI-tekst-naar-afbeelding-modellen misbruikt kunnen worden om racisme te bevorderen en anti-moslimstereotypen aan te wakkeren’, schreven de onderzoekers, en voegden eraan toe dat het ‘ethische zorgen oproept over hoe prompts werken in verschillende AI-generatiemodellen’.
"We bouwen meerdere beveiligingslagen in om onrechtmatig misbruik te voorkomen, waaronder herkomstmetadata waarmee platforms door AI gegenereerde content kunnen identificeren, en we ondersteunen partners bij de implementatie van aanvullende moderatie- en herkomsttools", schreef een woordvoerder van Black Forest Labs in een e-mail aan WIRED. "Het voorkomen van misbruik is afhankelijk van verschillende mitigatielagen en samenwerking tussen ontwikkelaars, socialemediaplatforms en autoriteiten, en we blijven ons inzetten om deze inspanningen te ondersteunen."
Atansova vertelt aan WIRED dat de afbeeldingen die zij en haar collega's hebben beoordeeld, geen metadata bevatten.
Operation Overload maakt ook gebruik van AI-stemkloontechnologie om video's te manipuleren zodat het lijkt alsof prominente figuren dingen zeggen die ze nooit hebben gezegd. Het aantal video's dat door de campagne werd geproduceerd, steeg van 150 tussen juni 2023 en juli 2024 naar 367 tussen september 2024 en mei 2025. De onderzoekers stelden dat de meeste video's in de afgelopen acht maanden AI-technologie gebruikten om de kijkers te misleiden.
Zo publiceerde de campagne in februari een video op X met Isabelle Bourdon, universitair hoofddocent en onderzoeker aan de Franse Universiteit van Montpellier, die Duitse burgers schijnbaar aanspoorde om massaal te rellen en te stemmen op de extreemrechtse partij Alternative für Deutschland (AfD) bij de federale verkiezingen. Dit was nep: de beelden kwamen uit een video op het officiële YouTube-kanaal van de school, waarin Bourdon een prijs bespreekt die ze onlangs heeft gewonnen in de sociale wetenschappen. Maar in de gemanipuleerde video leek het dankzij AI-stemkloontechnologie alsof ze het over de Duitse verkiezingen had.
De door AI gegenereerde content van Operation Overload wordt gedeeld op meer dan 600 Telegram-kanalen, evenals door bot-accounts op socialemediaplatforms zoals X en Bluesky. De afgelopen weken is de content voor het eerst ook gedeeld op TikTok. Dit werd voor het eerst opgemerkt in mei, en hoewel het aantal accounts klein was – slechts 13 – werden de geplaatste video's 3 miljoen keer bekeken voordat het platform de accounts degradeerde.
"We zijn zeer waakzaam tegen actoren die ons platform proberen te manipuleren en hebben de accounts in dit rapport al verwijderd", vertelt Anna Sopel, woordvoerder van TikTok, aan WIRED. "We sporen geheime beïnvloedingsoperaties continu op, verstoren ze en werken eraan om ze voor te blijven. Bovendien rapporteren we maandelijks transparant over onze voortgang."
De onderzoekers wezen erop dat Bluesky weliswaar 65 procent van de nepaccounts had opgeschort, maar dat "X minimale actie heeft ondernomen ondanks de vele rapporten over de operatie en het toenemende bewijs voor coördinatie." X en Bluesky reageerden niet op verzoeken om commentaar.
Zodra de nep- en door AI gegenereerde content door Operation Overload is gecreëerd, doet de campagne iets ongewoons: er worden e-mails gestuurd naar honderden media- en factcheckingorganisaties over de hele wereld, met voorbeelden van hun nep-content op verschillende platforms. Daarnaast worden de factcheckers verzocht om te onderzoeken of de content echt is of niet.
Hoewel het misschien tegenstrijdig lijkt dat een desinformatiecampagne degenen die desinformatie proberen te bestrijden, moet waarschuwen voor hun inspanningen, is voor de pro-Russische activisten het uiteindelijke doel om hun content online te laten plaatsen door een echt nieuwsplatform – zelfs als het bedekt is met het woord ‘FAKE’.
Volgens de onderzoekers zijn er sinds september 2024 maar liefst 170.000 van dergelijke e-mails verzonden naar meer dan 240 ontvangers. De berichten bevatten doorgaans meerdere links naar de door AI gegenereerde content, maar de e-mailtekst was niet met behulp van AI gegenereerd, aldus de onderzoekers.
Pro-Russische desinformatiegroepen experimenteren al lang met het gebruik van AI-tools om hun output te verbeteren. Vorig jaar bleek dat een groep genaamd CopyCop , waarschijnlijk gelieerd aan de Russische overheid, grote taalmodellen (LLM's) gebruikte om nepwebsites te creëren die eruitzien als legitieme media. Hoewel deze pogingen doorgaans niet veel verkeer genereren, kan de bijbehorende promotie op sociale media de aandacht trekken en in sommige gevallen kan de nepinformatie bovenaan de zoekresultaten van Google terechtkomen.
Uit een recent rapport van het Amerikaanse Sunlight Project blijkt dat Russische desinformatienetwerken elk jaar minstens 3 miljoen door AI gegenereerde artikelen produceren en dat deze content de output van door AI aangestuurde chatbots, zoals ChatGPT van OpenAI en Gemini van Google, vergiftigt.
Onderzoekers hebben herhaaldelijk aangetoond hoe desinformatie-experts AI-tools omarmen. Naarmate het voor mensen steeds moeilijker wordt om onderscheid te maken tussen echte en door AI gegenereerde content, voorspellen experts dat de toename van AI-content die desinformatiecampagnes aanwakkert, zal aanhouden.
"Ze hebben het recept al dat werkt", zegt Atanasova. "Ze weten wat ze doen."
wired