AI startte een 'strijd' door chatbotreacties te vullen met verkeerde informatie.

Sergio Hernández vertelde aan het persbureau Lusa dat er in een context van toenemende misinformatie "een nieuwe strijd is ontstaan, gericht op het vullen van de antwoorden van 'chatbots', zoals ChatGPT of Gemini, met misinformatie."
"Desinformatie neemt toe omdat sociale media en hun algoritmes cognitieve vooroordelen uitbuiten en versterken", aldus Sergio Hernández.
Met de toename van berichten ontstaat er een verwarrende, dichte en complexe sfeer. Bovendien vervaagt het onderscheid tussen wat er werkelijk gebeurt in het huidige media-ecosysteem door de opeenvolgende uitbarstingen van internet, sociale netwerken en AI, legt de expert uit.
In die zin is Sergio Hernández van mening dat "de geplande desinformatie is toegenomen, ongeacht of deze wordt aangewakkerd door economische of politieke belangen". Hij benadrukt de manipulatie en inmenging van buitenlandse informatie (MIFI), die over het algemeen Rusland als de grootste bedreiging aanwijzen.
Deze week stelde de Europese organisatie EUvsDisinfo in een rapport dat de opkomst van AI de FIMI-campagnes van het Kremlin heeft veranderd.
In plaats van het publiek rechtstreeks via sociale media te bereiken, heeft het Russische desinformatieapparaat zijn strategie verlegd naar het "overspoelen van het internet met miljoenen misleidende en lage kwaliteit artikelen en content die bedoeld zijn voor gebruik door AI-gestuurde tools en applicaties."
Zo "neemt de moeilijkheidsgraad van het probleem exponentieel toe met de opkomst van kunstmatige intelligentie", zowel wat betreft het genereren van valse inhoud als wat betreft veranderingen in de zoektocht naar informatie.
Volgens de Spaanse functionaris maakt kunstmatige intelligentie het mogelijk om grootschalige fraude te creëren en te verspreiden, maar ook om 'deepfake'-content te ontwerpen, waarbij beelden en geluiden van publieke figuren worden nagebootst om het te laten lijken alsof ze dingen hebben gedaan of gezegd die niet waar zijn.
In Portugal werden tussen augustus en september foto's van journalisten Pedro Benevides, Clara de Sousa en Sandra Felgueiras gemanipuleerd met behulp van AI om verkeerde informatie over vaccins en medicijnen te verspreiden.
"Huidige AI-modellen verbeteren voortdurend de kwaliteit van hun creaties, met hyperrealistische video's waarin dialogen en omgevingsgeluiden zijn verwerkt", legt het hoofd van EFE Verifica uit.
Sergio Hernández voegt toe dat "de technische gebreken die het voorheen zijn synthetische karakter gaven, zoals handen met abnormale vingers of onrealistische texturen, steeds verder worden geminimaliseerd."
Deze maand concludeerde een rapport van de anti-desinformatieorganisatie NewsGuard dat de nieuwe AI-applicatie van OpenAI, Sora 2, in 80% van de gevallen hyperrealistische video's produceert met onjuiste beweringen.
Bovendien vormt grootschalige manipulatie van taalmodellen (LLM Grooming) een nieuwe bedreiging.
Het probleem is dat het internet opzettelijk wordt overspoeld met valse informatie om tools als ChatGPT te beïnvloeden. Het doel hiervan is om reacties met misleidende inhoud te genereren en valse verhalen en propaganda te verspreiden.
EFE Verifica werd in 2019 gelanceerd en is de factcheckingdienst van het Spaanse persbureau EFE. Het doel is om te reageren op de toenemende desinformatie, informatie te bieden tegen onwaarheden en kennis te verschaffen aan burgers om hun kritische vermogen ten opzichte van het nieuws te vergroten.
Lees ook: Meta voegt ouderlijk toezicht toe voor interacties van tieners met AI.
noticias ao minuto




