Come mentono gli algoritmi

Non sono più spie o volantini che dovremmo temere durante le elezioni. Mi piace , clic e video di 30 secondi sono sufficienti. Con uno scroll distratto, un'elezione può essere contaminata, le opinioni plasmate e la società divisa. La manipolazione politica attraverso algoritmi non è né fantascienza né futurologia: è il presente digitale della democrazia.
Gli algoritmi che gestiscono i social media e le piattaforme di contenuti sono stati progettati per catturare la nostra attenzione, prolungare il tempo che trascorriamo su di essi e anticipare i nostri desideri. Il problema? Ciò che cattura la nostra attenzione non è sempre ciò che ci informa meglio. Al contrario: più il contenuto è emotivo, polarizzante e provocatorio, maggiore è la sua portata. L'algoritmo impara da noi, ma ci plasma anche. E quando questo ciclo viene manipolato da interessi esterni, diventa un'arma di interferenza.
È ciò che abbiamo visto con l'interferenza russa nelle elezioni presidenziali statunitensi, nel referendum sulla Brexit e in diverse elezioni europee. Profili falsi, bot, campagne di disinformazione professionalizzate e strategie digitali progettate per dividere, generare sfiducia e minare il dibattito pubblico. Quel che è più grave è che la maggior parte di queste campagne non sarebbe efficace senza la silenziosa complicità di algoritmi che amplificano ciò che sconvolge, ciò che infiamma, ciò che mente.
La verità è che gli algoritmi non sono neutrali. Hanno una logica economica, priorità e obiettivi definiti. E quando mancano meccanismi di trasparenza, responsabilità o auditing esterno, diventano scatole nere con un potere reale su opinioni, comportamenti e decisioni politiche. Chiunque controlli l'algoritmo controlla parzialmente la sfera pubblica.
La Cina è un caso paradigmatico: piattaforme come TikTok obbediscono a una logica di censura e promozione di contenuti in linea con gli interessi del regime. Il pericolo non riguarda solo gli utenti cinesi, ma chiunque utilizzi queste piattaforme come fonte primaria di informazione. Lo stesso vale per i video che negano l'esistenza della guerra in Ucraina, il revisionismo storico promosso da account falsi o l'incitamento all'odio propagato da segmenti radicali delle reti.
Il Portogallo non è immune. L'alfabetizzazione digitale rimane bassa, la dipendenza dai social media è elevata e il controllo delle piattaforme è praticamente inesistente. Abbiamo già assistito alla circolazione di disinformazione su vaccini, immigrazione, guerra e politica nazionale. L'interferenza esterna, attraverso la destabilizzazione dell'informazione, rappresenta un rischio reale anche per la società portoghese.
L'Europa sta reagendo. Con il Digital Services Act, si sta affermando un regime di maggiore trasparenza e responsabilità per le piattaforme. L'AI Act potrebbe integrare questa risposta imponendo limiti all'intelligenza artificiale generativa e richiedendo sistemi di verifica.
Se gli algoritmi plasmano ciò che vediamo, solo l'istruzione può plasmare il nostro modo di pensare. La risposta non può essere solo legislativa, ma anche educativa. Senza alfabetizzazione digitale, saremo sempre bersagli facili su una scacchiera invisibile.
Questa è anche la nuova forma di guerra ibrida: costante e invisibile. Non si tratta solo di proteggere i dati. Si tratta di proteggere la democrazia. In un mondo in cui gli algoritmi mentono, difendere la verità è una scelta politica. E un dovere collettivo.
observador