TikTok. Amnesty mette in guardia dai contenuti dannosi

Amnesty International ha lanciato l'allarme domenica: la piattaforma video TikTok continua a non affrontare i gravi rischi per la salute fisica e mentale dei giovani utenti, a quasi 18 mesi dalla loro scoperta in un'indagine condotta dall'organizzazione.
Questa indagine del 2023 ha concluso che nel feed "Per te" di TikTok, i bambini e i giovani utenti rischiavano di essere trascinati in un "buco nero" tossico di contenuti correlati alla depressione e al suicidio, un problema che finora l'azienda non è riuscita a riconoscere o a offrire soluzioni specifiche, ha affermato Amnesty International (AI) in una nota.
L'organizzazione mette addirittura in guardia contro la possibilità di un impatto sul benessere mentale, in particolare degli utenti più giovani, associato a contenuti concentrati su diete estreme e contenuti legati all'immagine corporea.
La ricerca, che ha utilizzato degli account per simulare la vita online di tredicenni, ha scoperto che entro 20 minuti dalla creazione di un account e dalla segnalazione di interesse per la salute mentale, più della metà dei video nel feed "Per te" di TikTok riguardavano problemi di salute mentale.
"Molti di questi video consigliati, nel giro di un'ora, romanticizzavano, normalizzavano o incoraggiavano il suicidio", afferma, sottolineando che questa era una delle principali conclusioni del progetto di ricerca, pubblicato nel novembre 2023, sui rischi per i diritti dei bambini e dei giovani su una delle piattaforme di social media più popolari.
In risposta alla domanda di AI su quali cambiamenti avesse implementato dopo l’indagine, TikTok ha elencato misure di benessere precedentemente note, la maggior parte delle quali erano in atto al momento dello svolgimento dell’indagine, senza riconoscere il problema del “buco nero” dell’app o fornire prove di nuove misure specifiche.
Secondo l'indagine, il modello di business invasivo di TikTok tiene traccia di tutto ciò che un utente fa sulla piattaforma, cercando di prevedere i suoi interessi, il suo stato emotivo e il suo benessere, per mostrare contenuti più personalizzati nel feed "Per te", in modo che l'utente continui a navigare, anche se i contenuti sono dannosi.
L'intelligenza artificiale promuove misure di protezione efficaci, in particolare per impedire che gli utenti a rischio cadano in modelli di consumo che creano dipendenza e in trappole legate a contenuti pericolosi e dannosi.
observador