Seleziona la lingua

Italian

Down Icon

Seleziona Paese

England

Down Icon

Mentre la disinformazione e l’odio prosperano online, YouTube ha silenziosamente cambiato il suo modo di moderare i contenuti

Mentre la disinformazione e l’odio prosperano online, YouTube ha silenziosamente cambiato il suo modo di moderare i contenuti

YouTube, la piattaforma video più grande al mondo, sembra aver modificato le sue politiche di moderazione per consentire la pubblicazione online di un numero maggiore di contenuti che violano le sue regole.

Secondo il New York Times , il cambiamento è avvenuto in sordina a dicembre, quando sono stati esaminati i documenti di formazione per i moderatori, in cui si indicava che un video poteva restare online se il materiale offensivo non costituiva più del 50 percento della durata del video, ovvero il doppio rispetto a prima delle nuove linee guida.

YouTube, su cui vengono caricati 20 milioni di video al giorno, afferma di aggiornare regolarmente le sue linee guida e di avere una "consolidata prassi di applicare eccezioni" quando ciò rientra nell'interesse pubblico o quando qualcosa viene presentato in un contesto educativo, documentaristico, scientifico o artistico.

"Queste eccezioni si applicano a una piccola parte dei video su YouTube, ma sono fondamentali per garantire che i contenuti importanti restino disponibili", ha affermato la portavoce di YouTube Nicole Bell in una dichiarazione rilasciata questa settimana alla CBC News.

Ma in un'epoca in cui le piattaforme dei social media sono inondate di disinformazione e teorie del complotto, c'è il timore che YouTube non faccia altro che aprire le porte a un maggior numero di persone per diffondere contenuti problematici o dannosi, e trarne profitto.

YouTube non è il solo. Meta, che possiede Facebook e Instagram, ha ridotto la moderazione dei contenuti all'inizio di quest'anno, ed Elon Musk ha licenziato i moderatori di Twitter quando ha acquistato la piattaforma nel 2022, rinominandola X.

"Stiamo assistendo a una corsa al ribasso", ha dichiarato a CBC News Imran Ahmed, CEO del Center for Countering Digital Hate, con sede negli Stati Uniti. "Quello che vedremo è una crescita dell'economia legata all'odio e alla disinformazione".

GUARDA | Gli esperti avvertono che la mossa di moderazione di Meta probabilmente aumenterà la disinformazione:
Meta, la società madre di Facebook e Instagram, sta eliminando i fact checker dalle piattaforme e si affiderà invece ai commenti degli utenti sull'accuratezza delle informazioni. Tuttavia, gli esperti avvertono che questa mossa probabilmente aumenterà la diffusione di disinformazione.
Interesse pubblico vs danno pubblico

L'obiettivo di YouTube è "proteggere la libertà di espressione", ha affermato Brooks nella sua dichiarazione, spiegando che l'allentamento delle linee guida della community "riflette i nuovi tipi di contenuti" sulla piattaforma.

Ad esempio, ha affermato, potrebbe non essere più necessario rimuovere un podcast lungo contenente una breve clip di violenza.

Lunedì il Times ha riferito che tra gli esempi presentati allo staff di YouTube c'erano un video in cui qualcuno ha usato un termine dispregiativo per le persone transgender durante una discussione sulle audizioni per i membri del gabinetto nominati dal presidente degli Stati Uniti Donald Trump e un altro che condivideva false informazioni sui vaccini contro il COVID-19 ma che non diceva esplicitamente alle persone di non vaccinarsi.

Una piattaforma come YouTube deve prendere "decisioni davvero molto difficili" quando modera i contenuti, afferma Matt Hatfield, direttore esecutivo del gruppo canadese per i diritti digitali OpenMedia.

ASCOLTA | Come il Canada è arrivato a svolgere un ruolo sproporzionato nella disinformazione di estrema destra:

Ritiene che le piattaforme prendano sul serio la questione, ma afferma che occorre trovare un equilibrio tra la rimozione di contenuti dannosi o illegali, come materiale pedopornografico o chiari incitamenti alla violenza, e la possibilità che tali contenuti restino online, anche se risultano offensivi per molti o contengono informazioni false.

Il problema, sostiene, è che le piattaforme dei social media "creano anche ambienti che incoraggiano comportamenti scorretti" tra i creatori, che amano restare al limite dell'accettabile.

"Il modello fondamentale di queste piattaforme è farti continuare a cliccare, a guardare, a provare un video di qualcuno che non hai mai visto prima e poi a restare con quella persona."

Ed è questo che preoccupa Ahmed.

Sostiene che queste aziende antepongono i profitti alla sicurezza online e che non subiscono conseguenze perché non esistono normative che le obblighino a limitare ciò che può essere pubblicato sulle loro piattaforme.

Ritiene che le politiche permissive di YouTube non faranno altro che incoraggiare più persone a sfruttarle.

Quanto bene YouTube modera

In un recente rapporto sulla trasparenza , YouTube ha affermato di aver rimosso circa 2,9 milioni di canali contenenti più di 47 milioni di video per violazioni delle linee guida della community nel primo trimestre, ovvero dopo la modifica della politica segnalata.

La stragrande maggioranza di queste, l'81,8%, è stata considerata spam, ma tra le altre motivazioni rientrano violenza, materiale incitante all'odio o offensivo e sicurezza dei minori.

ASCOLTA | Perché sei tormentato dagli algoritmi pubblicitari e dalla spazzatura dell'intelligenza artificiale:

Hatfield afferma che esiste un interesse pubblico nel rimuovere contenuti dannosi come questo, ma ciò non significa che tutti i contenuti controversi o offensivi debbano essere rimossi.

Tuttavia, sostiene che YouTube commette errori nella moderazione dei contenuti, spiegando che giudica i singoli video in una sorta di "vuoto", senza considerare come ogni contenuto si inserisca in un contesto più ampio.

"Alcuni contenuti non possono essere interpretati correttamente in questo modo."

I regolamenti non sono una soluzione perfetta

Ahmed sostiene che le aziende dovrebbero essere ritenute responsabili dei contenuti presenti sulle loro piattaforme attraverso la regolamentazione governativa.

Ha citato come esempio il controverso ma ormai affossato Online Harms Act canadese, noto anche come disegno di legge C-63. Il disegno di legge proponeva pene più severe, nuovi organismi di regolamentazione e modifiche a diverse leggi per contrastare gli abusi online. Il disegno di legge è stato bocciato quando l'ex primo ministro Justin Trudeau ha annunciato le sue dimissioni e ha prorogato il Parlamento a gennaio. Ahmed spera che il nuovo governo guidato dal primo ministro Mark Carney emani una legge simile.

Hatfield afferma che alcune parti di quella legge gli piacevano, ma alla fine il suo gruppo si è opposto dopo che questa aveva introdotto altre modifiche al Codice penale e alla Legge sui diritti umani che, a suo dire, non erano correlate alle piattaforme.

Sostiene che gruppi come OpenMedia avrebbero gradito una strategia che affrontasse i modelli di business che incoraggiano gli utenti a pubblicare e trarre profitto da contenuti "legali ma orribili".

"Non avremo un internet senza odio", ha affermato. "Possiamo avere un internet che rende meno redditizio diffondere certi tipi di odio e disinformazione".

GUARDA | Come le persone possono diventare consumatori di notizie più attenti:
Il nuovo libro di Timothy Caulfield, Direttore della Ricerca in Canada, "The Certainty Illusion: What You Don't Know and Why It Matters" esplora come le persone possano diventare consumatori di notizie più attenti e critici. Caulfield sostiene che la capacità di capire da dove provengono le informazioni e di imparare e cambiare opinione non è mai stata così importante.
cbc.ca

cbc.ca

Notizie simili

Tutte le notizie
Animated ArrowAnimated ArrowAnimated Arrow