Seleccione idioma

Spanish

Down Icon

Seleccione país

America

Down Icon

Mientras la desinformación y el odio prosperan en línea, YouTube cambió silenciosamente su forma de moderar el contenido.

Mientras la desinformación y el odio prosperan en línea, YouTube cambió silenciosamente su forma de moderar el contenido.

YouTube, la plataforma de vídeo más grande del mundo, parece haber cambiado sus políticas de moderación para permitir que más contenido que viola sus propias reglas permanezca en línea.

El cambio ocurrió silenciosamente en diciembre, según The New York Times , que revisó documentos de capacitación para moderadores que indicaban que un video podía permanecer en línea si el material ofensivo no representaba más del 50 por ciento de la duración del video, el doble de lo que era antes de las nuevas pautas.

YouTube, donde se suben 20 millones de vídeos al día, dice que actualiza sus directrices periódicamente y que tiene una "práctica de larga data de aplicar excepciones" cuando conviene al interés público o cuando algo se presenta en un contexto educativo, documental, científico o artístico.

"Estas excepciones se aplican a una pequeña fracción de los videos en YouTube, pero son vitales para garantizar que el contenido importante siga disponible", dijo la portavoz de YouTube, Nicole Bell, en una declaración a CBC News esta semana.

Pero en una época en la que las plataformas de redes sociales están inundadas de desinformación y teorías conspirativas, existe la preocupación de que YouTube solo esté abriendo la puerta para que más personas difundan contenido problemático o dañino, y obtengan ganancias con ello.

YouTube no está solo. Meta, propietaria de Facebook e Instagram, redujo su moderación de contenido a principios de este año, y Elon Musk despidió a los moderadores de Twitter cuando compró la plataforma en 2022 y la renombró como X.

"Estamos presenciando una carrera a la baja", declaró Imran Ahmed, director ejecutivo del Centro para la Lucha contra el Odio Digital, con sede en EE. UU., a CBC News. "Lo que veremos es un crecimiento de la economía en torno al odio y la desinformación".

VER | Los expertos advierten que la medida de moderación de Meta probablemente aumentará la desinformación:
Meta, la empresa matriz de Facebook e Instagram, está eliminando a los verificadores de datos en las plataformas y, en su lugar, dependerá de que los usuarios comenten sobre la precisión, pero los expertos advierten que la medida probablemente aumentará la propagación de información errónea.
Interés público vs. daño público

El objetivo de YouTube es "proteger la libertad de expresión", dijo Brooks en su declaración, explicando que la flexibilización de sus pautas comunitarias "refleja los nuevos tipos de contenido" en la plataforma.

Por ejemplo, dijo, un podcast de formato largo que contenga un clip corto de violencia tal vez ya no necesite ser eliminado.

The Times informó el lunes que los ejemplos presentados al personal de YouTube incluían un video en el que alguien usó un término despectivo para las personas transgénero durante una discusión sobre las audiencias para los designados para el gabinete del presidente estadounidense Donald Trump, y otro que compartía información falsa sobre las vacunas COVID-19 pero que no les decía directamente a las personas que no se vacunaran.

Una plataforma como YouTube tiene que tomar algunas "decisiones realmente muy difíciles" a la hora de moderar el contenido, afirma Matt Hatfield, director ejecutivo del grupo canadiense de derechos digitales OpenMedia.

ESCUCHAR | Cómo Canadá ha llegado a desempeñar un papel desproporcionado en la desinformación de extrema derecha:

Él cree que las plataformas toman el tema en serio, pero dice que hay un equilibrio entre eliminar contenido dañino o ilegal, como material de abuso infantil o incitaciones claras a la violencia, y permitir que el contenido permanezca en línea, incluso si es ofensivo para muchos o contiene información falsa.

El problema, dice, es que las plataformas de redes sociales también "crean entornos que alientan algunos malos comportamientos" entre los creadores, a quienes les gusta caminar por el límite de lo aceptable.

"El modelo central de estas plataformas es hacer que sigas haciendo clic, que sigas mirando, que pruebes un video de alguien que nunca antes has visto y que luego te quedes con esa persona".

Y eso es lo que preocupa a Ahmed.

Dice que estas empresas priorizan las ganancias sobre la seguridad en línea y que no enfrentan consecuencias porque no hay regulaciones que las obliguen a limitar lo que se puede publicar en sus plataformas.

Él cree que las políticas relajadas de YouTube sólo animarán a más personas a explotarlas.

Qué tan bien modera YouTube

En un reciente informe de transparencia , YouTube afirmó que había eliminado casi 2,9 millones de canales que contenían más de 47 millones de vídeos por infracciones de las normas de la comunidad en el primer trimestre, lo que ocurrió después del cambio de política informado.

La gran mayoría de estos, el 81,8 por ciento, se consideraron spam, pero otros motivos incluyeron violencia, material de odio o abusivo y seguridad infantil.

ESCUCHA | Por qué te atormentan los algoritmos publicitarios y la basura de la IA:

Hatfield dice que existe un interés público en eliminar contenido dañino como ese, pero eso no significa que todo el contenido controvertido u ofensivo deba desaparecer.

Sin embargo, dice que YouTube comete errores en la moderación de contenido, explicando que juzga los videos individuales en una especie de "vacío" sin considerar cómo cada pieza de contenido encaja en un contexto más amplio.

"Algunos contenidos realmente no pueden interpretarse de esa manera".

Las regulaciones no son una solución perfecta

Ahmed dice que las empresas deberían rendir cuentas por el contenido de sus plataformas a través de la regulación gubernamental.

Señaló como ejemplo la controvertida pero ahora desmantelada Ley de Daños en Línea de Canadá, también conocida como Proyecto de Ley C-63. Esta ley proponía penas más severas, nuevos organismos reguladores y cambios en diversas leyes para combatir el abuso en línea. El proyecto de ley quedó obsoleto cuando el ex primer ministro Justin Trudeau anunció su renuncia y prorrogó el Parlamento en enero. Ahmed espera que el nuevo gobierno del primer ministro Mark Carney promulgue una legislación similar.

Hatfield dice que le gustaron partes de esa ley, pero su grupo finalmente se opuso después de que agregó otros cambios al Código Penal y a la Ley de Derechos Humanos que, según él, no estaban relacionados con las plataformas.

Dice que a grupos como OpenMedia les hubiera gustado ver una estrategia que abordara los modelos de negocios que alientan a los usuarios a publicar y obtener ganancias a partir de contenido "legal pero horrible".

"No vamos a tener una internet libre de odio", dijo. "Podemos tener una internet que haga menos rentable difundir ciertos tipos de odio y desinformación".

VER | Cómo las personas pueden ser más perspicaces al consumir noticias:
El nuevo libro de Timothy Caulfield, presidente de la Cátedra de Investigación de Canadá, "La ilusión de la certeza: Lo que no sabes y por qué importa", explora cómo las personas pueden convertirse en consumidores de noticias más perspicaces y críticos. Caulfield afirma que la capacidad de comprender el origen de la información y de aprender y cambiar de opinión nunca ha sido tan importante.
cbc.ca

cbc.ca

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow