À medida que a desinformação e o ódio prosperam online, o YouTube mudou discretamente a forma como modera o conteúdo

O YouTube, a maior plataforma de vídeos do mundo, parece ter mudado suas políticas de moderação para permitir que mais conteúdo que viole suas próprias regras permaneça online.
A mudança ocorreu discretamente em dezembro, de acordo com o The New York Times , que revisou documentos de treinamento para moderadores, indicando que um vídeo poderia permanecer online se o material ofensivo não ocupasse mais de 50% da duração do vídeo — o dobro do que era antes das novas diretrizes.
O YouTube, que recebe 20 milhões de vídeos enviados por dia, diz que atualiza suas diretrizes regularmente e que tem uma "prática de longa data de aplicar exceções" quando isso atende ao interesse público ou quando algo é apresentado em um contexto educacional, documental, científico ou artístico.
"Essas exceções se aplicam a uma pequena fração dos vídeos no YouTube, mas são vitais para garantir que conteúdo importante permaneça disponível", disse a porta-voz do YouTube, Nicole Bell, em uma declaração à CBC News esta semana.
Mas em uma época em que as plataformas de mídia social estão inundadas de desinformação e teorias da conspiração, há preocupações de que o YouTube esteja apenas abrindo as portas para que mais pessoas espalhem conteúdo problemático ou prejudicial — e lucrem com isso.
O YouTube não está sozinho. A Meta, dona do Facebook e do Instagram, reduziu sua moderação de conteúdo no início deste ano, e Elon Musk demitiu os moderadores do Twitter quando comprou a plataforma em 2022 e a rebatizou como X.
"Estamos presenciando uma corrida para o fundo do poço agora", disse Imran Ahmed, CEO do Centro de Combate ao Ódio Digital, com sede nos EUA, à CBC News. "O que veremos é um crescimento da economia em torno do ódio e da desinformação."

O objetivo do YouTube é "proteger a liberdade de expressão", disse Brooks em sua declaração, explicando que a flexibilização de suas diretrizes da comunidade "reflete os novos tipos de conteúdo" na plataforma.
Por exemplo, ela disse que um podcast longo contendo um clipe curto de violência pode não precisar mais ser removido.
O Times relatou na segunda - feira que os exemplos apresentados à equipe do YouTube incluíam um vídeo no qual alguém usou um termo depreciativo para pessoas transgênero durante uma discussão sobre audiências para os indicados para o gabinete do presidente dos EUA, Donald Trump, e outro que compartilhava informações falsas sobre vacinas contra a COVID-19, mas que não dizia diretamente às pessoas para não se vacinarem.
Uma plataforma como o YouTube precisa tomar algumas "decisões realmente muito difíceis" ao moderar conteúdo, diz Matt Hatfield, diretor executivo do grupo canadense de direitos digitais OpenMedia.
Ele acredita que as plataformas levam a questão a sério, mas diz que há um equilíbrio entre remover conteúdo prejudicial ou ilegal, como material de abuso infantil ou incitações claras à violência, e permitir que o conteúdo permaneça online, mesmo que seja ofensivo para muitos ou contenha alguma informação falsa.
O problema, ele diz, é que as plataformas de mídia social também "criam ambientes que incentivam algum mau comportamento" entre os criadores, que gostam de andar na linha do que é aceitável.
"O modelo central dessas plataformas é fazer com que você continue clicando, assistindo, fazendo com que você experimente um vídeo de alguém que você nunca viu antes e então fique com essa pessoa."
E é isso que preocupa Ahmed.
Ele diz que essas empresas colocam os lucros acima da segurança online e que não enfrentam consequências porque não há regulamentações que as obriguem a limitar o que pode ser postado em suas plataformas.
Ele acredita que as políticas flexíveis do YouTube só vão encorajar mais pessoas a explorá-las.
Quão bem o YouTube está moderandoEm um relatório de transparência recente , o YouTube disse que removeu quase 2,9 milhões de canais contendo mais de 47 milhões de vídeos por violações das diretrizes da comunidade no primeiro trimestre — isso ocorreu depois da mudança de política relatada.
A esmagadora maioria, 81,8%, foi considerada spam, mas outros motivos incluíram violência, material de ódio ou abuso e segurança infantil.
Hatfield diz que há um interesse público em remover conteúdo prejudicial como esse, mas isso não significa que todo conteúdo controverso ou ofensivo deva ser removido.
No entanto, ele diz que o YouTube comete erros na moderação de conteúdo, explicando que julga vídeos individuais em uma espécie de "vácuo", sem considerar como cada parte do conteúdo se encaixa em um contexto mais amplo.
"Alguns conteúdos não podem ser interpretados de forma justa dessa maneira."
Regulamentos não são uma solução perfeitaAhmed diz que as empresas devem ser responsabilizadas pelo conteúdo de suas plataformas por meio de regulamentação governamental.
Ele citou como exemplo a controversa, mas agora rejeitada, Lei de Danos Online do Canadá, também conhecida como Projeto de Lei C-63. Ela propunha sentenças mais pesadas, novos órgãos reguladores e mudanças em diversas leis para combater o abuso online. O projeto de lei foi rejeitado quando o ex-primeiro-ministro Justin Trudeau anunciou sua renúncia e suspendeu o Parlamento em janeiro. Ahmed diz esperar que o novo governo do primeiro-ministro Mark Carney promulgue legislação semelhante.
Hatfield disse que gostou de algumas partes do ato, mas seu grupo acabou se opondo a ele depois que ele incluiu outras mudanças no Código Penal e na Lei de Direitos Humanos que, segundo ele, não tinham relação com as plataformas.
Ele diz que grupos como a OpenMedia gostariam de ver uma estratégia abordando modelos de negócios que incentivassem os usuários a postar e lucrar com conteúdo "legal, mas horrível".
"Não teremos uma internet sem ódio", disse ele. "Podemos ter uma internet que torne menos rentável a disseminação de certos tipos de ódio e desinformação."

cbc.ca