Sexta-feira, 13 de junho de 2025
Por Redação do Jornal O Sul | 12 de junho de 2025
Por anos, o YouTube removeu vídeos com insultos depreciativos, desinformação sobre vacinas da covid-19 e mentiras eleitorais, alegando que esse conteúdo violava as regras da plataforma. Mas, desde o retorno do presidente Donald Trump à Casa Branca, a plataforma passou a incentivar seus moderadores de conteúdo a manter no ar vídeos que possam violar suas regras, desde que sejam considerados de interesse público, como temas políticos, sociais e culturais.
A mudança, ainda não divulgada publicamente, aproxima o YouTube de outras plataformas que afrouxaram a moderação após pressões do Partido Republicano. Em janeiro, a Meta fez movimento parecido ao encerrar seu programa de checagem de fatos em postagens nas redes sociais. A empresa, dona do Facebook e do Instagram, seguiu o exemplo do X (antigo Twitter), plataforma de Elon Musk, e transferiu aos usuários a responsabilidade de moderar o conteúdo.
Ao contrário da Meta e do X, o YouTube não fez declarações públicas sobre o afrouxamento na moderação. A nova política foi apresentada em meados de dezembro em materiais de treinamento revisados pelo The New York Times.
“Interesse público”
O YouTube passou a permitir agora que vídeos de “interesse público” tenham até metade do conteúdo em desacordo com suas regras. Antes, era apenas um quarto. Moderadores também foram orientados a manter no ar reuniões de câmaras municipais, comícios e debates políticos.
A nova diretriz marca um afastamento das práticas da pandemia, quando vídeos desse tipo chegaram a ser removidos por desinformação médica. A mudança pode favorecer comentaristas políticos, especialmente agora que o YouTube assume papel de destaque na distribuição de podcasts.
A política também ajuda a plataforma a evitar críticas de políticos e ativistas insatisfeitos com a remoção de conteúdos relacionados à origem da covid-19, à eleição de 2020 e a Hunter Biden, filho do ex-presidente Joe Biden.
Nicole Bell, porta-voz do YouTube, afirmou que a empresa atualiza continuamente suas orientações aos moderadores com base nos temas em discussão pública.
Segundo ela, políticas que deixaram de fazer sentido são descartadas – como ocorreu em 2023 com parte das diretrizes sobre covid –, e outras são reforçadas quando necessário, como a proibição recente a conteúdos que direcionam usuários a sites de apostas.
Nos primeiros três meses de 2025, o YouTube removeu 192.586 vídeos por conteúdo abusivo e de ódio – um aumento de 22% em relação ao mesmo período do ano anterior.
“Reconhecendo que a definição de ‘interesse público’ está sempre evoluindo, atualizamos nossas diretrizes para refletir os novos tipos de discussão que vemos hoje na plataforma”, disse Bell em nota. Ela acrescentou: “Nosso objetivo continua sendo o mesmo: proteger a liberdade de expressão no YouTube e, ao mesmo tempo, mitigar danos graves.”
Críticos afirmam que as mudanças nas plataformas de redes sociais têm contribuído para a rápida disseminação de informações falsas e o aumento do discurso de ódio digital.
No ano passado, uma publicação no X afirmou erroneamente que “escritórios de assistência social em 49 estados estão distribuindo formulários de registro eleitoral para imigrantes ilegais”, segundo o Center for Countering Digital Hate, que estuda desinformação e discurso de ódio. A publicação, que teria sido removida antes das mudanças, foi visualizada 74,8 milhões de vezes.
Durante anos, a Meta removeu cerca de 277 milhões de conteúdos anualmente. Com as novas políticas, grande parte desse material pode permanecer no ar — incluindo comentários como “negros são mais violentos que brancos”, disse Imran Ahmed, diretor do centro.
“O que estamos vendo é uma corrida para o fundo do poço”, afirmou Ahmed. Segundo ele, as mudanças beneficiam as empresas ao reduzir os custos com moderação de conteúdo e manter mais material online para engajamento dos usuários. “Isso não é sobre liberdade de expressão. É sobre publicidade, amplificação e, no fim das contas, lucro.”