YouTube: plataforma de vídeos do Google (STR/NurPhoto/Getty Images)
Redação Exame
Publicado em 9 de junho de 2025 às 10h58.
O YouTube, uma das maiores plataformas de vídeo do mundo, alterou sua abordagem de moderação de conteúdo, permitindo que vídeos que violam suas regras permaneçam online, desde que sejam considerados de interesse público. A mudança, que não foi anunciada publicamente, vem em resposta a pressões políticas e sociais que pedem mais liberdade de expressão nas redes sociais.
Agora, os moderadores da plataforma são instruídos a permitir vídeos que tratem de questões políticas, sociais e culturais, mesmo que contenham desinformação, discurso de ódio ou outros conteúdos nocivos. A nova política eleva o limite de conteúdo ofensivo de 25% para 50% em vídeos, desde que o assunto seja considerado relevante para debates públicos, como discursos políticos, campanhas eleitorais e temas de relevância social.
A mudança se alinha a uma tendência crescente entre plataformas de mídia social, como Meta e X (antigo Twitter), que estão reduzindo suas iniciativas de moderação para evitar críticas políticas e aumentar o engajamento dos usuários.
No entanto, a flexibilidade levantou preocupações entre especialistas, que alertam para o risco de disseminação de desinformação e aumento de discursos de ódio online.