Logo do TikTok (Hollie Adams/Bloomberg)
As dificuldades com moderação de conteúdo por qual passaram redes sociais mais velhas como Facebook, Twitter e Instagram parece ter ensinado uma lição para o TikTok, que tem implementado mensalmente uma série de atualizações que visam proteger as crianças e adolescentes que formam a maior parte da sua base de usuários.
Na mais recente, a empresa está testando limitar a visibilidade dos vídeos que sejam produzidos por usuários com idades entre 13 a 15 anos. Por padrão, terão que decidir quem poderá ver um vídeo na primeira vez que postam, e também poderão restringir a visibilidade de qualquer outro conteúdo. Além disso, não terão acesso ao recurso que permite fazer uma gravação usando o vídeo de outro usuário.
Os adolescentes mais velhos também verão restrições. O TikTok desativará as mensagens diretas por padrão para jovens de 16 e 17 anos que ingressarem no serviço pela primeira vez e solicitará que os já cadastrados revisem suas configurações, caso não tenham enviado mensagens anteriormente. A empresa também pedirá que chequem se querem que outras pessoas façam o download de seus vídeos.
A gigante também tentará promover hábitos de uso saudáveis. As notificações serão desativadas para adolescentes com menos de 16 anos a partir das 21h, enquanto os de 16 e 17 anos receberão alertas até as 22h. O recurso será ajustado pela hora do país, evitando que, ao mudar a hora nas configurações do próprio celular, se torne possível burlar o aplicativo.
O TikTok enfatizou que delimitou limites nos esforços para garantir privacidade e segurança, e que haveria mais por vir nos próximos meses. Em julho, a empresa de propriedade da ByteDance começou a remover automaticamente alguns tipos de conteúdo que violam a política de segurança para menores, como nudez adulta e atividades sexuais, conteúdo violento e explícito e atividades ilegais e bens regulamentados.
Assine a EXAME e acesse as notícias mais importantes em tempo real.