TikTok: algoritmos da plataforma podem espalhar ainda mais publicação mórbida (heldon Cooper/SOPA Images/LightRocket v/Getty Images)
Tamires Vitorio
Publicado em 8 de setembro de 2020 às 11h57.
Última atualização em 8 de setembro de 2020 às 11h58.
O TikTok está enfrentando um grave problema desde domingo, 6, que não tem nada a ver com a iminente proibição dos Estados Unidos. O aplicativo de vídeos curtos está tentando, desde domingo, remover todo o conteúdo distribuído pelos algoritmos de um homem se suicidando e banindo as contas de quem faz o upload dele.
O vídeo circulou inicialmente no Facebook, mas, como outros, rapidamente se espalhou por diversas redes sociais. No TikTok alguns criadores estão publicando anúncios para que os seguidores pausem e denunciem qualquer conteúdo de um homem com barba em frente a uma mesa. Um usuário, inclusive, afirmou que ao denunciar o vídeo, recebeu um aviso de que ele não ia contra as políticas do app.
Em comunicado enviado à EXAME, o TikTok afirmou que "tem detectado e sinalizado automaticamente os conteúdos por violarem nossas políticas sobre o tema, que impedem a exibição ou promoção do suicídio". "Estamos banindo contas que tentam enviar esse tipo de conteúdo repetidamente e agradecemos os membros da nossa comunidade por nos reportarem e nos alertarem sobre a questão, evitando qualquer tipo de compartilhamento desses vídeos em respeito à vítima e sua família. Se alguém em nossa comunidade está lutando contra pensamentos suicidas ou preocupado com alguém que esteja, nós encorajamos a buscar ajuda e fornecemos acesso a linhas diretas por meio da nossa Central de Segurança", afirmou um porta-voz da companhia chinesa.
A distribuição do vídeo tem acontecido de forma discriminada pelos algoritmos do app, um problema que outras redes sociais podem não enfrentar, uma vez que no Twitter ou no Facebook o usuário precisaria pesquisar o conteúdo para encontrá-lo. No TikTok o sistema de recomendação de vídeos funciona com ajuda de uma combinação de fatores, como vídeos que os usuários gostam, contas que eles seguem, comentários publicados e conteúdos criados.
Na hora de decidir qual vídeo será mostrado para quem, a empresa também leva em conta as preferências de idioma do dispositivo e o país de onde a pessoa está acessando o TikTok. Então, se seu celular está configurado para aparecer em inglês, as chances de vídeos estrangeiros aparecem para você é maior do que alguém que usa o celular em português.
O aplicativo também entende se o usuário é mais provavél a assistir um vídeo longo do começo ao fim, ou se ele prefere vídeos mais curtos. Tudo com base no que o indíviduo demonstra ou não interesse — o que torna a experiência do usuário ainda mais exclusivo. Segundo o TikTok, a quantidade de seguidores dos criadores não é levada em conta na hora de um vídeo chegar a página do #ParaVocê.
Alertas sobre o vídeo também estão sendo publicados no Instagram, onde ele também está sendo publicado.
Vídeos do tipo têm sido um grande problema nas redes sociais já há algum tempo. No ano passado um massacre em uma mesquita na Nova Zelândia foi transmitido ao vivo pelo Facebook, que, ao lado do YouTube e do Twitter, enfrentou grandes problemas para frear o compartilhamento do vídeo à época.
Em nota enviada à EXAME, um porta-voz do Facebook afirmou que o vídeo já foi excluído da rede social. "Removemos do Facebook o vídeo original no dia em que foi transmitido, no mês passado, e usamos nossa tecnologia de automação para remover cópias e uploads desde então. Nossos sentimentos permanecem com a família e os amigos de Ronnie durante esse momento difícil".
*Se você estiver tendo pensamentos suicidas, entre em contato com o Centro de Valorização da Vida (CVV) no número 188, disponível 24 horas por telefone e no seguinte horário por chat: Dom - 17h à 01h, Seg a Qui - 09h à 01h, Sex - 15h às 23h, Sáb - 16h à 01h