Facebook: rede social ampliou remoção de conteúdo por tecnologia de 24% em 2017 para mais de 90% no último trimestre (Arnd Wiegmann/Reuters)
Thiago Lavado
Publicado em 19 de novembro de 2020 às 18h03.
Última atualização em 19 de novembro de 2020 às 18h20.
O Facebook afirma que realizou melhoras em sua tecnologia de remoção de conteúdo danoso e que violem as políticas da plataforma. Segundo a empresa, o discurso de ódio já é removido proativamente pela inteligência artificial da empresa em 94,7% dos casos, uma alta de quase 15 pontos percentuais ante o mesmo período do ano passado, quando o número foi de 80,5%.
A informação é parte do relatório de Aplicações de Padrões da Comunidade, um esforço de transparência da rede social para divulgar informações e tornar público o trabalho de remoção de conteúdo no Facebook e no Instagram.
Esse documento é divulgado a cada três meses e traz detalhes de como o Facebook removeu publicações que violam suas políticas em diferentes categorias, como bullying, nudez infantil, organizações perigosas, terrorismo, contas falsas e discurso de ódio, entre outras.
O Facebook também anunciou a inclusão de uma métrica para medir a prevalência de discurso de ódio na plataforma. “Calculamos a prevalência de discurso de ódio selecionando uma amostra do conteúdo visto no Facebook e rotulando quanto dela viola nossas políticas de discurso de ódio”, disse a companhia em nota.
Com base nessa metodologia, a empresa estima que “a prevalência de discurso de ódio de julho de 2020 a setembro de 2020 foi de 0,10% a 0,11%. Em outras palavras, em cada 10.000 visualizações de conteúdo no Facebook, dez a 11 incluíam discurso de ódio”.
De acordo com a empresa, a maior parte do conteúdo é removida antes mesmo que seja vista por outros usuários na plataforma. O anúncio, do ponto de vista técnico, é uma grande atualização: em 2017 a empresa removia menos de 25% de conteúdos contendo discurso de ódio proativamente.
Isso envolve a partir de agora também a revisão não só de posts, mas também de imagens e “memes”. De acordo com Mike Schroepfer, diretor de tecnologia da rede social, esse é um trabalho constante, que envolve analisar a evolução do conteúdo de ódio, que acompanha tendências de notícias e acontecimentos, além de levar em conta aspectos geográficos, culturais e linguísticos.
Os executivos da rede social também compartilharam dados relativos à eleição americana. Segundo Guy Rosen, vice-presidente de integridade da plataforma, foram removidas 265.000 publicações por violação de regras de interferência eleitoral, mais de 3 milhões de peças de publicidade foram impedidas de ser veiculadas e 100 redes de comportamento inautêntico foram reveladas e retiradas da rede.
Uso de tecnologia e moderação humana
Durante os últimos anos, o Facebook foi alvo de severas críticas por contratar e submeter moderadores humanos a conteúdo sensível e até violento. A empresa tem tomado diversas iniciativas para reduzir o conteúdo e a gravidade a que esses funcionários são submetidos.
Em 2019, Schroepfer, diretor de tecnologia do Facebook, afirmou que a empresa estava investindo pesado em remoção de conteúdo via inteligência artificial e mostrou diversos avanços dessa ferramenta. Esperava-se que essa tecnologia pudesse aliviar o fardo de moderadores em ter de lidar com publicações problemáticas na plataforma.
Schroepfer anunciou, no entanto, que não há previsão de reduzir investimentos ou diminuir a quantidade de revisores humanos. “Nós podemos colocar os revisores diante de situações de maior nuance e reduzir a quantidade de formas de conteúdo ruim”, disse.
Segundo Guy Rosen, vice-presidente do Facebook, a maioria dos revisores humanos ainda está trabalhando de casa por causa da covid-19 e os avanços tecnológicos permitem decidir melhor qual tipo de conteúdo é submetido aos moderadores humanos da plataforma.