Tecnologia

Facebook diz que 94% dos posts com discurso de ódio são removidos por IA

A informação é parte do relatório de Aplicações de Padrões da Comunidade, um esforço de transparência da rede social

Facebook: rede social ampliou remoção de conteúdo por tecnologia de 24% em 2017 para mais de 90% no último trimestre (Arnd Wiegmann/Reuters)

Facebook: rede social ampliou remoção de conteúdo por tecnologia de 24% em 2017 para mais de 90% no último trimestre (Arnd Wiegmann/Reuters)

TL

Thiago Lavado

Publicado em 19 de novembro de 2020 às 18h03.

Última atualização em 19 de novembro de 2020 às 18h20.

O Facebook afirma que realizou melhoras em sua tecnologia de remoção de conteúdo danoso e que violem as políticas da plataforma. Segundo a empresa, o discurso de ódio já é removido proativamente pela inteligência artificial da empresa em 94,7% dos casos, uma alta de quase 15 pontos percentuais ante o mesmo período do ano passado, quando o número foi de 80,5%.

A informação é parte do relatório de Aplicações de Padrões da Comunidade, um esforço de transparência da rede social para divulgar informações e tornar público o trabalho de remoção de conteúdo no Facebook e no Instagram. 

Esse documento é divulgado a cada três meses e traz detalhes de como o Facebook removeu publicações que violam suas políticas em diferentes categorias, como bullying, nudez infantil, organizações perigosas, terrorismo, contas falsas e discurso de ódio, entre outras.

O Facebook também anunciou a inclusão de uma métrica para medir a prevalência de discurso de ódio na plataforma. “Calculamos a prevalência de discurso de ódio selecionando uma amostra do conteúdo visto no Facebook e rotulando quanto dela viola nossas políticas de discurso de ódio”, disse a companhia em nota.

Com base nessa metodologia, a empresa estima que “a prevalência de discurso de ódio de julho de 2020 a setembro de 2020 foi de 0,10% a 0,11%. Em outras palavras, em cada 10.000 visualizações de conteúdo no Facebook, dez a 11 incluíam discurso de ódio”.

De acordo com a empresa, a maior parte do conteúdo é removida antes mesmo que seja vista por outros usuários na plataforma. O anúncio, do ponto de vista técnico, é uma grande atualização: em 2017 a empresa removia menos de 25% de conteúdos contendo discurso de ódio proativamente.

Isso envolve a partir de agora também a revisão não só de posts, mas também de imagens e “memes”. De acordo com Mike Schroepfer, diretor de tecnologia da rede social, esse é um trabalho constante, que envolve analisar a evolução do conteúdo de ódio, que acompanha tendências de notícias e acontecimentos, além de levar em conta aspectos geográficos, culturais e linguísticos.

Os executivos da rede social também compartilharam dados relativos à eleição americana. Segundo Guy Rosen, vice-presidente de integridade da plataforma, foram removidas 265.000 publicações por violação de regras de interferência eleitoral, mais de 3 milhões de peças de publicidade foram impedidas de ser veiculadas e 100 redes de comportamento inautêntico foram reveladas e retiradas da rede.

Uso de tecnologia e moderação humana

Durante os últimos anos, o Facebook foi alvo de severas críticas por contratar e submeter moderadores humanos a conteúdo sensível e até violento. A empresa tem tomado diversas iniciativas para reduzir o conteúdo e a gravidade a que esses funcionários são submetidos.

Em 2019, Schroepfer, diretor de tecnologia do Facebook, afirmou que a empresa estava investindo pesado em remoção de conteúdo via inteligência artificial e mostrou diversos avanços dessa ferramenta. Esperava-se que essa tecnologia pudesse aliviar o fardo de moderadores em ter de lidar com publicações problemáticas na plataforma.

Schroepfer anunciou, no entanto, que não há previsão de reduzir investimentos ou diminuir a quantidade de revisores humanos. “Nós podemos colocar os revisores diante de situações de maior nuance e reduzir a quantidade de formas de conteúdo ruim”, disse.

Segundo Guy Rosen, vice-presidente do Facebook, a maioria dos revisores humanos ainda está trabalhando de casa por causa da covid-19 e os avanços tecnológicos permitem decidir melhor qual tipo de conteúdo é submetido aos moderadores humanos da plataforma.

 

Acompanhe tudo sobre:FacebookInstagram

Mais de Tecnologia

UE multa grupo Meta em US$ 840 milhões por violação de normas de concorrência

Celebrando 25 anos no Brasil, Dell mira em um futuro guiado pela IA

'Mercado do amor': Meta redobra esforços para competir com Tinder e Bumble

Apple se prepara para competir com Amazon e Google no mercado de câmeras inteligentes