As notícias falsas, que se espalham na rede social há anos, e agora mais ainda via WhatsApp, não devem cessar no próximo pleito. E, o Facebook sabe disso (OLIVIER DOULIERY/AFP)
Se fosse verdade tudo o que se lê nas redes sociais e aplicativos de mensagens como o WhatsApp, as democracias no mundo teriam destinos imprevisíveis e distantes do que poderiam realmente querer os seus habitantes. O Facebook sabe disso e, segundo documentos vazados da companhia pela ex-funcionária Frances Haugen, que delatou a empresa no mês passado, há uma lista de nações que mais correm riscos e que precisam de 'cuidados especiais'.
Não perca as últimas tendências do mercado de tecnologia. Assine a EXAME.
Dados obtidos pelo consórcio de veículos de imprensa que integram o Facebook Papers, série de reportagens baseada nos documentos vazados da big tech de Mark Zuckerberg, mostram que, no final de 2019, o grupo de colaboradores do Facebook encarregado de prevenir danos à rede se reuniu para discutir o ano que se iniciaria. Na Cúpula Cívica, como foi chamada, os líderes anunciaram onde investiriam recursos para fornecer proteção em torno das próximas eleições globais - e também onde não o fariam.
Em uma mudança que se tornou padrão na empresa, o Facebook classificou os países do mundo em camadas. Brasil, Índia e Estados Unidos foram colocados na “camada zero”, a maior prioridade. Para tal, o Facebook configurou 'salas de guerra' para monitorar a rede continuamente, em um modelo semelhante ao que testou ainda em 2018. Eles criaram painéis para analisar a atividade da rede e alertaram os funcionários locais sobre quaisquer problemas.
Alemanha, Indonésia, Irã, Israel, Itália e outros cinco países foram colocados no primeiro nível. Eles receberiam alguns recursos a menos, mas manteriam analises constantes de postagens que violassem as regras do site. Na segunda camada, 22 países foram adicionados, sem as salas de guerra. E o resto do mundo foi colocado no nível três. Para os dois últimos casos, o Facebook revisaria o material relacionado à eleição se fosse encaminhado a eles pelos moderadores de conteúdo. Caso contrário, não iria intervir.
Pode parecer efetivo, mas a rede social acaba por desassistir muito países em situações políticas tortuosas. Entre as disparidades mais notáveis, se descam os seguintes pontos:
Em um experimento do próprio Facebook, também descrito nos documentos vazados, em 4 de fevereiro de 2019, um pesquisador da empresa criou uma nova conta de usuário para ver como é experimentar a rede social como uma pessoa que vive na cidade de Kerala, na Índia.
Por três semanas, a conta operou por uma regra simples: seguir todas as recomendações geradas pelos algoritmos do Facebook para ingressar em grupos, assistir a vídeos e explorar novas páginas do site. O resultado: o feed se tornou cheio de postagens de discurso de ódio, desinformação e violência, que foram documentadas em um relatório interno do Facebook, publicado no final daquele mês.
O caso indiano se da pela falta de tradutores e moderadores especializados em hindi e bengali, sinalizando que muito dos conteúdos que ferem as políticas do Facebook não são compreendidos como problemáticos pela equipe de moderação da rede social. E isso se repete em outras nações com as mesmas barreiras linguísticas.
Em contra ponto, é preciso admitir que a empresa tem gastado também em moderação automática de conteúdo via inteligência artificial, em todos os 70 países onde está operando, mostrando que em algum nível existem cuidados. Tal tecnologia custa caro para se implementada e ajuda a mitigar o problema.
Mas, apesar do Facebook investir mais em esforços neste sentido do que qualquer um de seus pares, há muito no que avançar. A julgar pelas atividades executadas e descritas nos documentos vazados, a empresa, ao menos, parece saber da responsabilidade que possui.