(Arte/Exame)
Carolina Riveira
Publicado em 18 de junho de 2020 às 05h30.
Última atualização em 12 de fevereiro de 2021 às 12h38.
No final de maio, um embate entre Jack Dorsey, presidente do Twitter, e Mark Zuckerberg, presidente do Facebook, começou a tomar forma. O presidente americano, Donald Trump, escreveu no Twitter duas mensagens. Em uma delas, dizia que as caixas de correio seriam roubadas e as cédulas de votação, usadas na eleição presidencial, seriam fraudadas. Em outra, Trump atacou Gavin Newsom, governador da Califórnia, dizendo que o político estaria enviando cédulas a milhões de pessoas.
As duas mensagens foram sinalizadas pelo Twitter como duvidosas, e pela primeira vez os tuítes de um presidente americano receberam um selo de alerta. A iniciativa gerou discórdia entre os gigantes do mercado de tecnologia. De um lado, Dorsey, do Twitter, adotou uma postura mais ativa na mediação do que é publicado. De outro, Zuckerberg discordou da atitude do concorrente e afirmou que o Facebook não deveria se posicionar como um “árbitro da verdade” do que é dito e compartilhado pelas pessoas.
A discordância entre o Twitter e o Facebook revela visões cada vez mais divergentes a respeito do papel das redes sociais. Por um lado, há quem diga que as plataformas devam ser espaços de livre discussão para as pessoas publicarem o que bem entenderem. Por outro, especialistas defendem que as redes sociais precisam assumir a responsabilidade sobre o conteúdo. Quando as plataformas foram criadas nos anos 2000, elas tinham o objetivo de conectar pessoas. Porém, mais do que isso, acabaram se tornando um espaço de discussão de ideias.
Do movimento Occupy Wall Street ao #BlackLivesMatter, as redes sociais amplificaram as novas demandas da sociedade. No entanto, junto com o novo canal de comunicação cresceu a disseminação de notícias falsas. Um estudo realizado por pesquisadores do Massachusetts Institute of Technology (MIT) analisou mais de 126.000 boatos que circularam no Twitter de 2006 a 2017 e mostrou que as fake news se espalham mais rapidamente e alcançam até 100 vezes mais pessoas do que as notícias reais. O problema só se aprofundou nos últimos anos, e as redes sociais chegaram a um ponto de inflexão. Para especialistas, fica cada vez mais evidente que as plataformas precisam de uma reforma para privilegiar conteúdos verdadeiros e promover um debate saudável.
“Se as redes fossem um ambiente em que cada um publica suas ideias e elas fossem espalhadas igualmente a todos, a responsabilidade das empresas seria menor. Como há um algoritmo ajustando o que cada um vê, visando elevar o tempo de permanência para aumentar a receita com anúncios, a rede social precisa checar as informações que lá veiculam”, diz André Miceli, coordenador do MBA em marketing digital da Fundação Getulio Vargas.
Encontrar uma solução não é simples. Como os serviços são usados por mais de 1 bilhão de usuários todos os dias, é como se fosse preciso trocar o pneu de um veículo em movimento. Algumas mudanças estão sendo encabeçadas pelas empresas. O Twitter começou a testar uma ferramenta que pergunta se o usuário leu uma mensagem antes de ser republicada. E a plataforma tem agido de forma mais dura contra a desinformação. A empresa chegou a apagar dois tuítes do presidente Jair Bolsonaro em março que estimulavam o uso da hidroxicloroquina, medicamento sem eficácia comprovada contra a covid-19.
Já o Facebook, em uma das frentes, trabalha com agências de checagem de fatos desde 2016 para verificar a veracidade de posts publicados na plataforma. Quando um conteúdo falso é identificado, a publicação recebe um selo. Porém, a postagem não é removida como no Twitter. Ela apenas tem seu alcance reduzido. Com a pandemia de covid-19, a checagem foi intensificada. O aplicativo WhatsApp também entrou nessa guerra contra as fake news. Em abril, a companhia, que pertence ao Facebook, passou a limitar a apenas um contato o encaminhamento de mensagens já compartilhadas diversas vezes.
Antes o limite era de cinco contatos de uma só vez. De acordo com a empresa, houve redução de 70% na quantidade de mensagens encaminhadas no aplicativo. “As fake news e a desinformação são problemas para as próprias plataformas, uma vez que impactam a confiança de seus usuários”, afirma Kate O’Neill, autora e consultora no setor de tecnologia. “Mas as redes sociais não agirão de forma assertiva se tudo for deixado nas mãos delas.”
Apesar de bem-vindas, as iniciativas nem sempre são suficientes. Por isso, em todo o mundo, os países discutem saídas legais para reduzir a disseminação de conteúdo falso e discriminatório. A Alemanha é um dos que aprovaram uma legislação que obriga as plataformas a tirar do ar conteúdo com discurso de ódio. A multa aos gigantes de tecnologia pode chegar a 50 milhões de euros caso descumpram o prazo repetidas vezes.
A lei, de 2017, foi criada às pressas para conter a ascensão do neonazismo em um país marcado por regras duras contra qualquer discurso de ódio. O texto, contudo, é criticado por organizações que defendem a liberdade de expressão. Essas instituições temem a adoção de um modelo do tipo “retire primeiro, pergunte depois”, afetando inclusive publicações legítimas.
“As companhias não existem para interpretar a lei. O Estado está entregando a fiscalização para as empresas, o que é perigoso. Pode se tornar uma espécie de ‘censura privada’ ”, diz Barbora Bukovská, diretora sênior para políticas e legislação da organização britânica Artigo 19, defensora da liberdade de expressão na internet e crítica da legislação alemã. Outro exemplo vem da França, que aprovou em junho uma legislação similar, que inclui o racismo, a pornografia e outros tipos de conteúdo entre os que devem ser retirados das plataformas. A legislação francesa é vista como mais positiva por especialistas da região. Há ainda outras regras em estudo no Reino Unido e na União Europeia. O desafio é fazer uma lei que equilibre o papel da Justiça e o das plataformas.
Na contramão da discussão europeia, os Estados Unidos, onde estão sediadas as principais empresas de internet, têm uma das legislações mais permissivas do globo. Boa parte da argumentação tem como base a Primeira Emenda da Constituição americana, que assegura a liberdade de expressão. A internet bebe desse princípio jurídico criado no século 18. Não que a liberdade de expressão não esteja presente na Constituição de outros países, mas, nos Estados Unidos, marcados por um histórico calvinista, liberal e individualista, qualquer interferência de governos é vista com maus olhos. Outra lei, de 1996, chamada de Lei da Decência das Comunicações, reassegura que a liberdade de expressão seja cumprida também na internet e isenta as plataformas de responsabilidade pelo que seus usuários publicam.
Os americanos têm um ponto: em muitos países, sobretudo onde há governos autoritários, pode haver pressão para que conteúdos legítimos sejam censurados. Elettra Bietti, pesquisadora do Berkman Klein Center, instituto da Faculdade de Direito de Harvard, especializado em pesquisas sobre legislação e internet, afirma que as leis de liberdade de expressão foram elaboradas numa era pré-internet com o objetivo de evitar a interferência estatal. Mas o mundo evoluiu e precisa de mais regulação. “Não devemos olhar como uma dicotomia, de governos sendo maus e plataformas sendo as salvadoras, ou vice-versa. É uma discussão que tem muitos atores”, afirma a pesquisadora.
No Brasil, as tentativas de controlar a disseminação de fake news desembocaram na política. Tramita no Senado e na Câmara o Projeto de Lei no 3.063, de 2020, de autoria dos deputados Tabata Amaral (PDT-SP) e Felipe Rigoni (PSB-ES). O texto, criticado por não ter sido debatido com a sociedade civil, estava prestes a ser votado pelo Senado quando esta reportagem foi finalizada.
A lei prevê que empresas especializadas na produção e na disseminação de notícias falsas na internet sejam investigadas pela Polícia Federal e isenta as redes sociais de responsabilidade sobre o conteúdo, sem exigir que seja apagado. Outro ponto do projeto prevê que plataformas como Twitter, Facebook e Instagram deixem claro aos usuários por que apagaram as postagens e deem às pessoas a possibilidade de contestar quando um conteúdo tiver sido retirado. O papel de cada usuário não é o foco da legislação — o alvo são as empresas que produzem conteúdo falso.
Para o deputado Felipe Rigoni, as fake news prejudicam a democracia. “Elas estão para a liberdade de expressão e para a democracia assim como a corda está para o pescoço enforcado. Com mais mentiras, temos menos democracia”, diz. Um estudo da empresa de pesquisas francesa Ipsos realizado em 2018 aponta que 62% dos brasileiros já tinham acreditado em uma mentira vista nas redes sociais. Na época, 37% acreditavam que as plataformas fossem responsáveis por enganar a população.
Os assuntos favoritos de quem produz conteúdo enganoso e também de quem os compartilha estão ligados à política. “As notícias falsas começaram a ser mais direcionadas nos últimos anos”, afirma Gilmar Lopes, fundador do site eFarsas, uma das primeiras plataformas brasileiras criadas, ainda em 2002, para desmentir lendas urbanas que circulavam na internet e em correntes de e-mail. A
combinação de polarização política com o advento das redes sociais tornou a tarefa bem mais trabalhosa. Em 2002, o eFarsas publicava, em média, um texto a cada dez ou 15 dias. Agora o site precisa desmentir diariamente cinco rumores, em média. Eles envolvem desde temas como corrupção até o uso de medicamentos milagrosos. “Eu não imaginava que isso se tornaria um problema tão grande, que as notícias falsas se tornariam a pauta do momento”, afirma Lopes.
A questão não se limita apenas ao Facebook, ao Twitter e ao WhatsApp. Outras redes sociais têm de lidar também com a disseminação de conteúdo falso ou violento em suas plataformas. Um exemplo é o aplicativo americano de fotos instantâneas Snapchat, que tem 229 milhões de usuários, a maior parte nos Estados Unidos. Para se distanciar do discurso de ódio, a companhia parou de promover a conta do presidente Donald Trump em seu espaço voltado para notícias.
O motivo foram as publicações do presidente no Twitter incitando a violência e o racismo. “Não existem áreas cinzentas quando o assunto é racismo, violência e injustiça”, escreveu Evan Spiegel, fundador e presidente executivo da Snap (empresa dona do Snapchat), em uma postagem no blog oficial da companhia. “Não podemos promover contas nos Estados Unidos que estejam ligadas a pessoas que incitem a violência racial, seja isso feito ou não em nossa plataforma.”
Outro aplicativo que adotou uma nova postura é o chinês TikTok, que caiu no gosto dos jovens ao redor do mundo e foi o terceiro mais baixado no ano passado. A empresa, que tem como foco vídeos curtos produzidos pelos usuários, tem tomado medidas para evitar a disseminação de conteúdos falsos, em especial ligados à pandemia de covid-19. A companhia fez uma parceria com órgãos internacionais para dar orientações de saúde.
“Entidades como a Organização Mundial da Saúde e a Cruz Vermelha, além das Nações Unidas, estão usando o TikTok para educar seus usuários e fornecer incentivo durante este período desafiador”, diz Rodrigo Barbosa, gerente de comunidade do TikTok no Brasil. Segundo ele, todo conteúdo considerado falso é retirado do ar imediatamente. “O conteúdo destinado a enganar ou a induzir a erro coloca em risco nossa comunidade, que é baseada na confiança. Não permitimos esse tipo de conteúdo em nossa plataforma”, afirma.
No ano passado, a empresa foi criticada por apagar publicações sobre os protestos em Hong Kong que desagradaram ao governo chinês. Na China, onde algumas redes sociais, como o Twitter e o Facebook, são proibidas, a máquina de censura governamental controla todo o conteúdo publicado online.
O que as empresas pretendem evitar é seu envolvimento em escândalos, como o que ocorreu com o Facebook em 2018 no caso da empresa de marketing político Cambridge Analytica, que coletou indevidamente os dados de 87 milhões de usuários da rede social. A revelação gerou um prejuízo de imagem sem precedentes para o Facebook e colocou em debate o próprio modelo de negócios das plataformas. Mais de 90% do faturamento de empresas como o Google e o Facebook vem de anúncios.
Em 2019, foram investidos mais de 300 bilhões de dólares em publicidade online no mundo, segundo a consultoria de marketing digital eMarketer. E, pela primeira vez, a propaganda na internet ultrapassou os anúncios em meios offline nos Estados Unidos. A forma como o debate digital se estrutura influencia, portanto, o modelo de fazer negócio não só das empresas na internet mas também de todas as companhias que anunciam seus produtos online.
No Brasil, anunciantes viraram o centro da atenção no mês de maio com a criação de uma versão brasileira da página americana Sleeping Giants, de 2016. A página marca as empresas em seus perfis nas redes sociais e mostra a elas que seus anúncios são exibidos em sites de conteúdo falso. O debate envolveu mais de 150 empresas, entre elas marcas como Dell, Brastemp, Samsung e Natura, que foram citadas e decidiram retirar seus anúncios desses sites.
A base do problema está na chamada mídia programática: as empresas compram espaço publicitário por meio de intermediários, que, então, posicionam os anúncios em centenas de milhares de páginas. Os anunciantes nem sempre escolhem cada um dos sites em que vão anunciar, nem monitoram onde os anúncios são veiculados. Para Cristiane Camargo, presidente executiva do Interactive Advertising Bureau (IAB) Brasil, uma associação do setor de publicidade digital, não se pode “criminalizar” plataformas por distribuir os anúncios. “O debate é positivo. Pode fazer com que todo o ecossistema aprimore suas práticas, inclusive nas empresas anunciantes”, diz.
De todo modo, o tema é complexo. De um lado, existe uma questão ética e operacional em controlar o que mais de 1 bilhão de pessoas publicam em uma plataforma. De outro, estão os efeitos devastadores que uma notícia falsa pode causar na sociedade. Para especialistas, além das redes sociais, os próprios usuários que cometem crimes também precisam ser responsabilizados.
“Uma notícia falsa não deixa de ser uma difamação. Quem está compartilhando material pratica o mesmo delito de quem criou o conteúdo, mas em uma esfera menor”, diz Gisele Truzzi, advogada especializada em direito digital. Há possibilidade de ação judicial nas esferas cível e criminal e o acusado pode ser denunciado por crimes contra a honra, que envolvem calúnia, difamação, injúria, entre outros.
A pena para esses casos é de multa e detenção, além da obrigação de realizar uma retratação para a pessoa ou a organização lesada pelo conteúdo. “O direito de expressão existe até o limite que você não ofenda o direito de terceiro”, afirma Truzzi. Forçar a rede social a remover o conteúdo é outra história e abrange novamente a questão da liberdade de expressão.
Para além desse debate sobre remover ou não conteúdo, a busca por um ambiente digital mais saudável passa por uma reorganização dos algoritmos que definem quais publicações serão mais exibidas e também por uma maior transparência das plataformas. O Google, líder nos serviços de buscas, anúncios digitais e vídeos online com o YouTube, afirma que já retirou do ar — ou reduziu o alcance nas buscas — milhões de vídeos e páginas que violam suas políticas internas.
A empresa diz ainda que calibra seu algoritmo para dar relevância a conteúdos oficiais e ao jornalismo profissional e faz parceria com agências de checagem. Com a crise do coronavírus, a exibição de conteúdo oficial subiu mais de 70%. “Às vezes escutamos que a internet é uma terra sem lei, mas não é verdade”, diz Marcelo Lacerda, diretor de relações governamentais e políticas públicas do Google Brasil.
Com a proximidade das eleições presidenciais nos Estados Unidos e da eleição municipal no Brasil, o debate sobre o papel das redes sociais tende a ganhar ainda mais importância. O uso de estratégias de desinformação é uma arma política relevante nas campanhas eleitorais nos últimos anos e o radicalismo ganhou um espaço excessivo.
Para Cesar Calejon, um dos autores do livro A Ascensão do Bolsonarismo no Brasil do Século XXI, as redes sociais precisam atuar de maneira cuidadosa para não assumir uma postura partidária. “A dinâmica das redes sociais favorece discursos polêmicos ou exacerbados. Os candidatos que se comportam desse modo ganham mais ressonância na cultura popular. Por isso, há uma crença na política de que é preciso ser ultrajante nas redes sociais e fora dela para se destacar”, afirma Calejon.
Para o autor, seria importante criminalizar a disseminação de notícias falsas de forma recorrente para reduzir a veiculação desse tipo de conteúdo. Resta saber se tanto os governos quanto as redes sociais aprenderam com os equívocos do passado. A hora de consertar suas falhas é agora.
CRIADO PARA POLEMIZAR
Postura evasiva contra o discurso de ódio faz o fundador do Facebook, Mark Zuckerberg, ser criticado até pelos funcionários | Sérgio Teixeira Jr., de Nova York
Para um empreendedor obstinado que em menos de 15 anos criou uma rede social usada por 2,6 bilhões de pessoas, teve a visão de comprar dois dos serviços mais populares do mundo quando ainda estavam para explodir e acumula uma fortuna de 84,2 bilhões de dólares, tudo isso aos 36 anos de idade, Mark Zuckerberg é curiosamente hesitante no que diz respeito ao problema das fake news e do discurso de ódio.
Mesmo depois de Donald Trump ter postado a frase “quando começam os saques, começam os tiros”, sugerindo uma resposta violenta da polícia aos atos isolados de vandalismo nos protestos raciais, Zuckerberg optou por não fazer nada (o Twitter indicou que o post de Trump era uma incitação à violência).
Talvez seja mais fácil entender a postura de Zuckerberg, criador do Facebook e também dono do WhatsApp e do Instagram, usando a expressão clássica do Vale do Silício quando suas criações não funcionam da maneira planejada: “Não é bug, é funcionalidade”.
“O Facebook é o que é porque foi construído assim”, diz Steven Levy, autor do recém-lançado Facebook: The Inside Story (“Facebook: a história de bastidores”, numa tradução livre). “Zuckerberg sempre quis crescer. Essa sempre foi a prioridade. Muitas dessas consequências — como polarização, conteúdo tóxico — são resultado dessa otimização do serviço para obter crescimento e [capturar a] atenção [dos usuários].”
A diferença de opiniões leva a mais discussões, o que leva a um uso mais frequente do serviço e, portanto, a mais receitas publicitárias. Isso não é novidade para o Facebook, uma empresa que faturou 70,7 bilhões de dólares no ano passado. Mas há dois anos a empresa estudou internamente se a polarização não teria um efeito diferente, que vai de encontro à sua missão: em vez de conectar as pessoas, o Facebook estaria afastando-as cada vez mais. “Nossos algoritmos exploram a atração pelo que é divisivo”, dizia um slide de uma apresentação, revelado pelo Wall Street Journal. Zuckerberg essencialmente ignorou a pesquisa, segundo o jornal.
Muito se fala sobre a influência potencialmente nociva das redes sociais sobre a democracia — vide o uso do Facebook pelos russos em favor de Trump na eleição de 2016 —, mas poucos lembram que Zuckerberg comanda seus negócios de forma autocrática. O controle da empresa foi estruturado com dois tipos de papel, num sistema parecido com o de ações ordinárias e preferenciais.
No caso do Facebook, existem as ações disponíveis para todo investidor da bolsa, que correspondem a um voto em assembleias de acionistas, e as que estão nas mãos de Zuckerberg e de um pequeno grupo de insiders — papéis que correspondem a dez votos cada um. Estima-se que o fundador sozinho detenha 60% dos votos. Ele tem controle absoluto sobre os rumos da empresa, o que significa que a pressão não virá do lado dos acionistas.
Existe a ameaça latente de regulação por parte das autoridades. Esse é um tema espinhoso, especialmente nos Estados Unidos. Nas prévias do Partido Democrata, a senadora Elizabeth Warren prometeu investigar — e eventualmente desmembrar — companhias de tecnologia com poder excessivo. “Se alguém tenta ameaçar algo tão existencial, você vai para o tatame e briga”, disse Zuckerberg em relação aos comentários de Warren.
Trump elogiou publicamente o fundador do Facebook em maio. Para Steven Levy, essa aparente proximidade pode ser sugestão de Joe Kaplan, ex-assessor de George W. Bush e hoje principal lobista do Facebook. “É difícil saber quanto isso se baseia em política ou em princípios [como o da liberdade de expressão]”, diz. “Nas minhas conversas com Zuckerberg, sempre fiquei frustrado com uma coisa. Ele se baseia em dados para tudo, mas nunca os usa quando conservadores reclamam que não são tratados justamente. Os dados dizem o contrário. Em vez disso, ele coça o queixo e diz: ‘Estamos escutando’.”
Talvez a pressão que leve a algum tipo de mudança venha de dentro da própria empresa. No início de junho, centenas de funcionários do Facebook fizeram uma “greve virtual”: abandonaram o trabalho por um dia em protesto contra a inação da empresa em relação aos posts de Trump.
Na mesma semana, um grupo de ex-funcionários que trabalharam nos primeiros meses da empresa publicou uma carta dizendo “não mais reconhecer” o Facebook que ajudaram a construir. Em resposta, Zuckerberg disse ter tomado uma “decisão difícil”, mas baseada num exame minucioso das políticas da companhia. Vários funcionários ficaram insatisfeitos com mais uma rodada de evasivas e pediram demissão. O cerco está se fechando sobre Zuckerberg.