Marcelo Lacerda, diretor de Relações Governamentais do Google: "não queremos ser o árbitro entre o que pode ou não ser dito" (Google/Divulgação)
Carolina Riveira
Publicado em 21 de junho de 2020 às 08h00.
Última atualização em 22 de junho de 2020 às 12h53.
As empresas de tecnologia vêm sendo cada vez mais cobradas a tomar atitudes para melhorar o ambiente na internet, em meio a crescentes episódios de disseminação de notícias falsas e discurso de ódio. Mas entre governos, empresas e sociedade civil, a quem cabe, no fim, regular a conversa virtual?
Para o Google, uma das maiores empresas de internet do mundo, a discussão exige um debate amplo entre todos os atores. "Não temos uma solução única e simples para a desinformação", diz o diretor de Relações Governamentais e Políticas Públicas do Google Brasil, Marcelo Lacerda.
A companhia americana não opera necessariamente redes sociais, que viraram centro deste debate. Mas tem nas mãos uma parcela considerável da internet mundial -- incluindo o buscador mais usado do mundo e a mais popular rede de vídeos do planeta, o YouTube, com mais de 2 bilhões de usuários ativos. O Google faturou no ano passado quase 161 bilhões de dólares, mais que o dobro do Facebook.
Lacerda diz que o Google calibra seu algoritmo para dar relevância a conteúdos oficiais e que já retirou milhões de vídeos e páginas do ar que violaram suas políticas, além de publicar relatórios regulares de transparência sobre essas medidas. "Às vezes escutamos que a internet é uma terra sem lei. Mas não é verdade", diz.
Sobre a "lei das fake news” (PL nº 3.063) em discussão no Congresso, o executivo afirma que o Google está aberto ao debate, mas critica o que considera uma rapidez excessiva no andamento do projeto. "Tivemos toda a discussão do Marco Civil, que levou quatro anos, com audiência, consulta pública. E não é à toa que tivemos uma lei que recebeu elogios internacionais", diz Lacerda. "O que sentimos falta agora é justamente desse debate."
O executivo falou à EXAME como parte de reportagem desta edição sobre os desafios em equilibrar regulação e liberdade de expressão online. Leia abaixo os principais trechos da conversa.
O Google e outras plataformas de tecnologia são historicamente cobrados por uma maior ação na gestão dos conteúdos que circulam em suas plataformas. Que tipo de gerencia o Google tem sobre os conteúdos?
O Google está totalmente comprometido com o combate à desinformação. A missão da empresa é organizar a informação do mundo e torná-la útil e disponível. E a desinformação dificulta essa missão. Mas, por ser um fenômeno extremamente complexo, não temos uma solução única e simples. Acreditamos que podemos diminuir isso, mas são decisões que envolvem múltiplos atores e têm diferentes ângulos. Dividimos em três pilares: primeiro dar relevância na plataforma a informações úteis e confiáveis; segundo, proteger os usuários de informações que não sejam tão de qualidade ou que sejam desinformação; e, por último, atuar em parceria com o trabalho de terceiros, como autoridades públicas e jornalistas.
Algo mudou na pandemia do coronavírus?
Desde o começo da pandemia, temos feito inúmeras atualizações ou trazido novas funcionalidades. Quando o usuário hoje procura por covid-19, vai achar um painel específico que montamos com notícias, dicas de segurança, estatísticas, sintomas, prevenção, tratamento. Tudo com base em fontes oficiais.
O YouTube, de vídeos, também é usado como fonte de informação por muitas pessoas. Como o Google lida para evitar episódios de desinformação na plataforma?
No YouTube, também estamos dando mais visibilidade para esses conteúdos de fontes confiáveis. Temos banners fixos da Organização Mundial da Saúde (OMS) e do Ministério da Saúde. Vimos aqui no Brasil que o tempo de exibição de notícias e outros vídeos de fontes confiáveis e oficiais cresceu mais de 75% nos primeiros três meses de 2020. Quando as pessoas acessam o YouTube pesquisando algo sobre coronavírus, 94% dos dez primeiros vídeos são desse tipo de fonte confiável. Assim que a pandemia começou, tivemos de atualizar as políticas para detectar e não aceitar mais conteúdo relacionado à pandemia que não estivesse em conformidade com a OMS ou conteúdo que levasse os usuários a tomar uma decisão que não seguisse esses protocolos. Desde fevereiro, já foram removidos mais de 200.000 vídeos que incluam algum tipo de informação enganosa sobre o coronavírus.
Qual é a barreira entre o papel das empresas e do governo nessa tarefa de combate à desinformação online?
Todo esse esforço tem um paralelo muito bom com a questão do spam. Há 20 anos, também era um problema. O spam lá atrás não só enchia a sua caixa, tinha golpes também. Então teve um trabalho das plataformas, inclusive de educação do usuário de não sair clicando em todo e-mail. E também de atores governamentais para trabalhar na repressão desses esquemas. É um paralelo bom para o combate à desinformação: tem de ser uma abordagem multisetorial. A internet evolui a cada hora. Há três anos ninguém falava muito de fake news e desinformação. Mas só a aba do Google News tem mais de dez anos. Só talvez não chamássemos de “desinformação” ainda.
Há um debate sobre os algoritmos, que, segundo críticos e pesquisadores da área, podem privilegiar conteúdo mais extremista ou discurso de ódio no intuito de fazer o usuário ficar mais tempo na plataforma. Que políticas o Google emprega em relação a isso?
Cerca de 15% das buscas que são feitas diariamente são buscas que nunca foram feitas antes. É uma dinâmica absurda. Por isso, os algoritmos são calibrados o tempo todo: se hoje está todo mundo procurando por banana, ele tem de estar calibrado para dar o melhor resultado sobre banana. Cada mudança é da ordem dos milhares. No caso da desinformação, em 2019, por exemplo, conseguimos calibrar o algoritmo para reduzir a relevância de um tipo de conteúdo que fica no “limite” da violação das nossas políticas. E também de conteúdos desinformativos que podem causar dano à saúde. E descobrimos que, no caso do YouTube, chega a no máximo 1% do que é assistido na plataforma.
Se um conteúdo não necessariamente violar as políticas, mas puder ser lido como enganoso ou disseminando discurso de ódio, ele não deveria ser retirado mesmo assim?
Tem conteúdos que são claramente ilegais, como pornografia infantil. Tem outros tipos de conteúdo que não são ilegais, mas que também não queremos ter na plataforma: pornografia não é ilegal, mas não é o tipo de conteúdo que queremos ter. Mas prezamos por ser uma plataforma aberta e neutra. Se é um conteúdo opinativo, a gente entende que não cabe ao Google dizer se aquilo é verdade ou mentira, o que aquilo significa. Não queremos ser o árbitro entre o que pode ou não ser dito, não achamos que somos qualificados para isso. É um balanço que conseguimos com o Marco Civil. Ficou estabelecido que, se existe um conteúdo que o usuário gostaria de ver removido, há essa saída de ir ao juíz, e é ele quem decide. Às vezes a gente escuta que a internet é uma terra sem lei. Mas não é verdade. Várias leis se aplicam à internet.
Nos Estados Unidos, o Twitter entrou no centro da discussão ao rotular postagens do presidente Donald Trump. Há algum plano no Google para levar a checagem de informações mais adiante, colocar um selo em conteúdos?
Na última eleição, apoiamos o projeto Comprova, com veículos jornalísticos checando informações de políticos, e continuamos apoiando agências de checagem. Mas não acho que as agências de fact-checking estão ali para dizer o que é verdade ou não. Não posso te dizer se temos planos de trabalhar com algum tipo de conteúdo ticado, de “esse link foi checado”. A própria dinâmica da internet tornaria isso quase impossível, já que, como disse, 15% das buscas feitas em um dia são novas.
Também lançamos no ano passado o projeto Educamídia, tocado pelo Instituto Palavra Aberta, e doamos 1 milhão de dólares para levar um currículo de educação midiática para as escolas. O que entendemos é que, no fim, apesar dos esforços de dar relevância para conteúdos profissionais, a escolha é do usuário, é ele quem aperta o botão do mouse. O que buscamos sempre é dar mais contexto. Na eleição de 2018, trabalhamos junto com o Tribunal Superior Eleitoral e criamos um painel sobre os candidatos. Se eu procuro o candidato Marcelo Lacerda, pode aparecer uma página com informações duvidosas; se eu dou esse destaque para as informações do TSE, tenho esse contexto em destaque, vindo de fontes oficiais. É o que tentamos fazer.
Como o Google vê a discussão do "PL das fake news" no Congresso?
O debate é importante e estamos super comprometidos com o tema. Mas o que sentimos falta é justamente desse debate qualificado. Tivemos toda essa discussão do Marco Civil, que levou quatro anos. “Ah, mas é muito tempo…” Mas exatamente porque a internet tem hoje uma importância tão grande, houve discussões, audiências públicas, consulta pública. E não é à toa que tivemos uma lei que recebeu elogios internacionais, de figuras importantes da internet no mundo, reconhecimento das Nações Unidas e tudo mais. O mesmo com a Lei Geral de Proteção de Dados [o texto mais recente começou a ser debatido em 2015 e foi aprovado em 2018. A entrada em vigor, prevista para este ano, foi adiada]. O assunto [das fake news] é complexo, requer medidas de diversos atores, as empresas, a academia, os usuários, a sociedade civil. Nas condições de hoje, no meio da pandemia, talvez não seja a melhor forma. Temos de aprender com o que deu certo e deu errado nos outros países. Decisões sem o devido cuidado podem gerar ainda mais problemas.
A reportagem completa sobre a regulação do conteúdo na internet e as fronteiras da liberdade de expressão está na edição 1.212 da EXAME, disponível em todas as plataformas online. Leia aqui.
*Uma versão anterior desta entrevista apontava que 30% das buscas feitas diariamente eram novas. O número correto é 15%. A informação foi corrigida.