O objetivo é detalhar o funcionamento de sistemas de recomendação por algoritmos, o direcionamento de conteúdos e de publicidade de acordo com o perfil de usuários (NurPhoto/Getty Images)
Agência de notícias
Publicado em 23 de março de 2023 às 08h28.
O governo do presidente Luiz Inácio Lula da Silva (PT) vai propor a ampliação das exigências de transparência das plataformas digitais no projeto de lei de regulação das plataformas digitais no Brasil, conhecido como PL das Fake News, em tramitação na Câmara.
Segundo apurou O GLOBO com interlocutores que acompanham a elaboração da proposta, o entendimento é que o texto da forma que está redigido hoje cobre apenas informações quantitativas insuficientes para compreender o funcionamento das plataformas.
O governo discute enviar ao relator do projeto, deputado Orlando Silva (PCdoB), a sugestão de incluir informações qualitativas no texto. O objetivo é detalhar o funcionamento de sistemas de recomendação por algoritmos, o direcionamento de conteúdos e de publicidade de acordo com o perfil de usuários e como são processadas e analisadas denúncias de postagens violadoras de regras e da legislação brasileira.
Além dessas informações constarem em um relatório, as plataformas ficariam obrigadas a fornecer explicações diretamente aos próprios usuários, se houver mudança, por exemplo, na forma como operam os algoritmos e os mecanismos de distribuição de conteúdo personalizado.
A proposta sugerida pelo Executivo vai detalhar o funcionamento da transparência e como as informações devem ser entregues. O GLOBO não teve acesso ao texto. Um ponto em discussão é quais informações serão públicas e quais só serão acessadas por órgão específico com essa atribuição. Ainda há discussão interna sobre a criação de um órgão regulador das regras criadas ou atribuição dessa função a um já existente. A expectativa é que a costura das propostas do governo ao projeto na Câmara seja finalizada nesta semana.
A última versão do PL das Fake News estabelece que as plataformas devem publicar relatórios semestrais com informações como número de usuários no Brasil e total de medidas aplicadas em razão do cumprimento dos seus termos e políticas, entre outros pontos. Também pede uma descrição dos tipos de ferramentas automatizadas usadas na moderação.
O modelo que o governo pretende seguir é principalmente o do Digital Services Act (DSA), regulação aprovada e em implementação na União Europeia. Um dos pontos é estabelecer uma exigência de divulgação de “riscos sistêmicos”. Pela proposta, as plataformas terão que produzir um relatório em que apontam riscos recorrentes e significativos em relação, por exemplo, a conteúdo ilegal, discurso de ódio e outros temas, além de informar quais são as providências que têm tomado.
Um argumento citado para ampliar as medidas de transparência é que hoje não há divulgação dessas informações mesmo para casos de violações de direitos autorais e pornografia de vingança, únicas exceções para responsabilização das plataformas previstas no Marco Civil da Internet. Não é possível, dessa forma, fazer uma avaliação se a norma é cumprida adequadamente, já que não há dados sobre a quantidade de denúncias feitas e se as empresas conseguem retirar esse conteúdo. Há uma leitura também de que as plataformas não poderão alegar que as exigências de transparência são inviáveis, uma vez que já estão se adaptando para regras semelhantes determinadas pela União Europeia.
Em outra frente, o governo avalia garantir acesso gratuito da API (sigla em inglês para interface para programação de aplicações) das plataformas a pesquisadores. A ferramenta permite, por exemplo, extrair de forma automatizada dados sobre postagens nas redes e é fundamental em pesquisas que se propõem a acompanhar e analisar conteúdos com desinformação e discurso de ódio. Sob comando de Elon Musk, o Twitter já anunciou que vai extinguir a versão gratuita para acesso à API.
Pesquisadora da FGV Direito Rio, Yasmin Curzi concorda com a avaliação de que há necessidade de ampliar a transparência prevista no PL e defende que relatórios numéricos não trazem informações substantivas sobre a tomada de decisão das empresas:
— A gente precisa do contexto de por que determinado conteúdo é removido ou não. Mesmo que o acesso seja para audiências específicas, não seja para todo mundo, seria importante ter esses dados documentados para uma auditoria e fiscalização. É preciso também de uma metodologia de produção desses relatórios.
Um caso recente exemplifica a dificuldade. No início do mês, o chamado Comitê de Supervisão da Meta, órgão independente que toma decisões de moderação na empresa controladora do Facebook e Instagram, não soube informar por que um vídeo postado antes dos atos de 8 de janeiro não foi retirado do ar após ser denunciado sete vezes no Facebook por usuários e depois da análise de cinco revisores de conteúdo. A postagem conclamava as pessoas a “sitiar” o Congresso Nacional como “a última alternativa”.
Professora da Universidade de St Gallen, na Suíça, e diretora do InternetLab, Mariana Valente defende que a transparência deve servir como instrumento para escrutínio de obrigações legais e ter informações para regulações futuras. Um ponto importante, avalia, é pensar no nível de informação e na linguagem adotada para diferentes públicos, como usuários, pesquisadores e auditores. Valente cita o exemplo do NetzDG, regulação em vigor na Alemanha criticada por não ter obrigações claras e gerar relatórios divergentes e insuficientes.
— Uma coisa que é central é estabelecer que autoridade vai ser responsável por afirmar que o nível de transparência está adequado, ou sancionar pelo não cumprimento do nível adequado — acrescenta