Agência de notícias
Publicado em 11 de junho de 2025 às 18h42.
Última atualização em 11 de junho de 2025 às 18h50.
O Supremo Tribunal Federal (STF) tem maioria de votos para responsabilizar as redes sociais por conteúdos considerados ilegais publicados em suas plataformas. Com o posicionamento, já há seis votos a favor da derrubada da necessidade de decisão judicial para a retirada de publicações ilegais, e um contra. Apesar do placar, os termos dessa responsabilização ainda serão definidos pelos ministros, em uma solução que será proposta de forma consensual.
A maioria foi alcançada com o voto do ministro Gilmar Mendes, que fez uma série de críticas à ausência de responsabilização das empresas e afirmou que o Marco Civil, da forma como está escrito hoje, representou um "véu da irresponsabilidade para plataformas digitais". O julgamento foi suspenso e será retomado nesta quinta-feira com o voto do ministro Edson Fachin.
— Mesmo que sejam informadas da ocorrência de crimes em suas plataformas, elas não podem ser responsabilizadas por danos gerados por manter esse conteúdo no ar, a não ser em caso de ordem judicial — apontou o decano do STF.
A Corte analisa se vai definir regras de responsabilização de plataformas digitais e empresas de tecnologia por conteúdos publicados por usuários, com base no Marco Civil da Internet.
Em seu voto, Gilmar Mendes propôs que a regra geral que deveria valer para as plataformas é aquela que está prevista no artigo 21 do Marco Civil da Internet, e não mais a regra do artigo 19. Ou seja, caso a empresa seja notificada da ocorrência de conteúdo ilícito em sua plataforma, esses provedores poderão ser responsabilizados por danos decorrentes da não remoção desse conteúdo.
— A mim me parece que, no atual sistema, mesmo nas hipóteses em que há a prolação de decisão judicial, a jurisprudência vinculou a ordem de retirada do conteúdo ilícito à indicação de endereço específico de Internet. Isso torna a ação judicial muitas vezes ineficaz, já que as informações seguem se propagando por outros links sem que haja a responsabilização dos provedores. Trata-se de verdadeira tentativa de enxugar gelo — disse Gilmar.
Pela manhã, o ministro Flávio Dino disse em seu voto que "liberdade regulada é a única liberdade".
— Não existe liberdade sem responsabilidade em termos constitucionais. Liberdade sem responsabilidade é tirania. Ideia de que regulação mata a liberdade é absolutamente falsa. Responsabilidade evita a barbárie. Entendo que devemos, como tribunal, avançar na direção da liberdade com responsabilidade. Liberdade regulada é a única liberdade — disse Dino. — Não são ministros que acordaram de manhã e resolveram tolher a liberdade das pessoas. Qual é a empresa ou setor econômico social se autorregula?
Depois de Dino, o julgamento continuou com o voto de Cristiano Zanin, que também se alinhou à corrente de ministros favorável à responsabilização das empresas. Para ele, o regime de notificação extrajudicial e retirada previsto no artigo 21 do Marco Civil deve ser estendido aos provedores de aplicação intermediários que atuam ativamente na promoção e disseminação de conteúdo e, após serem notificados, deixam de remover conteúdo manifestamente criminoso.
— Quando houver elementos objetivos que demonstrem que o conteúdo é ilícito, surge para os provedores de aplicação o dever de agir para excluí-lo. Esse dever abrange a publicação de conteúdos comprovadamente fraudulentos, como perfis falsos ou invasões de contas — apontou Zanin.
Mesmo com a maioria já formada, o presidente do STF, Luís Roberto Barroso, afirmou que os diversos pontos apresentados pelos ministros que já votaram podem levar a um voto de "consenso sobreposto". Barroso disse, contudo, que a Corte não chegará a uma decisão final nesta semana "em nenhuma hipótese", tendo em vista que a ministra Cármen Lúcia não participa do julgamento nesta semana, e que o ministro Nunes Marques já afirmou que precisa de mais tempo para uma reflexão aprofundada sobre os diversos aspectos apresentados.
O que está em discussão no julgamento do STF é o modelo de responsabilização das plataformas pelo conteúdo de terceiros — se e em quais circunstâncias as empresas podem sofrer sanções por conteúdos ilegais postados por seus usuários. A regra que está em vigor atualmente diz que as redes só podem ser responsabilizadas se descumprirem uma ordem judicial de exclusão de conteúdo.
Na quinta-feira passada, André Mendonça divergiu dos colegas ao afirmar que a regra do Marco Civil é constitucional. Para Mendonça, as plataformas têm legitimidade para defender a liberdade de expressão e, nesse sentido, têm o direito de preservar as regras de moderação próprias. O ministro entende que, caso haja determinação de remoção de conteúdo ou perfil, elas devem ter acesso integral a seu teor e à possibilidade de recorrer. Ele também considera inconstitucional a remoção de perfis, exceto quando comprovadamente falsos.
O Supremo julga a constitucionalidade do artigo 19 do Marco Civil da Internet, norma que estabeleceu os direitos e deveres para o uso da internet no Brasil. De acordo com o dispositivo, "com o intuito de assegurar a liberdade de expressão e impedir a censura", as plataformas só podem ser responsabilizadas pelas postagens de seus usuários se, após ordem judicial, não tomarem providências para retirar o conteúdo.
No atual quadro, os dois votos proferidos pelos relatores, Fux e Dias Toffoli, foram pela inconstitucionalidade do artigo 19 do Marco Civil e que, em casos de conteúdos ofensivos ou ilícitos, as plataformas digitais devem agir a partir de uma notificação extrajudicial, sem necessidade de ordem judicial.
Toffoli defendeu que, nos casos de conteúdos ofensivos ou ilícitos, como racismo, as plataformas digitais devem agir a partir do momento que forem notificadas de forma extrajudicial. Ou seja, pela vítima ou seu advogado, sem necessidade de aguardar uma decisão judicial.
— Parece-me evidente que o regime de responsabilidade dos provedores de aplicação por conteúdo de terceiros, previsto no artigo 19 do MCI [Marco Civil da Internet], é inconstitucional. Seja porque, desde sua edição, mostra-se incapaz de oferecer proteção efetiva aos direitos fundamentais (...), seja porque não é apto a fazer frente aos riscos sistêmicos que surgiram nesses ambientes a partir do desenvolvimento de novos modelos de negócios — afirmou.
Relator da outra ação, Fux também considerou que o artigo 19 do Marco Civil é inconstitucional. Durante seu voto, Fux afirmou que existe um "déficit de proteção" dos direitos no ambiente digital e disse que hoje as plataformas não têm "estímulo" para remover conteúdos ilícitos e criminosos, observando que se cria uma "terra sem lei".
Autor de um voto considerado intermediário, o presidente do STF, Luís Roberto Barroso, defendeu que as plataformas digitais devem ser responsabilizadas por conteúdos de terceiros caso deixem de tomar as providências necessárias para remover postagens com teor criminoso. Para ele, o artigo 19 não dá proteção suficiente a direitos fundamentais, como a dignidade da pessoa humana, e a valores importantes para a democracia.
— Não há fundamento constitucional para um regime que incentiva que as plataformas permaneçam inertes após tomarem conhecimento de claras violações da lei penal — disse.
Quando votou, Barroso fez um apelo ao Congresso Nacional para que estudasse a criação de um regime jurídico para esse tema que regule as medidas necessárias para avaliar e minimizar riscos, defina as sanções e crie órgão regulador responsável pela análise de conformidade das plataformas.