No caso, três escritores processaram a Anthropic por ter utilizado cópias piratas de seus livros para o treinamento do Claude (Thomas Fuller/Getty Images)
Redator
Publicado em 21 de agosto de 2025 às 11h23.
É raro encontrar uma empresa de inteligência artificial que não enfrente algum processo relacionado à violação de direitos autorais. No entanto, um caso envolvendo a Anthropic tem gerado preocupações significativas no setor e unido concorrentes em meio à disputa entre seus modelos de IA.
Nesse caso, três escritores processaram a Anthropic não só por ter utilizado seus livros sem autorização prévia para o treinamento do Claude, mas também por ter recorrido a cópias piratas dessas obras. O caso, que tramita em uma corte distrital da Califórnia, pode ter consequências significativas não apenas para a empresa, mas para toda a indústria de IA.
Embora no mês passado um juiz tenha decidido que o uso dos livros em si poderia ser considerado “uso justo” – um princípio do direito norte-americano que reconhece casos nos quais não é requerido aval prévio dos autores –, ele determinou que as cópias ilegais não se enquadram nessa categoria.
Por isso, foi agendada para o final do ano uma decisão sobre a reparação financeira devida aos escritores. Além disso, o juiz transformou o caso em uma ação coletiva, permitindo que qualquer autor cujos direitos foram violados pela Anthropic também receba indenização, mesmo sem entrar com ação individual.
Atualmente avaliada em US$ 170 bilhões, a Anthropic entrou com um pedido para suspender o julgamento e recorrer a um tribunal superior, argumentando que uma derrota poderia levá-la à falência. Apesar das alegações, o requerimento foi negado pelo juiz, destacando que a instância superior precisa ter acesso completo aos detalhes caso, não apenas à “versão higienizada” que seria apresentada pela defesa.
Advogados da Anthropic alegam que as possíveis indenizações podem ultrapassar o valor de mercado da companhia, com danos estimados em mais de US$ 1 trilhão, já que a base de livros pirateados usada para treinar o Claude continha mais de sete milhões de arquivos.Por poder, em teoria, levar a empresa à falência, a ação atrai a atenção de outras companhias, as quais, em meio à rivalidade no mercado, uniram forças para tentar mitigar as implicações para a indústria de IA como um todo.
O caso contra a Anthropic faz parte de uma onda crescente de processos por violação de direitos autorais contra a indústria de IA. Estima-se que existam perto de 50 ações similares em andamento nos EUA.
Para evitar que o caso estabeleça um precedente considerado perigoso, grandes empresas do setor, como Apple, Amazon e Google, uniram-se à Anthropic. Associações como a Consumer Technology Association e a Computer and Communications Industry Association pediram o status de amicus curiae, argumentando que uma decisão desfavorável poderia prejudicar a competitividade da indústria de tecnologia dos EUA.
Entre os argumentos, as empresas afirmam que a quantidade de conteúdo necessária para treinar modelos de linguagem torna inviável o licenciamento de todo o material e que isso pode prejudicar a inovação do setor.
Além disso, a indústria de IA defende realizar "uso justo", já que transforma o conteúdo em informações novas, assim como um ser humano faria. Porém, enquanto se recusa a pagar por esse material, o setor continua anunciando investimentos na casa das centenas de bilhões de dólares.
Um outro argumento que pode impactar em favor das empresas é o possível prejuízo para a competitividade dos EUA em relação à China, motivo que pode colocar a administração Trump ao lado delas. Em um discurso no final de julho, o presidente disse que a China não paga por conteúdo e, por isso, é preciso fazer o mesmo.