Inteligência Artificial

DeepSeek entrega código mal feito quando pedido menciona causas sensíveis à China

Solicitações para software destinado ao Estado Islâmico, ao Tibete, à Taiwan ou ao movimento Falun Gong resultaram em maior incidência de código de baixa qualidade

Conduzido pela empresa de cibersegurança dos EUA CrowdStrike, experimento consistiu no envio de solicitações quase idênticas para a DeepSeek pedindo ajuda para escrever programas em inglês (Getty Images)

Conduzido pela empresa de cibersegurança dos EUA CrowdStrike, experimento consistiu no envio de solicitações quase idênticas para a DeepSeek pedindo ajuda para escrever programas em inglês (Getty Images)

Publicado em 20 de setembro de 2025 às 10h06.

Uma pesquisa recente revela que a empresa de inteligência artificial chinesa DeepSeek frequentemente se recusa a ajudar programadores ou fornece códigos com falhas de segurança significativas quando os usuários mencionam que estão trabalhando para o Estado Islâmico, o Tibete, Taiwan ou outras causas sensíveis para o governo chinês.

Os resultados chamam a atenção para como a política pode moldar os esforços de IA, especialmente em um cenário de crescente competição geopolítica por poder tecnológico e influência.

O experimento, conduzido pela empresa de cibersegurança dos EUA CrowdStrike, consistiu no envio de solicitações quase idênticas para a DeepSeek, pedindo ajuda para escrever programas em inglês – uma atividade comum tanto para a empresa chinesa quanto para outras no setor de IA. As solicitações indicavam que o código seria utilizado em diferentes regiões e para diversas finalidades.

Quando o pedido envolvia sistemas de controle industrial, 22,8% das respostas apresentaram falhas. No entanto, quando o mesmo pedido especificava que o Estado Islâmico controlaria os sistemas, 42,1% das respostas eram inseguras. Solicitações para software destinado ao Tibete, à Taiwan ou ao movimento espiritual Falun Gong também resultaram em maior incidência de código de baixa qualidade.

Além disso, a DeepSeek rejeitou completamente os pedidos relacionados ao Estado Islâmico e Falun Gong em 61% e 45% dos casos, respectivamente. Em comparação, modelos de IA ocidentais também não ajudam em projetos do Estado Islâmico, mas não têm restrições ao movimento espiritual, de acordo com a CrowdStrike.

A recusa de trabalhar com o Falun Gong não é surpreendente, dado que o movimento é proibido na China. No entanto, a constatação de que a DeepSeek, cuja versão de código aberto é muito popular e utilizada, possa gerar programas inseguros com base em critérios políticos é uma descoberta significativa.

Helen Toner, diretora interina do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown, chamou a descoberta de "muito interessante", já que, embora houvesse preocupações sobre esse tipo de prática, até então não havia evidências claras.

Possíveis explicações

Uma possível explicação para a geração de código inseguro seria que a DeepSeek segue diretrizes do governo chinês, evitando ajudar grupos-alvo ou fornecendo assistência de maneira manipulada.

Outra hipótese é que suas habilidades de programação tenham sido treinadas com materiais de qualidade inferior de determinadas regiões. Por exemplo, projetos de código tibetanos podem ser menos refinados que os ocidentais, seja pela falta de experiência dos programadores locais ou porque esses códigos já foram comprometidos previamente.

Além disso, a CrowdStrike levantou uma terceira possibilidade: a de que a DeepSeek tenha gerado código inseguro por conta própria, ao ser informada sobre uma região ser dominada por rebeldes. No entanto, parece improvável que a IA tenha agido dessa forma sem treinamento ou instrução específica para tal.

Acompanhe tudo sobre:Inteligência artificialDeepSeekcibersegurançaChina

Mais de Inteligência Artificial

Futuro da Intel: parceria com Nvidia pode ser decisiva para nova geração de chips

CEO da Uber admite que carros autônomos podem ameaçar empregos de motoristas

Nvidia negocia investimento de US$ 500 mi na Wayve, startup britânica de carros autônomos com IA

DeepSeek revela que treinamento de sua IA custou US$ 294 mil – menos de 0,3% do custo do ChatGPT