Inteligência Artificial

DeepSeek lança modelo de IA com "atenção seletiva" e promete cortar custos pela metade

Versão V3.2-Exp adota técnica de sparse attention, a qual permite à inteligência artificial processar apenas os dados considerados relevantes para cada tarefa, melhorando a leitura de documentos longos e conversas extensas

DeepSeek define o V3.2-Exp como um “passo intermediário” rumo à sua próxima arquitetura de IA (AFP/AFP)

DeepSeek define o V3.2-Exp como um “passo intermediário” rumo à sua próxima arquitetura de IA (AFP/AFP)

Publicado em 30 de setembro de 2025 às 09h01.

A DeepSeek, startup chinesa de inteligência artificial, lançou nesta segunda-feira, 29, um modelo experimental que promete reduzir significativamente os custos de operação de IAs, mas mantendo desempenho similar ao das versões anteriores. No entanto, há dúvidas sobre a eficiência e a segurança da nova arquitetura.

Chamado de DeepSeek-V3.2-Exp, o modelo é uma atualização do V3.1-Terminus e traz como principal inovação o uso da técnica de sparse attention, a qual permite à IA processar apenas os dados considerados relevantes para cada tarefa. Com isso, o recurso DSA (DeepSeek Sparse Attention) melhora a leitura de documentos longos e conversas extensas.

Adina Yakefu, líder da comunidade chinesa na plataforma Hugging Face, que hospeda IAs de código aberto, disse à CNBC que a nova funcionalidade reduz pela metade o custo de operação em relação à versão anterior. A melhoria torna o modelo mais acessível para desenvolvedores e pequenas empresas — sem comprometer, em tese, o desempenho.

Riscos da sparse attention

Especialistas, no entanto, alertam para riscos, já que modelos com atenção seletiva podem perder nuances e excluir dados importantes sem controle. A ausência de um mecanismo transparente para identificar o que foi descartado pode afetar a precisão, especialmente em aplicações sensíveis.

Apesar desses riscos, a DeepSeek sustenta que o V3.2-Exp opera com desempenho semelhante ao V3.1-Terminus e compartilhou publicamente seu código e as ferramentas necessárias para uso e adaptação do modelo.

Além disso, o modelo funciona diretamente em chips locais, como o Ascend, da Huawei, e o Cambricon, da “Nvidia chinesa”, sem necessidade de adaptações — uma questão estratégica diante da competição tecnológica entre China e EUA.

Por ser em código aberto, o modelo não é patenteável. Assim, a vantagem da DeepSeek depende da curadoria: o que manter ou descartar nos dados processados. A empresa define o V3.2-Exp como um “passo intermediário” rumo à sua próxima arquitetura de IA.

Acompanhe tudo sobre:Inteligência artificialDeepSeekHuaweiChips

Mais de Inteligência Artificial

Anthropic prevê lucro já em 2028; OpenAI só deve ser lucrativa em 2030

Microsoft usará parceria com OpenAI para desenvolver chips de IA próprios

Baidu anuncia novos chips de IA para impulsionar autossuficiência da China

Alibaba planeja reformular app de IA para ser mais parecido com o ChatGPT