Inteligência Artificial

DeepSeek lança modelo de IA com "atenção seletiva" e promete cortar custos pela metade

Versão V3.2-Exp adota técnica de sparse attention, a qual permite à inteligência artificial processar apenas os dados considerados relevantes para cada tarefa, melhorando a leitura de documentos longos e conversas extensas

DeepSeek define o V3.2-Exp como um “passo intermediário” rumo à sua próxima arquitetura de IA (AFP/AFP)

DeepSeek define o V3.2-Exp como um “passo intermediário” rumo à sua próxima arquitetura de IA (AFP/AFP)

Publicado em 30 de setembro de 2025 às 09h01.

A DeepSeek, startup chinesa de inteligência artificial, lançou nesta segunda-feira, 29, um modelo experimental que promete reduzir significativamente os custos de operação de IAs, mas mantendo desempenho similar ao das versões anteriores. No entanto, há dúvidas sobre a eficiência e a segurança da nova arquitetura.

Chamado de DeepSeek-V3.2-Exp, o modelo é uma atualização do V3.1-Terminus e traz como principal inovação o uso da técnica de sparse attention, a qual permite à IA processar apenas os dados considerados relevantes para cada tarefa. Com isso, o recurso DSA (DeepSeek Sparse Attention) melhora a leitura de documentos longos e conversas extensas.

Adina Yakefu, líder da comunidade chinesa na plataforma Hugging Face, que hospeda IAs de código aberto, disse à CNBC que a nova funcionalidade reduz pela metade o custo de operação em relação à versão anterior. A melhoria torna o modelo mais acessível para desenvolvedores e pequenas empresas — sem comprometer, em tese, o desempenho.

Riscos da sparse attention

Especialistas, no entanto, alertam para riscos, já que modelos com atenção seletiva podem perder nuances e excluir dados importantes sem controle. A ausência de um mecanismo transparente para identificar o que foi descartado pode afetar a precisão, especialmente em aplicações sensíveis.

Apesar desses riscos, a DeepSeek sustenta que o V3.2-Exp opera com desempenho semelhante ao V3.1-Terminus e compartilhou publicamente seu código e as ferramentas necessárias para uso e adaptação do modelo.

Além disso, o modelo funciona diretamente em chips locais, como o Ascend, da Huawei, e o Cambricon, da “Nvidia chinesa”, sem necessidade de adaptações — uma questão estratégica diante da competição tecnológica entre China e EUA.

Por ser em código aberto, o modelo não é patenteável. Assim, a vantagem da DeepSeek depende da curadoria: o que manter ou descartar nos dados processados. A empresa define o V3.2-Exp como um “passo intermediário” rumo à sua próxima arquitetura de IA.

Acompanhe tudo sobre:Inteligência artificialDeepSeekHuaweiChips

Mais de Inteligência Artificial

Rebellions, startup sul-coreana de chips de IA, capta US$ 250 mi e agora vale US$ 1,4 bi

Receita da OpenAI, do ChatGPT, já superou a de 2024 e pode chegar a US$ 13 bilhões este ano

Cientista de pesquisa em IA: conheça profissão que paga mais de R$ 100 mil por ano para iniciantes

49% das novas startups, com destaque para as de IA, foram fundadas por mulheres no último ano