Agência
Publicado em 14 de fevereiro de 2025 às 15h18.
A crescente adoção do modelo DeepSeek tem reduzido significativamente os custos operacionais da inteligência artificial (IA), diminuindo a diferença entre modelos de código aberto e fechado. Esse movimento desencadeou uma corrida entre fabricantes de chips de IA domésticos para adaptação às novas demandas.
Desde 1º de fevereiro, pelo menos 20 fabricantes chineses anunciaram iniciativas para ajustar seus chips aos modelos do DeepSeek, conforme apurou o 21st Century Business Herald. O mercado de chips de IA envolve principalmente CPUs, GPUs, ASICs e FPGAs, sendo que a crescente necessidade de computação paralela em larga escala impulsionou a demanda por GPUs e elevou o valor de mercado da Nvidia.
No entanto, o avanço do DeepSeek indica que os custos da inferência de IA estão caindo rapidamente, ampliando as possibilidades de aplicação da tecnologia. Essa mudança fortalece a posição dos chips ASIC e FPGA, que apresentam vantagens específicas no processamento de inferência.
Especialistas do setor apontam que os fabricantes chineses de chips têm maior capacidade nesse segmento, o que pode criar oportunidades para competir com a Nvidia. No entanto, até então, o DeepSeek operava predominantemente com GPUs da Nvidia e era altamente compatível com o ecossistema CUDA. O desafio para os fabricantes domésticos é conquistar espaço nesse ambiente e avaliar se essa mudança pode reduzir a influência da Nvidia no mercado.
Além do DeepSeek, grandes empresas como OpenAI, Doubao e Baidu também reconhecem a redução nos custos da inferência de IA. Segundo Zhang Xiaolu, especialista entrevistada pelo 21st Century Business Herald, essa mudança altera o foco da indústria: antes voltado ao treinamento de IA, agora direcionado à inferência, que define o potencial máximo dos modelos.
Essa transição também beneficia players intermediários, que podem aprimorar sua capacidade computacional com a tecnologia do DeepSeek.
Historicamente, GPUs da Nvidia foram amplamente utilizadas para treinar grandes modelos de IA. No entanto, na fase de inferência, diferentes necessidades do mercado impulsionaram o desenvolvimento de chips ASIC personalizados. Empresas globais como Google, Meta e Amazon já investem em chips próprios para essa finalidade:
A Meta fortalece seus algoritmos de recomendação e publicidade com os chips MTIA.
De acordo com Gong Mingde, analista da TrendForce, espera-se que os provedores de serviços de nuvem (CSPs) aumentem seus investimentos em chips ASIC de baixo custo, transferindo o foco do treinamento para a inferência.
“Até 2028, a participação da inferência de IA no mercado deve atingir 50%”, afirmou. Essa tendência pode acelerar o desenvolvimento de chips especializados para setores como automotivo, comércio eletrônico e infraestrutura digital. No entanto, o desafio continua sendo o alto investimento necessário, tanto em hardware quanto em software.