Inteligência Artificial

Competição no setor de chips se intensifica com avanço da IA

Redução nos custos operacionais impulsiona corrida entre fabricantes para adaptar seus chips à nova realidade

China2Brazil
China2Brazil

Agência

Publicado em 14 de fevereiro de 2025 às 15h18.

Tudo sobreInteligência artificial
Saiba mais

A crescente adoção do modelo DeepSeek tem reduzido significativamente os custos operacionais da inteligência artificial (IA), diminuindo a diferença entre modelos de código aberto e fechado. Esse movimento desencadeou uma corrida entre fabricantes de chips de IA domésticos para adaptação às novas demandas.

Fabricantes de chips aceleram adaptações

Desde 1º de fevereiro, pelo menos 20 fabricantes chineses anunciaram iniciativas para ajustar seus chips aos modelos do DeepSeek, conforme apurou o 21st Century Business Herald. O mercado de chips de IA envolve principalmente CPUs, GPUs, ASICs e FPGAs, sendo que a crescente necessidade de computação paralela em larga escala impulsionou a demanda por GPUs e elevou o valor de mercado da Nvidia.

No entanto, o avanço do DeepSeek indica que os custos da inferência de IA estão caindo rapidamente, ampliando as possibilidades de aplicação da tecnologia. Essa mudança fortalece a posição dos chips ASIC e FPGA, que apresentam vantagens específicas no processamento de inferência.

Especialistas do setor apontam que os fabricantes chineses de chips têm maior capacidade nesse segmento, o que pode criar oportunidades para competir com a Nvidia. No entanto, até então, o DeepSeek operava predominantemente com GPUs da Nvidia e era altamente compatível com o ecossistema CUDA. O desafio para os fabricantes domésticos é conquistar espaço nesse ambiente e avaliar se essa mudança pode reduzir a influência da Nvidia no mercado.

Inferência de IA ganha protagonismo

Além do DeepSeek, grandes empresas como OpenAI, Doubao e Baidu também reconhecem a redução nos custos da inferência de IA. Segundo Zhang Xiaolu, especialista entrevistada pelo 21st Century Business Herald, essa mudança altera o foco da indústria: antes voltado ao treinamento de IA, agora direcionado à inferência, que define o potencial máximo dos modelos.

Essa transição também beneficia players intermediários, que podem aprimorar sua capacidade computacional com a tecnologia do DeepSeek.

Historicamente, GPUs da Nvidia foram amplamente utilizadas para treinar grandes modelos de IA. No entanto, na fase de inferência, diferentes necessidades do mercado impulsionaram o desenvolvimento de chips ASIC personalizados. Empresas globais como Google, Meta e Amazon já investem em chips próprios para essa finalidade:

  • O Google tem acelerado a otimização de seus sistemas de busca com os **chips TPU Trillium**.

A Meta fortalece seus algoritmos de recomendação e publicidade com os chips MTIA.
De acordo com Gong Mingde, analista da TrendForce, espera-se que os provedores de serviços de nuvem (CSPs) aumentem seus investimentos em chips ASIC de baixo custo, transferindo o foco do treinamento para a inferência.

“Até 2028, a participação da inferência de IA no mercado deve atingir 50%”, afirmou. Essa tendência pode acelerar o desenvolvimento de chips especializados para setores como automotivo, comércio eletrônico e infraestrutura digital. No entanto, o desafio continua sendo o alto investimento necessário, tanto em hardware quanto em software.

Acompanhe tudo sobre:Inteligência artificialTecnologia

Mais de Inteligência Artificial

De forma unânime, OpenAI rejeita proposta de compra de Musk

Meta vai investir em robôs humanoides movidos a IA

IA impulsiona mercado de trabalho na China com alta demanda e salários atrativos

Baidu anuncia que usuários poderão acessar seu chatbot de IA de forma gratuita