Inteligência Artificial

Demanda por chips de inferência pode ameaçar dominância da Nvidia em IA; entenda

A ascensão de modelos de IA de raciocínio, como o R1 da chinesa DeepSeek, tem aumentado a demanda por chips de inferência em vez de chips de treinamento

Ramana Rech
Ramana Rech

Redatora

Publicado em 11 de março de 2025 às 11h35.

Tudo sobreInteligência artificial
Saiba mais

A demanda por chips de inferência para sistemas de inteligência artificial pode ameaçar a dominância da Nvidia no mercado de infraestrutura de IA, diz um artigo do Financial Times. Investidores têm pressionado a companhia, que viu grande valorização de suas ações, para manter o desempenho em meio à mudança nas tendências de infraestrutura.

A Nvidia detém boa parte do mercado de chips para treinamento de IA. Mas, agora a demanda tem crescido em torno de chips de inferência, processo que ocorre quando o usuário faz o seu pedido à IA.

Isso porque modelos de raciocínio em ascensão, como o R1, da DeepSeek, o GPT-o3, da OpenAI, e o Claude 3.7, da Anthropic, consomem mais recursos computacionais na fase de inferência do que no treinamento.

É em infraestrutura de inferência que os concorrentes da Nvidia, desde startups até big techs, têm concentrado seus esforços para ultrapassar a companhia de semicondutores.

Analistas do Morgan Stanley estimam que mais de 75% da demanda por poder computacional em data centers dos Estados Unidos serão destinados à inferência nos próximos anos, embora destaquem a incerteza de quando exatamente a transição irá acontecer.

Analistas do banco britânico Barclays disseram que a Nvidia terá, em essência, 100% do mercado de treinamento de IA, mas apenas metade do de computação de inferência no longo prazo. Isso deixa os rivais da companhia com uma porção de US$ 200 bilhões dos gastos com chips até 2028.

Os chips de inferência têm requisitos, como grande memória e velocidade, enquanto os produtos da Nvidia têm maior força no manuseio de grandes volumes de cálculos. Isso tem aberto caminho para alternativas à empresa.

Os produtos de inferência também funcionam melhor quando alinhados a um tipo particular de modelo de IA. Grandes companhias, como Meta, Google e Amazon têm criado seus chips de inferência para atender às próprias demandas de forma customizada.

Acompanhe tudo sobre:NvidiaChipsInteligência artificial

Mais de Inteligência Artificial

Amazon amplia uso de robôs e IA em armazéns dos EUA para reduzir custos e acelerar entregas

OpenAI firma contrato de US$ 11,9 bi com CoreWeave antes de IPO da startup

Nova DeepSeek? Manus AI, startup de IA chinesa, quer desafiar liderança dos EUA

ServiceNow negocia compra da Moveworks, de inteligência artificial, por US$ 3 bilhões