Revista Exame

Como a Nvidia quer abocanhar um pedaço do bilionário mercado da Intel

Ao superar a Intel, a Nvidia é a fabricante de processadores mais valiosa. O que falta?

 (Divulgacão/Divulgação)

(Divulgacão/Divulgação)

FS

Filipe Serrano

Publicado em 13 de maio de 2021 às 05h30.

O anúncio pegou muita gente de surpresa. A fabricante americana Nvidia revelou no dia 12 de abril o lançamento de sua primeira CPU (sigla em inglês para unidade central de processamento e nome usado para descrever o processador, que é o cérebro de um computador). A mesma Nvidia, que sempre foi uma empresa focada nos consumidores de games para PCs com suas placas gráficas poderosas, entra pela primeira vez no terreno dos gigantes Intel e AMD, líderes de mercado.

O anúncio mexeu com o equilíbrio de forças entre as fabricantes. O novo processador — batizado de Grace em homenagem à americana Grace Hopper, pioneira da ciência da computação nos anos 1940 — é voltado para servidores de data centers, máquinas que armazenam e processam muitas informações ao mesmo tempo.

Esse mercado é dominado pela Intel. Segundo a empresa de pesquisas Mercury Research, o gigante da computação tem 93% de participação no segmento (a AMD tem os outros 7%). E o faturamento da fabricante de chips nessa área foi de 26,1 bilhões de dólares no ano passado.

A possibilidade de a empresa abocanhar um pedaço do bilionário mercado da Intel fez as ações da Nvidia encerrarem o dia em alta de 5,6%. Já os papéis da Intel tiveram queda de -4,2% (e não tinham se recuperado do tombo até o início de maio). A hora não poderia ser melhor: faltam chips para a digitalização acelerada pela pandemia, e quem se posicionar agora tende a ganhar muito lá na frente. 

Ainda é cedo para dizer se a Nvidia terá sucesso­ na empreitada. O mercado de servidores é vasto, com produtos de diversas configurações e preços, e movimenta cerca de 25,8 bilhões de dólares em vendas ao ano no mundo, de acordo com estimativa da consultoria especializada IDC. A nova CPU Grace atende um segmento muito específico de aplicações que exigem altíssimo poder de processamento para lidar com sistemas de inteligência artificial.

Segundo a empresa, o processador é dez vezes mais rápido do que o equipamento mais veloz disponível hoje. Não à toa, os clientes que fizeram as primeiras encomendas são o Centro Nacional de Supercomputação da Suíça e o laboratório de pesquisas do Departamento de Energia dos Estados Unidos.

Mas Jensen Huang, o presidente executivo e fundador da Nvidia, tem a esperança de que a CPU seja um marco para a empresa, assim como foi a criação dos primeiros processadores gráficos (as GPUs), nos anos 1990. “Trinta anos atrás os investidores me perguntavam quão grande seria o mercado de gráficos 3D e eu dizia: ‘Eu não sei’”, afirmou Huang à EXAME­ em uma teleconferência com jornalistas logo após o lançamento. “Mas minha sensação é de que este será um mercado novo muito grande, do mesmo jeito que o mercado de processadores gráficos se tornou. Aliás, esse é o estilo da Nvidia. A gente tende a ir atrás de mercados que estão começando do zero, porque é assim que contribuímos para a indústria e inventamos o futuro.” 

Sede da Nvidia, nos Estados Unidos: o faturamento da unidade de data center da empresa mais do que dobrou em 2020, para 6,7 bilhões de dólares

(Arte/Exame)

A visão de futuro de Huang tem a ver com a transformação tecnológica dos últimos anos. A digitalização, em todas as frentes de negócios, tem impulsionado o surgimento de sistemas automatizados que processam um volume absurdo de informações. Basta pensar, por exemplo, na operação de uma empresa que realiza milhões de pagamentos de cartões a cada hora e precisa ter um sistema antifraude robusto para analisar e processar os dados em milissegundos. Ou então em uma grande empresa de logística que precisa prever a demanda dos clientes e fazer a gestão de uma frota de centenas ou milhares de veículos.

Sem falar também em grandes varejistas online que têm sistemas de recomendação de produtos com base no histórico de centenas de milhões de compras de clientes. Os exemplos são muitos. E o que todos eles têm em comum é a necessidade de uma infraestrutura de tecnologia poderosa para administrar o grande volume de dados que são armazenados em sistemas em nuvem, isto é, em servidores instalados em grandes data centers. 

Ao investir em automação, além de se adaptar aos novos tempos, as empresas procuram impulsionar suas receitas, tornando as operações mais eficientes e buscando novos mercados — um movimento que só tende a crescer depois da pandemia. Segundo uma pesquisa recente da consultoria Bain, as companhias que mais investiram em automação antes de 2020 se saíram melhor durante a crise do que as demais. E

las tiveram receitas maiores e enfrentaram menos problemas com a cadeia de suprimentos e com a produtividade de seus funcionários. E os investimentos nessa área continuam aumentando. Neste ano, 38% das empresas pesquisadas pela consultoria esperam elevar os investimentos em automação — número que era de 30% antes da crise sanitária. 

Jensen Huang, fundador e CEO da Nvidia: uma aposta na inteligência artificial e na computação de altíssima performance (Mandel Ngan/Getty Images)

A Nvidia espera estar bem posicionada para fornecer os equipamentos e os softwares para esse novo mundo da automação e da inteligência artificial. O plano da empresa não é de hoje. O movimento começou no fim dos anos 2000, quando os executivos se deram conta de que seus processadores gráficos (as GPUs) podiam ser usados para mais aplicações do que apenas rodar imagens em três dimensões de games e de softwares especializados. Os processadores gráficos têm uma estrutura diferente de um chip tradicional de um computador.

As CPUs são processadores ultravelozes, mas elas são construídas para realizar uma tarefa de cada vez — são inúmeros cálculos por segundo, mas um após o outro. É o suficiente para rodar um vídeo no computador, abrir diversas abas no navegador ou usar um aplicativo de mensagens no celular. Mas quando é preciso rodar uma aplicação mais pesada — um game em 3D com imagens rea­listas — a GPU entra em ação. Ela é capaz de processar milhões de códigos ao mesmo tempo para formar os gráficos na tela, simulando efeitos de luz, de textura e de movimentos.

Por isso, as tarefas são executadas simultanea­mente, rodando em paralelo em milhares de núcleos­ dentro de um processador. Funciona bem para os games. E é também o tipo de arquitetura ideal para um sistema de inteligência artificial do tipo que é usado em softwares de reconhecimento de imagem de um carro autônomo. As câmeras e os sensores captam os sinais do ambiente ao vivo, e o sistema precisa identificar o que é cada objeto e processar aquela informação em curtíssimo tempo. 

A Nvidia lançou sua primeira GPU de uso geral em 2007 e começou a promover o uso do equipamento em data centers, laboratórios de pesquisas e supercomputadores, para ser usada em aplicações além dos gráficos. Mas faltava um elemento fundamental: uma rede de profissionais capazes de desenvolver programas e sistemas que rodassem nas GPUs da empresa.

A solução foi criar uma linguagem de programação própria (batizada com a sigla Cuda) e abri-la a toda a comunidade de especialistas em software. “Todos nós reconhecíamos a oportunidade desse novo mercado. O problema era como levar essa ferramenta para as mãos de pesquisadores e desenvolvedores para que pudessem usá-la”, lembra Ian Buck, vice-presidente da Nvidia, considerado o criador da linguagem de programação. “O que decidimos fazer foi colocar a Cuda em todas as nossas GPUs, incluindo as GPUs para games. A decisão custou muito dinheiro, mas o investimento se pagou com o tempo.” Hoje existem mais de 2,5 milhões de desenvolvedores e 7.500 startups no mundo criando aplicações com a ferramenta da empresa.

Guilherme Cordeiro, cofundador da NextCam (à esq., em pé) e equipe: as câmeras da empresa fazem o reconhecimento de objetos em fábricas e obras (Guilherme Pupo/Exame)

De lá para cá, a Nvidia também desenvolveu outros tipos de chips para data centers, e a área se tornou um dos negócios mais importantes da fabricante. O faturamento dessa unidade saiu de 320 milhões de dólares, em 2015, para 6,7 bilhões de dólares no ano fiscal encerrado em janeiro de 2021. Só de 2019 para 2020, o crescimento foi de 124%. A área já representa 40% dos negócios da Nvidia e se aproxima da receita da unidade de games, que foi de 7,7 bilhões de dólares no ano passado — e, por sinal, também foi beneficiada durante a pandemia, por causa do aumento no consumo de jogos eletrônicos.

Para analistas que acompanham o mercado de semicondutores, a Nvidia já deixou de ser apenas uma empresa de placas gráficas e está se consolidando como uma importante fornecedora de componentes e serviços para supercomputadores, servidores, e outras áreas de computação avançada que tendem a crescer.

O mercado de ações recompensou o bom desempenho. O valor dos papéis da Nvidia vem batendo recordes históricos. Até o fim de abril, eles acumulavam valorização de 110% em um ano — para um valor de mercado de quase 380 bilhões de dólares. A boa fase fez a empresa superar a Intel em julho de 2020 e se tornar, pela primeira vez, a fabricante de chips mais valiosa dos Estados Unidos (no mundo, a liderança é da TSMC, de Taiwan, que produz chips para grandes companhias de tecnologia, como a Apple).

NOVAS FRENTES DE NEGÓCIO

Como os chips da Nvidia operam em data centers em nuvem, o poder computacional das máquinas pode ser aproveitado por empresas e pesquisadores de todos os lugares do mundo, incluindo o Brasil. Sistemas complexos que exigem muitos cálculos ao mesmo tempo já estão dando origem a novos negócios e serviços por aqui. É o caso, por exemplo, da startup NextCam, de Curitiba, Paraná. Fundada em 2019, a empresa de tecnologia presta um serviço de câmeras inteligentes que acompanham a movimentação de pessoas em fábricas ou canteiros de obras.

Segundo Guilherme Cordeiro, fundador e diretor de tecnologia da ­Next­Cam, o sistema detecta automaticamente se os funcionários estão usando ou não os equipamentos de segurança, como capacete e máscara, e faz um registro das informações. O sistema ainda serve para realizar a auditoria de procedimentos críticos de uma fábrica ou obra. A ideia é monitorar se as orientações aos funcionários estão sendo seguidas.

Com as câmeras, segundo o fundador, uma construtora de Blumenau, Santa Catarina, identificou que só 60% dos funcionários estavam usando máscara de proteção contra a covid-19 na obra de um prédio residencial. A partir daí, a empresa tomou medidas, e o número subiu para 80%. “Uma parte dos cálculos é feita no equipamento da própria câmera e o restante é feito em nuvem”, diz Cordeiro. “A gente transforma os dados em inteligência e mostra aos clientes as ocorrências e quais colaboradores, horários ou locais têm mais — ou menos — risco de acidente.”

(Arte/Exame)

Os tipos de aplicações são muitos e chegam também à área da saúde. A startup NeuralMed, de São Paulo, por exemplo, desenvolveu um sistema de inteligência artificial que analisa exames de imagem de raios X e tomografia. A partir do resultado, o algoritmo identifica se o paciente pode ou não ter uma doen­ça e qual a gravidade.

O objetivo é ajudar os médicos a dar o diagnóstico de um paciente e permitir que os hospitais façam a triagem nos prontos-socorros de acordo com a gravidade dos casos, de maneira mais eficiente. Durante a pandemia, o sistema está sendo usado nos exames de pacientes com ­covid-19. “O algoritmo dá um score [uma nota] e sugere: aqui tem uma opacidade no raio X que tem 90% de chance de ser covid-19. Mas a decisão é sempre do médico, com base em outras informações clínicas dos sintomas ou em outros testes”, diz Anthony Eigier, fundador da startup. 

A grande vantagem de usar as GPUs para esse tipo de aplicação é que elas permitem realizar as operações dos algoritmos de forma muito mais veloz do que uma máquina tradicional. É por isso também que esse tipo de processador é o preferido de cientistas que precisam analisar grandes volumes de dados em suas pesquisas. Um exemplo é do Laboratório Nacional de Luz Síncotron (LNLS), instituto responsável pelo acelerador de partículas Sirius, localizado em Campinas, no interior de São Paulo.

O laboratório científico é usado em pesquisas que estudam a interação de compostos e materiais, e, para isso, os cientistas precisam observar como as estruturas se comportam em nível molecular ou atômico, em três dimensões. Pode ser desde a molécula de um fertilizante para o campo até o composto de um potencial remédio contra o coronavírus.

“Os detectores coletam os dados da interação da luz com o material. Esse volume de dados escala facilmente para o nível terabytes. Precisamos processar tudo isso para transformar o dado numa informação visível”, diz Harry Westfahl Jr., diretor do LNLS. As GPUs são usadas justamente para fazer esse processo com mais agilidade. “Num experimento desses, a última coisa que um cientista quer é que o processamento computacional seja um gargalo”, completa o pesquisador.

Supercomputador no acelerador de partículas Sirius: as pesquisas científicas exigem mais poder de processamento (Germano Lüders/Exame)

A Nvidia aposta que cada vez mais empresas e laboratórios vão precisar do tipo de equipamento que ela produz justamente para realizar aplicações e rodar sistemas altamente complexos como esses. Com esse plano em mente, a fabricante começou a preparar um voo mais alto. Em setembro do ano passado, a empresa fechou um acordo de 40 bilhões de dólares para adquirir o gigante britânico ARM, que atualmente pertence ao fundo SoftBank, o segundo maior negócio da história do mercado de tecnologia.

Embora pouco conhecida do grande público, a ARM é uma das empresas mais importantes da indústria de chips do mundo. Ela se especializou em fazer o design interno dos processadores (a chamada arquitetura) e licenciar suas tecnologias para outros fabricantes, como Intel, AMD, Apple, Samsung, Qualcomm e a própria Nvidia. Hoje, 95% dos smartphones do mundo têm processadores baseados nas arquiteturas da ARM. Em 2020, a empresa teve um faturamento de 1,9 bilhão de dólares. 

(Arte/Exame)

A expectativa da Nvidia era combinar sua própria expertise em fazer processadores voltados para inteligência artificial com a ampla presença da ARM no mercado, o que lhe daria uma vantagem competitiva também nos processadores para data centers. Mas o negócio, que ainda precisa ser aprovado pelas agências reguladoras, vem sendo cada vez mais criticado por concorrentes e autoridades, que temem um poder excessivo da Nvidia sobre o mercado de chips.

Em abril, o governo do Reino Unido abriu uma investigação para avaliar se a aquisição prejudica a segurança nacional do país. O relatório final está previsto para julho. Agências reguladoras dos Estados Unidos, da União Europeia e da China também devem analisar o caso com atenção neste ano, e isso ocorre num momento em que as empresas de tecnologia têm sido criticadas por seu poder de monopólio. O CEO Jensen Huang tem repetido que pretende manter o modelo de licenciamento da ARM aberto a todas as empresas, mas a preocupação se mantém. Empresas como Google, Microsoft e Qualcomm já manifestaram ser contra o negócio nas agências reguladoras. 

Outra barreira para os planos da Nvidia de se manter na liderança dos chips tem a ver com outra tendência recente nesse mercado. Tem sido mais comum as empresas de tecnologia projetarem os próprios processadores e terceirizarem a produção para fabricantes como a TSMC. O caso da Apple é o mais exemplar.

A empresa decidiu no ano passado encerrar uma parceria de anos com a Intel para substituir os processadores dos computadores Mac por um chip próprio, projetado pela companhia. Além disso, grandes clientes como a Amazon, a Microsoft e o Google — que possuem grandes operações de data centers no mundo — também têm apostado mais nessa alternativa. “Grandes clientes, desde fornecedores de nuvem até montadoras com projetos de carros autônomos, podem ter relutância em colocar todos os ovos na cesta da Nvidia”, escreveu Abhinav Davuluri, o estrategista da casa de análises ­MorningStar, em um relatório recente. Como se vê, a Nvidia teve sucesso em apostar nos processadores para a computação do futuro e vem colecionando bons resultados. Mas o caminho à frente também será cheio de obstáculos.  

(Arte/Exame)


(Publicidade/Exame)

 


Acompanhe tudo sobre:amdChipsComputadoresempresas-de-tecnologiaInteligência artificialNvidia

Mais de Revista Exame

Invasão chinesa: os carros asiáticos que chegarão ao Brasil nos próximos meses

Maiores bancos do Brasil apostam na expansão do crédito para crescer

MM 24: Operadoras de planos de saúde reduzem lucro líquido em 191%

MM 2024: As maiores empresas do Brasil