Alexandre Ziebert: gerente de marketing da Nvidia do Brasil (Nvidia/Reprodução)
Repórter
Publicado em 10 de julho de 2023 às 17h23.
Última atualização em 19 de julho de 2024 às 10h24.
O CEO da Nvidia, Jensen Huang, quando experimentou o ChatGPT pela primeira vez pediu um poema sobre sua empresa à inteligência artificial (IA): "A Nvidia está à altura do desafio. / Com suas poderosas GPUs e IA, / Eles ultrapassam os limites da tecnologia de ponta.” O poema do robô era uma evidência de que a aposta de anos atrás da empresa se tornará uma realidade até na literatura estranha do chatbot.
Por quase três décadas, os chips Nvidia têm impulsionado gráficos avançados em jogos de consoles. No entanto, nos últimos dez anos, Huang resolver trabalhar com uma de suas suspeitas: a que esses chips também eram eficazes para o manuseio de grandes volumes de dados, atualmente essenciais para dar vida as IAs e tornar possível que elas gerem um poema sobre qualquer coisa.
Leia também: Google intensifica batalha de IAs na saúde com testes do chatbot Med-PaLM 2
Para provar seu ponto, ele orientou sua equipe a criar um servidor especialmente projetado para IA. O primeiro exemplar foi entregue em 2016 para Elon Musk e Sam Altman, co-fundadores da OpenAI. O equipamento, um supercomputador de IA que custa US$ 129.000, continha oito processadores gráficos interligados, capazes de processar em duas horas o que um chip convencional levaria seis dias.
Apesar da ruptura entre Musk e Altman, os co-fundadores da OpenAI continuaram a utilizar os chips Nvidia para vários projetos. O ChatGPT, lançado no ano passado, foi alimentado por mais de 20.000 processadores gráficos Nvidia. Em fevereiro, o chatbot alcançou a marca de 100 milhões de usuários, um marco significativo para a OpenAI, apesar dos custos operacionais elevados.
Para cobrir os crescentes custos de computação, a Microsoft se comprometeu a fornecer mais de US$ 10 bilhões em financiamento. Altman, CEO da OpenAI, precisará de mais chips Nvidia para atender à demanda. Não por acaso, a empresa atingiu o valor de mercado inédito de 1 trilhão de dólares.
Esse é o cenário mais amplo da dependência da IA pelo hardware fornecido pela Nvidia. Há também uma crescente demanda no cotidiano dos consumidores finais, para aplicações no dia a dia e uso doméstico. A IA se torno uma demanda para computadores domésticos. É o que explica Alexandre Ziebert, gerente de marketing técnico da NVIDIA para a América Latina, em entrevista à EXAME.
Para o executivo, as ferramentas que usam IA da Nvidia já justificam o interesse por placas de vídeo mais robustas.
A demanda por placas de vídeos se tornou particularmente alta durante a pandemia. Agora temos o boom da IA, uma tecnologia que demanda bastante de hardware de vídeo dedicado. Com isso, o cenário de gargalo na oferta pode acontecer mais uma vez ?
Hoje as placas de vídeo não são mais restritas a quem trabalha com edição de vídeos ou criação de conteúdo visual. Profissionais de diferentes setores precisam de hardware robusto e junto disso, com a expansão da IA, os data centers também precisarão ser atualizados para lidar com a carga dessas ferramentas. Alias, o ChatGPT só é possível por conta da evolução do processamento de hardware gráfico. Um exemplo que leva a necessidade dos chips para o usuário doméstico vem da própria Microsoft, que apresentou um assistente com IA para o Windows, e que para rodar esse tipo de aplicação de forma eficiente, exige uma placa de vídeo. São nesses pequenos avanços que nascem uma nova demanda. Mas como isso se dá gradualmente, não vejo o cenário crítico da pandemia se repetindo.
A Nvidia apresentou recentemente a série 4000, uma placa que chega om uma série de softwares que usam de IA para aprimorar áudio e vídeo. A intenção é tornar o acesso a inteligência artificial mais amplo?
Sim, nosso objetivo sempre foi esse. Desde 2018, com o lançamento da série RTX 2000, temos núcleos dedicados para o processamento de IA. A ideia é oferecer não apenas desempenho melhorado para jogos, mas também recursos que de outra forma seriam impraticáveis ou impossíveis para um PC comum.
Quais são esses recursos?
O DLSS, por exemplo, é um recurso baseado em IA que melhora o desempenho geral de jogos. A NVIDIA também desenvolve outras aplicações, como o NVIDIA Broadcast para limpeza de áudio, e a NVIDIA Canvas, que gera imagens fotorrealistas. O Tensor Cores, que são os núcleos dedicados de processamento, por exemplo, agora estão disponíveis em todas as placas GeForce.
Com relação à estratégia da NVIDIA para aparelhos mobile, agora que companhia atingiu um novo marco em valor de mercado e atenção de investidores, chips mobile tem chance de voltar ao portfólio da empresa?
Na Computex, evento da Nvidia que ocorre em Taiwan, Jensen Huang, o CEO da companhia, falou sobre a história da empresa e como ela se adaptou às mudanças ao longo do tempo. Uma dessas mudanças foi a linha Tegra, que focou em chips para aparelhos móveis. Por volta de 2013 ou 2014, a NVIDIA estava em pleno desenvolvimento da linha Tegra para smartphones, com o objetivo de oferecer uma GPU mobile, algo que não era comum na época. Mas não havia demanda suficiente. Jensen tomou uma decisão estratégica de se retirar do mercado e direcionar a equipe de desenvolvimento da linha Tegra para a robótica, em vez de focar em smartphones. Isso incluiu o desenvolvimento de processadores para carros autônomos, um mercado que na época valia zero bilhões de dólares e agora proporciona à Nvidia uma nova fonte de renda.