DeepSeek: investir bilhões em datacenters pode não ser a estratégia mas acertada para inovar (Getty Images)
Especialista em inovação digital
Publicado em 28 de janeiro de 2025 às 13h32.
Última atualização em 29 de janeiro de 2025 às 17h10.
Acredito que você não precisa de mais uma explicação sobre o que é o modelo R1 da DeepSeek, empresa Chinesa que tomou as notícias na última semana, e como isso é importante para o momento atual do desenvolvimento de Inteligência Artificial no mundo. Quero propor uma outra perspectiva: Você provavelmente foi enganado no que leu e ouviu sobre inteligência artificial nos últimos três anos.
O DeepSeek demonstrou que investir bilhões em datacenters pode não ser a estratégia mas acertada para inovar no mercado, ao contrário do que Big Techs têm propagandeado. Não é um jogo apenas de poderio financeiro, mas de uso inteligente de dados e de inteligência compartilhada.
Uma abordagem Open source, open weights e open research resultou em inovação aberta. Esse é, em muitos aspectos, o maior avanço que essa abordagem de pesquisa pode trazer para o momento atual de expectativas exageradas. Mesmo com uma fração do investimento de seus concorrentes, e se utilizando da pesquisa mundial em Inteligência Artificial, uma equipe foi capaz de inovar criando soluções alternativas para as restrições de budget e infraestrutura que possuíam.
Quando um executivo diz, numa conferência, que a grande saída para o mundo é gastar mais dinheiro com infraestrutura, desconfie. Ceticismo é sua maior ferramenta para navegar neste mercado de especulação. Pressionado pelos relatórios trimestrais e pela evolução do valor das ações, um o CEO vai dizer qualquer coisa para garantir uma sinalização positiva ao mercado. Não necessariamente mentir, mas com toda certeza impulsionar a expectativa do mercado para seguir com os múltiplos acelerados de sempre. Em muitos casos, a especulação financeira é parte central de uma estratégia de negócios bilionária.
Para que essas empresas sigam a trajetória de crescimento perpétuo, é necessário um objetivo inalcançável. O objetivo da vez é a inteligência artificial geral (AGI), o Santo Graal do mercado. Para chegar até ela, valia gastar o dinheiro que fosse, numa corrida caríssima entre as big techs. Nenhuma equipe com 5 bilhões de dólares por ano para gastar vai criar soluções que não sejam baseadas no uso desse dinheiro para comprar maior poder computacional. Para justificar esse custo, a estratégica mais fácil tem sido ampliar o sentimento de medo, incerteza e dúvida no futuro. Risco existencial nacional, risco de perder a corrida para AGI, posicionamento na liderança global - quando no fundo, grande parte da discussão nos últimos anos sobre Inteligência Artificial Geral, foi sobre garantir que as ações continuassem super valorizadas.
O resultado do mercado com a notícia de que a DeepSeek conseguiu se equiparar aos principais modelos de fronteira, é apenas mais um sintoma do desafio em manter o modelo atual de investimentos em Startups de IA.
O anúncio do R1 não é uma surpresa: era inevitável. Desde o ano passado, especialistas e acadêmicos como Timnit Gebru, Gary Marcus e Yann LeCun, apontam o dedo para a premissa de que precisamos de poder de processamento infinito para avançar no desenvolvimento de Modelos melhores. Com a publicação do artigo da DeepSeek, no fim de 2024, sobre a estratégia de Aprendizado Reforçado e Estabilização Numérica, houve o indicativo claro de que existem outros caminhos.
O anúncio, na semana passada do Projeto Stargate pelos Estados Unidos, vem em um momento irônico, e amplia o sentimento de final de copa do mundo que ofusca a discussão real que deveríamos ter nesse momento: a DeepSeek demonstrou o grande problema no paradigma dominante de desenvolvimento da Inteligência Artificial.
Até o momento, OpenAI e seus pares têm tentado convencer o público e os políticos de que escalar modelo de AI indefinidamente é a melhor forma de alcançar a AGI, independentemente das consequências catastróficas em usar toda a água e energia disponível na Terra para tal.
Como escreveu perfeitamente a jornalista especialista em IA Karen Hao:
O caso para aumentar a escala foi sempre baseado mais em negócio do que em ciência. Cientificamente, não existe nenhuma lei da física que diz que avanços da IA precisam vir de maior escalada ao invés de abordagens alternativas utilizando os mesmos ou menos recursos. Mas para o Negócio, essa abordagem é perfeitamente utilizada para criar relatórios trimestrais e planejamento de receita leva a um caminho claro para eliminar a competição: Mais Chips.
O que R1 demonstra é que os argumentos gerais para a busca de Escala Infinita em detrimento do planeta não se sustentam, e que nós devemos sempre questionar essa expectativa.
Para mim, esse novo modelo de Reasoning, Aberto e Público, é talvez a melhor possibilidade para uma evolução séria e adoção real de ferramentas de IA sem as amarras corporativas, que trazem muitas questões de privacidade e possuem o objetivo de coletar todas as nossas interações com as plataformas para ampliar o treinamento desses modelos.
R1 e os próximos modelos que surgirão no mundo através da pesquisa compartilhada nos permitirão a capacidade de executar as próprias LLMs de maneira local, sem depender do pagamento de um serviço que tem acesso a todas as suas informações. Este é o caminho mais acertado para a adoção em massa e avanço tecnológico.
Este é o melhor momento para equipes brasileiras de pesquisa e desenvolvimento se debruçarem sobre a pesquisa publicada pela DeepSeek para avançar seus próprios projetos. Não duvido que a própria Meta e a OpenAi estejam nesse momento avaliando as possibilidades do uso das mesmas estratégias usadas para alcançar o resultado da equipe chinesa.
Ciência se faz com compartilhamento de informações, de forma aberta e colaborativa. É desse intercambio de resultados que podemos ter alguma chance de avançar nossa própria capacidade tecnológica. Da mesma forma que a OpenAi se valeu do estudo da Google Brain, no já famoso paper 'Attention is All you need', DeepSeek se vale de toda a pesquisa tecnológica até o momento para inventar soluções inovadoras, apesar da limitação de budget e poder computacional. A necessidade é, afinal, a mãe de todas as invenções. Liderada pela pesquisadora Luo Fuli, a empresa demonstra seu compromisso com a pesquisa científica e publica em detalhes os mecanismos usados para alcançar o resultado.
Satya Nadella, da Microsoft, descreve esse momento como mais uma demonstração do Paradoxo de Jevons, que propõe que apesar de o ganho de eficiência e a comoditização de uma solução tecnógica tornar a solução mais barata, a tendência é que seu consumo passe a aumentar. Os datacenters estão a salvo.
Este acontecimento demonstra o principal benefício de uma abordagem open source na evolução tecnológica mundial, e como todos nossa indústria pode se beneficiar da deste modelo de pesquisa. Infelizmente para algumas empresas, o problema é que não afeta positivamente o bottom line.