Redatora
Publicado em 12 de fevereiro de 2025 às 16h59.
Uma pesquisa feita pelo instituto de pesquisa Epoch AI afirmou que o gasto de energia elétrica do ChatGPT, da OpenAI, ao gerar respostas é dez vezes menor do que estimativas anteriores amplamente divulgadas.
É citado com frequência um resultado obtido em 2023 pelo pesquisador Alex de Vries que aponta para um gasto de 3 watt-hora de eletricidade, dez vezes mais do que pesquisas pelo Google.
Mas cálculos da Epoch AI indicam que o consumo de energia é de 0,3 watt-hora em uma reposta típica ao ChatGPT alimentado pelo modelo de linguagem GPT-o4. Isso corresponde a menos do que um laptop consome em alguns minutos.
Essa diferença entre as estimativas vem de modelos mais eficientes de hardware em comparação com o início de 2023, bem como uma estimativa pessimista de contagem de tokens nos cálculos de 2023.
Em nota, o Epoch AI destacou que a estimativa de 0,3 watt-hora também é pessimista e algumas interações devem sair ainda mais “baratas”.
Outros modelos de IA podem representar um maior consumo de energia do que o GPT-o4. O GPT-o1, por exemplo, também da OpenAI, tem uma cadeia de raciocínio maior, o que significa mais gasto de energia. No caso do GPT-o1 Pro, isso deve crescer ainda mais em razão de uma maior capacidade de inferência.
O modelo de linguagem V3, do DeepSeek, deve gastar menos energia do que o GPT-o4 por conta com menos parâmetros. Já os da Meta, Anthropic e Gemini devem apresentar resultados similares ao do GPT-o4, diz o instituto.
O treinamento de modelos semelhantes ao GPT-o4 consome entre 20 e 25 megawatts de energia cada em três meses, o suficiente para alimentar 20 mil casas nos Estados Unidos. Porém, ao considerar que o ChatGPT tem 300 milhões de usuários ativos, o valor deixa de ser tão significativo.