Apoio:
Parceiro institucional:
Uma das preocupações da IA é seu alto consumo de energia (NanoStockk/Getty Images)
Agência de notícias
Publicado em 1 de fevereiro de 2025 às 14h10.
Última atualização em 1 de fevereiro de 2025 às 14h10.
O avanço da inteligência artificial (IA) generativa é acompanhado por preocupações crescentes sobre seu impacto ambiental, um dos principais temas de uma cúpula internacional sobre esta tecnologia que acontecerá neste mês em Paris.
A seguir, cinco números que mostram este impacto:Cada pesquisa no ChatGPT, o chatbot da OpenAI que pode gerar todos os tipos de conteúdo com uma simples solicitação, consome 2,9 Wh de eletricidade.
Isso é 10 vezes superior ao gasto de uma pesquisa no Google, de acordo com a Agência Internacional de Energia (IEA).Atualmente, a OpenAI reivindica 300 milhões de usuários semanais, com cerca de um bilhão de solicitações enviadas diariamente.
Além do ChatGPT, que popularizou a IA generativa com seu lançamento em 2022, há uma grande variedade de bots de conversação.
Só na França, por exemplo, quase 70% dos jovens de 18 a 24 anos relatam usar essa tecnologia, segundo uma pesquisa do instituto de pesquisa Ifop.
Os data centers, que armazenam as informações e fornecem a enorme capacidade de computação exigida pela IA, estão no centro dessa tecnologia.
Em 2023, estas infraestruturas digitais foram responsáveis por quase 1,4% do consumo global de eletricidade, de acordo com um estudo da Deloitte.
Com o rápido crescimento do uso, o número pode chegar a 3% dos gastos globais até 2030, cerca de 1.000 TWh, o consumo anual combinado da França e da Alemanha, diz a consultoria.Enquanto isso, a AIE prevê um aumento de mais de 75% na demanda de eletricidade desses centros entre 2022 e 2026, impulsionado pela IA e pelas criptomoedas.
Nesse ritmo, 40% dos data centers dedicados à inteligência artificial não receberão fornecimento de energia suficiente até 2027, de acordo com um estudo da empresa norte-americana Gartner.
Os especialistas de Oxford chegaram a uma conclusão semelhante em 2021, calculando que uma única sessão de treinamento do GPT-3, o modelo OpenAI que sustenta o ChatGPT, produziu 224 toneladas de CO2.
E para progredir, as empresas precisam treinar milhares de modelos.
No entanto, é difícil avaliar com precisão as emissões de gases de efeito estufa causadas pela IA generativa.
Especialistas e instituições internacionais reclamam que as informações sobre as condições de fabricação desses modelos e sobre os data centers são escassas e que há uma falta de regras de medição globais.
A operação de data centers requer sistemas de resfriamento com uso intensivo de água.
Por exemplo, o GPT-3 consome cerca de meio litro de água para gerar entre 10 e 50 respostas, de acordo com uma estimativa conservadora feita por pesquisadores da Universidade da Califórnia Riverside e da Universidade do Texas Arlington.
Seu estudo publicado em 2023 estimou que o crescimento da demanda de IA exigirá o consumo de 4,2 a 6,6 bilhões de metros cúbicos de água em 2027, o que representa de quatro a seis vezes o consumo anual da Dinamarca.O número pode aumentar para 2,5 milhões de toneladas até 2030, uma quantidade equivalente a 13,3 bilhões de smartphones, de acordo com esse estudo.
Além disso, os servidores e chips de computador necessários para desenvolver a IA envolvem o uso de metais raros, cuja extração intensiva, especialmente na África, é realizada por meio de processos poluentes, observa a Agência Francesa de Transição Ecológica.