ChatGPT pode não gastar tanta energia quanto imaginávamos; entenda

O ChatGPT, modelo de inteligência artificial (IA) da OpenAI, pode não consumir tanta energia quanto as primeiras notícias presumiam, é o que conclui um novo estudo recente conduzido pela Epoch AI, um instituto de pesquisa de IA.

Uma estatística citada com frequência é de que ele requer cerca de 3 kWh de energia para responder um comando, isso é 10 vezes mais do que a mesma pesquisa no Google. Mas a Epoch AI acredita que esse número é superestimado e se propôs a analisar o real gasto da ferramenta.

Como funcionou a pesquisa? A Epoch AI usou o modelo padrão mais recente da OpenAI, o ChatGPT 4o, como referência e descobriu que ele consumiu por volta de 0,3 kWh por consulta. Isso é menos do que muitos aparelhos domésticos.

“O uso de energia realmente não é um grande problema em comparação com o uso de aparelhos normais ou aquecedores e um ar condicionado domésticos, ou mesmo [o consumo] ao dirigir um carro” disse Joshua You, analista de dados da Epoch que conduziu a análise, ao site especializado TechCrunch.

O consumo de energia por IA – e seu efeito ambiental – é debatido em fóruns especializados ao mesmo tempo em que as empresas do setor aumentam suas infraestruturas. Apenas na semana passada, um grupo de mais de 100 organizações publicou uma carta aberta na qual pedia garantias à indústria e aos reguladores de que os novos data centers de IA não esgotarão recursos naturais. Outra reivindicação pedia que as concessionárias (ou seja: as empresas de serviços públicos que fornecem energia elétrica) não sejam forçadas a depender de fontes de energia não renováveis.

You disse que a análise foi estimulada pelo que ele caracterizou como pesquisa anterior desatualizada. Por exemplo, o relatório que estimou o consumo máximo de 3 kWh foi detectado porque a OpenAI usava chips antigos e menos eficientes pra rodar seus modelos.

A busca por chips modernos é algo que afeta a OpenAI e toda a indústria desenvolvedora de IA. Esse é um dos motivos que levou a Nvidia, a maior provedora desse produto, a ficar entre as empresas mais valiosas do mundo. Chips não são tudo, como já mostraram os modelos chineses como o Qwen e o DeepSeek, mas a empresa de Sam Altman não quer ser pega de surpresa e já investe dezenas de milhões de dólares para lançar um processador próprio até o final de 2025.

“Vi muito discurso público que reconheceu corretamente que a IA consumiria muita energia nos próximos anos, mas nunca houve a descrição precisa de quanta energia era destinada para IA hoje”, disse You. “Além disso, alguns dos meus colegas notaram que a estimativa mais amplamente relatada de 3 kWh por consulta era baseada em pesquisas bastante antigas e, com base em alguns cálculos rápidos, parecia ser alta demais”.

O resultado de 0,3 kWh da Epoch também é uma estimativa, destaca You. A OpenAI não publica detalhes sobre o gasto de energia que permitiriam um cálculo mais exato.

A pesquisa também não considerou os custos de energia adicionais, ou seja, aqueles gastos pelas ferramentas adicionais ao ChatGPT, como o gerador de imagem ou o processo de anexar e leitura de um documento.

You diz que consultas do ChatGPT com “entrada longa” – aquelas com arquivos grandes anexados -, por exemplo, devem gastar mais eletricidade. Então, o analista espera que o consumo de energia base do ChatGPT aumente com o tempo.

“A IA vai ficar mais avançada, treinar essa IA provavelmente exigirá muito mais energia, e essa futura IA pode ser usada com bem mais intensidade, lidar com mais tarefas, e mais tarefas complexas, do que como as pessoas usam o ChatGPT hoje”, diz You.

Embora avanços notáveis de eficiência tenham sido registrados nos últimos meses, a escala a qual a IA pode atingir deve impulsionar uma expansão de infraestrutura que consumirá enormes quantidades de energia, afirma o levantamento.

Uma estimativa da Rand indica que nos próximos dois anos, os centros de dados de IA devem precisar de quase toda a carga energética gasta pela Califórnia em 2022. Até 2030, treinar um modelo de fronteira tecnológica pode demandar uma produção de energia equivalente à de oito reatores nucleares (8GW), prevê o relatório da Rand.

Outro fator que deve impulsionar a demanda por energia é o crescente investimento das empresas nos modelos que focam em raciocínio, que em tese são mais capazes em termos de execução de tarefas, além de exigirem mais computação para rodar. “Modelos de raciocínio vão cada vez mais assumir tarefas que modelos mais antigos não podem, e gerar mais [dados] para fazê-lo, e ambos exigem mais data centers”, diz You.

A OpenAI começou a lançar modelos de raciocínio mais eficientes em termos de energia, como o o3-mini. Mas é improvável, ao menos agora, que os ganhos de eficiência compensem o aumento das demandas de energia do processo de “pensamento” dos modelos de raciocínio e do crescente uso de IA no mundo.

Para quem se preocupa com o quanto consome durante o uso de IA, You sugere o uso com parcimônia. “Você poderia tentar usar modelos de IA menores, como o GPT-4o mini”, diz. “E usá-los com moderação de uma maneira que requer processar ou gerar toneladas de dados”

Deixe um comentário