À medida que a inteligência artificial (IA) se integra no nosso dia a dia, uma questão torna-se cada vez mais urgente: quanta energia está realmente a consumir? E por que razão as empresas que mais a promovem continuam a esconder os números?
Sam Altman, CEO da OpenAI, tentou responder recentemente, afirmando que uma simples consulta no ChatGPT consome 0,34 watt-hora: “o equivalente a um segundo de forno ligado”, segundo ele. No entanto, especialistas afirmam que este número pouco significa sem contexto: foi considerada apenas a resposta de texto? Inclui imagens? E quanto à energia gasta no treino dos modelos ou na refrigeração dos servidores?
A investigadora Sasha Luccioni, da Hugging Face, é peremptória: “Ele pode ter inventado esse número”. E não é caso único. A maioria das ferramentas de IA mais populares do mundo, usadas por centenas de milhões de pessoas semanalmente, não revela qualquer informação sobre a sua pegada ambiental.
Uma análise recente liderada por Luccioni revela que, em maio de 2025, 84% da utilização de modelos de linguagem foi feita com ferramentas sem qualquer tipo de divulgação ambiental. Ou seja, a maioria das interações que temos com IA ocorre num completo vazio de transparência.
Apesar de rumores amplamente divulgados, como o de que o ChatGPT consome 10 vezes mais energia do que uma pesquisa no Google, a verdade é que esses números têm origens pouco fiáveis, muitas vezes baseados em comentários soltos e não em estudos científicos rigorosos.
Alguns investigadores tentam contornar esta opacidade estudando modelos de código aberto, que permitem medições mais fiáveis. Um estudo publicado na revista Frontiers of Communication avaliou 14 modelos e identificou variações de consumo energético de até 50% entre eles. Modelos mais complexos, com maior capacidade de raciocínio, eram também os que mais energia exigiam, embora mais precisos, tendiam a ser prolixos e menos eficientes.
Além do consumo direto das GPUs, há ainda a considerar as infraestruturas físicas, centros de dados com sistemas de refrigeração, iluminação e servidores ligados a redes de energia que podem ser alimentadas por fontes fósseis ou renováveis, consoante a localização.
No entanto, o maior buraco negro continua a ser o treino dos modelos. Ninguém sabe exatamente quanta energia foi usada para treinar sistemas como o GPT-4, porque os dados são mantidos em segredo pelas grandes tecnológicas. Sem essa informação, qualquer tentativa de calcular o impacto real da IA no planeta será incompleta.














