O crescimento acelerado da inteligência artificial (IA) está a transformar a economia mundial, impulsionando a automatização, a produtividade e a inovação em praticamente todos os setores.
Contudo, este avanço tecnológico tem um custo ambiental cada vez mais evidente: o enorme consumo de energia e de água necessário para treinar e operar os modelos de IA de grande escala, sublinha a merca20.
Os sistemas generativos, como o ChatGPT, o Gemini ou o Claude, dependem de infraestruturas informáticas massivas compostas por milhares de processadores e servidores. «De acordo com o relatório AI Regulations Worldwide, o treino de um único modelo avançado pode emitir até 8.930 toneladas de dióxido de carbono equivalente, o mesmo que mais de mil voos transatlânticos. Além das emissões, o processo requer um consumo constante de eletricidade, muitas vezes proveniente de fontes não renováveis, e grandes quantidades de água para refrigeração», alerta o merca20.
Estima-se que o investimento global em infraestruturas associadas à IA possa atingir entre 3,4 e 7,3 mil milhões de euros até 2030, levando à construção de milhares de novos centros de dados em todo o mundo, e que muitos destes serão instalados em regiões com escassez de água ou dificuldades energéticas, aumentando a pressão sobre recursos já limitados.
As grandes empresas tecnológicas, como a Microsoft, a Google, a Amazon, a Meta e a NVIDIA, lideram esta expansão, investindo somas elevadas em novas instalações, mas os especialistas alertam ainda para «a crescente concentração de poder tecnológico em poucas empresas e países, o que acentua as desigualdades no acesso aos benefícios da IA e distribui de forma desigual os custos ecológicos», escreve o merca20.
Perante este cenário, a indústria tecnológica começa a procurar soluções para reduzir a sua pegada ambiental.
Refere a mesma publicação que «as medidas mais promissoras estão a utilização comprovada de energias renováveis, a construção de centros de dados em climas frios para diminuir o consumo de energia em refrigeração, o desenvolvimento de modelos mais pequenos e eficientes e o processamento local que permite executar sistemas de IA diretamente em dispositivos, sem depender de grandes infraestruturas»














