GPT-5 impulsiona aumento de recursos de IA, mas data centers mostram eficiência surpreendente

A IA está em todos os lugares agora, com tópicos como o GPT-5 e o recente anúncio de código aberto da Grok dominando as manchetes. Uma das principais (e mais válidas) críticas à tecnologia é o seu alto consumo de energia; alguns estudos sugerem que o GPT-5 consome eletricidade suficiente para abastecer 1,5 milhão de residências diariamente, sem mencionar a quantidade de água necessária para manter esses data centers refrigerados.

Mas um novo relatório indica que pode haver outra opção, e uma que não significa que precisamos destruir o planeta para usar a tecnologia de IA. A Agência Ambiental do Reino Unido e a techUK trabalharam juntas para pesquisar 73 data centers na Inglaterra, e os resultados são surpreendentes e encorajadores.

De acordo com a TechUK, 51% dos data centers utilizavam sistemas de resfriamento sem água e 64% consumiam menos de 10.000 m³ de água por ano. Para referência, isso é menos do que a média de um centro recreativo. E 89% dos data centers monitoravam o uso de água para buscar resultados mais conscientes sobre o clima.

As descobertas contradizem a crença comum de que data centers de IA consomem enormes quantidades de água. Richard Thompson, Diretor Adjunto de Recursos Hídricos da Agência Ambiental do Reino Unido, afirmou: “Estou animado com o trabalho que a techUK realizou para entender melhor o uso da água – as descobertas sugerem que os data centers do Reino Unido estão utilizando uma variedade de tecnologias de resfriamento e se tornando mais conscientes em relação ao uso da água. Os avanços tecnológicos devem andar de mãos dadas com a proteção do abastecimento público de água, da segurança alimentar e do meio ambiente. É vital que o setor coloque a sustentabilidade em seu cerne e minimize o uso de água em conformidade com os padrões em evolução. Estamos trabalhando com a indústria e outros órgãos reguladores para aumentar esses padrões e garantir os melhores resultados para o nosso meio ambiente e nosso abastecimento de água para as gerações futuras.”

Ainda há a questão do poder

Embora seja encorajador ver que os data centers usam menos água do que se pensava, ninguém pode negar que eles consomem uma quantidade absurda de energia. Embora a situação tenha melhorado desde 2023, o planeta ainda enfrenta uma crise energética, e a crescente necessidade de energia para a inteligência artificial está jogando gasolina em uma chama já descontrolada.

O problema é que a quantidade específica de energia necessária não está clara. Um estudo de 2024 do Berkeley Lab mostra um aumento no consumo de energia que corresponde ao aumento da popularidade dos assistentes de IA, mas números exatos são difíceis de precisar porque poucas empresas de IA divulgam seus dados de consumo.

De acordo com Sam Altman , do ChatGPT, uma consulta média consome cerca de 0,34 watts-hora de energia. Pode não parecer muito, mas é uma quantidade substancial quando se considera os milhões de consultas que passam pela IA todos os dias. É aproximadamente o equivalente à quantidade de energia que uma lâmpada LED consome em dois minutos.

Em seguida, o Google divulgou seus próprios números de uso. No entanto, o gigante das buscas alerta que esses números subestimam "substancialmente" a pegada geral do Gemini , com uma média de 0,10 watts-hora de energia e 0,12 mL de água usados ​​por consulta.

Quanto ao Grok, não está claro quanta energia a plataforma usa, mas um bate-papo sugeriu que ela pode usar de 1 a 2 watts-hora de energia.

Os requisitos de energia da IA ​​estão diminuindo à medida que a tecnologia amadurece. O Google relatou que "nos últimos 12 meses, a energia e a pegada de carbono total do prompt de texto mediano do Gemini Apps caíram 33x e 44x, respectivamente, ao mesmo tempo em que entregavam respostas de maior qualidade". ( Transcrito por ZDNet .)

A IA pode ser o futuro, mas não pode custar caro ao planeta

As preocupações ambientais em torno da inteligência artificial não passaram despercebidas. O Google propôs recentemente uma solução de sustentabilidade "full-stack" que abordará a questão sob diversos ângulos. A empresa prometeu reduzir o uso durante os horários de pico para evitar apagões, além de buscar maximizar o desempenho e implementar técnicas como a decodificação especulativa, que reduz a carga de trabalho e, consequentemente, a demanda de energia.

No entanto, o Google é apenas uma empresa e, embora seus números estejam melhorando, o consumo geral de energia da empresa dobrou nos últimos quatro anos. Um estudo de 2023 mostrou que quase 30% dos americanos usam inteligência artificial diariamente (um número que certamente cresceu desde então), enquanto uma pesquisa recente da Reuters/Ipsos mostra que 61% estão preocupados com os custos de energia.

Esses números deixam claro que empresas como a OpenAI e o Google precisam encontrar soluções que reduzam o impacto da inteligência artificial. A tecnologia é nova, e algum desperdício é esperado com qualquer tecnologia de ponta — mas ela já existe há tempo suficiente para que o efeito que os data centers têm nas comunidades locais e no planeta em geral seja evidente.

Quando os computadores surgiram, o PC médio tinha o tamanho de uma sala inteira. Agora, eles cabem em nossos bolsos. A tecnologia de IA precisará seguir o mesmo padrão, mas em uma escala maior e com foco nos recursos que demanda. Não vejo chance de o mundo colocar esse gênio de volta na lâmpada, mas em um momento em que já vivemos uma crise climática, precisamos ser mais éticos e atenciosos em nossa abordagem.

A descoberta de que alguns data centers estão usando muito menos água do que o esperado é encorajadora, mas é apenas uma pequena parte de um esforço muito maior.