Produção de imagens por ferramentas de IA demanda 60 vezes mais energia do que processamento textual, estima levantamento

IA – Utilizar inteligência artificial (IA) para redigir um e-mail de aproximadamente cem palavras consome a mesma eletricidade que manter quatro lâmpadas LED acesas por 60 minutos. Já a criação de uma imagem exige cerca de 60 vezes mais recursos, equivalente a 240 lâmpadas ligadas pelo mesmo período.

A geração de imagens e de textos utilizando ferramentas de IA se repetem incessantemente no Brasil e globalmente desde a popularização do ChatGPT em 2022. O consumo acumulado no país em um ano, considerando apenas a hipótese de geração semanal de e-mails, seria comparável ao uso anual de energia de uma cidade com 82 mil habitantes.

LEIA: Apple trabalha em tecnologia que permite controlar dispositivos com o cérebro

A estimativa foi feita pela Folha com base em metodologia criada por pesquisadores da plataforma Hugging Face (que reúne diversos modelos de IA) e em relatos de desenvolvedores que utilizam o sistema Llama 3.1 405b da Meta em computadores próprios, o que permite acesso a dados de consumo.

Custos e paralelos energéticos

Planos de custos de serviços em nuvem sugerem que o modelo da Meta tem demanda computacional semelhante ao GPT-4.o (usado no ChatGPT), já que os valores para operar ambas as tecnologias são similares.

Entre as grandes desenvolvedoras de IA, apenas Meta e Deepseek divulgam métricas sobre gasto energético. Por isso, cientistas criaram métodos indiretos para calcular o impacto ambiental (energia, água e carbono) de ferramentas como ChatGPT (OpenAI), Gemini (Google) e Claude (Anthropic). Procuradas, as empresas não se manifestaram.

Complexidade e consumo

Cada comando enviado a uma IA exige que supercomputadores realizem trilhões de cálculos para definir a melhor resposta. Essas máquinas, alocadas em data centers (que o governo Lula quer isentar de impostos), elevam a demanda por eletricidade. Quanto mais complexa a tarefa, maior o gasto: um estudo da Universidade Carnegie Mellon (EUA) aponta que produzir imagens consome, em média, 60 vezes mais energia do que textos.

“Na geração textual, há uma demanda computacional reduzida para processar sequências de caracteres, comparado à criação de imagens. A diferença está na carga de trabalho”, explica André Miceli, CEO da MIT Technology Review Brasil.

Comparativo de consumo por tarefa (em kWh):

Criação de imagens: 2,970
Legendar fotos: 0,063
Resumir texto: 0,049
Gerar texto: 0,047
Detectar objetos em imagens: 0,038
Classificar imagens: 0,007
Extrair dados textuais: 0,003
Classificar texto: 0,002

*Estudo analisou 30 modelos de código aberto. Fontes: Hugging Face e Allen Institute for AI

Tempo e custo influenciam

O tempo de processamento também impacta: gerar um texto de cem palavras leva segundos, enquanto uma imagem pode exigir até um minuto, segundo a OpenAI. Dados da empresa indicam que criar uma imagem de qualidade média custa o mesmo que produzir 42 e-mails. Ainda assim, a geração visual tem maior procura, impulsionada por modas como filtros inspirados em Studio Ghibli e Turma da Mônica.

Modelos mais avançados, como o GPT-4.5, ampliam o gasto: seu pacote de palavras custa US$ 150, o GPT-4.o custa US$ 10 por pacote de palavras, o o1 cobra US$ 6 e o o3, US$ 40.

Evolução e impactos ambientais

Apesar do aumento na eficiência — o GPT-4.o consome menos que seu antecessor —, o impacto hídrico preocupa. Supercomputadores modernos usam resfriamento líquido, mais eficiente que ar-condicionado, mas demandam água. Shaolei Ren, da Universidade da Califórnia, calcula que o GPT-4 gastava uma garrafa de água para gerar cem palavras. Projeções indicam que o uso hídrico da IA subirá 80% até 2030.

Infraestrutura crítica

Estruturas de data centers dedicadas a IA consomem sete vezes mais energia que as tradicionais. Um rack adaptado requer 132 kW (equivalente a 240 famílias nos EUA) e resfriamento líquido, contra 20 kW de um modelo simples. Esses sistemas operam com 36 CPUs e 72 GPUs da Nvidia, que executam trilhões de operações por segundo.

Cenário futuro

A Agência Internacional de Energia prevê que o consumo global de data centers saltará de 415 TWh em 2024 para 945 TWh em 2030 — quase o dobro do gasto do Brasil em 2024 (532 TWh). EUA (45%), China (25%) e Europa (15%) liderarão a demanda. “O consumo absoluto crescerá, mas tecnologias emergentes reduzirão proporcionalmente o gasto”, afirma Hudson Mendonça, CEO do Energy Summit. Técnicas como a destilação — usada pela Meta no Llama 4 — já cortaram o consumo de treinamento em 80%.

Impacto do treinamento

Treinar a versão antiga do Llama consumiu 25,6 GWh (equivalente ao uso diário de energia do estado do Paraná). Já o novo modelo demandou 4,8 GWh (gasto diário de energia de Sergipe). “O treinamento tem maior impacto, mas modelos populares podem igualar esse gasto rapidamente com milhões de usuários”, alerta Sasha Luccioni, pesquisadora da Hugging Face.

Metodologia

Sem dados oficiais das empresas, a Folha usou técnicas que comparam o GPT-3 a modelos abertos similares. O Llama 3.1 405b foi escolhido por ter custo equivalente ao GPT-4o em nuvem. Relatos de usuários que rodam o modelo em máquinas próprias forneceram dados de potência e desempenho, validados pelo professor Shaolei Ren. A Meta afirmou divulgar apenas dados de treinamento.

(Com informações de Folha de S.Paulo)
(Foto: Reprodução/Freepik/evening_tao)