A inteligência artificial (IA) já se consolidou como o maior ponto de inflexão digital em mais de uma década. Mas, por trás das respostas rápidas, imagens impressionantes e vídeos gerados com poucos cliques, existe um custo energético que até agora vinha sendo pouco discutido, e ainda menos compreendido.
Uma investigação publicada nesta terça-feira (20) pela MIT Technology Review traz a análise mais abrangente até o momento sobre o consumo de energia da IA. A reportagem faz parte da série especial Power Hungry, que mergulha nas demandas energéticas da era dos algoritmos inteligentes.
Os repórteres James O’Donnell e Casey Crownhart entrevistaram mais de 20 especialistas, analisaram centenas de páginas de projeções e documentos técnicos, e compararam modelos e tipos de uso. A conclusão é que o entendimento comum sobre o impacto da IA na energia está cheio de lacunas, e pode subestimar drasticamente o que está por vir.
Leia também: SAP apresenta IA onipresente e mira aumento de 30% na produtividade
Pequenas ações, grandes impactos
Enquanto uma consulta individual em um chatbot ou gerador de imagem parece inofensiva, o problema está na escala. A IA já está sendo embutida em todo tipo de aplicativo, de buscas a agendas, passando por compras e monitoramento de saúde. E isso representa uma demanda energética crescente, para a qual governos e empresas ainda não estão preparados.
Segundo dados citados pela reportagem, empresas como Google, Meta, Microsoft e Apple estão investindo cifras bilionárias para ampliar sua infraestrutura de IA. Só o Google pretende destinar US$ 75 bilhões em 2025 à infraestrutura.
Já a Stargate Initiative, projeto liderado por OpenAI com apoio do presidente dos Estados Unidos, Donald Trump, quer investir meio trilhão de dólares na construção de data centers, cada um com consumo estimado superior ao de estados inteiros, como New Hampshire.
Conta da inferência
Se o treinamento de modelos como o GPT-4 consumiu mais de 50 gigawatts-hora (o suficiente para abastecer São Francisco, nos Estados Unidos, por três dias), é a fase de inferência, quando os modelos são usados para responder perguntas ou gerar conteúdo, que hoje concentra a maior parte da energia gasta com IA. Pesquisadores estimam que até 90% da capacidade computacional da IA já é destinada à inferência.
Isso acontece nos cerca de 3 mil data centers espalhados pelos Estados Unidos, muitos dos quais foram reformulados para atender às novas exigências da IA. A eletricidade consumida por esses centros representa 4,4% de toda a energia dos EUA, segundo os dados mais recentes, com uma intensidade de carbono 48% maior que a média nacional.
Futuro difícil de prever (e de pagar)
A tendência, segundo o Laboratório Nacional Lawrence Berkeley, é de que mais da metade da energia dos data centers vá para IA até 2028. Isso pode equivaler ao consumo de 22% das residências norte-americanas. E, com a urgência de expansão, cresce também o uso de fontes mais poluentes, como o gás natural.
A falta de transparência das empresas é outro problema apontado. A reportagem destaca que grandes nomes da IA ainda divulgam pouco, ou nada, sobre o consumo real de energia de seus modelos. Isso dificulta o planejamento energético em larga escala e pode transferir os custos dessa expansão para os consumidores, por meio de tarifas de energia mais altas.
Enquanto isso, a popularização de ferramentas como o ChatGPT (já o quinto site mais acessado do mundo) acelera a consolidação de um cenário em que a IA será onipresente, mesmo em áreas onde alternativas mais sustentáveis poderiam ser usadas, como educação e saúde.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!