A inteligência artificial está a explodir e o seu consumo de energia também. Entre promessas de eficiência e o aumento das necessidades, o setor enfrenta um muro… ou talvez não?
O seu assistente de IA favorito impressiona-o todos os dias com as suas proezas, mas tem alguma ideia da energia que ele consome nos bastidores para funcionar? À medida que a inteligência artificial se infiltra em todo o lado, desde os nossos smartphones até à investigação científica, o seu consumo elétrico tornou-se um tema quente. Mergulho nos circuitos de uma revolução tão brilhante quanto energívora, com base nos dados mais recentes disponíveis.
24/05/2025 00:20 JérômeNo centro da revolução da IA estão os centros de dados, essas imensas fábricas digitais repletas de servidores. São eles que treinam os modelos de IA e respondem às nossas consultas. E seu apetite energético é colossal. Segundo o relatório "Energy and AI" de fevereiro de 2025 da Agência Internacional de Energia (AIE), os centros de dados já representavam cerca de 1,5% do consumo global de eletricidade em 2024, ou seja, 415 terawatts-hora (TWh). Para dar uma ideia, isso é um pouco mais do que o consumo total de um país como a Espanha em um ano!
Os Estados Unidos são os maiores consumidores (45% do total mundial), seguidos pela China (25%) e Europa (15%). E a tendência é de alta: a AIE prevê que, em seu cenário de referência, o consumo elétrico desses centros pode mais que dobrar até 2030, atingindo cerca de 945 TWh, com a IA sendo o principal motor desse crescimento. Até 2035, poderíamos até chegar perto dos 1200 TWh. Vertiginoso, não é?
Grok, a IA de Elon Musk, e sua memória seletiva sobre o Holocausto: culpa de um "bug"?
Para executar esses algoritmos complexos, são necessários processadores especializados, principalmente GPUs (Unidades de Processamento Gráfico), originalmente projetadas para jogos, mas incrivelmente eficientes para cálculos de IA. Fabricantes como a Nvidia não param: segundo previsões da Mizuho relatadas pelo Investing.com, a Nvidia pode entregar entre 6,5 e 7 milhões desses superchips para IA em 2025.
Para acomodar cada vez mais potência em um espaço mínimo, os engenheiros desenvolvem tesouros de engenhosidade. Veja a tecnologia CoWoS (Chip on Wafer on Substrate), explicada pela TSMC, uma gigante taiwanesa na fabricação de chips. É como um mil-folhas tecnológico ultra-sofisticado onde diferentes chips (o processador principal, a memória ultrarrápida chamada HBM para High-Bandwidth Memory) são empilhados e conectados de forma muito densa em uma placa de silício. Resultado: "superchips" muito mais potentes e rápidos, cruciais para a IA, mas que também concentram o consumo de energia.
Felizmente, cada nova geração de chip é geralmente mais eficiente. A AIE observa, por exemplo, que o último GPU B200 da Nvidia é 60% mais eficiente em termos de FLOP/watt que seu antecessor, o H100. FLOP/watt é o número de operações matemáticas complexas que um chip pode realizar para cada watt de eletricidade consumido. Quanto maior esse número, mais eficiente em energia o chip é para uma determinada tarefa. É como o "quilômetros por litro" do mundo da computação. O paradoxo é que, mesmo que cada chip se torne individualmente mais econômico, a demanda global explode tanto que o consumo total continua subindo.
O iPhone de 2027: A Maçã está preparando sua revolução entre vidro total e tela dobrável?
Outro aspecto pouco conhecido é a vida útil desses valiosos GPUs nos centros de dados. Segundo uma análise da Trendforce, ela pode ser de apenas 1 a 3 anos! A razão? Eles são submetidos a cargas de trabalho intensas para treinar e operar IAs, consumindo e dissipando às vezes mais de 700 watts cada. Um estudo da Meta sobre seus GPUs Nvidia H100 revelou até uma taxa de falha anualizada de cerca de 9% para os GPUs e sua memória HBM.
Essa rápida rotatividade de hardware tem duas consequências principais: uma produção contínua de lixo eletrônico e uma demanda sustentada por novos equipamentos, o que mantém a pressão sobre o consumo de energia relacionado à sua fabricação e uso.
Você sabia?
Segundo o relatório "Energy and AI" da AIE, o consumo elétrico dos centros de dados no mundo aumentou 12% ao ano desde 2017, quatro vezes mais rápido que o consumo elétrico global!
Diante dessa demanda crescente, como evitar o superaquecimento energético? Várias abordagens estão sendo exploradas. Um artigo do jornal científico Cell Joule (abstract S2542-4351(24)00347-7) destaca a necessidade urgente de transparência e dados confiáveis. Os autores pedem por uma "revolução dos dados" onde os operadores compartilhariam mais informações sobre seu consumo, a eficiência de seus sistemas de resfriamento, etc.
Um indicador chave aqui é o PUE (Eficácia no Uso de Energia). Imagine que, para cada quilowatt-hora (kWh) usado diretamente pelos servidores, uma certa quantidade de energia adicional é necessária para operar o resto do centro, como ar-condicionado ou sistemas de alimentação. O PUE mede esse "custo extra". Um PUE de 1.0 seria o ideal (toda a energia vai para os servidores); quanto maior, menos eficiente energeticamente é o centro de dados. A AIE observa uma melhora, com um PUE médio global que deve cair de 1,41 para 1,29 até 2030, economizando cerca de 90 TWh.
No lado do abastecimento, a AIE estima que as energias renováveis poderiam suprir quase metade da demanda adicional dos centros de dados até 2030. Mas outras fontes também são consideradas. O gás natural, por exemplo, está em plena expansão, principalmente nos EUA. O DatacenterDynamics relata que a empresa Crusoe Energy garantiu 4,5 gigawatts de gás natural para alimentar diretamente seus futuros centros de dados de IA, contornando a rede elétrica tradicional. A energia nuclear, incluindo os futuros pequenos reatores modulares (SMR) esperados por volta de 2030, também pode desempenhar um papel.
A AIE apresenta diferentes cenários para o futuro: um cenário "Lift-Off" muito otimista em termos de adoção da IA (e, portanto, de consumo, até 1700 TWh em 2035), um cenário "Alta Eficiência" e um cenário "Ventos Contrários" com obstáculos ao desenvolvimento, mostrando a incerteza que prevalece.
Manus AI: acabou o trabalho chato de criar apresentações, a IA faz isso por você!
O apetite energético da inteligência artificial é uma realidade inegável e um grande desafio para os próximos anos. Embora os avanços em eficiência de chips e centros de dados sejam constantes, a explosão de usos e o poder crescente dos modelos podem anular esses ganhos. As fontes acessíveis indicam que o futuro dependerá de um coquetel complexo: inovações tecnológicas contínuas, estratégias energéticas diversificadas (incluindo maciçamente renováveis) e, principalmente, como destaca o Cell Joule Abstract, uma transparência muito maior dos players do setor. Sem dados claros e compartilhados, é difícil gerenciar essa transição com precisão.
Então, a IA será a futura campeã da ecologia digital ou uma devoradora insaciável de watts? Uma coisa é certa: ela nos está empurrando a sermos incrivelmente inventivos para que a corrente flua... sem derrubar os disjuntores do planeta!
Jerome
Especialista em desenvolvimento web, SEO e inteligência artificial, a minha experiência prática na criação de sistemas automatizados remonta a 2009. Hoje em dia, além de redigir artigos para decifrar a atualidade e os desafios da IA, desenho soluções à medida e intervenho como consultor e formador para uma IA ética, eficiente e responsável.