Clock IA > ¿La IA va a devorar toda nuestra electricidad? Investigación sobre una sed desmedida de energía.
¿La IA va a devorar toda nuestra electricidad? Investigación sobre una sed desmedida de energía.

¿Tiene la IA un apetito de ogro por la electricidad?

La inteligencia artificial está en pleno auge y su consumo de energía también. Entre promesas de eficiencia y un aumento en la demanda, el sector se enfrenta a un muro… ¿o quizás no?

Tu asistente de IA favorito te sorprende cada día con sus hazañas, pero ¿tienes idea de la energía que consume entre bastidores para funcionar? Mientras la inteligencia artificial se infiltra en todas partes, desde nuestros smartphones hasta la investigación científica, su consumo eléctrico se convierte en un tema candente. Un viaje por los circuitos de una revolución tan brillante como energívora, basado en los datos más recientes disponibles.

23/05/2025 11:03 Jérôme

Centros de datos: el corazón palpitante (y voraz) de la IA

En el núcleo de la revolución de la IA se encuentran los centros de datos, esas enormes fábricas digitales repletas de servidores informáticos. Son ellos los que entrenan los modelos de IA y responden a nuestras consultas. Y su apetito energético es colosal. Según el informe "Energy and AI" de febrero de 2025 de la Agencia Internacional de la Energía (AIE), los centros de datos ya representaban alrededor del 1,5 % del consumo mundial de electricidad en 2024, es decir, 415 teravatios-hora (TWh). Para que te hagas una idea, ¡es un poco más que el consumo total de un país como España en un año!

Estados Unidos es el mayor consumidor (45 % del total mundial), seguido de China (25 %) y Europa (15 %). Y la tendencia es al alza: la AIE prevé que, en su escenario de referencia, el consumo eléctrico de estos centros podría más que duplicarse para 2030, alcanzando unos 945 TWh, siendo la IA el principal motor de este crecimiento. Para 2035, incluso podríamos rozar los 1200 TWh. ¿Vertiginoso, no?

La IA de Airbnb: del chatbot al conserje del mañana

Chips más inteligentes, pero cada vez más numerosos

Para hacer funcionar estos algoritmos complejos, se necesitan procesadores especializados, como las GPU (Unidades de Procesamiento Gráfico), diseñadas inicialmente para videojuegos pero tremendamente eficaces para los cálculos de IA. Los fabricantes, como Nvidia, no descansan: según previsiones de Mizuho recogidas por Investing.com, Nvidia podría entregar entre 6,5 y 7 millones de estos superchips para IA en 2025.

Para empaquetar más potencia en el menor espacio posible, los ingenieros despliegan auténticos tesoros de ingenio. Toma la tecnología CoWoS (Chip on Wafer on Substrate), explicada por TSMC, un gigante taiwanés en fabricación de chips. Es como un milhojas tecnológico ultra sofisticado donde diferentes chips (el procesador principal, la memoria ultrarrápida llamada HBM para High-Bandwidth Memory) se apilan y conectan densamente en una placa de silicio. Resultado: "superchips" mucho más potentes y rápidos, cruciales para la IA, pero que también concentran el consumo energético.

Afortunadamente, cada nueva generación de chips suele ser más eficiente. La AIE señala, por ejemplo, que la última GPU B200 de Nvidia es un 60 % más eficiente en términos de FLOP/watt que su predecesora, la H100. El FLOP/watt es el número de operaciones matemáticas complejas que un chip puede realizar por cada vatio de electricidad consumido. Cuanto mayor sea esta cifra, más eficiente será el chip para una tarea dada. Es como el "número de kilómetros por litro" del mundo informático. La paradoja es que, aunque cada chip sea individualmente más eficiente, la demanda global explota tanto que el consumo total sigue aumentando.

Google I/O 2025: IA en tus gafas y al volante, la nueva apuesta de hardware de Google

El ballet incesante de los servidores: un ciclo de vida (muy) corto

Otro aspecto poco conocido es la vida útil de estas valiosas GPU en los centros de datos. Según un análisis de Trendforce, ¡podría ser de solo 1 a 3 años! ¿La razón? Están sometidas a cargas de trabajo intensas para el entrenamiento y funcionamiento de las IA, consumiendo y disipando a veces más de 700 vatios cada una. Un estudio de Meta sobre sus GPU Nvidia H100 reveló incluso una tasa de fallos anualizada de alrededor del 9 % para las GPU y su memoria HBM.

Esta rápida rotación del hardware tiene dos consecuencias principales: una producción continua de residuos electrónicos y una demanda sostenida de nuevos equipos, lo que mantiene la presión sobre el consumo energético vinculado a su fabricación y uso.

¿Lo sabías?

Según el informe "Energy and AI" de la AIE, ¡el consumo eléctrico de los centros de datos en el mundo ha aumentado un 12 % anual desde 2017, cuatro veces más rápido que el consumo eléctrico global!

En busca desesperada de electricidad: ¿qué soluciones?

Ante esta creciente demanda, ¿cómo evitar el sobrecalentamiento energético? Se exploran varias vías. Un artículo de la revista científica Cell Joule (abstract S2542-4351(24)00347-7) subraya la necesidad urgente de transparencia y datos fiables. Los autores piden una "revolución de los datos" donde los operadores compartan más información sobre su consumo, la eficacia de sus sistemas de refrigeración, etc.

Un indicador clave aquí es el PUE (Eficacia en el Uso de la Energía). Imagina que por cada kilovatio-hora (kWh) utilizado directamente por los servidores, se necesita cierta cantidad de energía adicional para hacer funcionar el resto del centro, como el aire acondicionado o los sistemas de alimentación. El PUE mide este "sobrecoste". Un PUE de 1.0 sería lo ideal (toda la energía va a los servidores); cuanto más alto sea, menos eficiente será el centro de datos en términos energéticos. La AIE señala una mejora, con un PUE medio mundial que pasaría de 1,41 a 1,29 para 2030, ahorrando unos 90 TWh.

En cuanto al suministro, la AIE estima que las energías renovables podrían cubrir casi la mitad de la demanda adicional de los centros de datos para 2030. Pero también se contemplan otras fuentes. El gas natural, por ejemplo, está en auge, especialmente en EE.UU. DatacenterDynamics informa que la empresa Crusoe Energy ha asegurado 4,5 gigavatios de gas natural para alimentar directamente sus futuros centros de datos de IA, evitando la red eléctrica tradicional. La energía nuclear, incluidos los futuros pequeños reactores modulares (SMR) previstos para 2030, también podría jugar un papel.

La AIE presenta además diferentes escenarios para el futuro: un escenario "Despegue" muy optimista en cuanto a adopción de la IA (y por tanto de consumo, hasta 1700 TWh en 2035), un escenario "Alta Eficiencia" y un escenario "Vientos en Contra" con obstáculos al desarrollo, mostrando la incertidumbre reinante.

Grok, la IA de Elon Musk, y su memoria selectiva sobre el Holocausto: ¿culpa de un "error"?

El apetito energético de la inteligencia artificial es una realidad innegable y un gran desafío para los próximos años. Si bien los avances en eficiencia de los chips y centros de datos son constantes, la explosión de usos y la creciente potencia de los modelos podrían contrarrestar estas ganancias. Las fuentes consultadas indican que el futuro dependerá de un cóctel complejo: innovaciones tecnológicas continuas, estrategias energéticas diversificadas (incluyendo masivamente renovables) y, sobre todo, como destaca el abstract de Cell Joule, una mayor transparencia de los actores del sector. Sin datos claros y compartidos, es difícil gestionar con precisión esta transición.

Entonces, ¿la IA será la futura campeona de la ecología digital o una insaciable devoradora de vatios? Una cosa es segura: nos empuja a ser increíblemente ingeniosos para que la corriente fluya... ¡sin fundir el planeta!

Jerome

Experto en desarrollo web, SEO e inteligencia artificial, mi experiencia práctica en la creación de sistemas automatizados se remonta a 2009. Hoy en día, además de redactar artículos para descifrar la actualidad y los desafíos de la IA, diseño soluciones a medida e intervengo como consultor y formador para una IA ética, eficiente y responsable.

Facebook - X (Twitter) - Linkedin
Clock IA > ¿La IA va a devorar toda nuestra electricidad? Investigación sobre una sed desmedida de energía.