Más inteligencia, más energía: el reto de la IA generativa en los centros de datos

El avance de la inteligencia artificial generativa parece estar transformando el panorama empresarial semana a semana con el impulso a la automatización, la personalización y la innovación en distintos sectores. Sin embargo, este crecimiento exponencial también plantea un desafío crítico: el consumo de energía en los centros de datos.

De acuerdo con el informe TMT (Tech, Media & Telecom) Predictions 2025 de Deloitte, de reciente publicación, el consumo energético de los centros de datos representará aproximadamente el 2% del total mundial en 2025 y alcanzará los 536 teravatios por hora (TWh). Si la tendencia actual continúa, este consumo podría duplicarse para 2030 y llegar a 1.065 TWh, lo que equivale a la demanda total de electricidad de países como Japón o Alemania.  

Uno de los principales impulsores de este aumento es la IA generativa. Modelos avanzados como GPT-4 o Gemini requieren una cantidad enorme de procesamiento para su entrenamiento y operación, lo que aumenta la demanda de hardware especializado y, en consecuencia, la necesidad de energía. Se estima que el entrenamiento de un solo modelo de IA generativa de gran escala puede consumir hasta 10 GWh de electricidad, el equivalente al consumo anual de 1.000 hogares promedio en EE.UU. Además, el uso diario de estas herramientas en empresas y aplicaciones digitales genera un consumo constante que se suma al impacto inicial del entrenamiento.

Pero el problema no es sólo la cantidad de electricidad utilizada, sino también su concentración geográfica. En Estados Unidos, los estados de Virginia, Texas y Oregón albergan algunos de los centros de datos más grandes del mundo, lo que ejerce una fuerte presión sobre las redes eléctricas locales. A medida que la demanda crece, las empresas de tecnología están comenzando a colaborar con proveedores energéticos para desarrollar fuentes de energía renovable y reducir la huella de carbono de sus operaciones.  

Otro factor crítico es la eficiencia del hardware. Los chips y procesadores gráficos (GPU) utilizados para la IA generativa requieren una cantidad de energía significativamente mayor que los procesadores convencionales. En 2024, algunas unidades de procesamiento superaron los 1.200 vatios por chip, lo que está obligando a repensar la infraestructura y los métodos de enfriamiento. La refrigeración líquida, por ejemplo, se está convirtiendo en una solución clave para mantener la estabilidad de los sistemas y reducir el consumo energético que está asociado a la ventilación forzada.  

El crecimiento exponencial de la IA generativa supone un reto energético sin precedentes, pero también una oportunidad para que las empresas implementen estrategias de eficiencia y sustentabilidad. Desde la optimización de infraestructuras hasta la adopción de fuentes renovables y nuevos diseños de hardware, la industria debe prepararse para un futuro en el que la inteligencia artificial y la sustentabilidad vayan de la mano.  

Ya planteados los problemas y los desafíos energéticos de la IA generativa de acuerdo al último TMT de Deloitte, en el siguiente artículo exploraremos cómo las empresas pueden avanzar hacia centros de datos más eficientes y sustentables, adoptando estrategias innovadoras que mitiguen su huella ambiental sin comprometer al mismo tiempo su capacidad de procesamiento.