Era impensable para muchos imaginar que la IA no solo les iba a afectar en su trabajo, también en su factura de la luz. Un estudio realizado por Bloomberg ha analizado más de 25.000 puntos de la red eléctrica estadounidense y su relación con la ubicación de centros de datos, esos gigantescos edificios donde las potentes GPU procesan los modelos de IA.
El resultado es que, en los últimos cinco años, los precios mayoristas de la electricidad se han disparado hasta un 267% en las zonas más cercanas a esas instalaciones.
Esto se puede percibir en determinadas zonas en concreto. Al norte de Virginia, en estados como Maryland o Pensilvania, las compañías eléctricas se enfrentan a una demanda que se multiplica cada año, y que está impulsada no tanto por los hogares ni la industria de allí, sino por las enormes granjas de servidores que alimentan ChatGPT, Copilot, Gemini y cientos de servicios en la nube.
El problema es el efecto dominó que esto provoca. Cuanto más consumen los centros de datos, más sube el precio en las subastas de capacidad eléctrica, el sistema con el que Estados Unidos asegura su suministro a futuro.
En esas subastas, los generadores venden la energía que aún no se ha producido, y el aumento de la demanda está empujando los precios a niveles estratosféricos. Según datos del operador PJM Interconnection, que cubre 13 estados del país, la carga procedente de los centros de datos de IA ha elevado el precio total de las subastas un 82% en un año, hasta 7.300 millones de dólares.
En el estudio se han publicado algunas declaraciones de los afectados y son bastante claras: “De ninguna manera podría seguir pagando una factura así”, “Esto está afectando a mi bolsillo” o “No entiendo por qué ha aumentado tanto”.
Pero parece que lo peor está por llegar. La Agencia Internacional de la Energía (AIE) ha alertado de que el consumo eléctrico de los centros de datos se duplicará hasta alcanzar 945 teravatios/hora en 2030, una cantidad superior a la demanda de países completos como Francia o Japón. La IA, dice la AIE, será la principal responsable de todo esto.
“Si compras un coche sabes su consumo, pero con la IA vamos a ciegas”
Este es el mayor problema, el desconocimiento. Sam Altman, CEO de OpenAI, asegura que una consulta consume solo 0,34 Wh, lo que gasta una bombilla LED en un par de minutos. Sin embargo, la comunidad científica no se lo termina de creer: faltan datos, falta transparencia y, sobre todo, faltan explicaciones claras sobre cómo se calcula ese consumo.
Los datos de OpenAI no incluyen el gasto de entrenar los modelos, ni el de enfriar los centros de datos, ni el de mantener toda la infraestructura funcionando. Y ahí es donde se va buena parte de la electricidad.
De hecho, estudios advierten que, sumando todos los factores, ChatGPT podría estar usando cada año la misma electricidad que países enteros. Y ese número solo va a crecer a medida que más gente use la IA para todo y todo el rato.
Con esto como base, algunos expertos han comparado esta situación con el mundo del motor. “Si compras un coche, sabes cuántos litros a los cien consume”, dice la experta Sasha Luccioni, de Hugging Face. “Pero con la IA vamos a ciegas”.
Y no es solo una cuestión de querer saber cuánto consume un chatbot de IA por mera curiosidad. Todo esto va más allá y tiene más relevancia de lo que muchos creen. Con 800 millones de usuarios semanales y miles de millones de consultas al día, el impacto energético de ChatGPT ya es un asunto global.
Según algunos cálculos, el sistema podría gastar unos 40 millones de kWh diarios, lo suficiente para cargar ocho millones de móviles cada día.
“Hay pronósticos que estiman que para 2027, la industria de la IA podría consumir entre 85 y 134 teravatios-hora (TWh) de electricidad al año, lo que equivale al consumo anual de países como Países Bajos, Irlanda o Suecia. Esto llega a superar al de otras tecnologías como Bitcoin, cuya red consume aproximadamente 127 TWh al año”, añade José Antonio Alguacil, CEO en Ilusionlabs y YouTuber, en una entrevista para Computer Hoy.
Los investigadores han intentado calcular el impacto real, pero se topan con un muro: las grandes empresas como OpenAI, Google o Anthropic no publican al 100% datos claros sobre el consumo energético ni las emisiones de carbono de sus modelos.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Precios, Software



