22 de enero de 2026

El consumo ambiental de la IA: por qué su huella es menor que la de otras tecnologías

Estudios recientes estiman que, aunque los modelos de inteligencia artificial demandan electricidad y agua en cada consulta, su impacto agregado resulta menor que el de otros consumos digitales de uso cotidiano.

Detrás de la pantalla, una simple consulta a uno de los distintos modelos de inteligencia artificial implica electricidad, agua y emisiones de gases de efecto invernadero. Es como si cada pregunta encendiera una ciudad entera por un instante. Aunque de manera individual ese gasto parece mínimo, multiplicado por millones de interacciones diarias se convierte en una huella ambiental imposible de pasar por alto.

Lo cierto es que el interés por medir ese impacto creció al ritmo de la expansión de la inteligencia artificial generativa. Hoy, distintas investigaciones comienzan a ponerle cifras concretas a lo que hasta hace poco era apenas una percepción: que el costo ambiental de estas herramientas es mucho mayor de lo que la mayoría de los usuarios imagina.

Un reciente estudio académico reveló que los modelos más avanzados de inteligencia artificial pueden llegar a consumir más de 33 Wh (vatio-hora) por consulta extensa, una cifra que supera en decenas de veces a la de sistemas compactos.

The Washington Post calculó que, al escalar ese consumo a cientos de millones de preguntas diarias, el resultado equivale a la electricidad de decenas de miles de hogares, al agua potable anual de más de un millón de personas y a emisiones de carbono que requerirían un bosque entero para compensarse.

Modelos avanzados como o3 yModelos avanzados como o3 y DeepSeek R1 llegan a consumir más de 33 Wh por cada consulta extensa lo que equivale a más de setenta veces el gasto de sistemas compactos como GPT 4.1 nano..- (Imagen ilustrativa Infobae)

Otros trabajos complementarios analizaron cómo el tamaño y la capacidad de razonamiento de los modelos inciden en su eficiencia, cómo la paradoja de la mejora tecnológica multiplica la demanda de recursos y qué limitaciones existen para medir con precisión su verdadero impacto ambiental.

La huella energética de una pregunta

De acuerdo con la Agencia Internacional de Energía (IEA), los centros de datos representan ya alrededor del 1,5 % del consumo eléctrico mundial y podrían duplicar esa participación hacia 2030. Dentro de ese universo, el crecimiento más acelerado proviene de los servidores dedicados a la inteligencia artificial, cuyo consumo aumenta a un ritmo cercano al 30 % anual. Esa proyección global pone a la IA en el centro del debate.

Los cálculos encuentran un correlato en una investigación publicada en arXiv, en la cual se presentó un marco de análisis que combina datos de las API (Interfaz de Programación de Aplicaciones) con factores ambientales regionales y características del hardware, con el objetivo de medir la huella de treinta modelos desplegados en centros de datos comerciales.

“Nuestro estudio proporciona una metodología estandarizada, empíricamente fundamentada, para evaluar la sostenibilidad de los despliegues de LLM”, explican los autores.

Generar una imagen con inteligenciaGenerar una imagen con inteligencia artificial consume la misma energía que cargar un teléfono móvil y crear un video de cinco segundos puede requerir 944 Wh equivalente a recorrer 61 kilómetros en bicicleta eléctrica. – (Imagen Ilustrativa Infobae)

Los resultados marcan diferencias profundas entre sistemas. Modelos como o3 y DeepSeek-R1 se ubicaron en el extremo superior del consumo, con más de 33 Wh por cada consulta extensa, “más de 70 veces el gasto de GPT-4.1 nano”.

En el otro extremo se destacó Claude-3.7 Sonnet, identificado como el más eficiente en relación entre desempeño y recursos. Pero incluso cuando se trata de modelos más moderados, la escala del uso masivo cambia cualquier cálculo. Una consulta breve a GPT-4o demanda solo 0,42 Wh, pero multiplicar esa cifra por 700 millones de preguntas diarias equivale a un escenario de gran impacto.

La traducción de esos números a magnitudes reconocibles ilustra mejor el fenómeno: un consumo anual de electricidad equivalente al de 35.000 hogares estadounidenses, una evaporación de agua suficiente para cubrir las necesidades de 1,2 millones de personas durante un año y unas emisiones de carbono que requerirían “un bosque del tamaño de Chicago” para ser compensadas, de acuerdo con los autores del estudio.

The Washington Post, que examinó estos hallazgos, sintetizó la paradoja en una sola frase: “Aunque las consultas individuales generan un gasto marginal, la escala masiva de uso impulsa un consumo de recursos desproporcionado a medida que la adopción global de la inteligencia artificial se expande.”