La inteligencia artificial avanza a ritmo imparable. Pero mientras los modelos se perfeccionan y se integran en todo tipo de servicios, una pregunta sigue sin respuesta clara: ¿cuánta energía consume todo esto? Un reportaje reciente en MIT Technology Review plantea que, pese a los esfuerzos por medir su huella, hay tres vacíos críticos que siguen empañando el diagnóstico.
Dos fases, una factura eléctrica difusa
El consumo energético de la IA se divide en dos momentos clave. Primero, el entrenamiento, cuando el modelo aprende a partir de enormes volúmenes de datos. Luego, las inferencias, es decir, cada vez que se le consulta o se le pide una tarea. Ambos procesos implican centros de datos que operan a gran escala, con GPUs de alto rendimiento, refrigeración constante y alimentación eléctrica continua. Aunque se estima que la industria digital ya consume más de 200 teravatios-hora al año, sólo una parte de ese gasto puede atribuirse con certeza a la IA.
Lo que aún no sabemos (y por qué importa)
El artículo del MIT señala tres grandes zonas grises:
- Opacidad corporativa. Las compañías que lideran el desarrollo de modelos avanzados no publican datos precisos sobre su consumo. Sin transparencia, cualquier estimación es tentativa.
- Efecto multiplicador del uso masivo. Un modelo puede estar optimizado para ser eficiente. Pero si se integra en millones de productos, la suma de pequeñas inferencias puede superar incluso el gasto del entrenamiento inicial. No hay proyecciones claras sobre cuánto crecerá esa demanda.
- Impactos indirectos y difíciles de rastrear. Desde la fabricación de chips hasta el transporte y mantenimiento de servidores, buena parte del coste energético queda fuera del cálculo habitual. Es una carga invisible, pero real.
Agua, calor y centros de datos
El debate no se limita a kilovatios. En regiones como el oeste de EE.UU. o el sur de Asia, los centros de datos también presionan recursos hídricos para la refrigeración de equipos. La IA, si se despliega sin criterio ambiental, puede agravar tensiones locales sobre agua o energía. En paralelo, estudios como el publicado por el equipo de Hugging Face en 2024 o los análisis del consorcio MLCommons sugieren que los modelos diseñados para tareas específicas consumen mucho menos que los grandes modelos generalistas. Pero el mercado tiende a estandarizar en torno a estos últimos, por su versatilidad.
Un problema a escala, no de eficiencia
Las mejoras técnicas ayudan. Nuevas arquitecturas, modelos comprimidos o ajustes en los parámetros reducen el gasto por operación. Pero si la cantidad de usos se multiplica, esas mejoras pueden ser insuficientes. Es el llamado efecto rebote, la eficiencia reduce el coste por uso, pero dispara la demanda total. Según Nature, si no se aplican controles y políticas de eficiencia energética, el impacto ambiental de la IA podría acelerarse en los próximos cinco años, especialmente en países sin regulación estricta.
Un final con más preguntas que cifras
La IA se proyecta como solución a infinidad de retos. Pero su huella material sigue siendo difusa. El diagnóstico está incompleto. Sin datos claros, sin estándares comunes, sin transparencia, la transición digital puede esconder un coste ambiental que nadie está registrando del todo.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.