25 de noviembre de 2024 | 3:20

Actualidad

La inteligencia artificial sobrecarga la red eléctrica

Mairenis Gómez

24 de mayo de 2024 | 6:00 pm

La inferencia de IA consume 33 veces más energía que las máquinas que ejecutan un algoritmo tradicional

La inteligencia artificial está transformando nuestra sociedad, pero su impacto en la demanda energética es alarmante. La inferencia de IA consume 33 veces más energía que los algoritmos tradicionales, lo que ha generado preocupaciones sobre la sostenibilidad de esta tecnología. Cada vez que hacemos una consulta a una IA como ChatGPT, los servidores de un centro de datos trabajan intensamente para computar la respuesta. Este proceso, aunque similar a otros servicios en la nube, es extremadamente ineficiente desde una perspectiva computacional. Según Sasha Luccioni, investigadora de Hugging Face, esto representa un desafío significativo para la infraestructura energética global.

El alto coste ambiental de los grandes modelos de IA y la creciente demanda eléctrica

Un reciente estudio, que aún no ha sido publicado oficialmente, advierte sobre el elevado coste ambiental de los grandes modelos de IA, tanto por la energía que consumen como por las emisiones de carbono que generan. Empresas como Meta, OpenAI y Google, que entrenan modelos gigantescos como Llama 3, GPT-4 y Gemini 1.5 Ultra, utilizan cientos de miles de tarjetas gráficas o TPUs, las cuales demandan enormes cantidades de electricidad. Este proceso se intensifica a medida que los modelos crecen en tamaño, pasando de millones a cientos de miles de millones de parámetros.

la IA generativa está en auge

Además, la IA generativa está en auge, y esto implica que millones de personas hacen consultas continuamente, lo que pone en marcha la maquinaria de la inferencia en centros de datos a nivel mundial. Estos centros están consumiendo cada vez más electricidad, se estima que su demanda pasará de 460 TWh en 2022 a más de 1.000 TWh en 2026, lo que equivale al consumo energético de Japón, un país con 125 millones de habitantes.

En el Reino Unido, National Grid, el operador de la red eléctrica, prevé que la demanda de electricidad de los centros de datos se sextuplicará en los próximos diez años debido al uso intensivo de la IA, además de la electrificación del transporte y la calefacción.

Coqueteando con la energía nuclear para enfrentar la demanda creciente

Además, los nuevos modelos de IA más pequeños, como Phi-3 o Gemini Nano, que se ejecutan directamente en dispositivos personales, podrían aliviar parcialmente este problema. A su vez, el rendimiento del hardware está mejorando, lo que permite ahorrar energía tanto en el entrenamiento como en la inferencia.

Sin embargo, esta mejora también fomenta la competencia entre las grandes tecnológicas por entrenar modelos cada vez más grandes y capaces, lo que, a su vez, requiere más centros de datos y más energía.

La inferencia de IA consume 33 veces más energía que las máquinas que ejecutan un algoritmo tradicional

La carrera por soluciones energéticas sostenibles para la inteligencia artificial

Esta situación es un círculo vicioso, cuanto mejor es el hardware, mayor es la capacidad de los modelos, y mayor es la demanda energética. Aunque muchos centros de datos han implementado instalaciones de autoconsumo energético, se necesitarán soluciones más drásticas para manejar la demanda creciente. Por ello, empresas como Microsoft están explorando el uso de reactores nucleares modulares, mientras que Sam Altman, CEO de OpenAI, invierte en proyectos de fusión nuclear. Estas iniciativas buscan garantizar una fuente de energía sostenible y suficiente para soportar la expansión y evolución de la inteligencia artificial.

Sin duda, la inteligencia artificial, con su potencial transformador, también trae consigo desafíos significativos en términos de sostenibilidad y demanda energética. Es imperativo encontrar un equilibrio entre el avance tecnológico y la conservación de nuestros recursos energéticos, para asegurar un futuro sostenible para todos.

Más noticias