El portal de noticias para la transformación digital de la construcción 4.0

El auge de la IA: Desafíos energéticos y el futuro de los centros de datos

El incremento en el uso de la inteligencia artificial generativa está llevando a un rápido aumento en la demanda de electricidad en los centros de datos, poniendo presión sobre las infraestructuras energéticas en todo el mundo. Según un informe reciente, las necesidades energéticas de los centros de datos se han disparado y se espera que se dupliquen entre 2022 y 2026. Este fenómeno está generando preocupaciones no solo en cuanto a la sostenibilidad, sino también en relación con la eficiencia energética y la localización de estos centros.

El impacto energético de la IA generativa

Sasha Luccioni, investigadora en la empresa de aprendizaje automático Hugging Face, destaca que la inteligencia artificial generativa es una tecnología especialmente demandante desde el punto de vista energético. “Cada vez que consultas el modelo, se activa todo el sistema, lo que lo hace extremadamente ineficiente desde una perspectiva computacional”, explica. Los modelos de lenguaje grande (LLM), que están en el núcleo de muchos sistemas de IA generativa, han sido entrenados con vastas cantidades de información escrita, lo que les permite generar respuestas a casi cualquier consulta. Sin embargo, este proceso requiere una cantidad considerable de trabajo computacional, lo que se traduce en un alto consumo energético.

Un estudio reciente, liderado por Luccioni y sus colegas, estima que un sistema de IA generativa podría utilizar alrededor de 33 veces más energía que una máquina que ejecuta software específico para tareas determinadas. Este trabajo, aunque revisado por pares, aún no ha sido publicado en una revista científica, pero ya está generando alarmas sobre la sostenibilidad a largo plazo de la IA generativa.

Centros de datos: El corazón oculto del procesamiento de IA

La mayor parte del consumo energético asociado con la IA no proviene de las computadoras personales o los smartphones, sino de los gigantescos centros de datos que alojan la nube. Estos centros son responsables de almacenar enormes volúmenes de información y realizar las complejas operaciones necesarias para que la IA funcione. En 2022, los centros de datos consumieron 460 teravatios hora de electricidad, y se espera que esta cifra se duplique para 2026, alcanzando los 1000 teravatios hora anuales, una cantidad comparable al consumo eléctrico total de Japón, que tiene una población de 125 millones de personas.

La energía necesaria para operar estos centros está aumentando a un ritmo alarmante, impulsado en gran medida por la creciente demanda de IA y criptomonedas. En algunos países, como Irlanda, las autoridades han impuesto una moratoria sobre la construcción de nuevos centros de datos debido al impacto que están teniendo en el suministro eléctrico local. En Irlanda, casi una quinta parte de la electricidad se destina actualmente a los centros de datos, y esta proporción podría aumentar significativamente en los próximos años, incluso mientras los hogares irlandeses buscan reducir su consumo energético.

La competencia por ubicaciones estratégicas

La presión sobre las infraestructuras energéticas no es exclusiva de Irlanda. En Estados Unidos, las empresas de servicios públicos también están sintiendo el peso del creciente consumo de los centros de datos, especialmente en un contexto donde la fabricación doméstica está en auge gracias a nuevas políticas gubernamentales. Chris Seiple, de la firma de investigación Wood Mackenzie, menciona que los legisladores en algunos estados están reconsiderando las exenciones fiscales ofrecidas a los desarrolladores de centros de datos debido al impacto que estos tienen en la infraestructura energética local.

Además, existe una “carrera por ubicaciones” entre los desarrolladores de centros de datos, quienes buscan estar cerca de plantas de energía o centros de energía renovable. Iowa, con su abundante generación eólica, se ha convertido en un centro clave para el desarrollo de centros de datos. A medida que la latencia —el retraso en la transmisión de información desde un centro de datos hasta el usuario— se convierte en una preocupación menor para los sistemas de IA generativa, estos centros pueden ser ubicados en áreas más remotas, siempre y cuando tengan acceso a fuentes de energía baratas y confiables.

Innovaciones en hardware y eficiencia energética

Una de las razones por las que las demandas energéticas de los centros de datos son tan inciertas es la rápida evolución del hardware utilizado en la IA generativa. Tony Grayson, gerente general de Compass Quantum, una empresa de centros de datos, señala que los nuevos chips supercomputadores Grace Blackwell de Nvidia están diseñados específicamente para procesos avanzados como la IA generativa, la computación cuántica y el diseño asistido por computadora para medicamentos.

Nvidia afirma que, en el futuro, una empresa podría entrenar IA varias veces más grandes que las actuales en solo 90 días, utilizando 2000 chips Grace Blackwell, en comparación con los 8000 chips de la generación anterior. Aunque este avance representa una mejora significativa en la eficiencia, el consumo energético sigue siendo considerable, con un estimado de 8,6 gigavatios hora, aproximadamente la misma cantidad de electricidad que consume la ciudad de Belfast en una semana.

Hacia un futuro más sostenible

A pesar de los avances en la eficiencia energética, las demandas de los centros de datos seguirán aumentando. Bruce Owen, director general de Equinix en el Reino Unido, prevé que la demanda crecerá más allá de las mejoras en eficiencia que se están logrando. Esto podría llevar a un aumento en la construcción de centros de datos con instalaciones de generación de energía en el lugar, aunque este enfoque también enfrenta desafíos, como lo demuestra la negación de permisos para un centro de datos a gas en Dublín el año pasado.

Dale Sartor, consultor y afiliado del Laboratorio Nacional Lawrence Berkeley en Estados Unidos, sugiere que los costos serán un factor determinante en la viabilidad de la IA generativa para ciertas aplicaciones. Si los métodos tradicionales son más baratos y fáciles, la adopción de IA podría verse limitada.

Finalmente, Luccioni subraya la importancia de que las personas comprendan las diferencias en eficiencia energética entre las distintas opciones de IA. Actualmente, trabaja en un proyecto para desarrollar calificaciones energéticas para modelos de IA, lo que permitiría a los usuarios elegir opciones más eficientes y sostenibles.

El rápido avance de la inteligencia artificial generativa está impulsando una revolución tecnológica, pero también plantea serios desafíos energéticos que deben abordarse para garantizar un futuro sostenible. La carrera por desarrollar hardware más eficiente y la búsqueda de ubicaciones estratégicas para los centros de datos son solo algunas de las respuestas a este creciente problema. Sin embargo, será crucial que la industria y los reguladores trabajen juntos para encontrar soluciones que equilibren la innovación tecnológica con la sostenibilidad ambiental.


Referencias:

¿Te gustó el artículo? ¿Quieres saber más?
Haz click en el botón para contactar a la empresa

Add comment