Sostenibilidad

Más consumo, menos impacto: la energía de la IA

El entrenamiento y la inferencia de los modelos de Inteligencia Artificial demandan cada vez más consumo de energía, pero la eficiencia de la infraestructura utilizada permite que su huella de carbono sea menor

Data center
Data centerEimantas BuzasDreamstime

Pedirle a ChatGPT que nos haga un resumen o a MidJourney que nos dibuje un extraterrestre tiene un consumo eléctrico no solo de nuestro ordenador, sino de las redes de comunicaciones, los servidores de cálculo y los sistemas de almacenamiento que están detrás de todos los algoritmos de la Inteligencia Artificial. Pero lo mismo ocurre cada vez que envías un correo electrónico, subes una foto a Instagram o contestas un WhatsApp.

Las tecnologías que están detrás de nuestro día a día tienen un importante consumo eléctrico. Sin embargo, calcular cuál es el impacto real que tienen todos estos códigos es complicado.

Según la Agencia Internacional de la Energía, en 202, los centros de datos (CPD) que alimentan todos los ordenadores, incluida la nube de Amazon o el motor de búsqueda de Google, utilizaron entre el 1 y el 1,3% de toda la electricidad mundial. Eso excluye la minería de criptomonedas, que utilizó otro 0,4%, aunque algunos de esos recursos se están redistribuyendo ahora para hacer funcionar la inteligencia artificial.

Este mismo organismo asegura que, desde 2010, las emisiones del sector TIC han crecido modestamente, sobre todo si se compara con el rápido crecimiento de la demanda de servicios digitales. Algo que se explica gracias a las mejoras de la eficiencia energética, las compras de energía renovable por parte de las empresas de tecnologías de la información y la comunicación (TIC) y una mayor descarbonización de las redes eléctricas en muchas regiones. Por hacernos una idea, entre 2010 y 2018 se produjo un aumento del 550% en las instancias de computación y un aumento del 2400% en la capacidad de almacenamiento en los centros de datos globales, pero su consumo de energía aumentó solo un 6%.

Sin embargo, para alcanzar el escenario de Cero Emisiones, las emisiones deben reducirse a la mitad para 2030. Algo que se agudiza si tenemos en cuenta que la inteligencia artificial (IA) y el aprendizaje automático (AM) son una de las principales áreas de crecimiento de la demanda, con implicaciones potencialmente significativas para el uso energético de los centros de datos en los próximos años. Aunque la cantidad de potencia informática necesaria para entrenar los modelos de ML más grandes está creciendo rápidamente, no está claro a qué velocidad está aumentando el uso total de energía relacionada con el ML en los centros de datos.

Robert Assink, director general de Digital Realty en España, asegura a La Razón que los centros de datos especializados como los de su compañía «llevamos años trabajando para la llegada de la inteligencia artificial, innovando en nuevos modelos de refrigeración más eficientes para dar solución a la mayor densidad de potencia que demanda la IA. Estamos incorporando sistemas de refrigeración líquida para eliminar de forma más sencilla el exceso de calor de los equipos, permitiendo un uso más eficiente de la energía».

Calcular el impacto

Los primeros intentos de calcular cuánta electricidad consume la IA se centraron en la energía y las emisiones de carbono asociadas con el entrenamiento de grandes modelos de ML. Sin embargo, datos más recientes de empresas como Meta y Google revelan que la fase de entrenamiento solo representa alrededor del 20-40% del uso total de energía relacionada con ML. La inferencia (la aplicación o el uso de estos modelos) supondría entre el 60 y el 70% y hasta un 10% para el desarrollo de modelos (experimentación).

A ello habría que añadir la complejidad de que no todos los datos se hacen públicos. Por eso, uno de los estudios que más repercusión ha tenido ha sido el elaborado por investigadores de la Universidad de Massachusetts Amherst en 2019. El estudio concluyó que BERT (el modelo de lenguaje grande (LLM) de Google era el más grande cuando se hizo el informe) emitió aproximadamente 652 kilos de dióxido de carbono (CO2) durante 79 horas de entrenamiento utilizando 64 unidades de procesamiento gráfico (GPU) avanzadas, los chips comúnmente utilizados para entrenar modelos de IA debido a sus capacidades superiores de procesamiento paralelo. Para poner esto en perspectiva, un vuelo de ida y vuelta de Nueva York a San Francisco genera aproximadamente 910 kilos de emisiones de CO2 por pasajero.

El estudio se basa en el ritmo de crecimiento de la IA, la disponibilidad de chips de IA y que los servidores sigan funcionando a pleno rendimiento todo el tiempo. Los autores calculan que Nvidia suministrará alrededor del 95% del kit de procesamiento de IA que necesita el sector. Teniendo en cuenta la cantidad de estos ordenadores que se espera que suministre de aquí a 2027, pudo aproximar una horquilla para el consumo energético de la IA de entre 85 y 134 terrawatios-hora (TWh) de electricidad al año.

Más recientemente, en 2023, otro informe intentaba calcular la huella de carbono del uso de IA frente al de un humano para escribir una página de texto o crear una ilustración. Tras considerar las emisiones de carbono de distintos modelos de IA (ChatGPT, BLOOM, Midjourney y DALLE-2) y comparar a trabajadores de Estados Unidos y la India, los investigadores descubrieron que «la IA que escribe una página de texto emite entre 130 y 1.500 veces menos CO2e que un humano» y que «la IA que crea una imagen emite entre 310 y 2.900 veces menos».

Esto, aseguran los autores, demuestra cómo, en igualdad de condiciones, el uso de la estas tecnologías para sustituir la mano de obra humana puede reducir las emisiones de carbono en determinados casos.

Un ejemplo español

Uno de los grandes centros de supercomputación donde se desarrolla la IA es el español MareNostrum 5, que alcanzará 40.1 Rmax PFlop/s con un consumo eficiente de tan solo 5.7MW, según destaca Lenovo, el fabricante de hardware encargado de la infraestructura de este sistema.

«El hipercomputador MareNostrum 5 funciona ahora haciendo uso de menos energía y genera menos emisiones de carbono, al tiempo que proporciona a los investigadores el poder de la hipercomputación para crear soluciones sostenibles que beneficien a la sociedad en general, teniendo un impacto positivo a largo plazo en la humanidad», subraya Noam Rosen, director de alta computación e IA en EMEA de Lenovo, quien manifiesta que la eficiencia energética en las hipercomputadores es una «preocupación crítica debido a la enorme cantidad de energía que consumen estos sistemas». Para lograrla, se trabaja en varias estrategias y tecnologías, tanto en procesador, en soluciones de refrigeración, software de administración de energía o el uso de componentes energéticamente eficientes.

No es el único hito patrio reciente, puesto que Telefónica ha llegado a un acuerdo con Vertiv para reducir un 20% del consumo energético en su red. Telefónica espera ahorrar alrededor de 45 GWh al año en un plazo de tres años, lo que equivale al consumo energético de unos 13.000 hogares. Para ello, Vertiv proporcionará una solución para permitir el ahorro de energía en diferentes áreas de los emplazamientos centrales de la red de Telefónica en España a través de una «optimización de los sistemas de climatización y energía siguiendo los patrones de consumo de procesamiento y adecuando los recursos a sus necesidades específicas. Este sistema, que está totalmente automatizado, está diseñado para optimizar la eficiencia energética permitiendo un ahorro de considerable y, por ende, mayor eficiencia energética», según detalla José Alfonso Gil Gutiérrez, Services Sales Director de Vertiv para Southern Europe, a este medio.

Consumo futuro

«La sostenibilidad es un viaje: no existe una acción singular que pueda “arreglarlo”, y menos cuando se trata de IA», concluye el responsable de Lenovo. Por eso, desde Vertiv señalan que en el futuro de los sistemas de IA deben estar orientados a «anticipar nuestros patrones de demanda y consumo, y optimizar los recursos existentes con el objetivo de limitar su demanda energética». Dado que cualquier interacción computacional con la IA «requiere de una necesidad energética muy superior a la habitual», esta tecnología «indudablemente supondrá un incremento del consumo energético mundial, y los desarrolladores deben tenerlo muy presente para optimar las plataformas y su consumo energético».