Verde
Agua y energía, el talón de Aquiles de la IA generativa
Fotos en Instagram, datos en la nube, consultas a ChatGPT... Nuestra vida digital consume cada vez más recursos. ¿Es posible una tecnología sostenible?
Si le preguntamos a ChatGPT si es sostenible a nivel medioambiental, la respuesta es que hoy por hoy no lo es, aunque la herramienta matiza que el asunto es complejo y depende de varios factores. Por un lado, resume que la IA puede ayudar a diseñar soluciones medioambientales, analizar datos o hacer pronósticos de clima. Por otro, reconoce que «el entrenamiento de los modelos implica usar centros de datos durante semanas, con una enorme huella de carbono, comparable incluso con la de miles de hogares».
De hecho, algunos cálculos afirman que el entrenamiento de GPT-3 consumió 1.287 MWh de electricidad y produjo 550 toneladas de CO₂, equivalentes a 33 vuelos de Australia al Reino Unido. A esto, además, hay que añadirle el uso posterior masivo. Y es que a los dos meses del lanzamiento de esta herramienta, ya se contabilizaban 100 millones de usuarios activos.
Una pregunta como la de este reportaje ha viajado hasta un servidor alojado en algún centro de datos lejano, donde se ha procesado la solicitud y ha utilizado entre 114 julios, aproximadamente el equivalente a un microondas calentando durante una décima de segundo, y 6.706 julio, energía suficiente para ejecutar ese mismo microondas durante ocho segundos.
Esta variación depende del sistema utilizado y de las preguntas que se hagan. Esta misma semana cse hacía público un estudio de la Universidad de Ciencias Aplicadas de Múnich (Alemania) en el que se concluye que algunas preguntas a la IA emiten hasta 50 veces más dióxido de carbono que otras. «El modelo Deep Cogito (70 000 millones de parámetros) obtuvo la mayor precisión (84,9 %), pero emitió tres veces más CO₂ que otros de tamaño similar con respuestas más concisas». Además, precisa, «tener a DeepSeek R1 (igual cantidad de parámetros) respondiendo 600 000 preguntas generaría tantas emisiones de CO₂ como un vuelo de ida y vuelta de Londres a Nueva York. En cambio, Gwen 2.5 (72.0000 millones de parámetros) puede responder más de tres veces esa cantidad con tasas de precisión similares y generando las mismas emisiones», cuenta la agencia Sync en un reportaje sobre el tema. En cualquier caso mi pregunta ha ganerado, me temo, cinco veces más CO2 que si solo hubiera hecho la consulta a Google.
La IA generativa se suma a las mil y una interacciones que cada día tenemos con el mundo digital. Detrás de nuestra foto de instagram, de un reel (uno de 15 segundos consume la misma energía que publicar ocho fotos), de un documento que se guarda en la nube de nuestro teléfono o de una consulta a ChatGPT hay un centro de datos; un edificio físico lleno de servidores. «La nube y el software que usamos para comunicarnos y trabajar pueden parecernos algo etéreo, que no tienen consistencia, pero detrás hay unas infraesctructuas que los sostienen, los centros de datos, en clara expansión en todo el mundo. Estos tienen un alto consumo energético y utilizan agua para enfriar estos grandes ordenadores. Necesitan mucha refrigeración, porque estos grandes ordenadores disipan mucho calor. ¿Cuánto contaminan ahora estos centros? Depende para empezar de en qué país estén y del tipo de energía que consumen», comenta Verónica Bolón, del departamento de Ciencias de la Computación y Tecnologías de la Información de la Universidad de La Coruña.
Una demanda al alza
La Agencia Internacional de la Energía pronostica que para 2026, la demanda de electricidad de los centros de datos se duplicará. En 2022 consumieron alrededor de 460 TWh. Una cantidad que convierte a los centros de datos en el undécimo mayor consumidor de electricidad del mundo, entre Arabia Saudí y Francia, según la Organización para la Cooperación y el Desarrollo Económicos. EE UU lidera la lista de data centers con más de 5.000 instalaciones, que consumen un 3% de la electricidad del país. Le siguen Alemania, China o Reino Unido.
El consumo eléctrico está relacionado con la refrigeración y el uso de agua. El documento «Las implicaciones climáticas y de sostenibilidad de la IA» del MIT afirma que por cada kWh de energía que consume un centro de datos, necesita dos litros de agua para enfriarse. Volviendo a EE UU, país con más data centers del mundo, en 2023 estas instalaciones se bebieron 66.000 millones de litros de agua, según afirma el Laboratorio Nacional Lawrence Berkeley.
Además, a las grandes compañías tecnológicas se les ha acusado de instalar una parte de sus centros de datos en zonas áridas. Un estudio de SourceMaterial del que se hace eco The Guardian cuantifica al menos 38 centros en zonas de escasez hídrica y otros 24 en desarrollo. «En 2023 Microsoft dijo que el 42% de su agua proviene de zonas con estrés y Google, el 15%». El reportaje también menciona el proyecto de Amazon en Aragón con licencia para usar 755.720 metros cúbicos de agua al año, suficiente para regar 233 hectáreas de maíz, uno de los principales cultivos de la región. «Se prevé que los nuevos centros de datos de Amazon consuman más electricidad que la que necesita actualmente toda la región. Mientras tanto, Amazon solicitó en diciembre al gobierno regional permiso para aumentar el consumo de agua en sus tres centros de datos existentes en un 48%», comenta el medio.
Bajar el consumo
La preocupación por la sostenibilidad de la IA es general. Muchas empresas están explorando alternativas como la refrigeración por aire o el uso de líquidos especiales para absorber el calor de manera más eficiente, reduciendo la dependencia del agua potable. También se está considerando la ubicación de los centros de datos, eligiendo zonas con climas fríos y estableciendo instalaciones cerca de fuentes de energía renovable para optimizar el consumo.
Otra forma es mejorar la eficiencia de los algoritmos. Es lo que se conoce como Green Ai o algoritmos verdes, que por una parte supone nuevas estrategias para hacer que los modelos de IA sean más eficientes tanto durante su entrenamiento como durante su ejecución y, por el otro, se centra en aplicar IA a la lucha contra el cambio climático o y proveer de otras soluciones medioambientales. «Se trata de ser un poco consecuentes. Si estamos desarrollando un algoritmo para detectar una enfermedad grave, hay que poner todos los recursos disponibles pero cuando tienes un algoritmo que genera una imagen mejor o peor, o te recomienda una película, a lo mejor no pasa nada por perder un poquito de rendimiento. Otra cosa que considera el Green AI es utilizar los algoritmos para optimizar procesos, por ejemplo, para predecir picos de demanda energética o para determinar cuál es el mejor momento para sembrar», afirma Boldo.
¿Superan los beneficios de la IA a sus costes, como dice San Altman, CEO de OpenAI o por el contrario nos estamos pasando de tecno optimistas? Las grandes tecnológicas admiten que sus consumos a veces superan sus cálculos e intentan sumarse a las renovables o incluso proyectar sus propias centrales nucleares como ha hecho Meta. «Se investiga con todo tipo de soluciones para abordar el problema del consumo. Hay avances en centros de datos ecológicos, donde por ejemplo, se utiliza la energía residual para, por ejemplo, instalar un invernadero al lado. Incluso hay proyectos para estudiar la viabilidad de llevar centros de datos al espacio o al fondo del mar», comenta Boldo. En este sentido, hace escasas semanas uno de los principales operadores europeos de centros de datos, Data4 anunciaba un proyecto de colaboración con la Fundación de la Universidad Paris-Saclay para transformar el calor en biomasa a través de módulos de producción de algas. Data4 estima que esta solución va a suponer la captura de «hasta 13 toneladas de CO₂ al año por centro de datos, lo que supone un potencial de 3.900 toneladas al año para toda Francia.
Como explicaba V de viernes hace unos meses, entre 2010 y 2018 se produjo un aumento del 550% en las instancias de computación y un aumento del 2400% en la capacidad de almacenamiento en los centros de datos globales, pero su consumo de energía aumentó solo un 6%. ¿Suficiente? Boldo matiza: «Cuando salió Deep Seek, vimos que era un modelo más eficiente, pero resultó así porque sus desarrolladores no tenían acceso a software más avanzado, a GPUs de última generación. Por eso se tuvieron que poner las pilas y buscar otra forma de trabajar. También vemos cuando aparecen modelos de lenguaje más pequeños que las decisiones son económicas o de acceso a recursos».
Tareas triviales
Al igual que puede resultar trivial la pregunta lanzada a ChatGPT al inicio de este reportaje, hace escasos meses durante unos días todas las redes sociales se llenaron de imágenes anime similares a las creadas por el mítico Studio Ghibli. En apenas horas, se habían consumido 200 millones de litros de agua. ¿Hay que priorizar el uso que le damos a la tecnología? «Yo pongo este ejemplo muchas veces. La nevera de tu casa tiene una etiqueta energética y tú sabes lo que consumes, porque vas a pagar la electricidad. Cuando la vas a comprar tienes en cuenta si tiene etiqueta A, etc. ¿Qué pasa con los algoritmos? Que no estás pagando por esa electricidad que consumes, ¿no? Es algo como etéreo y además tiene dos fases. La fase de entrenamiento, que es como algo que ya ha pasado, y cuando lo estás utilizando. Al principio los investigadores estábamos más preocupados por la parte de entrenamiento (entre un 20 y un 40% del consumo), pero ahora con los millones de usuarios que hay, la parte de inferencia de uso también preocupa (hasta un 69% del consumo)», códice Boldo. Los investigadores del MIT coinciden en que hay que empezar a establecer prioridades: «La facilidad de uso de las interfaces de IA generativa y la falta de información sobre los impactos ambientales de mis acciones significa que, como usuario, no tengo mucho incentivo para reducir mi uso de IA generativa. Además, y por otro lado,los modelos de Inteligencia Artificial tienen una vida útil especialmente corta, impulsada por la creciente demanda de nuevas aplicaciones. Las compañías lanzan nuevos modelos cada pocas semanas, por lo que la energía utilizada para entrenar versiones anteriores termina desperdiciándose», apunta el MIT para terminar señalando que, además, los nuevos modelos suelen consumir más energía para el entrenamiento, «ya que suelen tener más parámetros que sus predecesores», concluyen.
España a la caza de nuevas instalaciones
En los últimos meses se han publicado grandes proyectos de centros de datos, en algunos casos polémicos por el uso del agua como el desarrollo de la Meta, la multinacional de Zuckerberg, que ya está aprobado en Talavera de la Reina o el mencionado de Amazon en Aragón. De hecho, según un reciente estudio de Spain DC y Accenture, la demanda de centros de datos se incrementará en España un 90 % hasta el año 2028. Y alerta de que, a pesar de las previsiones positivas de crecimiento, España en 2018 aportaba solo un 4,3% del volumen de datos en la UE. Para salvar las distancias «necesita un crecimiento anual promedio de volumetría de datos de un 22,5 % hasta 2028», dice el estudio.