Inteligencia artificial
¿Cuánto contamina una IA como ChatGPT?
La integración de la IA en las búsquedas de Microsoft y Google aumentará la demanda de potencia de cálculo en “cuatro o cinco veces por búsqueda”. Con él, el consumo energético requerido y las emisiones de gases de efecto invernadero
La semana pasada se dio el pistoletazo de salida en la carrera de las inteligencias artificiales generativas entre Google y Microsoft. La primera, con el anuncio, con error incluido, de su chatbot Bard. La segunda, con el lanzamiento de un nuevo buscador Bing con ChatGPT integrado. Más allá de las discusiones sobre la calidad de los resultados que ofrecen, la incorporación de estas tecnologías a herramientas de uso masivo como los buscadores de Google y Microsoft implica que estas compañías deben incrementar sustancialmente la capacidad de procesamiento que requieren para su funcionamiento.
¿Cuánto? Según ha explicado Martin Bouchard, cofundador de la compañía de centros de datos QScale y uno de los expertos consultados por el medio Wired sobre esta cuestión, “al menos, cuatro o cinco veces más de potencia de computo por búsqueda”. Y este aumento de poder computacional requiere mayores cantidades de energía para su funcionamiento. Energía cuya producción conlleva una mayor generación de emisiones de CO2 a la atmósfera. Por tanto, ¿qué huella de carbono genera la inteligencia artificial desplegada a un nivel de uso masivo?
“Ya existen enormes recursos involucrados en la indexación y búsqueda de contenido en Internet, pero la incorporación de IA requiere un tipo diferente de potencia de fuego. Requiere potencia de procesamiento, así como almacenamiento y una búsqueda eficiente. Cada vez que vemos un cambio radical en el procesamiento en línea, vemos aumentos significativos en los recursos de energía y refrigeración que requieren los grandes centros de procesamiento. Creo que este podría ser un gran paso”, señala Alan Woodward, profesor de ciberseguridad en la Universidad de Surrey, Reino Unido, al mismo medio.
El éxito indiscutible de ChatGPT ha llevado a que los usuarios se encuentren a diario avisos de que el sistema se encuentra a su máxima capacidad y la obligación de esperar para poder acceder a la herramienta. La web de ChatGPT alcanzó 100 millones de usuarios activos durante el mes de enero y tuvo una media de 13 millones de usuarios al día. Sin embargo, esta capacidad se queda en nada frente a los 500 millones de búsquedas diarias que recibe un buscador tan minoritario como es el de Microsoft que en 2022 se llevó un 3% de las que se realizaron, según datos de Statista. El buscador de Google, por su parte, ejecutó el 92% de las búsquedas de los usuarios el año pasado.
La huella de carbono de Internet representa casi el 4% de las emisiones mundiales de gases de efecto invernadero, unos 1.600 millones de toneladas de gases de efecto invernadero al año. Según la Agencia Internacional de la Energía, los centros de datos lo son del 1%. En el caso concreto de las inteligencias artificiales generativas, un estudio ha señalado la huella de carbono del entrenamiento realizado por OpenAI para GPT 3, una versión anterior del modelo de lenguaje que emplea ChatGPT (3.5), provocó la emisión de 550 toneladas de CO2, la misma cantidad que produce volar 550 veces de costa a costa de Estados Unidos.
“No es tanto, pero hay que sumarle que no solamente tienes que entrenarla sino también ejecutarla y servir a millones de usuarios”, opina Carlos Gómez Rodríguez, científico de computación de la Universidad de La Coruña.
Bouchard, quien señala que la razón de OpenAI para que ChatGPT no trabaja con datos posteriores a 2021 es la reducción de costes de funcionamiento, cree que “si van a seguir entrenando el modelo con frecuencia y añadiendo más parámetros, es una escala de cosas totalmente diferente. Los centros de datos y las infraestructuras actuales no serán suficientes. Es demasiado”.
Tanto Microsoft como Google tienen establecidos objetivos sobre las emisiones de CO2 que generan. Google quiere lograr cero emisiones netas en todas sus operaciones para 2030 mientras que Microsoft para 2050. Para poder conseguirlos, será necesario que los centros de datos usen fuentes de energía más limpias y rediseñar las redes neuronales que usan los modelos de lenguaje para que sean más eficientes. Según Jane Park, portavoz de Google, “la combinación de modelos, procesadores y centros de datos eficientes con fuentes de energía limpia puede reducir la huella de carbono de un sistema [de aprendizaje automático] hasta 1000 veces”.
✕
Accede a tu cuenta para comentar