Emisiones
Las instrucciones que le das a una IA pueden aumentar las emisiones 50 veces
"El impacto ambiental de interrogar a una IA aumenta significativamente el consumo de energía y las emisiones de carbono", señala un estudio.
Si los famosos “prompts” o instrucciones que le damos a una IA como ChatGPT o DeepSeek determinan el resultado final, también tienen otra incidencia secundaria: el nivel de contaminación que puede generar.
Para generar las respuestas, el modelo utiliza tokens, es decir, palabras o fragmentos de palabras que se convierten en una cadena de números que el LLM (grandes modelos de lenguaje) puede procesar.
Esta conversión, así como otros procesos informáticos, produce emisiones de CO₂. Sin embargo, muchos usuarios desconocen la considerable huella de carbono asociada a estas tecnologías. Ahora, un equipo de científicos alemanes, liderados por Maximilian Dauner, midió y comparó las emisiones de CO₂ de diferentes LLM ya entrenados mediante un conjunto de preguntas estandarizadas. Los resultados se han publicado en Frontiers in Communications.
“El impacto ambiental de interrogar a los LLM entrenados está fuertemente determinado por su enfoque de razonamiento, ya que los procesos de razonamiento explícitos aumentan significativamente el consumo de energía y las emisiones de carbono – explica Dauner en un comunicado -. Descubrimos que los modelos basados en razonamiento produjeron hasta 50 veces más emisiones de CO₂ que los modelos de respuesta concisa”.
El equipo de Dauner evaluó 14 modelos LLM con entre 7 mil millones y 72 mil millones de parámetros en 1000 preguntas de referencia sobre diversas materias. Los parámetros determinan cómo los LLM aprenden y procesan la información.
Los modelos de razonamiento, en promedio, generaron 543,5 tokens de "pensamiento" por pregunta, mientras que los modelos concisos requirieron solo 37,7 tokens por pregunta. Los tokens de pensamiento son tokens adicionales que los LLM de razonamiento generan antes de generar una respuesta. Una mayor huella de tokens siempre implica mayores emisiones de CO₂. Sin embargo, esto no significa necesariamente que las respuestas resultantes sean más correctas, ya que la complejidad de los detalles no siempre es esencial para la corrección.
El modelo más preciso fue el modelo Cogito, basado en razonamiento, con 70 mil millones de parámetros, que alcanzó una precisión del 84,9 %. El modelo produjo tres veces más emisiones de CO₂ que modelos de tamaño similar que generaron respuestas concisas.
“Actualmente, observamos una clara compensación entre precisión y sostenibilidad inherente a las tecnologías LLM – añade Dauner -. Ninguno de los modelos que mantuvo las emisiones por debajo de los 500 gramos de CO₂ equivalente logró una precisión superior al 80 % al responder correctamente las 1000 preguntas. El CO₂ equivalente es la unidad utilizada para medir el impacto climático de diversos gases de efecto invernadero”.
El tema del que se trataba también resultó en niveles significativamente diferentes de emisiones de CO₂. Las preguntas que requerían largos procesos de razonamiento, por ejemplo, álgebra abstracta o filosofía, generaron emisiones hasta seis veces mayores que las de materias más sencillas, como historia de secundaria. El estudio señala que el objetivo es ayudar a los usuarios a tomar decisiones más informadas sobre su propio uso de la IA.
“Es posible reducir significativamente las emisiones al incitar a la IA a generar respuestas concisas o al limitar el uso de modelos de alta capacidad a tareas que realmente la requieran”, afirma Dauner.
La elección del modelo, por ejemplo, puede marcar una diferencia significativa en las emisiones de CO₂. Por ejemplo, si DeepSeek R1 (70.000 millones de parámetros) respondiera a 600.000 preguntas, se generarían emisiones de CO₂ equivalentes a las de un vuelo de ida y vuelta de Londres a Nueva York. Por otro lado, Qwen 2.5 (72.000 millones de parámetros) puede responder más del triple de preguntas (aproximadamente 1,9 millones) con índices de precisión similares, generando las mismas emisiones.
El estudio detalla que sus resultados podrían verse afectados por la elección del hardware utilizado en el estudio, un factor de emisión que puede variar regionalmente en función de las combinaciones de la red eléctrica local, y de los modelos examinados. Estos factores podrían limitar la generalización de los resultados.
“Si los usuarios conocen el coste exacto de CO₂ de los resultados generados por la IA, como convertirse casualmente en una figura de acción, podrían ser más selectivos y reflexivos sobre cuándo y cómo utilizan estas tecnologías”, concluye Dauner.