
Desafío energético
Sam Altman, padre de ChatGPT: "Hacer una consulta a la IA consume la misma energía que un horno un segundo"
El gasto energético y de agua que requieren los centros de datos donde se entrenan los modelos de inteligencia artificial supone un reto para la industria, que busca soluciones al respecto

Las capacidades y progresos de lo que pueden hacer los modelos de inteligencia artificial centra la atención de los expertos. Todo el mundo mira de reojo las últimas novedades que ha sacado la competencia o las noticias que hablan acerca de lo que puede estar desarrollando y lo cerca que está de ver la luz.
El último año ha supuesto una guerra sin cuartel, en el que a cada novedad de OpenAI respondía una de Google o en su defecto un comunicado de Meta hablando de lo cerca que estaba de lograr la Superinteligencia, cuestión sobre la que Mark Zuckerberg volvió a poner el foco hace poco más de dos semanas.
Sin embargo, hay un desafío que también está presente para todas ellas y para el resto de compañías inmersas en la evolución de la IA: el consumo de agua y de energía que van a requerir los centros de datos que han de sustentar dicha tecnología. Google ya plantea incluso llevar infraestructura al espacio ante una cuestión para la que la última analogía hecha por Sam Altman, creador de ChatGPT, sirve como gran referencia.
Sam Altman no oculta su preocupación sobre la demanda energética de la IA
En España llevamos muchos meses hablando del precio diario de la luz y existe por ello una conciencia al respecto. Se trata de uno de esos detalles que van en paralelo a dotar a los sistemas encargados de evolucionar la inteligencia artificial, en el que también los expertos tienen puesto el foco.
Buena muestra de ello la tenemos en que Sam Altman, en una de las entradas más populares de su blog personal, escrita en el mes de junio, hablaba de cuánto consume cada consulta realizada a ChatGPT, sabedor de la incertidumbre que dicha cuestión genera a los usuarios: “Una consulta media consume alrededor de 0,34 vatios-hora, lo que equivale aproximadamente a lo que consumiría un horno en poco más de un segundo o una bombilla de alta eficiencia en un par de minutos”, quiso aclarar el propio impulsor del asistente de IA más popular del momento.
Como decimos, junto al gasto energético de cada consulta a los modelos conversacionales o generativos va de manera inseparable el consumo de agua que se requiere para la refrigeración de los centros de datos, detalle que también cuantificó el propio Altman: “También consume alrededor de 0,00032176 litros de agua, aproximadamente una quinceava parte de una cucharadita", expuso.
Pueden parecer cantidades exiguas en primera instancia, pero cuando se valora en términos generales y pensando en el total de consultas diarias que recibe ChatGPT, que se cifran en torno a los 2.500 millones de solicitudes diarias, el dato toma un cariz más preocupante.
Es por ello que una de las metas en las que trabajan entidades como OpenAI es la de obtener una inteligencia artificial que ayude en cuestiones como la eficiencia energética, para servirse así de su propia capacidad para dar solución a uno de los grandes retos que todavía hoy en día representa la evolución de los modelos de inteligencia artificial y la infraestructura que van a requerir en el futuro, y cuya construcción ya se proyecta.
✕
Accede a tu cuenta para comentar


