Inteligencia Artificial

Sam Altman compara la energía necesaria para mantener a la IA con el coste de criar a un ser humano. Sale mal

El CEO de OpenAI intenta defender el enorme gasto eléctrico de sus servidores equiparando el aprendizaje automático con la alimentación diaria de una persona durante dos décadas

Errol Musk en el podcast Wide Awake
Las declaraciones del directivo intentan frenar las críticas medioambientales, pero los datos de consumo industrial contradicen directamente sus polémicas comparaciones biológicas

Justificar el consumo eléctrico de la inteligencia artificial generativa exige argumentos cada vez más insólitos. Sam Altman defiende el gasto energético de sus servidores comparándolo con la crianza de un ser humano. El máximo responsable de OpenAI argumenta que educar a una persona exige muchísima energía biológica y alimentaria durante veinte largos años.

Estas declaraciones se produjeron durante una reciente cumbre tecnológica celebrada en India. Si leemos la transcripción íntegra publicada por la revista TechSpot, el directivo intenta desmentir que una consulta consuma tanta batería como un teléfono móvil. Altman asegura que el requerimiento eléctrico real por cada interacción resulta muchísimo menor al calculado habitualmente.

La comparación de Altman no es rigurosa, ni justa




Según su particular visión del problema, la comparación verdaderamente justa consiste en medir cuánta electricidad necesita un modelo entrenado frente al esfuerzo mental humano. El empresario llega a sugerir que sus sistemas informáticos ya han alcanzado nuestra propia eficiencia, omitiendo que un programa informático se replica millones de veces simultáneamente en todo el mundo.

El ejecutivo aprovechó su tribuna asiática para abordar el polémico uso de recursos hídricos en el sector. Altman calificó las quejas sobre el agua como fabricadas y completamente falsas. Aseguró que la industria está abandonando la refrigeración evaporativa rápidamente para alejar cualquier temor generalizado sobre un repentino declive del sector por motivos logísticos.

Ese optimista relato corporativo choca frontalmente contra los registros industriales independientes de este mismo año. Diferentes informes externos señalan que más de la mitad continúan utilizando evaporación para sus equipos. Hablamos de instalaciones inmensas e ininterrumpidas que todavía requieren un uso intensivo de agua potable constante para mantener todas las temperaturas controladas.

Las previsiones oficiales indican que estas inmensas granjas de servidores exigirán veintitrés gigavatios este mismo año, igualando toda la demanda eléctrica del Reino Unido. Cada tarjeta Nvidia H100 requiere setecientos vatios continuos funcionando a pleno rendimiento. Semejante expansión genera muchísimas dudas y ha provocado la dimisión de altos cargos directivos rivales recientemente.

La Agencia Internacional de la Energía advierte sobre un altísimo crecimiento anual del quince por ciento. Diferentes estudios independientes confirman que esta nueva tecnología superará pronto el gasto de Bitcoin a nivel mundial. Frente a este panorama insostenible, numerosas organizaciones medioambientales exigen paralizar la rápida construcción de nuevas infraestructuras privadas sin control.

Equiparar la ingesta calórica de un individuo con el voltaje necesario para sostener redes neuronales desvía completamente el foco. Esta agresiva retórica corporativa solo busca evitar hablar de una crisis de capacidad energética a nivel mundial, trasladando el necesario debate industrial hacia comparaciones biológicas que resultan de todo punto imposibles de verificar empíricamente.

Client Challenge