Tecnología

Un alto general del Ejército de EE. UU. afirma que utiliza ChatGPT para tomar decisiones clave de mando

‘Chat y yo nos hemos vuelto muy cercanos últimamente’, ha afirmado el mayor general William ‘Hank’ Taylor, comandante del Octavo Ejército

Un alto general del Ejército de EE. UU. afirma que utiliza ChatGPT para tomar decisiones clave de mando
El mayor general William ‘Hank’ Taylor, comandante del Octavo Ejército.Sgt. Liseth Espinel/ US Army.

Un alto general del Ejército estadounidense destinado en Corea del Sur ha afirmado que recurre a un chatbot de inteligencia artificial para reflexionar sobre decisiones clave de mando y personales. El mayor general William ‘Hank’ Taylor, comandante del Octavo Ejército, declaró a los periodistas durante la conferencia de defensa terrestre AUSA en Washington D. C. que ha estado utilizando ChatGPT para perfeccionar la forma en que toma decisiones que afectan a miles de soldados.

‘Chat y yo nos hemos vuelto muy cercanos últimamente’, señaló Taylor en una mesa redonda con medios este lunes y que recoge Business Insider, aunque evitó ofrecer ejemplos de uso personal.

Añadió que está explorando cómo la IA podría apoyar sus procesos de toma de decisiones -no en situaciones de combate, sino en el mando y el trabajo diario- y que ‘estoy intentando crear modelos que nos ayuden a todos’. ‘Como comandante, quiero tomar mejores decisiones. Quiero asegurarme de tomarlas en el momento adecuado para obtener ventaja’, explicó el general.

Taylor, que también ejerce como jefe de Estado Mayor del Mando de las Naciones Unidas en Corea del Sur, señaló que ve esta tecnología como una herramienta potencial para desarrollar modelos analíticos y entrenar a su personal para pensar de forma más eficiente.

El Ejército estadounidense lleva tiempo impulsando la integración de la inteligencia artificial en sus operaciones -desde la logística y la vigilancia hasta las tácticas en el campo de batalla-, mientras que potencias rivales como China y Rusia avanzan en la misma dirección.

Los responsables militares sostienen que los sistemas basados en IA podrían permitir un procesamiento de datos más rápido y una selección de objetivos más precisa, aunque también expresan preocupación por la fiabilidad y la rendición de cuentas cuando el software asume funciones tradicionalmente reservadas a humanos.

El exsecretario de la Fuerza Aérea, Frank Kendall, advirtió el año pasado de que los rápidos avances en armas autónomas implican que ‘los tiempos de respuesta para generar efectos son muy breves’, y que los comandantes que no se adapten ‘no sobrevivirán al próximo campo de batalla’.

La IA ya ha sido probada por Estados Unidos en simulaciones de combate. Entre otros ejemplos, la Fuerza Aérea y DARPA, Agencia de Proyectos de Investigación Avanzada de Defensa, simularon el año pasado un combate aéreo en el que una IA pilotó un F-16 modificado. En el caza volaba también un piloto humano, pero su intervención no fue necesaria en ningún momento.

Otros programas se utilizan para cribar datos satelitales, seguir la logística y agilizar el papeleo administrativo de las unidades desplegadas.

Las Fuerzas de Operaciones Especiales del Ejército han adoptado herramientas similares para reducir la ‘carga cognitiva’ de los operadores, utilizando IA para redactar informes, procesar datos de misiones y analizar inteligencia a gran escala.

Pese a estos esfuerzos, los responsables del Pentágono piden cautela y han advertido de que los sistemas de IA generativa pueden filtrar información sensible o producir conclusiones erróneas si los datos están incompletos o han sido manipulados.

Taylor reconoció que uno de los retos de utilizar esta tecnología puntera es mantener el ritmo del rápido avance de las herramientas de IA, garantizando además que cumplan los estrictos requisitos de seguridad del Ejército.