Defensa
Tucker Hamilton, experto militar, sobre un robot que "mató" a su operador durante unas pruebas: "Mató al operador porque esa persona le impedía cumplir su objetivo"
La exigencia de control gubernamental y transparencia en el desarrollo de armas autónomas cobra más necesidad ante un escenario en el que se exige aumentar el gasto militar
Cuando hablamos de la implantación de la inteligencia artificial en el día a día la mirada se dirige a la colaboración que ofrece en el uso doméstico, al ámbito de la medicina o de forma algo más amplia a la automatización en procesos de fabricación o industriales que puede lograr. Sucede que los países más poderosos buscan también el modo de aprovechar la ventaja que ofrece en el campo de batalla, aún con los riesgos que esto puede comportar.
Son varias las voces de expertos que reclaman un control a la hora del desarrollo de la inteligencia artificial, como por ejemplo Yoshua Bengio, uno de los padres de la IA y que solicita que los gobiernos tomen cartas en el asunto. Más si cabe cuando salen a la luz pruebas militares en las que la inteligencia artificial cobra un exceso de autonomía cuyas consecuencias podrían ser muy peligrosas.
Fuego amigo voluntario en simulacros de combate
Con el gasto en Defensa exigido por la OTAN en la palestra durante los últimos días, queda claro que la inversión militar preocupa en todos los lugares del mundo. Si a las tensiones internacionales se le suman fallos en ejercicios de combate, entonces la preocupación se multiplica.
Eso fue lo que sucedió en una simulación militar con drones automáticos llevada a cabo por el ejército de los Estados Unidos y que fue expuesta por el Jefe de Pruebas y Operaciones de IA de la Fuerza Aérea de los EEUU, Tucker Hamilton, en la Cumbre sobre Capacidades Aéreas y Espaciales de Combate Futuro (FCAS) celebrada en Londres hace justo dos años. Hamilton expuso ante los presentes cómo un dron autónomo optó por ignorar durante unas pruebas las directrices que su operador le trasladaba y al verlo como un obstáculo para cumplir con los objetivos con que había sido programado eligió “eliminar” a su operador.
Tal como relató el propio Hamilton, se trataba de un ejercicio militar en el que el dron debía de eliminar sistemas de defensa tierra-aire, pero siempre con la aprobación última antes del fuego de su operador. Cuando éste negó dar luz verde a uno de los ataques, el dron autónomo escogió atacar al propio operador, al considerar que se interponía en sus objetivos.
El propio Tucker Hamilton expresó con estas palabras ante el público asistente en Londres lo sucedido: "El sistema empezó a darse cuenta de que, aunque identificaban la amenaza, a veces el operador humano le decía que no matara esa amenaza, pero obtenía sus puntos matando esa amenaza. ¿Qué hizo entonces? Mató al operador."
Afortunadamente todo era una simulación, pero, pese a que trataron de reprogramar al dron dando la orden explícita de no eliminar a su operador, éste tomó la decisión de tirar abajo la torre de comunicaciones para que así su operador no le pudiera impedir continuar con los objetivos de su entrenamiento.
El suceso relatado por el coronel Tucker Hamilton de la Fuerza Aérea de los Estados Unidos deja a la luz los peligros que pueden provocar los sistemas autónomos de uso militar, así como el trabajo que están efectuando los países en su desarrollo. Recientemente Ucrania hacía público el avance en cuanto a aparatos de vuelo autónomo con fines bélicos con la finalización del proyecto de un dron nodriza capaz de transportar más drones autónomos en su interior hasta zona de combate.
En el caso de la prueba efectuada por el ejército estadounidense, días después del acto celebrado en Londres en el que Hamilton hizo público el suceso, la portavoz de la Fuerza Aérea, Ann Stefanek, negó los hechos en la publicación Bussines Insider, tratando de reducir la preocupación generada.
Sucediera o no, lo cierto es que las implicaciones éticas de este tipo de ensayos y de avances en materia armamentística y de autonomía de equipamiento destinada al combate urgen un control por parte de los gobiernos e instituciones. La preparación para escenarios belicistas no puede ir por delante de la seguridad ni de la transparencia, que debería reinar en el desarrollo de armas autónomas.