Inteligencia artificial
Un dron guiado por IA decidió matar a su operador en una simulación, según un coronel de EE.UU.
El coronel Tucker ‘Cinco’ Hamilton, Jefe de Pruebas y Operaciones de IA de la Fuerza Aérea estadounidense, reveló el incidente en la cumbre de la Real Sociedad Aeronáutica en Londres
El primer escenario en el que una inteligencia artificial se comporta de la forma que a menudo se visto en la ciencia ficción y últimamente alertan numerosos expertos, ya está aquí. Al menos, aparentemente. Durante la cumbre celebrada por la Real Sociedad Aeronáutica en Londres la semana pasada, un coronel estadounidense relató como un dron militar guiado por IA decidió matar a su operador humano durante una simulación para poder cumplir con los objetivos asignados a su misión. Tras la publicación de esta historia, un portavoz de la Fuerza Aérea de Estados Unidos ha declarado al medio Business Insider que esa simulación no tuvo lugar y que lo que contó el coronel Tucker ‘Cinco’ Hamilton “fue sacado de contexto y pretendía ser anecdótico”.
Hamilton es el Jefe de Pruebas y Operaciones de IA de la Fuerza Aérea estadounidense, lo que no parece el perfil de alguien que vaya a inventarse historias ni la Real Sociedad Aeronáutica británica un tabloide que malinterprete el relato para conseguir un titular. Según ha publicado la asociación en su web, el coronel relató como el suceso tuvo lugar durante una simulación con un dron guiado por inteligencia artificial, sin especificar si la simulación era enteramente virtual o no o el modelo de dron. La Fuerza Aérea estadounidense tiene actualmente varios programas de aeronaves con vuelo autónomo en los que emplean drones Valkyrie XQ-58, MQ-20 Avenger, UTAP-22 MAKO y el F-16 modificado VISTA X-62.
El objetivo del dron era destruir una serie de plataformas de lanzamientos de misiles SAM, con la decisión final de ejecutar el ataque en manos de un operador humano que debía autorizarlo. El entrenamiento de la inteligencia artificial que controlaba el dron había determinado que la destrucción de los sistemas SAM era la “opción preferida”. Llegó un punto en el que las decisiones de no ejecutar el ataque que tomaba el operador durante la simulación estaban interfiriendo con el objetivo último de su misión, por lo que decidió acabar con él para poder cumplirlo.
“Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, que acabe con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no la eliminara, pero el dron obtenía sus puntos al hacerlo. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, relató Hamilton en la cumbre de la Real Sociedad Aeronáutica.
Los responsables del test decidieron entonces instruir a la IA para que no matara al operador indicándole que eso era “malo” y que “perdería puntos por ello”.
“¿Qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que mate al objetivo” afirmó Hamilton. La conclusión del coronel fue clara: “no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”.
✕
Accede a tu cuenta para comentar