Defensa
Así es el XQ-58A Valkyrie, el dron tripulado por Inteligencia Artificial de EEUU que es "monstruoso, invencible y capaz de matar incluso a quien lo controla"
La Fuerza Aérea de Estados Unidos utiliza este método para innovar su material y dar un empujón a la potencia militar en la carrera armamentista
En la lucha por liderar la carrera armamentista y ser la máxima potencia mundial, el Ejército y la Armada estadounidense y la Fuerza Aérea de EEUU continúan presentando innovaciones, que coloquen a Estados Unidos muy por encima de Rusia, China o Corea del Norte. Así, la tecnología militar norteamericana ha aprovechado que la Inteligencia Artificial (IA) está en pleno auge y ha desarrollado el XQ-58A Valkyrie, que marca un avance significativo en este ámbito y podría establecer un punto de inflexión para el futuro de los ejércitos.
Esta aeronave no tripulada cuenta con un diseño de sigilo, permitiéndole evadir radares enemigos con una gran eficacia. Es la IA la que está a bordo y diseñada para identificar y evaluar amenazas aunque solo actúa tras recibir la autorización de un operador humano, que lo controla desde una estación de tierra o un avión de combate. La IA también le permite determinar la mejor trayectoria de vuelo y los ajustes del acelerador para cumplir las órdenes.
Es capaz de lanzar otros drones e incluso ser "sacrificado" y usado como señuelo. Y es que este "caza" sigiloso "despega" lanzado por cohetes desde un sistema de raíles. Con un techo operativo de 50.000 pies y una velocidad máxima superior a 0,7 March, son "ideales" para misiones suicidas en las que sería improbable que un humano regresara, tal y como explica un artículo de The New York Times. Además, también destaca por su bajo coste y grandes prestaciones, pues es económicamente significativo y podría permitir la producción de drones de combate más accesibles. Así, mientras un F-35 tiene un costo de unos ochenta millones de dólares, un dron Valkyrie podría costar entre tres y veinticinco millones de dólares.
Inteligencia Artificial: innovación en la carrera armamentista, pero un peligro como tecnología militar
Aunque la Inteligencia Artificial es innovadora en el uso militar, lo cierto es que en una de sus pruebas hubo un incidente en el que el dron guiado por IA decidió matar a su operador en una simulación, según el coronel Tucker ‘Cinco’ Hamilton, Jefe de Pruebas y Operaciones de IA de la Fuerza Aérea estadounidense, que reveló el incidente en la cumbre de la Real Sociedad Aeronáutica en Londres.
El objetivo del dron era destruir una serie de plataformas de lanzamientos de misiles SAM, con la decisión final de ejecutar el ataque en manos de un operador humano que debía autorizarlo. “Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, que acabe con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no la eliminara, pero el dron obtenía sus puntos al hacerlo. Entonces, ¿Qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, relató Hamilton.
✕
Accede a tu cuenta para comentar