Tecnología militar

Una técnica criptográfica podría ser la clave para que la IA en combate no falle

Raytheon acaba de mover ficha en uno de los frentes más sensibles de la tecnología militar: la seguridad de la IA, con su apuesta por saber si un sistema autónomo ha sido manipulado

Una técnica criptográfica podría ser la clave para que la IA en combate no falle
Raytheon TechnologiesFinancial Times

La IA lleva años abriéndose paso en el terreno militar, pero una duda sigue pesando sobre cada dron, cada vehículo autónomo y cada sistema de vigilancia automático, y es si podemos confiar realmente en que sus algoritmos no han sido manipulados, en un cuestionamiento, hasta hace poco considerado un asunto técnico reservado a laboratorios y comités especializados, que se está convirtiendo en un problema estratégico de primer nivel. En un contexto donde los ejércitos dependen cada vez más de modelos de IA entrenados a gran escala, la posibilidad de que un adversario altere mínimamente esos sistemas puede convertir una ventaja tecnológica en una vulnerabilidad crítica.

Raytheon ha decidido enfrentarse a esa duda de raíz. Su movimiento de integrar la criptografía de conocimiento cero en las pruebas de integridad de la IA podría parecer, a primera vista, un detalle matemático más del complejo mundo del machine learning. Pero en realidad marca un punto de inflexión: por primera vez, un contratista de defensa adopta una tecnología diseñada para probar que un modelo es auténtico sin revelar su contenido, algo que en el sector militar equivale a reforzar la coraza sin abrirla para enseñarla.

Este cambio llega en un momento de tensión global en torno a la seguridad de los sistemas autónomos, pues en los últimos dos años, tanto EE UU como Europa han presionado para regular la trazabilidad de los modelos utilizados en operaciones sensibles. Y es que la preocupación es simple: si un algoritmo puede ser corrompido durante una actualización remota o un tránsito por satélite, todo el sistema operativo pierde fiabilidad, de manera que la guerra algorítmica no se gana solo con potencia de cálculo; se gana con confianza verificable.

Y aquí es donde Raytheon, junto con Lagrange y su motor DeepProve, entra en escena ahora que la compañía quiere convertir la integridad verificable de los modelos en el nuevo estándar militar, del mismo modo que la aviación hizo obligatoria la revisión previa al vuelo. La cuestión es que no se trata de un accesorio tecnológico: es la base para que los ejércitos puedan delegar decisiones críticas a máquinas sin que el riesgo silencioso de un ataque digital quede fuera del radar.

Un nuevo enfoque para asegurar la IA militar

Para entender el alcance del cambio, basta imaginar un escenario habitual: un dron recibe una actualización de su modelo de reconocimiento visual mientras opera en un entorno con comunicaciones degradadas. Antes, el sistema tenía que confiar en que ese modelo era legítimo, pero ahora, gracias a las pruebas criptográficas, puede verificarlo sin descargar grandes paquetes, sin exponer información sensible y sin detener la misión. Un simple intercambio de datos mínimos puede demostrar que no hay alteraciones ocultas.

Según lo publicado por Rivista AI, esta capacidad responde a una preocupación real: los ataques de envenenamiento de datos, que no dejan firmas evidentes y pueden introducir microcambios en los pesos de un modelo. Para un algoritmo desplegado en combate, una desviación prácticamente invisible puede tener consecuencias desastrosas, como confundir un convoy aliado con un objetivo hostil. De forma que la criptografía de conocimiento cero funciona como una alarma silenciosa: no dice cómo está construido el modelo, pero confirma sin duda si ha sido manipulado.

La estrategia de Raytheon también tiene implicaciones económicas directas, ya que en un mercado de IA militar que supera ya los 30.000 millones de dólares en EE UU, la capacidad de certificar la autenticidad de un sistema puede ser una ventaja competitiva tan importante como el alcance o la velocidad de una plataforma autónoma. La auditabilidad se convierte en un activo estratégico, especialmente a medida que el Departamento de Defensa exige mayor transparencia en toda la cadena de desarrollo algorítmico.

La nueva carrera armamentística ya no es física: es matemática

Lo que hace apenas unos años parecía un debate académico se ha convertido en una prioridad operativa. Por su parte, los contratistas tradicionales están integrando startups de criptografía porque entienden que la próxima generación de sistemas autónomos, que van desde drones hasta sensores distribuidos en el terreno, y dependerá de algoritmos que puedan probar su propia legitimidad en cualquier circunstancia.

No es exagerado decir que la seguridad nacional está desplazándose del terreno físico al informacional, puesto que la fiabilidad de un algoritmo empieza a importar tanto como la resistencia de un blindaje. Y en este nuevo escenario, la criptografía de conocimiento cero se perfila como el mecanismo que permitirá a los ejércitos operar con IA avanzada sin perder el control sobre lo esencial: saber, en cada instante, que la máquina que decide por ellos sigue siendo la misma que certificaron en el laboratorio.

Puede que en unos años, cuando miremos atrás, este movimiento se recuerde como el momento en que las matemáticas salvaron a la guerra algorítmica de sus propias sombras, o quizá solo marque el inicio de una carrera silenciosa por construir los algoritmos más demostrables del campo de batalla. Sea cual sea el desenlace, una cosa ya es segura: la confianza en la IA militar ha dejado de ser un acto de fe. Ahora es una prueba matemática.

Client Challenge