Inteligencia Artificial

“Es cuestión de tiempo que la IA se haga con los códigos de las armas nucleares”, advierten expertos

Más de 100 premios Nobel y expertos en nucleares llegaron a la misma conclusión en una reunión internacional

Bombas o armas nucleares han provocado algunos lugares radiactivos, debido a los altos niveles de radiación que sacuden a zonas peligrosas del mundo
El peligro no solo está en las armas, también en los residuos nuclearesDreamstime

Recientemente, más de 100 premios Nobel y una docena de expertos en armas nucleares se reunieron en Estados Unidos y sus conclusiones alertan de los peligros de una guerra nuclear vinculada a la IA. Los expertos coincidieron ampliamente en que es solo cuestión de tiempo hasta que una IA consiga los códigos nucleares.

“Es como la electricidad – explicó Bob Latiff, general retirado de la Fuerza Aérea estadounidense y miembro de la Junta de Ciencia y Seguridad del Boletín de Científicos Atómicos, en una entrevista -. Se va a colar en todo”.

Pese a lo ominoso de la advertencia, no resulta extraña: ya se ha demostrado que las IA presentan numerosas facetas oscuras, recurriendo al chantaje a los usuarios humanos a un ritmo asombroso cuando se ven amenazadas con ser desactivadas.

En el contexto de una IA, o redes de IA, que salvaguardan un arsenal de armas nucleares, este tipo de riesgos poco comprendidos se vuelven inmensos. Y eso sin mencionar una preocupación genuina de algunos expertos, que también es la trama de la película Terminator: una hipotética IA superhumana que se vuelve rebelde y usa las armas nucleares de la humanidad en su contra.

A principios de este año, el exdirector ejecutivo de Google, Eric Schmidt, advirtió que una IA de nivel humano podría no tener motivos para escucharnos en un escenario como este, argumentando que “la gente no entiende lo que sucede cuando se tiene inteligencia a este nivel”.

Este tipo de catastrofismo sobre la IA ha estado en la mente de los líderes tecnológicos durante muchos años, mientras la realidad se pone al día a cámara lenta. En su forma actual, los riesgos probablemente serían más triviales, ya que los mejores modelos de IA actuales aún sufren de alucinaciones que reducen considerablemente la utilidad de sus resultados.

Además, existe la amenaza de que una tecnología de IA defectuosa deje brechas en nuestra ciberseguridad, permitiendo que adversarios, o incluso IAs adversarias, accedan a los sistemas que controlan armas nucleares.

Lograr que todos los miembros de la inusual reunión del mes pasado se pusieran de acuerdo sobre un tema tan complejo como la IA resultó un desafío, ya que el director de riesgo global de la Federación de Científicos Estadounidenses, Jon Wolfsthal, admitió que “nadie sabe realmente qué es la IA. En este ámbito, casi todo el mundo dice que queremos un control humano efectivo sobre la toma de decisiones sobre armas nucleares. Hay que asegurar a las personas para quienes se trabaja que hay un responsable”.

Si todo esto suena a imposibles, no es extraño. Bajo la presidencia de Donald Trump, el gobierno federal ha estado ocupado introduciendo la IA en todos los ámbitos posibles, a menudo mientras los expertos les advierten que la tecnología aún no está, y quizá nunca lo esté, a la altura de la tarea. Tanto que el propio Departamento de Energía declaró este año que la IA es el "próximo Proyecto Manhattan", en referencia a la iniciativa de la Segunda Guerra Mundial que dio lugar a las primeras bombas nucleares del mundo.

Subrayando la gravedad de la amenaza, OpenAI, creador de ChatGPT, también llegó a un acuerdo con los Laboratorios Nacionales de EE. UU. a principios de este año para utilizar su IA en la seguridad de las armas nucleares.

El año pasado, el general de la Fuerza Aérea Anthony Cotton, quien está a cargo del arsenal estadounidense de misiles nucleares, aseguró en una conferencia de defensa de que el Pentágono está redoblando sus esfuerzos en la IA, argumentando que "mejorará nuestra capacidad de toma de decisiones". Por suerte, Cotton no llegó a declarar que debemos dejar que la tecnología asuma el control total. Todavía.