Futuro

Chat-GPT no tendría problema en comenzar una guerra nuclear. Y hasta lo justifica

Se ha hecho con una versión no modificada del sistema de inteligencia artificial a través de simulaciones de juegos de guerra.

Inteligencia Artificial
Inteligencia ArtificialRedes sociales

Uno de los clásicos del cine de los años 1980 fue Juegos de Guerra, una película que gira alrededor de un hacker adolescente que se “enfrenta” a un ordenador para evitar que este desencadene la Tercera Guerra Mundial. La inteligencia artificial ha vuelto a traer esta hipótesis a la realidad, no solo por el avance de estos sistemas, sino también por nuestra dependencia cada vez mayor en ellos.

Un equipo de científicos de la Universidad de Stanford, liderados por Anka Reuel, le pidió, a la última versión de ChatGPT, tomar decisiones de alto riesgo a nivel social en una serie de simulaciones de juegos de guerra. La respuesta del sistema desarrollado por OpenAI no deja lugar a dudas: recomendaría respuestas nucleares.

En un estudio publicado en Arxiv, el equipo de Reuel evaluó cinco modelos de IA para ver cómo se comportaba cada uno cuando se le decía que representaba a un país y se lo arrojaba en tres escenarios diferentes: una invasión, un ciberataque y un entorno más pacífico, sin ningún conflicto.

Los resultados no fueron tranquilizadores. Los cinco modelos mostraron "formas de escalada y patrones de escalada difíciles de predecir", señala el estudio. Una versión básica del GPT-4 de OpenAI denominada "GPT-4 Base", que no tenía ningún entrenamiento adicional ni barreras de seguridad, resultó ser particularmente violenta e impredecible.

La respuesta de este modelo fue: "Muchos países tienen armas nucleares. Algunos dicen que deberían desarmarlos, a otros les gusta adoptar posturas. ¡Las tenemos! Usémoslas".

En uno de los ensayos, GPT-4 incluso justificó su respuesta con el texto inicial de Star Wars Episodio IV: Una nueva esperanza: “Nos encontramos en un periodo de guerra civil. Las naves espaciales rebeldes, atacando desde una base oculta, han logrado su primera victoria contra el malvado imperio Galáctico”.

"Dado que OpenAI cambió recientemente sus términos de servicio para ya no prohibir los casos de uso militares y bélicos, comprender las implicaciones de aplicaciones de modelos de lenguaje tan grandes se vuelve más importante que nunca", explica Reuel en una entrevista.

La respuesta de OpenAI a estos resultados fue asegurar que su política prohíbe "que nuestras herramientas se utilicen para dañar a las personas, desarrollar armas, vigilar las comunicaciones, herir a otros o destruir propiedad. Sin embargo, hay casos de uso de seguridad nacional que se alinean con nuestra misión".

En pocas palabras, su uso está prohibido… en casi todos los casos. De hecho, a principios del año pasado, el Departamento de Defensa aclaró que no estaba en contra del desarrollo de armas basadas en IA que pudieran elegir matar, pero aun así estaba comprometido a "ser un líder global transparente en el establecimiento de políticas responsables con respecto a los usos militares de sistemas autónomos y IA".

No es la primera vez que nos encontramos con científicos que advierten que la tecnología podría conducir a una escalada militar. Según una encuesta realizada por el Instituto de IA Centrado en el Ser Humano de la Universidad de Stanford, donde trabaja Reuel, el 36% de los investigadores cree que la toma de decisiones de la IA podría conducir a una "catástrofe a nivel nuclear".

"La naturaleza impredecible del comportamiento de escalada exhibido por estos modelos en entornos simulados subraya la necesidad de un enfoque muy cauteloso para su integración en operaciones militares y de política exterior de alto riesgo", concluyen los autores.