
Inteligencia Artificial
Sam Altman, fundador de OpenAI, tajante sobre un posible fin del mundo: "Ningún búnker te salvará si la IA se sale de control"
El CEO de OpenAI afirmó en 2023 que ni siquiera un búnker nos mantendrá a salvo "si la AGI sale mal"

Sam Altman es una de las voces más autorizadas para hablar de Inteligencia Artificial (IA), ya que es el director ejecutivo de OpenAI, la compañía que más ha hecho evolucionar los modelos de IA desde la llegada de la primera versión de ChatGPT.
Este imparable desarrollo de la IA ha traído consigo mucha innovación, pero también la llegada de una serie de preocupaciones. Los más comunes son el fin del trabajo humano y la llegada de un apocalipsis que acabe con la humanidad.
Respecto a esta última teoría, Altman ya se pronunció hace un par de años, una época primigenia de la IA, advirtiéndonos de los peligros de la inteligencia artificial general (AGI) (una IA capaz de realizar cualquier tarea intelectual que pueda hacer un ser humano) y asegurando que si la IA se escapa a nuestro control, ni siquiera un búnker nos podrá salvar.
Si la AGI se sale de control no estaremos a salvo en ningún sitio
Como recogió el medio Business Insider en un artículo publicado en octubre de 2023, por esas fechas Sam Altman participó en el evento WSJ Tech Live y fue entrevistado por la periodista del Wall Street Journal Joanna Stern, la cual le preguntó si le preocupaba tanto el avance de la IA como para tener su propio búnker.
La respuesta de Altman no pudo ser más críptica:
Diría que no
A este respecto, Altman explicó que tenía "algunas estructuras", pero que "no las llamaría un búnker”, sino más bien un refugio seguro.
Eso sí, a continuación, el cofundador de OpenAI fue muy claro respecto a los peligros de la AGI para la humanidad, una IA que él mismo ha confirmado que ya está en camino, afirmando que ni siquiera un búnker nos podrás salvar si esta inteligencia artificial se escapa a nuestro control.
Nada de esto servirá si la AGI sale mal. Es una pregunta ridícula.
En este sentido, debes saber que Sam Altman es lo que se conoce en la cultura norteamericana como "preparacionista" o "prepper", una persona que se anticipa a una futura situación fuera de control como un apocalipsis nuclear u otro provocado por la IA y se prepara para ella.
Sea como fuere, hace 2 años Altman ya nos advirtió del poder destructivo de la AGI, una inteligencia artificial que habrá que regular para evitar que se vuelva más inteligente que nosotros.
✕
Accede a tu cuenta para comentar