
IA
Ilya Sutskever, cofundador de OpenAI, lo tiene claro: "construiremos un búnker antes de liberar la inteligencia artificial general"
El cofundador de OpenAI es ahora el principal responsable de una empresa de "superinteligencia" enfocada en la seguridad

En el mundo de la inteligencia artificial, donde los avances se miden casi por semanas, las reflexiones de sus protagonistas adquieren una relevancia especial. Y si quien habla es Ilya Sutskever, cofundador y antiguo científico jefe de OpenAI, uno de los cerebros detrás de ChatGPT, es fundamental prestar atención. Sus palabras no solo muestran cómo avanza esta tecnología, sino también las preocupaciones que se presentan con cada nuevo paso hacia adelante.
Precisamente, en el verano de 2023, en un momento de euforia para OpenAI tras el éxito de ChatGPT, Sutskever compartió una idea que, en su momento, dejó a más de uno con la boca abierta. Hablando sobre el futuro y la llegada de la Inteligencia Artificial General (AGI), es decir, una IA con capacidades cognitivas equiparables o superiores a las humanas, lanzó una contundente frase: "Definitivamente construiremos un búnker antes de liberar la AGI".
Sutskever, conocido por su brillantez técnica (fue uno de los participantes del histórico documento AlphaGo, entre otras muchas cosas), llegó a mencionar la necesidad de un búnker en varias ocasiones, incluso ante grupos de nuevos investigadores.
Su justificación era clara: una tecnología tan poderosa sería objeto de deseo global, y quienes la crearon necesitarían protección. Añadía, eso sí, que sería una elección personal la de "meterse en el búnker". Una idea que, aunque pueda sonar sacada de una película, ilustra el nivel de seriedad con el que Sutskever abordaba los riesgos de la AGI.
Por aquel entonces, Sutskever ya llevaba tiempo convencido de la inevitabilidad de la AGI, pero la aceleración brutal que experimentó el campo en 2023 le hizo creer que su llegada era mucho más inminente. Esta percepción le llevó a dedicar una parte significativa de su tiempo a pensar en la seguridad y las implicaciones de esta tecnología.
Sus preocupaciones no se limitaban a los riesgos que la AGI pudiera suponer por sí misma. También, y esto fue clave en los meses siguientes, le inquietaba si la propia OpenAI estaba gestionando el desarrollo de forma correcta, equilibrando la velocidad con la seguridad, y si el liderazgo de la empresa era el adecuado para esa inmensa responsabilidad. Esa tensión interna entre la velocidad de lanzamiento y la cautela en la seguridad fue una constante en OpenAI en 2023 y, como sabemos, desembocó en la conocida crisis de liderazgo en noviembre de ese año, donde las preocupaciones de figuras como Sutskever jugaron un papel fundamental.
Las palabras de Sutskever en 2023 siguen siendo muy relevantes en pleno año 2025, incluso cuando el propio cofundador de OpenAI hace ya unos meses que abandonó la compañía para fundar Safe Superintelligence Inc (SSI), una nueva firma con la que pretende desarrollar una "superinteligencia" de manera segura y ética.
✕
Accede a tu cuenta para comentar