Conflicto

La Inteligencia Artificial, en jaque por la guerra en OpenAI

Semana de caos en el creador de ChatGPT por el despido del CEO, ahora readmitido, y la revelación del peligroso motivo de su salida. Sam Altman habría ocultado un descubrimiento que «podría amenazar a la humanidad»

Sam Altman
Sam Altman, consejero delegado de OpenAIJOHN G. MABANGLO EFE/EPA

Despido de Sam Altman, contrato en Microsoft, protestas de los trabajadores, tres CEO en seis días, tira y afloja de la junta directiva de OpenAI con Altman, readmisión y el motivo del despido: el proyecto Q*, la inteligencia artificial secreta que “podría amenazar a la humanidad”. Esta es la cronología del culebrón protagonizado por OpenAI, la empresa responsable de ChatGPT, y su cofundador y CEO, Sam Altman, que ha copado titulares en medios y tendencias en redes sociales durante la última semana.

La salida de Altman pilló por sorpresa a todo el sector tecnológico y dejó una pregunta en el aire: ¿por qué? En un inicio, la empresa justificó el fulminante despido alegando una pérdida de confianza, ya que Altman "no fue consistentemente honesto en sus comunicaciones" con este órgano, algo que, "perjudicó su capacidad para ejercer sus responsabilidades". Pero, ¿en qué no fue honesto?, ¿qué gran secreto ocultaba a la cúpula directiva? El detonante del caos iniciado con la destitución de Altman se ha conocido con la llegada de la calma tras su regreso al puesto de CEO. 

Según desveló Reuters, pocas horas antes de que Altman recibiera el email en el que la junta directiva de OpenAI le comunicaba su despido, un equipo de ingenieros de la compañía envió una misiva a la directiva alertando de un “poderoso descubrimiento de la inteligencia artificial” que, según dijeron, “podría amenazar a la humanidad”. Estas preocupaciones giraban en torno al desarrollo del proyecto Q* -se lee Q star-, que según una fuente anónima citada por Reuters, habría llegado al nivel de inteligencia artificial general (AGI), un punto de inflexión en el desarrollo de inteligencia artificial.

Q* sería capaz de resolver ciertos problemas matemáticos, lo que se considera la última frontera de la IA generativa. La IA suele dar buenos resultados en escritura y traducción gracias a la predicción estadística y repetición de la información que acumula de otros, pero las respuestas son variables ya que realmente la IA no entiende el significado del texto que está procesando. En el caso de las matemáticas, sólo hay una respuesta correcta, por lo tanto, de dar con ella, quedaría patente que la IA tiene la capacidad de imitar el razonamiento humano.

Este avance supondría “un peligro potencial para la humanidad”, advirtieron los investigadores en la carta enviada a la junta de OpenAI. Aunque no especificaron los riesgos, alertaron de “una comercialización de la tecnología antes de comprender las consecuencias” y añadieron que otro grupo de investigación estaría trabajando en la optimización de los modelos de IA existentes para mejorar su razonamiento con el fin de realizar tareas científicas.

Altman lo dejó entrever en recientes declaraciones. "Cuatro veces en la historia de OpenAI, la última en las dos últimas semanas, he tenido la oportunidad de estar en la sala en la que dejo atrás el velo de la ignorancia y la frontera del descubrimiento delante, y poder hacerlo es un honor profesional en mi vida", señaló en el evento Asia-Pacifica Economic Cooperation Summit. Exactamente un día después, el pasado viernes, 17 de noviembre, fue despedido.

Para la junta directiva de OpenAI, este acercamiento agresivo al desarrollo de la IA atenta contra los valores de la firma, que a diferencia de grandes tecnológicas como Meta o Google, fue creada como una organización sin ánimo de lucro y con el deber de beneficiar a la humanidad. No obstante, con el éxito de sus desarrollos, fueron llegando inversores y OpenAI se convirtió en un negocio, surgiendo dos bandos dentro de la compañía: el que busca el desarrollo seguro y el que apuesta lanzar los productos más innovadores.

El primer bando, el de la seguridad, está liderado por Ilya Sutskever, el último cofundador que queda en la junta y científico jefe de OpenAI. En esta visión más conservadora, se posicionan también Adam D'Angelo, consejero delegado de Quora, la empresaria Tasha McCauley y Helen Toner del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown, que conforman la junta directiva de OpenAI y que, por lo tanto, tuvieron la fuerza necesaria para echar a Altman, pero la presión de los trabajadores y de los inversores acabó por inclinar la balanza a favor del CEO de OpenAI.

Su despido provocó la renuncia de Greg Brockman, presidente de OpenAI, que se enteró de la decisión poco antes de que la firma lo publicase en su blog. Según aseguró Brockman en X (Twitter), sólo Mira Murati fue conocedora con algo más de antelación, la noche anterior, ya que fue designada directora ejecutiva interina, un puesto que ocupó sólo durante tres días, para pasar a liderar las protestas de los trabajadores. El lunes, 20 de noviembre, al culebrón se sumaron nuevos personajes: el cofundador y antiguo CEO de Twitch, Emmett Shear, que ocupó el puesto de CEO interino, y Satya Nadella, director ejecutivo de Microsoft, que anunció la incorporación de Altman, Brockman y del resto de trabajadores que dimitieron a su equipo de investigación avanzada sobre IA.

Aunque durante estos días se negoció un posible regreso, ninguna de las partes dio su brazo a torcer y el 95% de la plantilla de OpenAI (747 trabajadores de un total de 770) firmó una carta reclamando la dimisión de la junta directiva y la readmisión de Altman, de lo contrario, se irían a Microsoft. Finalmente, la presión surtió efecto y el miércoles, 22 de noviembre, tanto Altman como Brockman volvieron a sus puestos, con la condición de que la junta directiva cambiase a la mayoría de sus miembros. Así se puso fin al caos en OpenAI, pero, ¿la decisión traerá un mal mayor?