Riesgos Inteligencia Artificial

Nisan Stiennon, ex-empleado de OpenAI: "Un día crearán algo que nos matará a todos"

Voces reconocidas del mundo académico y antiguos empleados de la empresa de Sam Altman exigen que se impida la reestructuración de la compañía a una con fines lucrativos

Sam Altman, CEO de OpenAI
Sam Altman, CEO de OpenAIEuropa Press

Conforme se producen avances significativos en un terreno, aumentan las voces críticas y aquellas que alertan de los riesgos que pueden derivar de un crecimiento sin el control institucional requerido.

El campo de la inteligencia artificial lleva tiempo enfrentando esa discusión. Por un lado, existen expertos que abogan por una férrea vigilancia desde los gobiernos a los procedimientos de los diferentes actores involucrados y por otro, quienes solicitan un margen mayor con el que poder desarrollar sus proyectos.

Aviso desde dentro de las compañías de IA

Las voces críticas y que alertan de los potenciales peligros de la inteligencia artificial están a la orden del día. Entre ellas, toman especial peso las de quienes han podido ver desde dentro de las compañías la evolución de una tecnología que se encuentra en una fase de plena expansión.

Entre esas personas se encuentra Nisan Stiennon, quien entre los años 2018 y 2020 trabajó para OpenAI, la compañía matriz de ChatGPT. Stiennon no quiso dejar pasar la oportunidad de alertar de los riesgos que puede suponer para la humanidad un crecimiento sin barreras de la inteligencia artificial y sus palabras fueron recogidas por la televisión estadounidense CNBC.

Las manifestaciones de Nisan Stiennon se produjeron en el marco de la iniciativa que tuvo lugar a finales del mes de abril en Estados Unidos. En ella, profesores universitarios, diferentes autoridades galardonadas con el premio Nobel y antiguos empleados de OpenAI remitieron una comunicación a los fiscales generales de California y Delaware para frenar la reestructuración de la compañía de Sam Altman y permitirle pasar a ser una entidad con fines lucrativos, abandonando su idea original.

En esa circunstancia, Nisan Stiennon defendía su participación apuntando a los potenciales riesgos que puede suponer un cambio de rumbo en OpenAI dado su potencial: “OpenAI podría algún día desarrollar tecnología que podría llevarnos a la muerte a todos”, señaló sin titubeos Stiennon.

“OpenAI podría algún día desarrollar tecnología que podría llevarnos a la muerte a todos”

Nisan Stiennon, exempleado de OpenAI

Al tratarse de un exempleado de la compañía, sus palabras tienen un peso adicional dado el conocimiento que pudo adquirir desde dentro, algo que también le permitió señalar la importancia de que la empresa de Sam Altman conserve su esencia fundacional: “Es un mérito de OpenAI estar controlada por una organización sin fines de lucro con un deber hacia la humanidad. Este deber impide ceder ese control”, recalcó Stiennon.