
Inteligencia Artificial
Sam Altman, creador de la IA más avanzada del mundo, mete miedo con su predicción: "Puede salir muy mal"
El director ejecutivo de OpenAI no dudó a la hora de solicitar que los gobiernos se planteen medidas regulatorias para prevenir la pérdida de control sobre la inteligencia artificial

La presencia de la inteligencia artificial en nuestra rutina diaria es una realidad. También lo es la capacidad de crecimiento que se le prevé en un plazo de tiempo corto, aunque lo que cuesta más es ver hasta dónde llegará ese crecimiento y si será en la dirección más beneficiosa para los seres humanos, miedo que han expuesto personalidades relevantes en ese campo como Yoshua Bengio.
La falta de previsión sobre el rumbo a adoptar con el vencimiento de cada etapa en materia de inteligencia artificial pone de relieve los temores de especialistas en la materia como Bengio o como Geoffrey Hinton, quien reclama una vigilancia mayor ante la IA.
Protección de los gobiernos
Pese a ser el principal impulsor de la compañía OpenAI, matriz del modelo de lenguaje artificial más avanzado hasta la fecha que es ChatGPT, Sam Altman también defiende la necesidad de una regulación institucional sobre la expansión de la inteligencia artificial. Esta posición fue recogida de su exposición ante el Senado de los Estados Unidos por parte de la división informativa de la cadena estadounidense ABC News.
Altman hizo estas declaraciones durante su comparecencia en la cámara de representación estadounidense en mayo de 2023. En ella, el director ejecutivo de OpenAI no dudó en apuntar los potenciales riesgos en caso de que el camino de la evolución de la inteligencia artificial se tuerza: “Creo que, si esta tecnología sale mal, puede salir muy mal", reconoció ante los senadores.
“Creo que, si esta tecnología sale mal, puede salir muy mal"
El hombre detrás de ChatGPT se pronunciaba así en la misma línea que un nutrido grupo de expertos tecnológicos, entre los que estaban Elon Musk o Steve Wozniak, quienes remitieron una carta exigiendo un control sobre la IA y pidiendo una pausa de seis meses en el desarrollo de sistemas con esa tecnología y una importante expansión de la supervisión gubernamental: “Los sistemas de IA con inteligencia competitiva humana pueden plantear profundos riesgos para la sociedad y la humanidad", exponían los firmantes de la misiva.
En consonancia con esas palabras, Sam Altman señaló en sus palabras en el Senado estar a favor de ciertas medidas de control por parte de los estados: “Sin embargo, creemos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más potentes", expuso.
De ese modo, Altman hacía recaer cierta responsabilidad en cuanto suceda con la IA también sobre las espaldas de los gobiernos e instituciones. Para el CEO de OpenAI, todo ello se debe a la inquietud que algo tan nuevo como la inteligencia artificial puede generar en las personas: “Este es un momento excepcional para trabajar en inteligencia artificial, pero a medida que esta tecnología avanza, entendemos que la gente está preocupada por cómo podría cambiar nuestra forma de vida. Nosotros también", reconoció.
✕
Accede a tu cuenta para comentar