Inteligencia Artificial

“Si una IA quisiera matarnos, lo conseguiría” dice un ex empleado de OpenAI

“En general, tal vez tenga más de un 50% de posibilidades y eso ocurrirá cuando los sistemas de inteligencia artificial a nivel humano”, afirma Paul Christiano, antiguo experto en seguridad de la empresa que desarrolló OpenAI

La inteligencia artificial desarrollada por investigadores chinos permitirá "juzgar como miembros del partido han aceptado el pensamiento y la educación política".
La inteligencia artificial desarrollada por investigadores chinos permitirá "juzgar como miembros del partido han aceptado el pensamiento y la educación política".La RazónLa Razón

La historia comienza en marzo de 2023 cuando Eliezer Yudkowsky, experto en inteligencia artificial y cofundador del Instituto de Investigación de Inteligencia de Máquinas (MIRI), publicó un editorial en la revista Time. Si bien Yudkowsky elogiaba a quienes habían firmado la petición para detener por un tiempo el avance de los sistemas de IA (Elon Musk o el cofundador de Apple, Steve Wozniak entre otros), para él esto no era suficiente: hay que ponerle fin de manera militante, antes de que nos acabe a nosotros, afirmaba. Y algo similar opina un ex empleado de OpenAI.

“Creo que tal vez haya una probabilidad del 10 al 20% de que una IA tome el control y el resultado será que muchos o la mayoría de los humanos mueran. Y eso es algo que me tomo muy en serio”, señaló en una entrevista Paul Christiano, experto en seguridad que trabajó en OpenAI.

Al discutir la posibilidad de la aniquilación provocada por una IA, Christiano dijo que, a diferencia de Yudkowsky, él piensa que nuestro fin llegará de manera más gradual. Primero se verían problemas muy graves con una IA hasta que nos acostumbremos. Luego se estabilizará durante un tiempo, pero más tarde habrá una escalada muy rápida y cuando la IA supere el umbral de sensibilidad humana será el punto de no retorno. “A grandes rasgos tendremos un 50% de posibilidades de ser sometidos por una IA si alcanza el nivel de inteligencia humano”.

Christiano, quien al dejar OpenAI creó el Alignment Research Center (un centro de investigación en inteligencia artificial y ética), se basa en el concepto de alineación para afirmar esto. La alineación, explica este experto, ”tiene como objetivo hacer que la inteligencia artificial general concuerde con los valores humanos”, pero solo pensar en ello ha hecho que Christiano y muchos detengan sus investigaciones. El escenario apocalíptico que contempla no tiene que ver con una IA que se rebele y mate a todos los humanos, sino uno en el que todas las IA que usamos a diario se unan para provocar la catástrofe.

“Si por alguna razón, Dios no lo quiera, todos estos sistemas de inteligencia artificial estuvieran tratando de matarnos, definitivamente nos matarían”, concluye Christiano. Habra que empezar a hablar con Siri, Alexa y Cortana en muy buenos términos... por las dudas.