Inteligencia Artificial
"Tenemos una mínima posibilidad de supervivencia”, advierte un experto en IA en cuanto a la rebelión de las máquinas
De acuerdo con Eliezer Yudkowsky esto “podría ocurrir en 2 años o en 10”.
Eliezer Yudkowsky no es un novato en lo que a inteligencia artificial respecta. Ya el año pasado había advertido del peligro de esta tecnología. A pesar de ser autodidacta desde los 15 años, ha publicado una decena de estudios científicos sobre IA y ética, colaborado con expertos de la talla de Nick Bostrom, fue uno de los fundadores de un blog financiado por la Universidad de Oxford y es el creador del Instituto de Investigación de Inteligencia Artificial (MIRI por sus siglas en inglés). Pero a la hora de hablar sobre el futuro de la humanidad y la IA no lo duda: “Tenemos una mínima posibilidad de supervivencia”.
En una reciente entrevista, Yudkowsky señaló, ante la pregunta de qué nos espera como especie ante el desarrollo de la IA que “si me pones contra una pared y me obligas a poner probabilidades a las cosas, tengo la sensación de que nuestro tiempo restante actual se parece más a cinco años que a 50 años. Podrían ser dos años, podrían ser 10”.
Este experto lleva tiempo advirtiendo de los peligros de la IA, de hecho, menos de un año atrás publicó un artículo de opinión en Time que aconsejaba cerrar los centros de datos donde se encuentran y entrenan las IA. Allí llega a especular sobre la posible necesidad de ataques aéreos dirigidos a centros de datos; tal vez incluso un intercambio nuclear. “Sin la precisión y preparación, el resultado más probable es que una IA no haga lo que queremos y no se preocupe por nosotros ni por la vida sensible en general. Ese tipo de atención es algo que, en principio, podría incorporarse a una IA, pero no estamos preparados y actualmente no sabemos cómo hacerlo”, afirma en uno de los párrafos.
De acuerdo con Yudkowsky no nos damos cuenta aún de los peligros de la inteligencia artificial. Y no es el único que piensa de este modo. Cientos de expertos, incluso Stephen Hawking, ya han firmado cartas solicitando la regulación de la IA y muchos otros, como Brian Merchant (columnista de The Los Angeles Times) o Molly Crabapple (colaboradora del sitio web tecnológico Vice) coinciden con él. Su mantra es que no es necesario adoptar una tecnología solo porque la hemos desarrollado sin pensar si es buena a largo plazo.
Hoy en día, el foco de gran parte de la crítica sobre la IA no se centra tanto en la posibilidad de que la tecnología desestabilice los mercados o elimine algunos puestos de trabajo, sino en su posible capacidad para convertirse en un ente consciente y tomar decisiones que, cada vez más frecuentemente, vamos dejando en sus manos. Y eso es lo que preocupa a Yudkowsky y a numerosos expertos.
La pregunta es ¿cuán real es esta amenaza? No tan grande como la necesidad de regular el uso de la IA… pero no tan pequeña como para descartarla y olvidarse de ella. Lo que sí está claro es que, aunque Yudkowsky sigue respaldando la idea de bombardear centros de datos (aunque ya descarta el uso de armas nucleares), esta opción extrema aún está lejos de ser siquiera una opción.
✕
Accede a tu cuenta para comentar