Inteligencia artificial
Cuando la inteligencia artificial se puede volver en nuestra contra: así lo pronostican dos expertos en la materia
Dotar de autonomía a las inteligencias artificiales más desarrolladas no parece ser la mejor idea a los ojos de dos profesores universitarios especializados en la materia
La civilización se encuentra en un punto en el que la evolución es algo exigido y el camino más explorado para ello en los últimos tiempos ha sido el de la inteligencia artificial y su puesta en uso. Con ella se quiere alcanzar una relación que se base en lo que nos puede ayudar, pero siempre hay que ampliar las perspectivas por si la evolución no se mantiene por el camino esperado.
Tal vez las palabras de estos expertos resulten alarmistas en un contexto en el que casi cada día se detectan fallos de la inteligencia artificial, pero siempre está bien escuchar a las voces más destacadas de cada campo porque su amplitud de miras puede dar una perspectiva no contemplada hasta ese momento. Pocos piensan en la IA como algo peligroso, pero ¿y si escapara al control humano?
Necesidad de límites según los expertos
Sobre ello han alertado dos de los mayores exponentes y expertos en inteligencia artificial, como Max Tegmark, del Instituto Tecnológico de Massachusetts (MIT), y Yoshua Bengio, de la Universidad de Montreal. En el podcast Beyond The Valley de CNBC, ambos han querido poner de manifiesto la imperiosa necesidad de fijar un control adecuado sobre el desarrollo de la inteligencia artificial.
El objetivo de los últimos proyectos busca entre otras características la de dotar a los robots humanoides de la capacidad de actuar con una autonomía destacada y en la que la mano humana no tenga papel alguno. Para Yoshua Bengio, parece más que razonable dudar de esta vía de autocontrol para los agentes de la IA: “estamos creando una nueva forma de inteligencia artificial en nuestro planeta sin saber si sus decisiones serán compatibles con nuestras necesidades”, señaló sin titubeos.
En la misma línea se posicionó el profesor del MIT Max Tegmark. Su postura al respecto de la necesidad de limitar la capacidad y desarrollo de los agentes dotados de inteligencia artificial viene de tiempo atrás, puesto que ya en 2023 el Future of Life Institute, liderado por Tegmark, sugirió pausar el desarrollo de sistemas de IA que puedan igualar o superar la inteligencia humana, al menos hasta que hubiera un marco regulador aceptado por todos los actores de este ámbito.
Pero ahí también aparece otro campo de conflicto ya que actualmente no existe una regulación global que sea capaz de acotar o al menos establecer unas leyes de mínimos y de líneas rojas que nadie deba traspasar. Y es que el peligro apuntado por estos dos expertos puede estar en el afán por conseguir avanzar unos pasos en el terreno de la inteligencia artificial de los que luego pueda arrepentirse toda la humanidad.