Ciencia y Tecnología

«Existe el peligro de una guerra con inteligencia artificial»

La investigadora británica Margaret Boden, autoridad mundial en la materia, recuerda que sería posible que los robots seleccionaran y dispararan objetivos de forma autónoma.

Foto: Connie G. Santos
Foto: Connie G. Santoslarazon

La investigadora británica Margaret Boden, autoridad mundial en la materia, recuerda que sería posible que los robots seleccionaran y dispararan objetivos de forma autónoma.

El deseo del hombre por crear vida y la idea de que las máquinas hicieran el trabajo de las personas despertó en la Antigüedad. En 1495, Leonardo da Vinci diseñó el Caballero mecánico, considerado el primer humanoide a pesar de ser muy diferente del androide de Asimov. Hoy es difícil encontrar algún sector que no tenga inteligencia artificial (IA). Para hablar sobre sus usos e implicaciones éticas, ayer, tuvo lugar una sesión sobre «Thinking Party: Inteligencia Artificial» en el Espacio Fundación Telefónica en la que participó Margaret Boden, una autoridad mundial en este campo, autora de «Inteligencia Artificial» (Turner).

¿Queda algún sector en el que la IA no esté aún presente?

Probablemente solo la Iglesia, pero sospecho que de un modo u otro también la utilizan.

¿Cuáles son los retos de la IA a corto plazo?

Intentar que no se descontrole. Debe estar regulada. Los Gobiernos deben hacerlo para evitar que vaya por caminos o adopte formas que pueden no ser buenas.

¿Para cuándo los seres artificiales serán capaces de sentir emociones?

Pienso que nunca van a tener emociones.

¿Serán los robots más inteligentes que nosotros?

Ya son más inteligentes que los humanos para hacer tareas concretas. No estamos hablando solo de robots, lo hacemos de sistemas de IA, de sistemas de informática, de ordenadores. En principio podría ser posible que vayan a ser más inteligentes que los hombres en general, pero pienso que no va a suceder o al menos no pronto. Y, en cualquier caso, no va a suceder antes de finales de este siglo.

¿Sería posible robotizar el cerebro humano? Es decir, ¿se podría introducir información en nuestro cerebro como si fuera un ordenador?

Eso es totalmente ciencia ficción porque ni siquiera hemos empezado a comprender cuál es la información que tenemos dentro del cerebro. En este momento, eso es imposible.

¿La IA creará o quitará puestos de trabajo?

No sé si los puestos de trabajo que se van a crear van a compensar aquellos que se van a destruir. Por ejemplo, en los despachos de abogados la IA ya se está utilizando para identificar casos similares que hayan sentado un precedente y a partir de ahí poder obtener información para avanzar con el caso de forma más rápida y mejor. Este tipo de tarea está siendo automatizada y está siendo asistida por los sistemas de IA. Por lo tanto, la pregunta es: si éste va a ser el futuro, ¿qué es lo que le va a pasar a un joven abogado dentro de poco? Algunos puestos de trabajo se perderán y otros van a cambiar. Por ejemplo, hoy no están totalmente robotizadas las tareas en los almacenes porque resulta demasiado caro, pero la mayor parte del trabajo ya está realizado por robots. Algunas personas van a perder su trabajo, otros empleos van a cambiar y probablemente los sueldos también van a bajar.

En este sentido, ¿se van a perder más puestos de trabajo del área de ciencias que de letras?

-No creo que la IA vaya a acabar con la creatividad humana y con las artes. Por ejemplo, en el caso de la música es verdad que el compositor o músico puede elegir ciertas sintonías y lo puede hacer con unos resultados que están por encima de la media. En cuanto a la literatura, ya sabemos que existen programas que pueden escribir informes periodísticos o que pueden redactar informes financieros sobre resultados del año anterior o un dossier sobre un partido de fútbol. Sin embargo, hoy no existe ningún programa que pueda hacer un informe sobre un partido de fútbol y que pueda transmitir a los oyentes un gol excepcional. Por ejemplo, recuerdo el caso del gol de Beckham en 1996. Hoy no existe ningún sistema que pueda reconocer que ha marcado un tanto excepcional desde su propio campo y, por otra parte, no existe ningún programa de procesamiento de lenguaje natural que pueda escribir sobre ello de forma interesante, ya que a los potenciales lectores no les interesa saber si marcó únicamente un gol, sino que quieren más información sobre este gol y una interpretación. Actualmente, los programas trabajan con nubes de palabras. Es decir, con palabras que van juntas. El gran problema, por lo tanto, reside en aquellas actividades en las que el lenguaje está involucrado. No creo que haya un ordenador que durante los próximos años, y hablo dentro de muchos años, pueda crear algo interesante desde el punto de vista creativo.

La IA se puede utilizar para hacer el bien y para hacer el mal. Si la IA empezó durante la II Guerra mundial con Turing para lograr descifrar códigos secretos de los nazis, recientemente la ONU ha alertado del uso de IA en guerras. ¿A qué peligros nos enfrentamos?

-Realmente el panorama es un poco aterrador. Existe un peligro de que se produzca una guerra armamentística con la IA. Es decir, que los países intenten armarse con IA antes y mejor que sus potenciales enemigos. Naciones Unidas han intentado que se firme un acuerdo internacional y de hecho ya existen acuerdos que dicen que no puede haber armas letales que sean autónomas. Sabemos que existen los drones, pero aún así las decisiones sobre qué es lo que deben hacer los drones la toman los seres humanos. Por lo tanto, uno asume que las decisiones tomadas por humanos son decisiones correctas y que dirigen adecuadamente a los drones. Sería una situación completamente distinta si fuera la IA la que tuviera que tomar la decisión. Hasta ahora, la ONU solo han prohibido el uso de armas químicas, biológicas y nucleares. Pero a pesar de este tratado de prohibición todavía se siguen utilizando. No obstante, es mejor que exista este tratado, aunque no se cumpla, a que no haya ninguno. En el caso de la IA no existe ningún tratado y el problema no es el tratado en sí, sino que no existe una definición consensuada sobre qué es un arma autónoma.

¿Veremos en un futuro a corto plazo a robots seleccionando y atacando objetivos de forma autónoma tal y como pasa con las armas biológicas pese a que estén prohibidas?

-Sería posible que los robots seleccionaran y dispararan contra los objetivos, pero sería muy peligroso. Recuerdo que en los años 80 hubo una alerta en EE UU porque un ordenador detectó que había algo en el cielo que parecía un ataque nuclear. El encargado de bombas nucleares de EE UU decidió no dar el segundo paso por dos razones: la primera porque le parecía horroroso una posible guerra nuclear y quería a toda costa evitarla. La segunda, y más interesante, porque se puso a examinar el comportamiento de la Unión Soviética en los últimos años y se dio cuenta que en los años 80 no estaba siendo particularmente beligerante contra Estados Unidos. La época de Jruschov ya había sido superada y dedujo que era muy poco probable que la Unión Soviética quisiera lanzar un ataque contra Estados Unidos. Efectivamente estaba en lo cierto. La respuesta a ese fenómeno era la Luna, que estaba situada en un mal lugar, a la hora de diseñar el calendario no habían tenido en cuenta un aspecto concreto de la Luna ese día y eso es lo que pasó. Lo horrible sería pensar, no podemos ni siquiera imaginar, si ese juicio, si esa decisión hubiera estado en manos de una máquina y no de una persona.