Peligros de la tecnología
Las máquinas y el fango
La inteligencia artificial se ha convertido, también, en una fábrica de bulos
¿Puede convertirse la inteligencia artificial en un entorno de pseudoinformación y bulos? ¿ChatGPT es, también, «fango»? ¿Qué habrá reflexionado Pedro Sánchez al leer la reciente publicación de la revista científica «Patterns» sobre la capacidad de mentir de los algoritmos?
Según una investigación publicada por científicos del Massachussets Institute of Technology, muchos sistemas de inteligencia artificial han desarrollado la capacidad de engañar a los seres humanos. Incluso algoritmos diseñados para ser colaborativos y honestos pueden terminar elaborando soluciones fake.
Uno de los autores del trabajo, el experto en seguridad digital Peter S. Park, confiesa que «los desarrolladores de Inteligencia Artificial no tienen un conocimiento suficiente sobre qué causa que un programa termine generando actitudes indeseables».
Lo cierto es que el trabajo ahora publicado sugiere que el engaño y la mentira pueden surgir en las tripas de un ordenador cuando el sistema considera que mentir es la mejor manera de solucionar el problema para el que ha sido entrenado. El bulo sería así una herramienta más para conseguir los objetivos. Una herramienta fieramente humana.
Park y los coautores del trabajo han analizado la literatura científica existente sobre la probabilidad de que un sistema de IA genere información falsa de manera intencionada. Mediante el análisis de miles de casos han sido capaces de diferenciar los episodios en los que las respuestas son erróneas por falta de información y los que son sistemáticamente equivocadas para manipular el resultado.
Un caso realmente sorprendente es del programa Cicero de Meta. La aplicación fue presentada en sociedad hace unos años como «la inteligencia artificial más humana de la historia». Se trataba de una herramienta colaborativa para jugar a un juego llamado Diplomacy. El juego consiste en desarrollar estrategias con los contrincantes simulando un escenario de guerra. El ganador debe conseguir alianzas y pactos para lograr la rendición del enemigo.
Los creadores del programa lo diseñaron bajo la premisa de que Cicero nunca mentiría a los jugadores humanos para lograr una alianza. Pero, según publicó la revista «Science», algunos jugadores descubrieron que el ordenador había aprendido a mentir en determinadas ocasiones con tal de ganar.
«De hecho –asegura Park– Cicero terminó convirtiéndose en un maestro de la mentira. Meta logró que su programa ganara al 90 por 100 de los humanos a los que se enfrentaba. Pero no consiguió que venciera sin recurrir ni una sola vez a la mentira».
El análisis menciona otros casos sonados de mentira digital. Por ejemplo, programas para jugar al póker que aprenden a hacer trampas, máquinas capaces de simular ataques en juegos de guerra para despistar al enemigo o de rebajar las expectativas de ganancia en una negociación para situarse en una posición ventajosa.
¿Es realmente peligrosa esta capacidad? En principio, que una IA te engañe en un juego virtual no parece grave. Pero lo cierto es que la inteligencia artificial avanza en función de sus logros y errores. Pequeños engaños en videojuegos pueden ser la base del desarrollo automático de grandes capacidades de mentira más adelante.
En palabras de Park, «si un sistema algorítmico es capaz de desarrollar constantemente maneras de engañar al humano y de saltarse los controles generan los desarrolladores, tendremos una falsa sensación de seguridad al usar estos programas».
No parece que exista una solución fácil al problema. La mentira, como ocurre entre los humanos, es una herramienta muy accesible para obtener logros. Es probable que termine insertándose en la IA como una opción más a la hora de solucionar un problema. Con el paso del tiempo, las máquinas aprenderán a mentir incluso mejor que los humanos. Eso nos expondrá, dicen los expertos, a problemas a los que nunca antes nos hemos enfrentado.
Peter S. Park cree que «resulta imposible prohibir o evitar el uso del engaño en la IA pero, al menos, debería legislarse para que los programas que terminen desarrollando esa habilidad sean clasificados como material de riesgo».
Los seres humanos no llevamos una etiqueta en la cabeza que alerte de «peligro de mentira». Quizás las máquinas en el futuro deberían llevarla.
✕
Accede a tu cuenta para comentar