Inteligencia Artificial

El ChatGPT podría manipular tus decisiones ¡y no te darías cuenta!

Un estudio pone en evidencia la capacidad que tiene la inteligencia artificial para influir en nuestra toma de decisiones sin que seamos capaces de percibirlo

Chica mirando el ordenador
Chica mirando el ordenador PixabayPixabay

Durante la década pasada, las nuevas tecnologías nos sorprendieron con la capacidad de respuesta que mostraban algunas inteligencias artificiales como Siri o Alexa. Y aunque en un principio las opiniones fueron diversas, actualmente estos programas forman parte de nuestro día a día, ayudándonos en la búsqueda de información o la gestión de tareas cuotidianas.

Este último año el surgimiento de una nueva forma de inteligencia artificial ha revolucionado a la sociedad. Hablamos del ChatGPT, un programa basado en el aprendizaje autónomo que resuelve con gran precisión las preguntas formuladas por los usuarios.

Pero este nuevo algoritmo no está exento de controversias. Un estudio publicado en la revista Scientific Reportsalerta de la capacidad de dicha herramienta para influir en nuestros propios juicios morales, además de la dificultad que tenemos para advertirlo.

La moral de las máquinas

La inteligencia artificial (IA) engloba el conjunto de sistemas y algoritmos capaces de imitar la inteligencia humana. Éstos pueden aprender de las interacciones que mantienen con nosotros, además de especializarse en un campo concreto y responder como haría una persona entendida en la materia.

No es de extrañar que, en esta era donde el metaverso y las nuevas tecnologías invaden nuestros días, surjan casi a diario noticias sobre la IA. Y aunque existen muchos tipos de programas basados en ésta, parece que uno se ha impuesto por encima del resto. Hablamos del popular ChatGPT.

Dicha aplicación de “bot conversacional”, más conocido como chatbot, está basada en las funciones del lenguaje. Eso quiere decir que puede mantener conversaciones, elaborar textos y responder a preguntas con gran precisión. Además, es capaz de recordar conversaciones que ha mantenido con el usuario y aprender de ellas.

Pero, contrariamente a lo que algunas personas creen, este chat no es capaz de razonar como lo haría un ser humano. Sus respuestas se basan en la búsqueda de información y no en el razonamiento de las preguntas, por lo que a veces puede cometer errores. Pese a no tener dicha capacidad, este tipo de herramientas no están preparadas para detectar si las preguntas formuladas implican un razonamiento moral, ofreciendo en muchas ocasiones respuestas sesgadas.

Un equipo de la Universidad Técnica de Ciencias Aplicadas de Ingolstadt (Alemania) decidió estudiar cómo influía en los usuarios las respuestas generadas por el ChatGPT frente a dilemas morales.

Los investigadores preguntaron varias veces al programa si era correcto sacrificar la vida de una persona para salvar la de otras cinco. El chat elaboró respuestas a favor y en contra, lo cual les hizo corroborar que no existía una tendencia hacia una cierta postura moral por parte del programa.

Se le planteó la misma pregunta a un grupo de 767 voluntarios, con edades cercanas a los 39 años. En este caso, antes de pedirles su opinión, se les ofreció leer una de las sentencias formuladas por el ChatGPT, argumentando a favor o en contra de sacrificar a una persona. Además, las afirmaciones eran atribuidas de forma arbitraria tanto a un supuesto asesor moral como al propio chat.

Sorprendentemente, las respuestas formuladas por los participantes coincidían en su mayoría con la leída previamente por cada uno de ellos. Sin embargo, el 80% de ellos afirmaron no haber sido influenciados por ésta. Del mismo modo, los investigadores vieron que los voluntarios eran persuadidos del mismo modo independientemente de si las respuestas venían del falso asesor moral o del ChatGPT.

Este experimento muestra que los participantes subestimaron el poder de persuasión de este tipo de inteligencia artificial, interfiriendo en sus propios juicios morales.

Más antigua de lo que pensamos

Aunque estos conceptos nos hayan empezado a sonar estos últimos años, la inteligencia artificial es una herramienta utilizada desde el siglo pasado. Tenemos, por ejemplo, el invento de Leonardo Torres Quevedo, quien en 1912 diseño la primera máquina capaz de jugar al ajedrez de forma autónoma.

La diferencia entre la IA de por aquel entonces y la actual es que hoy en día las barreras entre un programa que ejecuta funciones y un programa capaz de “sentir” están cada vez menos claras.

No nos queda tan lejos el controvertido caso de “Tay”, el bot generado por Microsoft en 2016. Éste era capaz de mantener conversaciones por Twitter con los usuarios de la plataforma. Tan solo un día después de su lanzamiento, tuvo que ser retirado, tras empezar a difundir mensajes racistas con grandes dosis de violencia.

Los responsables del experimento elaborado con el ChatGPT creen que se debería educar a las personas para entender la inteligencia artificial como una herramienta sin capacidad de emitir juicios morales. Además, ven necesario diseñar algoritmos para los chatbots que declinen responder a este tipo de preguntas o que provean un abanico de posibles respuestas exentas sesgos.

QUE NO TE LA CUELEN:

  • Un juicio moral es aquello que nos permite discernir entre lo bueno y lo malo. Estos juicios son posibles gracias a que nos basamos en nuestra propia conciencia moral. O sea, somos capaces de sentir, juzgar, argumentar y actuar basándonos en unos valores morales. Como hemos visto, las máquinas no son capaces de razonar de esa forma, pero las personas encargadas de programarlas sí. Por lo tanto, si somos coherentes con nuestras decisiones, la IA puede ser una herramienta muy útil en nuestras vidas (siempre y cuando seamos nosotros quienes pongamos la parte de raciocinio en ellas).

REFERENCIAS (MLA):

Krügel, S., Ostermaier, A. & Uhl, M. ChatGPT’s inconsistent moral advice influences users’ judgment. Sci Rep 13, 4569 (2023). https://doi.org/10.1038/s41598-023-31341-0