Salud mental

Un psicólogo señala que nuestra relación con la IA está provocando desórdenes mentales nunca vistos

“La IA está secuestrando procesos saludables de una manera que conduce a lo que llamaríamos patología”, señala un experto.

IA
Su incapacidad para llevarnos la contraria contribuye a crear ilusiones y delirios JS/GeminiJS/Gemini

Pasa a menudo cuando una tecnología “explota”: sus beneficios son más publicitados que sus potenciales lados ocultos. Y, cuando nos enfrentamos a estos, ya es demasiado tarde. Ocurrió con los avances en el campo atómico, con la genética y también con internet y las redes sociales. Y ahora se está viendo en la inteligencia artificial: nuestra relación con los chatbots parece no ser tan sana.

Los profesionales de la salud mental lo llaman “psicosis de IA”: al recurrir a los modelos de IA en busca de consejos, los usuarios quedan fascinados por las respuestas casi humanas de la máquina y su tendencia aduladora. Así, se convierte no solo en una herramienta, sino en un compañero, y del peor tipo, ya que nos dice lo que queremos oír y validando todo lo que decimos, sin importar lo equivocado o desequilibrado que sea.

Esto lleva a casos como el de un hombre que fue hospitalizado en varias ocasiones después de que ChatGPT convenciera de que podía manipular el tiempo, o el de otro que creía haber descubierto avances en física. En ocasiones, la situación se vuelve terriblemente trágica: las interacciones con chatbots de IA supuestamente han provocado varias muertes, incluido el suicidio de un joven de 16 años.

Si la “psicosis de IA”, que aún no es un diagnóstico oficial, seguirá siendo el término preferido es una incógnita. Pero los expertos enfatizan que hay algo único, extraño y profundamente alarmante en estas interacciones con IA, ya que muchos de los casos que se han hecho públicos, involucran a personas sin antecedentes de enfermedades mentales, incluso si no se ajustan perfectamente a los tipos conocidos de psicosis.

En una entrevista reciente, el psicólogo clínico de la Universidad de Columbia, Derrick Hull, quien colabora en el desarrollo de un chatbot terapéutico, señaló que “los casos reportados se asemejan más a lo que podríamos llamar delirios de IA que a la psicosis. El término psicosis es un término amplio que describe alucinaciones y una variedad de otros síntomas que no ha observado en los casos reportados”.

Hull, cuyo trabajo con inteligencia artificial busca desarrollar un chatbot que desafíe a los usuarios de forma saludable en lugar de estar constantemente de acuerdo con ellos, citó el ejemplo de un hombre que creía haber sido pionero en un nuevo campo de las matemáticas “temporales” tras extensas conversaciones con ChatGPT, convencido de que sus ideas cambiarían el mundo mientras su vida personal real se quedaba en el camino.

Pero el hechizo se rompió cuando le pidió a otro chatbot de IA, Google Gemini, que revisara su teoría: la respuesta fue que se trataba de un “ejemplo de la capacidad de los modelos lingüísticos para generar narrativas convincentes, pero completamente falsas”.

“De inmediato, su certeza reventó esa burbuja – añade Hull -. Eso no se ve en personas con esquizofrenia u otros tipos de experiencias psicóticas; la percepción no desaparece tan rápido”.

En resumen, según Hull, estamos viendo delirios desenfrenados, pero no necesariamente psicosis. Esto coincide con un estudio reciente realizado por científicos del King's College de Londres que examinaron más de una docena de casos de personas que caían en una espiral de pensamientos paranoicos y experimentaban rupturas con la realidad. Los resultados mostraron que los pacientes eran claramente inducidos a albergar creencias delirantes, pero no mostraban signos de las alucinaciones y los pensamientos desordenados característicos de la esquizofrenia y otras formas de psicosis.

La explicación más probable, según los autores, no era menos preocupante. El autor principal, Hamilton Morrin, describió a los bots como la creación de una “cámara de resonancia individual. Los chatbots de IA podrían alimentar delirios de una forma nunca antes vista”.

Hull coincide en que está ocurriendo algo único, algo de lo que solo estamos viendo las etapas iniciales. “Mi predicción es que en los próximos años surgirán nuevas categorías de trastornos gracias a la IA - concluye el científico -. La IA está secuestrando procesos saludables de una manera que conduce a lo que llamaríamos patología, o a algún tipo de disfunción, en lugar de simplemente aprovecharse de las personas que ya experimentan algún tipo de disfunción”.