Inteligencia artificial

ChatGPT podría ser tu próximo psicólogo, señala un estudio

Según los autores, estos resultados pueden ser una indicación temprana de que la IA tiene el potencial de mejorar los procesos psicoterapéuticos.

Inteligencia artificial
¿Dejarías que un robot fuera tu psicólogo?JS/DesignerJS/Designer

Como toda tecnología, la inteligencia artificial tiene el potencial de resolver grandes problemas… Y también la capacidad de provocar otros nuevos. A la polémica actual sobre el uso de IA ahora hay que sumar una nueva que, por ahora, no tiene un claro final positivo o negativo: su impacto en la salud mental.

Según un estudio publicado en PLOS Mental Health y liderado por Dorian Hatch, cuando se comparan las respuestas escritas por psicoterapeutas con las de ChatGPT, estas últimas suelen tener una puntuación más alta.

La cuestión de si las máquinas pueden ser terapeutas es una cuestión que ha recibido una mayor atención debido a algunos de los beneficios de trabajar con inteligencia artificial (IA) generativa. Cada vez es más obvio (e inquietante) descubrir que una IA puede escribir con empatía y que el contenido generado recibe una alta calificación tanto por parte de los profesionales de la salud mental como de los usuarios de servicios voluntarios, hasta el punto de que a menudo se lo prefiere al contenido escrito por profesionales.

En el nuevo estudio, del que participaron más de 800 voluntarios, el equipo de Hatch demostró que, aunque se notaron diferencias en los patrones del lenguaje, las personas rara vez podían identificar si las respuestas habían sido escritas por ChatGPT o por terapeutas.

Este hallazgo es una prueba más de la predicción de Alan Turing: llegará el momento en el que no seremos capaces de distinguir entre las respuestas escritas por una máquina y aquellas que pertenecen a otros humanos. Además, las respuestas escritas por ChatGPT fueron generalmente calificadas más altas en los principios rectores básicos de la psicoterapia.

De acuerdo con los resultados, las respuestas generadas por ChatGPT fueron generalmente más largas que las escritas por los terapeutas. Después de controlar la longitud, ChatGPT continuó respondiendo con más sustantivos y adjetivos que los terapeutas. Teniendo en cuenta que los sustantivos se pueden utilizar para describir personas, lugares y cosas, y los adjetivos se pueden utilizar para proporcionar más contexto, esto podría significar que ChatGPT contextualiza más ampliamente que los terapeutas. Una contextualización más extensa puede haber llevado a los encuestados a calificar las respuestas de ChatGPT más alto en los factores comunes de la terapia.

Según los autores, estos resultados pueden ser una indicación temprana de que ChatGPT tiene el potencial de mejorar los procesos psicoterapéuticos. En particular, este trabajo puede conducir al desarrollo de diferentes métodos de prueba y creación de intervenciones psicoterapéuticas.

Dada la creciente evidencia que sugiere que la IA generativa puede ser útil en entornos terapéuticos y la probabilidad de que pueda integrarse en entornos terapéuticos antes de lo pensado, los autores piden a los expertos en salud mental que amplíen su alfabetización técnica para garantizar que los modelos de IA estén siendo entrenados y supervisados ​​cuidadosamente por profesionales responsables, mejorando así la calidad y el acceso a la atención.

“Desde la invención de ELIZA hace casi sesenta años, los científicos han debatido si la IA podría desempeñar el papel de un terapeuta – concluye el estudio -. Aunque todavía quedan muchas preguntas importantes pendientes, nuestros hallazgos indican que la respuesta puede ser "Sí". Esperamos que nuestro trabajo impulse tanto al público como a los profesionales de la salud mental a plantearse preguntas importantes sobre la ética, la viabilidad y la utilidad de integrar la IA y el tratamiento de la salud mental, antes de que el tren de la IA salga de la estación”.