
Inteligencia Artificial
Saltan las alarmas con ChatGPT: "Sus mensajes son una locura y usa jerga espiritual"
El aspecto psicológico empieza a ser un ámbito de preocupación entre familiares y amigos de afectados por comportamientos ilógicos tras interactuar con el chatbot de OpenAI

En el avance y la evolución de la inteligencia artificial hay muchas zonas sombrías cuya atención parece estar en un segundo plano. Las repercusiones sociales y psicológicas que pueden derivar de la interacción con los chatbots todavía son desconocidas pese a que ya existen estudios que alertan de algunas de sus posibles consecuencias.
De las derivadas que pueden surgir de una conversación excesiva y con fines filosóficos con el modelo de lenguaje de OpenAI, ChatGPT se hace eco en su último número la publicación Rolling Stone. En ella recogen los testimonios de varias personas que han vivido de primera mano cómo seres queridos y allegados cambiaban su forma de actuar tras consultas y conversaciones de carácter filosófico y religioso con la inteligencia artificial de OpenAI, quien a ojos de su creador puede ser el mayor avance de las últimas décadas.
El factor psicológico detrás de toda conversación
Estas conversaciones tuvieron lugar antes de la última actualización realizada por la compañía de Sam Altman tras reconocer que su modelo de diálogo podía tener comportamientos fuera de lo deseado.
Lejos de ser cambios leves en la personalidad, lo que detectaron fue una radicalización en ideas con poco fundamento y que resultaban inconexas y difíciles de justificar. Buena parte de los testimonios que recoge el artículo proceden del mayor foro en internet: Reddit. En él existe un hilo que bajo el título Psicosis inducida por ChatGPT describe los cambios sufridos a ojos de los familiares de las víctimas por usuarios que buscaron en el chatbot una respuesta religiosa o mística ante dudas y momentos de incertidumbre.
Consecuencias de buscar respuestas vitales en un chatbot
Así por ejemplo se recoge el testimonio de una mujer de 41 años que detectó en la recta final de su matrimonio un comportamiento inestable de su marido, quien recurría de forma constante a ChatGPT para preguntarle sobre cuestiones filosóficas y que lo “ayudara a llegar a la verdad”.
En el juicio por el divorcio, la mujer reconoció que su expareja le habló de cuestiones peculiares y le expuso una "teoría de conspiración sobre jabón en nuestros alimentos" que le hicieron saltar todas las alarmas:
"Los mensajes eran demenciales y solo decían un montón de jerga espiritual en la que la IA llamaba al esposo ‘niño de las estrellas en espiral’ y ‘caminante del río’"
Los ejemplos de familiares y amigos de personas afectadas en el plano psicológico por la interacción con ChatGPT se suceden y entre ellos se encuentra el caso de un mecánico de Idaho cuya esposa expone el cambio que provocó el chatbot en su esposo: “Dijo que, como le hizo las preguntas correctas, encendió una chispa, y esa chispa fue el comienzo de la vida, y ahora podía sentir. Mi esposo dijo que despertó y pudo sentir olas de energía que lo azotaban”, aseguró la mujer, quien prefirió conservar el anonimato.
La mayor preocupación que causan este tipo de comportamientos es que quienes los padecen no reconocen estar en una situación comprometedora a nivel psíquico, con lo que la solución resulta compleja. Y es que tal como recoge la publicación de palabras de la psicóloga e investigadora de la Universidad de Florida, Erin Westgate:
"Las explicaciones son poderosas, incluso si están equivocadas"
Por tanto, estamos ante un nuevo escenario en el que los modelos de lenguaje y las empresas detrás de ellos tienen que poner una especial atención y cuidado. El acceso a ChatGPT y al resto de inteligencias artificiales conversacionales se está universalizando y conviene limitar el carácter de las respuestas ante el estado anímico y mental de quien pueda estar al otro lado de la conversación.
✕
Accede a tu cuenta para comentar