
Inteligencia artificial
Jon Hernández, experto en inteligencia artificial: “Si conoces a alguien que utilice la IA como psicólogo, sácale el móvil de la mano”
Aunque los 'chatbots' pueden parecer escucharte mejor que nadie, usarlos como psicólogos puede ser más que un error: una práctica potencialmente peligrosa

Por el motivo que sea, una persona puede necesitar empezar un tratamiento psicológico profesional. No obstante, el difícil acceso a este tipo de terapias, sea por motivos económicos, por una mala experiencia, por una infraestructura sanitaria saturada, más si cabe en esta especialidad; o el complejo proceso emocional que ya de por sí puede llegar a suponer comenzar ir al psicólogo, ha llevado a que muchas personas hayan comenzado a usar herramientas de inteligencia artificial como un posible "psicólogo". Diversas personalidades influyentes en internet han llegado de manera inconsciente incluso a promoverlas en sus redes sociales.
Hay gente que asegura haberle funcionado ChatGPT con determinadas situaciones en sus vidas, pero hay que ser consciente de los límites de estas herramientas. Jon Hernández, experto en inteligencia artificial, lanza una advertencia clara: "Si conoces a alguien que utiliza la IA como psicólogo por problemas reales, dale dos hostias y sácale el móvil de la mano". No es un consejo literal, sino una metáfora contundente para expone una tendencia creciente y lo grave de lo que puede ser un error. Los sistemas actuales, como ChatGPT, no están diseñados para ofrecer soporte emocional clínico y carecen de los filtros éticos, garantías profesionales y responsabilidades legales que sí cumple la atención psicológica humana.
Jon no descarta que en el futuro se desarrollen herramientas con rigor clínico, como una hipotética "Psychologist AI", que aún no se ha inventado pero que, de hacerlo, sería supervisada por profesionales. De momento, la IA general disponible no es adecuada para sustituir a un terapeuta entrenado. "Yo no utilizaría ChatGPT para eso, pero simplemente porque el producto no ha sido diseñado para ello, más allá de que crea que se pueda llegar a crear un producto interesante para el soporte emocional con inteligencia artificial, que probablemente se puede crear", asegura el divulgador en el podcast Roca Project.
La advertencia de un experto en IA: "ChatGPT no es tu psicólogo"
La preocupación no es solo retórica. Datos recientes muestran situaciones alarmantes generadas por la dependencia emocional en chatbots. Un artículo publicado en 'The Guardian' revela que psicoterapeutas británicos alertan sobre el aumento de ansiedad, autodiagnósticos equivocados o incluso pensamientos suicidastras interacciones frecuentes con IA sin regulación ni supervisión clínica real.
Casos más extremos han tenido consecuencias terribles. En Estados Unidos, una joven de 29 años se suicidó tras confiar en una IA que ejercía como “psicólogo”, sin que hubiera supervisión humana ni alerta clínica adecuada. Su madre reveló que tiempo después había descubierto que su hija había estado usando los seis meses antes de su muerte una IA como terapeuta con un trágico final que pone en evidencia la limitada capacidad en esta materia de la Inteligencia Artificial.
Por otro lado, sí existen experiencias positivas de algunas personas aunque no sea algo que se pueda extrapolar a una sociedad entera. Un reportaje de Reuters relata a un hombre que recurrió a una IA personalizada llamada DrEllis.ai por su dificultad en acceder al sistema de salud mental tradicional y que, según su testimonio, le "salvó la vida". Aunque esta IA estaba diseñada con cierto respaldo terapéutico, están en debate sus efectos reales y éticos.
Según una investigación reciente de la Universidad de Minnesota, los chatbots no ofrecen un nivel adecuado de apoyo terapéutico. En situaciones de crisis, la diferencia entre respuestas seguras y peligrosas es alarmante: los profesionales humanos aciertan en su diagnóstico en el 93 % de los casos, según su estudio; versus menos del 60 % de las IA.
Además, la IA puede reforzar patrones dañinos: si alguien presenta ideas de conspiración o depresión, un 'chatbot' podría amplificarlas en lugar de cuestionarlas. Hay quien llama a esto “psicosis por chatbot” (chatbot psychosis), un fenómeno creciente en usuarios vulnerables.
La comparación del 4x4: ¿Puede la IA ayudar, entonces? Sí, con límites claros
Jon Hernández matiza: la IA puede ofrecer compañía o una escucha rápida cuando no hay otra opción, y algunos usuarios lo experimentan como un alivio, pero advierte de sus límites con el ejemplo práctico de un coche todoterreno: "Como producto tenemos que entender que es como si coges un coche que no está preparado como un 4x4 y lo metes por un terreno difícil. O sea, puede tirar. No hay garantías de que tire bien, con lo cual yo no me arriesgaría a poner mi salud mental en manos de algo que no ha sido preparado para eso y que tiene cierto mínimo de garantías".
El testimonio de Jon Hernández no busca trivializar, sino enfatizar un dilema real: la IA puede complementar, pero jamás sustituir, la conversación entre seres humanos formados para ello.
Si conoces a alguien que volcaría su estrés en una pantalla o espera una respuesta emocional seria de una máquina, recuérdale quela salud mental requiere raíces de afecto, criterio y presencia: elementos inimitables para un software. La clave está en integrar la tecnología con ética, responsabilidad y, sobre todo, humanidad.
✕
Accede a tu cuenta para comentar

Ataques a jueces
El PP llevará el «lawfare» de Sánchez al «banquillo» europeo

Acusaciones de "lawfare" del presidente