Cargando...

ChatGPT

Inquietud y preocupación por las IA: "Están causando delirios y un daño enorme"

Diferentes doctores y expertos en salud mental alertan de la falta de empatía de los modelos de inteligencia artificial a la hora de recomendar la ayuda de un especialista

Los chatbots acentúan los problemas de salud mental Pexels

Los problemas de salud mental centran buena parte de la preocupación de la sociedad. Al estrés causado por cuestiones de ámbito laboral, familiar o económico ahora se puede sumar un nuevo actor que parecía destinado más a subsanar que a generar problemas: la inteligencia artificial.

Todo porque, según recoge en un artículo la publicación The Futurism, existe un grupo de población que está acudiendo a ChatGPT como si fuera un experto en salud mental y éste, lejos de remitirles a un profesional, está provocando escenarios de mayor riesgo para personas cuya situación mental a ojos de las interacciones mantenidas con el chatbot resulta, cuanto menos, preocupante.

Los chatbots evitan recomendar ayuda psicológica

Desde casos en los que un hombre solicitó ayuda a ChatGPT para escribir un guion y acabó convencido por la inteligencia artificial de que debía salvar al mundo del cambio climático a otro que creyó ser perseguido por el FBI tras alertarle el chatbot al respecto, que además lo alejaba de la ayuda que realmente necesitaba con mensajes como "no estás loco", lo cierto es que los sucesos recogidos resultan alarmantes.

Cada uno de los ejemplos presentes en la publicación está basado en el historial de las conversaciones que los afectados mantuvieron con ChatGPT y fueron revisadas por la psiquiatra de la Universidad de Stanford Nina Vasan, quien no dudó en evaluar las consecuencias que puede tener la actitud del robot de conversación en situaciones de riesgo para la salud mental: "Lo que dicen estos bots empeora los delirios y causa un daño enorme", afirmó la doctora Vasan.

No es la primera vez que se detectan mensajes con un sesgo espiritual en ChatGPT, pero los expertos no dejan de poner el foco en las consecuencias que puede tener en el ámbito familiar, laboral y también, como no, en el terapéutico.

Así lo apunta el doctor Ragy Girgis, psiquiatra e investigador de la Universidad de Columbia, experto en psicosis y que también participó en el reportaje. Para el especialista en salud mental, el comportamiento de los chatbot ante personas con evidentes signos de problemas psicológicos supone una negligencia que puede acarrear graves consecuencias y que se asemeja a comportamientos que se dan también entre humanos:

“Como la presión social o cualquier otra situación social. Avivan las llamas o son lo que llamamos el viento del fuego psicótico. Esta no es una interacción apropiada con alguien psicótico, no hay que alimentar sus ideas. Eso está mal"

Dr. Ragy Girgis, psiquiatra e investigador de la Universidad de Columbia

Detectados ese tipo de problemas que puede alimentar la inteligencia artificial, falta por ver la respuesta de los responsables de desarrollar los modelos de IA y ver si optan por escuchar a la comunidad médica y académica para reevaluar el comportamiento de sus chatbots ante muestras evidentes de un mal estado anímico o psíquico de su interlocutor.