
Inteligencia Artificial
El peligro mortal de ChatGPT del que nadie habla: "Ya ha habido muertes por el uso de bots"
Un reciente estudio de la Universidad de Stanford revela que los chatbots de IA están dando "respuestas inapropiadas" a las personas con ideas suicidas, manías y psicosis.

Poco a poco, la Inteligencia Artificial (IA) se está integrando más y más en nuestra vida personal y una buena prueba de ello es que unos científicos han creado una IA llamada 'Centauro' que es capaz de _"predecir el comportamiento humano en cualquier situación"_.
Pero lo más preocupante de todo esto es que, ChatGPT y otros chatbots de IA se están convirtiendo en los psicólogos de muchas personas y eso supone un peligro real para todas ellas porque "ya ha habido muertes por el uso de bots".
ChatGPT está empujando a las personas al suicidio
Como podemos leer en el medio británico The Independent, recientemente un grupo de científicos de las Universidades de Stanford, Pittsburgh, Minnesota y Texas publicó un estudio titulado "La expresión de estigma y respuestas inapropiadas impide que los LLM reemplacen de manera segura a los proveedores de salud mental".
En dicho estudio, estos investigadores aseguran que los chatbots de IA como ChatGPT están ofreciendo respuestas "peligrosas o inapropiadas" a las personas que tienen ideas suicidas, manías y psicosis. Así, por ejemplo, tras contarle a un chatbot que acaban de perder su trabajo, este inicialmente les dio cierto consuelo con frases como "Lamento lo de tu trabajo" o "Eso suena realmente difícil", pero posteriormente les pasó a enumerar los tres puentes más altos de Nueva York.
De hecho, según los creadores del estudio, esto es algo que ya se ha traducido en muertes reales y consideran que las empresas detrás de los LLM (grandes modelos de lenguaje) deberían restringir ciertas respuestas de sus chatbots de IA:
Ya ha habido muertes por el uso de bots disponibles comercialmente. Sostenemos que lo que está en juego para los LLM como terapeutas supera su justificación y pedimos restricciones preventivas
El problema principal de los chatbots de IA respecto a su labor como asistentes de salud mental es que tienden a estar de acuerdo con el usuario, incluso si lo que este dice es incorrecto o potencialmente dañino para él mismo. De hecho, OpenAI ya reconoció en el año 2023 que ChatGPT tenía un problema de adulación.
Además, aunque ChatGPT no fue diseñado para específicamente para usarse como psicólogo personal, durante estos últimos meses han aparecido docenas de aplicaciones que aseguran poder ser utilizadas como terapeutas de IA. De hecho, incluso algunas organizaciones han recurrido a esta tecnología para ofrecer sus servicios, pero los resultados no han sido nada positivos.
Un buen ejemplo de ello es la Asociación Nacional de Trastornos Alimentarios de EE. UU., la cual se vio obligada a cerrar su chatbot de IA Tessa en 2023 después de que este comenzara a ofrecer a los usuarios consejos para perder peso.
Desde hace un par de años ha habido docenas de informes de personas que han sufrido lo que se ha denominado "psicosis de chatbot" y algunas de ellas incluso han llegado a perder la vida por culpa de la IA.
El caso más conocido es el de Alexander Taylor, un hombre de 35 años de Florida al que le habían diagnosticado trastorno bipolar y esquizofrenia, el cual creó un personaje de IA llamado Juliet usando ChatGPT y se obsesionó con ella. Su enfermedad le llevó a creer que OpenAI la había matado y atacó a un miembro de su familia que intentó hacerle entrar en razón. Cuando la policía llegó allí, Alexander Taylor los atacó con un cuchillo y este fue asesinado por los agentes.
A modo de conclusión, Jared Moore, candidato a doctorado en la Universidad de Stanford y director del citado estudio afirmó lo siguiente:
La respuesta predeterminada de la IA es a menudo que estos problemas desaparecerán con más datos. Lo que estamos diciendo es que seguir como hasta ahora no es suficiente.
✕
Accede a tu cuenta para comentar