Suicidios en ChatGPT

Más de un millón de personas hablan sobre suicidio en ChatGPT cada semana

Ante esta crisis de salud mental, OpenAI, la compañía detrás del chatbot, ha tomado medidas para proteger a los usuarios que se encuentren en una situación vulnerable

ChatGPT es el chatbot de IA de OpenAI
ChatGPT está desarrollado por OpenAIDifoosion

Más de un millón de personas utilizan ChatGPT para hablar sobre pensamientos suicidas cada semana, mientras que cientos de miles de personas se sinceran sobre su psicosis o angustia emocional. Ante estas cifras, OpenAI ha decidido reforzar las respuestas del modelo en situaciones emocionalmente delicadas. El objetivo es que la inteligencia artificial oriente de forma empática y segura a quienes atraviesan momentos de crisis.

La compañía ha anunciado una serie de mejoras técnicas y de comportamiento que buscan reducir errores y ofrecer un acompañamiento más responsable, para que no se vuelvan a suceder casos, como el del joven que acabó con su vida tras una conversación con el chatbot o el usuario que mató a su madre y luego se suicidó. Entre ellas se incluyen la detección más precisa de signos de sufrimiento psicológico, respuestas más humanas y la integración de recursos profesionales de ayuda.

La IA frente a la crisis de salud mental

Según OpenAI, los cambios responden a que una gran parte de los usuarios acude a ChatGPT en busca de apoyo emocional, no solo de información. Para afrontar esa responsabilidad, la empresa ha colaborado con más de 170 expertos en salud mental —psiquiatras, psicólogos y médicos— con el fin de entrenar al modelo para que identifique señales de riesgo y actúe con sensibilidad.

Las mejoras se centran en tres ámbitos:

  • Detección de pensamientos suicidas o de autolesión
  • Identificación de síntomas de psicosis o manía
  • Reconocimiento de comportamientos de dependencia emocional hacia la IA

En todos los casos, ChatGPT ha sido ajustado para responder con empatía, evitar juicios y, cuando sea posible, ofrecer información sobre líneas de ayuda o servicios profesionales.

OpenAI asegura que el nuevo sistema ha reducido entre un 65 % y un 80 % las respuestas inadecuadas en conversaciones sensibles. Además, el modelo puede ahora redirigir ciertos diálogos a versiones más avanzadas de sí mismo, diseñadas para manejar mejor interacciones complejas o emocionalmente intensas.

En su análisis, la compañía estima que alrededor del 0,15 % de los usuarios semanales mantienen conversaciones que incluyen señales de planificación suicida o ideación autolesiva, lo que, en una base de 800 millones de personas, equivale a 1 millón de personas. En los casos relacionados con síntomas de psicosis o manía, la cifra ronda el 0,07 % de los usuarios activos (500.000 personas) y, si hablamos de dependencia emocional, volvemos al 0,15% (1 millón de personas).

El proyecto forma parte de un marco más amplio que OpenAI denomina “Marco de Desarrollo Responsable”, un proceso iterativo basado en cinco pasos:

  • Definir el problema
  • Medir su impacto
  • Validarlo con expertos
  • Aplicar mitigaciones
  • Volver a evaluar los resultados
  • La compañía promete seguir publicando avances en este ámbito para mantener la transparencia y el escrutinio público

Estas medidas llegan en un contexto en el que la inteligencia artificial se está convirtiendo en un interlocutor emocional. Millones de personas conversan con modelos de lenguaje a diario, y una parte significativa lo hace en busca de consuelo o desahogo. OpenAI afirma que no pretende sustituir a los profesionales, sino garantizar que, cuando alguien se acerque a la IA en un momento de vulnerabilidad, reciba una respuesta más segura que no empeore su salud mental.

Client Challenge