

ChatGPT
Más de un millón de personas utilizan ChatGPT para hablar sobre pensamientos suicidas cada semana, mientras que cientos de miles de personas se sinceran sobre su psicosis o angustia emocional. Ante estas cifras, OpenAI ha decidido reforzar las respuestas del modelo en situaciones emocionalmente delicadas. El objetivo es que la inteligencia artificial oriente de forma empática y segura a quienes atraviesan momentos de crisis.
La compañía ha anunciado una serie de mejoras técnicas y de comportamiento que buscan reducir errores y ofrecer un acompañamiento más responsable, para que no se vuelvan a suceder casos, como el del joven que acabó con su vida tras una conversación con el chatbot o el usuario que mató a su madre y luego se suicidó. Entre ellas se incluyen la detección más precisa de signos de sufrimiento psicológico, respuestas más humanas y la integración de recursos profesionales de ayuda.
Según OpenAI, los cambios responden a que una gran parte de los usuarios acude a ChatGPT en busca de apoyo emocional, no solo de información. Para afrontar esa responsabilidad, la empresa ha colaborado con más de 170 expertos en salud mental —psiquiatras, psicólogos y médicos— con el fin de entrenar al modelo para que identifique señales de riesgo y actúe con sensibilidad.
Las mejoras se centran en tres ámbitos:
En todos los casos, ChatGPT ha sido ajustado para responder con empatía, evitar juicios y, cuando sea posible, ofrecer información sobre líneas de ayuda o servicios profesionales.
OpenAI asegura que el nuevo sistema ha reducido entre un 65 % y un 80 % las respuestas inadecuadas en conversaciones sensibles. Además, el modelo puede ahora redirigir ciertos diálogos a versiones más avanzadas de sí mismo, diseñadas para manejar mejor interacciones complejas o emocionalmente intensas.
En su análisis, la compañía estima que alrededor del 0,15 % de los usuarios semanales mantienen conversaciones que incluyen señales de planificación suicida o ideación autolesiva, lo que, en una base de 800 millones de personas, equivale a 1 millón de personas. En los casos relacionados con síntomas de psicosis o manía, la cifra ronda el 0,07 % de los usuarios activos (500.000 personas) y, si hablamos de dependencia emocional, volvemos al 0,15% (1 millón de personas).
El proyecto forma parte de un marco más amplio que OpenAI denomina “Marco de Desarrollo Responsable”, un proceso iterativo basado en cinco pasos:
Estas medidas llegan en un contexto en el que la inteligencia artificial se está convirtiendo en un interlocutor emocional. Millones de personas conversan con modelos de lenguaje a diario, y una parte significativa lo hace en busca de consuelo o desahogo. OpenAI afirma que no pretende sustituir a los profesionales, sino garantizar que, cuando alguien se acerque a la IA en un momento de vulnerabilidad, reciba una respuesta más segura que no empeore su salud mental.