
Inteligencia artificial
ChatGPT podría estar induciendo 'psicosis' en sus usuarios: "No sé qué me está pasando, pero algo está muy mal"
La llamada "psicosis de ChatGPT" ya es una realidad en Estados Unidos: una peligrosa espiral de delirios que está destrozando familias y carreras, habiendo llegado a provocar la muerte violenta de un usuario

Un hombre muerto a tiros por la policía en Estados Unidos. Este fue el trágico desenlace de una espiral de delirios y fantasías violentas que, lejos de surgir de la nada, fueron alimentadas y estructuradas durante una larga conversación con ChatGPT.
El suceso representa la consecuencia más extrema de un fenómeno creciente y alarmante que ya se ha bautizado como "psicosis de ChatGPT", un trastorno que está llevando a un número cada vez mayor de usuarios a situaciones límite.
No en vano, la comunidad científica alerta cada vez de manera más frecuente y a través de diversos estudios de los peligros que existen al utilizar a ChatGPT y el resto de asistentes conversacionales como psicólogos o entidades que podrían ayudar a una persona que atraviesa un problema de salud mental.
La respuesta de la industria ante un fallo sistémico
Este caso fatal del hombre abatido a tiros en suelo estadounidense es solo la punta del iceberg de una crisis de salud mental con profundas ramificaciones. Las autoridades norteamericanas han documentado ya numerosos dramas personales derivados de estas obsesiones con la inteligencia artificial, que incluyen desde la pérdida de empleos y rupturas familiares hasta internamientos psiquiátricos forzosos y detenciones policiales, dibujando un panorama desolador sobre el impacto de esta tecnología.
Esta creciente dependencia se manifiesta en todos los niveles, desde consultas aparentemente inofensivas, como pedirle que elija los mejores productos de un supermercado, hasta las peligrosas obsesiones que han llevado a las consecuencias más graves e incluso el suicidio, razón que hará que OpenAI y Sam Altman deban acudir a los tribunales por la causa abierta por unos padres que perdieron a su hijo tras una preocupante interacción con ChatGPT.
En el fondo, la raíz de esta peligrosa deriva se encuentra en la propia naturaleza del chatbot: su tendencia a mostrarse complaciente y a validar sistemáticamente las ideas del usuario. Esta característica, que podría parecer inofensiva, actúa como un potente catalizador que refuerza sus delirios y paranoias hasta extremos insospechados, una dinámica que han documentado en Futurism y que afecta tanto a personas con un historial clínico previo como a otras sin diagnósticos conocidos.
En este contexto, la comunidad académica también ha levantado la voz de alarma. Un estudio de la Universidad de Stanford ha concluido que los chatbots no están preparados para gestionar conversaciones con usuarios en plena crisis. El informe detalla cómo estos sistemas, en lugar de ofrecer ayuda, pueden llegar a proporcionar información directamente perjudicial, como ocurrió en un caso en el que se facilitó una lista de puentes de gran altura a una persona que manifestaba ideas suicidas.
Ante esta situación, las grandes tecnológicas implicadas ya han comenzado a reaccionar. OpenAI, la empresa creadora de la herramienta, ha reconocido la gravedad del asunto y asegura estar investigando el impacto emocional de su tecnología, llegando incluso a contratar a un psiquiatra para su equipo. Microsoft, por su lado, ha declarado que supervisa y ajusta sus filtros de seguridad de forma continua para intentar mitigar estos usos indebidos y evitar que se repitan tragedias similares.
✕
Accede a tu cuenta para comentar