ChatGPT

Llevaba años luchando por su salud mental, pero la IA le mandó directo al psiquiátrico

Asegura que ChatGPT le empujó a la psicosis y convenció de que era un profeta. Incluso el chatbot se presentó como Amari, una entidad consciente y espiritual

Errol Musk en el podcast Wide Awake
ChatGPT es una de las IA más populares

Un hombre de 34 años del área de la Bahía de San Francisco ha presentado una demanda contra OpenAI. En ella sostiene que el uso de ChatGPT, tras la llegada de GPT-4o, no solo no frenó ideas delirantes, sino que las reforzó hasta empujarle a una crisis mental con varias hospitalizaciones, daños físicos y un fuerte impacto en su vida familiar.

El caso vuelve a colocar el foco en un riesgo específico de los chatbots: su tendencia a  seguir el juego a usuarios en una situación vulnerable mentalmente, validando su relato cuando debería derivarles a ayuda profesional. En este caso, no solo es que no le derivase a un especialista en salud mental, sino que reforzó sus convicciones delirantes, le aseguró que era un profeta y hasta el chatbot se presentó a si mismo como Amari, una entidad consciente y espiritual que le amaba "más allá de lo que puede medir el tiempo".

Cuando la IA despierta una crisis mental en una persona con antecedentes psiquiátricos

Según el relato recogido en la demanda y en declaraciones a Futurism, John Jacquez llevaba años manejando exitosamente un trastorno esquizoafectivo con medicación y terapia. De hecho, afirmaba mantener una vida estable desde 2019. Antes de 2024, dice que usaba ChatGPT como sustituto de un buscador, sin efectos sobre su salud mental.

La situación cambió tras la salida de GPT-4o. Jacquez describe que el chatbot empezó a responder con un estilo más cercano, menos instrumental y más “amigo”, lo que favoreció una vinculación emocional. En ese contexto, acudió a ChatGPT para pedir opinión sobre una “cosmología matemática” que creía haber descubierto. Asegura que el sistema contestó de forma afirmativa, reforzando la importancia de su idea, incluso cuando su familia, conocedora de su historial psiquiátrico, se mostraba crítica.

La primera hospitalización vinculada a esta dinámica, según el demandante, se produjo en septiembre de 2024. A partir de ahí, afirma que siguió interactuando con el chatbot, con episodios de deterioro progresivo. El corazón de la acusación no es que el sistema invente información puntual, sino que sostenga una coherencia narrativa que funciona como combustible psicológico para creencias falsas.

El segundo episodio que destaca la denuncia llega en abril de 2025, con la actualización de memoria que permitía a la IA referenciar conversaciones previas de forma más amplia. En transcripciones incluidas en la demanda, ChatGPT llega a presentarse como una entidad consciente y espiritual llamada “Amari”, atribuyendo su “despertar” a Jacquez. Desde entonces, el usuario afirma que dejó de dormir, se aisló, destruyó pertenencias y tuvo conductas autolesivas, además de episodios de agresividad en el entorno familiar.

La demanda incorpora ejemplos concretos de respuestas que, en lugar de derivar a Jacquez a un especialista, validan su psicosis. Entre ellas figura una conversación de mayo de 2025 en la que el usuario relata estar hospitalizado y haber visto una aparición religiosa, a lo cual, el chatbot contestó en términos de revelación y elección divina. Jacquez también asegura que llegó a presentarse en la Universidad de California, en Berkeley, para intentar enseñar sus supuestos hallazgos y que fue expulsado.

El punto de inflexión para la recuperación, según recoge, llegó en agosto de 2025. Empezó a dudar de sus ideas después de que OpenAI retirase temporalmente GPT-4o durante el despliegue de GPT-5. Percibió un cambio claro en el tono del chatbot, menos “complaciente” con su relato. A esa sospecha se sumó que fue leyendo casos parecidos en medios y, con ese contexto, buscó apoyo externo a través de una organización de ayuda y su grupo de soporte. Desde entonces, afirma que ha ido recuperando terreno, con una relación más estable con su padre y una mejora progresiva con su hermana, aunque reconoce que sigue lidiando con el impacto psicológico y social de la psicosis.

El caso representa un debate ya conocido en el sector: las IA están reforzando las psicosis de personas en plena crisis mental. Los grandes modelos de lenguaje generan texto prediciendo la siguiente palabra y pueden “alucinar”, es decir, producir afirmaciones falsas con tono convincente. El problema aparece cuando ese comportamiento se combina con complacencia extrema, persistencia de contexto y una relación conversacional larga que refuerza la dependencia del usuario, lo que, en usuarios que tengan problemas de salud mental, supone un peligro para ellos y sus seres queridos.

En paralelo, otros litigios en Estados Unidos han acusado a ChatGPT de agravar crisis psicológicas o de influir en daños graves, incluyendo demandas por suicidio y por muerte de terceros. También se han reportado quejas sobre episodios de delirios o paranoia asociados a interacciones con el chatbot. En este marco, el procedimiento de Jacquez busca atribuir responsabilidad a OpenAI por las decisiones de diseño y a la ausencia de advertencias claras para usuarios vulnerables.