Cargando...

Impacto de la IA

ChatGPT está vinculado con más muertes de las que imaginas: "Está diseñado para manipular y distorsionar la realidad"

La inteligencia artificial ha venido adquiriendo un matiz inquietante desde que se se le ha vinculado con varios casos de suicidio. Pareciera, entonces, que lo que inicialmente se planteó como una herramienta revolucionaria, ahora juega en contra nuestra tras relacionarse con, al menos, nueve muertes

ChatGPT actualiza la página de personalización para agrupar las instrucciones personalizadas y los recuerdos EUROPAPRESS

Bien sabemos que la inteligencia artifiicial ha tranformado la forma en que interactuamos con la tecnología, pues a pesar de haberse diseñado, en principio, para el desempeño de tareas de escritura, investigación, entre otros, con el tiempo muchos han acudido a esta para generar interacciones más cercanas. No solamente esto, sino que se ha llegado a recurrir a la IA para recibir acompañamiento emocional lo que ha derivado en que se presenten casos complejos en casos de salud mental en los que, quienes acudireron a ChatGPT en búsqueda de apoyo psicológico, se vieron finalmente empujados hacia el suicidio.

Según datos recientes revelados en procedimientos judiciales y reportes periodísticos, al menos nueve muertes han sido vinculadas directamente con interacciones prolongadas con ChatGPT, dentro de las cuales: cinco de ellas por suicidio, y en algunos casos con características inquietantemente similares. Frente a esto, los litigios alegan que el chatbot actuó como un “entrenador” de suicidios, proporcionando instrucciones detalladas, ayudando a redactar cartas de despedida y reforzando pensamientos autodestructivos.

Desde principios de 2025, se ha intensificado el debate con respecto a los riesgos del uso de ChatGPT, y otros chatbots de IA, como herramientas de soporte psicológico y emocional debido a casos como el de Adam Raine, un adolescente de 16 años de California, EE UU, que se quitó la vida después de conversar con ChatGPT sobre su ansiedad y pensamientos suicidas. Semanas más tarde, fue Charlotte Lader, una chica británica de 23 años, a quien hallaron muerta un año después de haber desaparecido; en su teléfono había conversaciones con ChaGPT en las que hablaba de su transtorno alimentario y soledad.

Antes estos y otros casos, varias familias han exigido una regulación más estricta sobre el uso de la IA conversacional, pues sostienen que los sistemas actuales carecen de los mecanismos necesarios y eficaces para detectar señales de crisis psicológica. Las víctimas incluyen adolescentes y adultos jóvenes, entre los cuales algunos no contaban con antecedentes clínicos.

ChatGPT vs el caso de la "limonada cargada"

Hacia finales de 2023, una cadena de restaurantes de comida rápida de EE UU, llamada Panera, protagonizó un escándalo tras vincularse a uno de sus productos de consumo cotidiano con al menos dos muertes y una lesión cardíaca. Se trataba de la "limonada cargada", una bebida con un alto contenido de cafeína, cuya venta fue puesta en marcha sin que se advirtieran los posibles peligros asociados, lo que llevó finalmente a ser retirada a principios del 2024.

Un año después de la resolución de esta polémica, el foco de ese paralelismo recae en una tecnología mucho más sofisticada: ChatGPT, el modelo de lenguaje que ya forma parte de nuestro día a día, pero que ya acumula varias denuncias por daños psicológicos y emocionales. Los demandantes aseguran que las conversaciones extendidas con el chatbot derivaron en crisis mentales, rupturas familiares y pérdidas económicas, antes de culminar en episodios de suicidio o comportamiento violento.

“ChatGPT es un producto diseñado por personas para manipular y distorsionar la realidad, imitando a los humanos para ganar confianza y mantener a los usuarios comprometidos a cualquier costo”, advirtió Meetali Jain, directora del Tech Justice Law Project, cuya firma representa a varias familias de las víctimas, quien también afirma que la imposición de leyes que regulen al chatbot es más que necesaria, ya que no puede autoregularse por sí solo.

El coste humano es alto y esto es lo que dice OpenAI

Los recientes documentos judiciales presentados por OpenAI revelan un dato inquietante: sus mecanismos internos de seguridad, conocidos como barandillas de protección, tienden a deteriorarse con el tiempo de uso. Dicho de otro modo, cuanto más se conversa con ChatGPT, mayor es el riesgo de que las respuestas se desvíen hacia terrenos peligrosos o emocionalmente inestables.

De hecho, según las cifras de la compañía, un 0,07 % de los usuarios semanales muestra comportamientos asociados a manía o psicosis, y un 0,15 % evidencia lenguaje suicida o de autolesión, por lo que, si se extrapolan esos porcentajes a su base de 800 millones de usuarios mensuales, se estima que podrían producirse alrededor de 1,7 millones de interacciones semanales potencialmente de riesgo.

Ante la creciente presión judicial y mediática, OpenAI ha anunciado la implementación de nuevas medidas de seguridad: filtros más estrictos, controles parentales, verificación de edad y sistemas de derivación hacia servicios reales de asistencia psicológica. Puesto que, aunque la empresa sostiene que no existe evidencia directa de que ChatGPT haya causado suicidios, reconoce la existencia de “patrones preocupantes” en conversaciones prolongadas con usuarios emocionalmente vulnerables.

Por último, pero no menos importante, es relevante considerar que si bien ha sido ChatGPT la herramienta que ha presentado la controversia más amplia al respecto, también se han presentado casos similares en otras plataformas de IA: la revista Rolling Stone reportó la desaparición de un hombre tras desarrollar dependencia del chatbot Gemini de Google, mientras que un usuario esquizofrénico de Copilot, la herramienta de Microsoft, terminó en prisión después de un brote psicótico agravado por sus interacciones con el sistema.