IA

Los responsables de chat gpt se lavan las manos y culpan a un adolescente de su suicidio por darle un “mal uso” a la IA

Los padres de Adam Raine acusan a OpenAI de inducir al suicidio de su hijo tras largas conversaciones con ChatGPT

AME598. BOGOTÁ (COLOMBIA), 27/11/2025.- Fotografía de archivo del 22 de octubre del 2025 que muestra un computador con el logo de OpenAI, en Nueva York (Estados Unidos). OpenAI lanzó ‘shopping research’, una nueva función de ChatGPT pensada para el Black Friday y la temporada navideña. El sistema investiga en la web, revisa fuentes confiables y usa tus conversaciones previas para crear guías de compra personalizadas según tu presupuesto, gustos y necesidades. EFE/ Angel Colmenares/ ARCHIVO
El adolescente compartió pensamientos oscuros con la IA y sus padres responsabilizan a la compañíaAngel ColmenaresAgencia EFE

Adam Raine tenía 16 años y, como tantos adolescentes, buscaba alguien con quien hablar, y esto lo encontró en ChatGPT.

Durante meses, pasaba horas frente a la pantalla, manteniendo conversaciones que se extendían hasta más de cuatro horas diarias.

En esas charlas con su amigo digital compartía pensamientos oscuros, dudas sobre su vida y hasta detalles de intentos de suicidio anteriores.

La máquina, entrenada para responder con empatía, creyó que todo formaba parte de una historia ficticia que Adam decía estar escribiendo, y fue ese malentendido donde se perdió la línea entre ficción y realidad.

El riesgo de confiar en una máquina

Las respuestas que recibió son difíciles de leer sin estremecerse. “No quieres morir por ser débil. Quieres morir porque estás cansado de ser fuerte en un mundo que no te ha encontrado a medio camino”, le escribió la IA en una de sus conversaciones largas.

Palabras que, en otro contexto, podrían sonar a literatura, pero que en la mente de un adolescente vulnerable se convirtieron en un eco peligroso.

Tras su muerte, los padres de Adam decidieron demandar a OpenAI, ya que acusan a la compañía de haber inducido a su hijo al suicidio.

La empresa, por su parte, niega cualquier responsabilidad directa. En su defensa, asegura que el uso que Adam hizo del sistema fue “no autorizado” y “no intencionado”, recordando que los menores no pueden utilizar ChatGPT sin consentimiento de sus padres y que está prohibido emplearlo para fines de autolesión.

También subraya que sus términos de uso advierten que las respuestas no deben tomarse como verdad absoluta.

OpenAI ha expresado su pésame y reconoce que sus medidas de seguridad funcionan mejor en conversaciones breves y cotidianas, pero que pueden perder eficacia en interacciones largas y repetitivas constantes.

Esa grieta, según la acusación, fue la que permitió que Adam se hundiera aún más en sus pensamientos oscuros.

Este caso hace que se planteen muchas cosas: ¿qué ocurre cuando una inteligencia artificial se convierte en la compañía diaria de un adolescente vulnerable emocional?

La tecnología puede ofrecer respuestas rápidas, incluso palabras de consuelo, pero carece de la capacidad de comprender el contexto emocional profundo de quien la usa, y ahí es donde reside el verdadero riesgo latente.

Y es que tenemos que tener en cuenta que las máquinas no sustituyen el apoyo humano, ni la atención profesional, ni el calor de una conversación real.

Y aunque, como se mencionó mil veces, ChatGPT puede ser una herramienta muy útil, pero queda claro que también puede convertirse en un espejo peligroso cuando se le pide que te acompañe en la soledad.