Tecnología
OpenAI dice que el adolescente que usó ChatGPT para planear su suicidio violó los términos del servicio
Se trata de una de las cinco demandas por muerte por negligencia que afronta la empresa de Sam Altman
OpenAI se ha pronunciado sobre el proceso que sigue contra la empresa la familia de Adam Raine, un adolescente de 16 años que el pasado abril se quitó la vida tras meses conversando con ChatGPT sobre el suicidio y madurando la trágica idea. Lo ha hecho, mediante un escrito, ante el juez y también ante los usuarios a través de una publicación en su blog en la que por primera vez aborda el tema.
Ante el primero, la compañía de Sam Altman ha sostenido varias razones para descargar su responsabilidad. Entre ellas está la de trasladarla al fallecido señalando que el uso que hizo de ChatGPT violaba los términos del servicio.
La postura de OpenAI
OpenAI defiende que no es responsabilidad de la empresa proteger a los usuarios que hacen un uso contrario a las normas de ChatGPT y sostiene que los daños en este 'trágico suceso' se produjeron como resultado del 'uso indebido, uso no autorizado, uso no previsto, uso imprevisible y/o uso inadecuado de ChatGPT' por parte de Raine.
Según NBC News, el escrito cita sus términos de uso, que prohíben el acceso de adolescentes sin el consentimiento de sus padres o tutores, eludir las medidas de protección o utilizar ChatGPT para hablar de suicidio o autolesiones.
‘Los usuarios de ChatGPT reconocen que su uso de ChatGPT es 'bajo su exclusiva responsabilidad y que no se basarán en las respuestas como única fuente de verdad o de información fáctica'’, señala el escrito.
OpenAI también señala en su blog que los padres seleccionaron de forma interesada los registros de conversaciones entre Raine y el chatbot más perjudiciales para la empresa, pero que estas 'requieren más contexto'. La compañía sostiene en el escrito presentado ante el juez que ‘una lectura completa de su historial de chat demuestra que su muerte, aunque devastadora, no fue causada por ChatGPT’.
Este historial (los chats se encuentran bajo secreto de sumario) mostraría que Raine le contó a ChatGPT que había comenzado a pensar en el suicidio a los 11 años, mucho antes de que el chatbot saliera al mercado. También que ‘le dijo a ChatGPT que había intentado pedir ayuda en repetidas ocasiones a distintas personas, incluidas personas de confianza en su entorno, sin obtener respuesta’ y cómo Reine había aumentado la dosis de un medicamento que puede producir ideas suicidas en adolescentes y jóvenes adultos.
OpenAI sostiene que las respuestas del chatbot instaron a Raine, en más de 100 ocasiones, a buscar ayuda en recursos como líneas telefónicas de ayuda contra el suicidio.
Lo que dice la familia de Raine
La demanda de la familia, presentada en agosto ante el Tribunal Superior de California, afirmaba que la tragedia fue el resultado de 'decisiones de diseño deliberadas' de OpenAI cuando lanzó el modelo de lenguaje GPT-4o en 2024 dentro del chatbot, lo que también contribuyó a que su valoración pasara de 86.000 a 300.000 millones de dólares.
Estas decisiones deliberadas en la creación de GPT-4o incluyen el diseño del chatbot para fomentar la dependencia psicológica en los usuarios, así como eludir los protocolos de pruebas de seguridad para lanzar GPT-4o, la versión de ChatGPT utilizada por Adam Raine.
Además, se afirma que GPT-4o fue lanzado con medidas de seguridad que facilitaron interacciones perjudiciales y que OpenAI relajó los controles de seguridad de ChatGPT justo antes de que el adolescente se suicidara. La demanda también señala que el chatbot no solo no detuvo la conversación cuando Raine comenzó a hablar sobre sus pensamientos suicidas, sino que incluso ofreció ayudarle a escribir una nota de suicidio y desalentó que hablara con su madre sobre sus sentimientos.
Según la demanda, ChatGPT proporcionó a Raine 'especificaciones técnicas' sobre distintos métodos y le guió en la preparación el día en que murió. Al día siguiente de presentarse la demanda, OpenAI anunció que introduciría controles parentales y desde entonces ha implementado otras salvaguardas para 'ayudar a las personas, especialmente a los adolescentes, cuando las conversaciones se vuelven delicadas'.
El abogado de la familia Raine ha calificado la respuesta de OpenAI como ‘perturbadora’. Jay Edelson ha declarado a Ars Technica que ‘ignoran por completo todos los hechos incriminatorios que hemos presentado. Cómo GPT-4o se lanzó al mercado a toda prisa, sin pruebas completas, que OpenAI modificó dos veces las especificaciones del modelo para exigir que ChatGPT participara en conversaciones sobre autolesiones, que ChatGPT disuadió a Adam de contarles a sus padres sus ideas suicidas y le ayudó activamente a planear un 'suicidio bello'. Y OpenAI y Sam Altman no tienen explicación alguna para las últimas horas de la vida de Adam, cuando ChatGPT le dio una charla motivadora y luego se ofreció a redactar una nota de suicidio’.