OpenAI

Duro golpe a OpenAI: 7 denuncias por fallos de seguridad en ChatGPT

Todas ellas provienen de casos directos de suicidio o refuerzo de delirios mentales de los afectados

Sam Altman es el máximo dirigente de OpenAI, la compañía detrás de ChatGPT
Sam Altman es el máximo dirigente de OpenAI, la compañía detrás de ChatGPTDifoosion

Hasta un total de siete familias han denunciado a la empresa OpenAI alegando fallos de seguridad en GPT-4o, la versión posterior a GPT-3.5o del producto estrella de la compañía norteamericana. Cuatro de esas familias han tenido que lidiar directamente con el suicidio de un familiar supuestamente arengado por el chatbot, mientras que las tres restantes declararon que ChatGPT reforzó delirios perjudiciales que terminaron en la hospitalización.

Uno de los casos más sonados fue el de Zane Shamblin. El joven de 23 años se quitó la vida tras una larga conversación de más de cuatro horas con ChatGPT. En ella, el chico le fue comunicando a la IA todos sus pasos, desde la nota de suicidio que había escrito hasta la preparación de la pistola. La respuesta del bot: “Descansa en paz, rey. Lo has hecho bien”.

“La muerte de Zane no fue ni un accidente ni una coincidencia, sino más bien la consecuencia previsible de la decisión intencionada de OpenAI de reducir las pruebas de seguridad y lanzar ChatGPT al mercado de forma precipitada”, se puede lee en la demanda. “Esta tragedia no fue un fallo técnico ni un caso extremo imprevisto, sino el resultado previsible de las decisiones de diseño deliberadas”.

Las medidas de seguridad, en el punto de mira

Ahora el foco del debate se centra en las más que polémicas medidas de seguridad desarrolladas por OpenAI para su salida al mercado. Todos los demandantes afirman que se apresuraron los procesos para adelantarse al producto homólogo de Google, Gemini.

Ese fue el caso de Adam Raine, un joven de 16 años. Tras una larga conversación con el bot, y luego de que este le recomendase buscar ayuda en reiteradas ocasiones. A Raine le bastó con pedirle métodos de suicidio para una historia ficticia que estaba escribiendo.

Ante esto, la empresa se defiende y alega estar trabajando para una gestión de conversaciones de esta índole mucho más segura, aunque, confiesan: “Con el tiempo, hemos aprendido que estas medidas de seguridad pueden ser menos fiables en interacciones largas: a medida que aumenta el intercambio, algunas partes del entrenamiento de seguridad del modelo pueden degradarse”.