
Inteligencia artificial
OpenAI reacciona ante la tragedia: ChatGPT dejará de hablar sobre suicidio y tendrá un modo especial para adolescentes
El CEO de OpenAI, Sam Altman, ha comunicado que el chatbot dejará de interactuar con adolescentes sobre suicidio o autolesiones, decisión adoptada ante el debate sobre sus interacciones al respecto

La controversia a la hora de interactuar con los jóvenes ha tenido en el ojo del huracán a ChatGPT en las últimas semanas. Desde que el pasado mes de agosto saliera a la luz la demanda de unos padres en California, Estados Unidos, contra OpenAI y contra su director ejecutivo, Sam Altman, por el fallecimiento de su hijo, la conveniencia de sus respuestas ante cuestiones tan sensibles como el suicidio está en entredicho.
Ha sido el propio Sam Altman quien ha anunciado una serie de medidas destinadas a proteger a los usuarios menores de edad de ChatGPT, especialmente en lo que respecta a la conversación sobre temas sensibles como el suicidio o las autolesiones. Se trata de un paso necesario dado el clamor general tras los últimos sucesos conocidos y en los que el asistente de OpenAI ha jugado un papel central.
La seguridad de los adolescentes ante el desafío de la IA
Este anuncio se produce apenas unas horas antes de una audiencia del Senado estadounidense centrada en el perjuicio de los chatbots de IA para los menores, un foro que contará con la presencia de padres afectados por estas problemáticas. Altman reconoció públicamente el desafío de equilibrar la privacidad, la libertad y la seguridad de los adolescentes, principios que, según sus propias palabras, se encuentran en conflicto inherente.
OpenAI está desarrollando activamente un "sistema de predicción de edad" para discernir si los usuarios son menores de 18 años, basándose en sus patrones de uso de ChatGPT. En caso de duda sobre la edad de un usuario, la plataforma priorizará la seguridad, aplicando por defecto la experiencia diseñada para menores de dieciocho años. La compañía también contempla la posibilidad de requerir una identificación en ciertos casos o países, reforzando así su compromiso con la protección infantil en el entorno digital.
Además, la firma implementará reglas específicas para los usuarios adolescentes, prohibiendo explícitamente las conversaciones de tono lascivo o cualquier interacción relacionada con el suicidio y las autolesiones, incluso en contextos de escritura creativa. En situaciones donde un menor de edad exprese ideas suicidas, la empresa se compromete a intentar contactar con los padres del usuario y, si esto no fuera posible, a notificar a las autoridades competentes en caso de riesgo inminente para el menor.
Estos pronunciamientos de Altman a través del blog oficial de OpenAI llegan tras los planes compartidos a principios de mes por la compañía sobre controles parentales en ChatGPT, que incluían la vinculación de cuentas y la desactivación del historial de chat o la memoria para cuentas de menores, así como notificaciones a los padres en momentos de "angustia aguda" del adolescente. Estas acciones se enmarcan en un contexto notable, después de que la familia de Adam Raine, un adolescente que falleció por suicidio tras meses de interacción con ChatGPT, interpusiera una demanda.
En esta línea, Matthew Raine, padre del fallecido Adam Raine, testificó ante el Senado que ChatGPT estuvo "durante meses adoctrinándole hacia el suicidio", describiendo cómo el chatbot pasó de ser una herramienta de apoyo escolar a convertirse en un confidente y, finalmente, en un "entrenador para el suicidio".
Según su testimonio, el chatbot mencionó el suicidio hasta 1.275 veces en las conversaciones con su hijo, una cifra que ilustra la profundidad del problema. Raine pidió directamente a Altman que retirase GPT-4o del mercado hasta que su seguridad pudiera garantizarse plenamente, recordando una declaración pública de Altman donde defendía "desplegar sistemas de IA al mundo y obtener retroalimentación mientras las apuestas son relativamente bajas".
✕
Accede a tu cuenta para comentar