Cargando...

Tecnología

ChatGPT verificará la edad de los usuarios: 'En algunos casos o países, también podemos solicitar una identificación'

Los usuarios detectados como menores de 18 años serán redirigidos a una versión del chatbot con restricciones

Sam Altman es el máximo dirigente de Open AI, desarrollador de ChatGPT. Difoosion

OpenAI ha anunciado que está desarrollando un sistema automático de predicción de edad que determinará si los usuarios son mayores de 18 años. En caso de no serlo, los redirigirá a una versión de ChatGPT con restricciones de uso y apropiada para su edad. Junto con esta medida, la compañía también ha avanzado que los controles parentales del chatbot llegarán a finales de este mes de septiembre.

Adelantándose a las preocupaciones que una medida de este tipo puede levantar, Sam Altman, CEO de OpenAI, ha señalado que la empresa está priorizando explícitamente 'la seguridad por encima de la privacidad y la libertad de los adolescentes', incluso si esto significa que los adultos podrían necesitar verificar su edad para acceder a una versión menos restringida del servicio.

'En algunos casos o países también podríamos pedir un documento de identidad. Sabemos que esto supone un compromiso de privacidad para los adultos, pero creemos que es una concesión que merece la pena', afirma Altman. El CEO reconoce que 'no todo el mundo estará de acuerdo con la forma en que estamos resolviendo ese conflicto' entre privacidad del usuario y seguridad de los adolescentes.

El suicidio de un adolescente de 16 años

El anuncio llega semanas después del caso de un adolescente de 16 años, Adam Raine, que se suicidó tras tratar esta posibilidad con ChatGPT. Según la demanda presentada por la familia contra OpenAI, el chatbot proporcionó instrucciones detalladas, romantizó métodos de suicidio y desalentó al adolescente a pedir ayuda a su familia. El sistema de OpenAI registró 337 mensajes de sus conversaciones con el adolescente que fueron etiquetados como contenido de autolesiones y el propio chatbot mencionó el suicidio 1.275 veces en sus conversaciones con Raine. Pese a ello, los protocolos de seguridad del sistema no intervinieron ni notificaron a nadie.

El pasado mes de agosto, OpenAI reconoció que las medidas de protección de ChatGPT pueden fallar durante conversaciones largas, precisamente cuando los usuarios vulnerables más las necesitan. 'A medida que la conversación se prolonga, partes del entrenamiento en seguridad del modelo pueden degradarse', escribió la compañía entonces, señalando que, si bien ChatGPT puede derivar correctamente a usuarios a líneas de ayuda contra el suicidio al principio, 'tras muchos mensajes a lo largo de un periodo prolongado podría acabar ofreciendo una respuesta que vaya en contra de nuestras salvaguardas'.

'Incluso los sistemas más avanzados a veces tendrán dificultades para predecir la edad'

OpenAI no ha especificado qué tecnología va a utilizar para adivinar la edad de los usuarios ni ha puesto una fecha a su despliegue. Reconoce que desarrollar un sistema de verificación de edad efectivo no es fácil y que 'incluso los sistemas más avanzados a veces tendrán dificultades para predecir la edad'.

Cuando el sistema en desarrollo identifique a usuarios menores de 18 años, OpenAI los redirigirá automáticamente a una experiencia modificada de ChatGPT que bloquee contenido sexual explícito e incluya otras restricciones ajustadas a su edad. La compañía asegura que 'optará por la vía más segura' cuando haya dudas sobre la edad de un usuario, estableciendo por defecto la experiencia restringida y exigiendo a los adultos verificar su edad para acceder a todas las funciones.

Qué permitirá el control parental de ChatGPT

En cuanto a los controles parentales que va a implementar, permitirán que los padres vinculen sus cuentas con las de sus hijos adolescentes (la edad mínima para usar ChatGPT es de 13 años) mediante invitaciones por correo electrónico.

Una vez conectados, los padres podrán desactivar funciones específicas, incluida la memoria de ChatGPT y el almacenamiento del historial de chats, establecer horarios de bloqueo en los que los adolescentes no puedan usar el servicio y recibir notificaciones cuando el sistema 'detecte' que su hijo experimenta mucha angustia.

Esa última función incluye una advertencia importante: OpenAI afirma que, en determinadas situaciones de emergencia en las que no se pueda localizar a los padres, la compañía 'podría involucrar a las fuerzas del orden como siguiente paso'.