Inteligencia artificial
El control parental llega a ChatGPT: más recursos para las familias de cara a conocer el funcionamiento del chatbot de OpenAI y proteger a los menores
Tras la demanda por el suicidio de un adolescente que usaba ChatGPT como consejero, la compañía tecnológica ha lanzado sus primeros controles parentales para el popular chatbot
La muerte de un adolescente en Estados Unidos ha puesto sobre la mesa un debate sobre la seguridad de las herramientas de inteligencia artificial y sobre la privacidad de los asistentes conversacionales. Por un lado está la necesidad de proteger a los más jóvenes y por otro, su querencia a un espacio personal en el que no haya interferencias. Ambas cuestiones importantes y ante las que la compañía que lidera Sam Altman ha movido ficha.
El fatídico suceso terminó en una demanda contra OpenAI, la compañía californiana detrás de ChatGPT, en la que se alega que el joven utilizaba el chatbot como una especie de consejero personal, lo que destapa los riesgos de la inteligencia artificial para los usuarios más vulnerables. En aquel momento la compañía comprendió que había un aspecto descuidado en su asistente y ya apuntó a una revisión al respecto.
Para ello y ante una demanda generalizada y escudada en la seguridad de los menores, OpenAI implementa desde hoy mismo un control parental así como una página de recursos para padres, tal como anuncia la propia compañía en su blog.
Un delicado equilibrio entre la supervisión y la privacidad
Con ello, la tecnológica ha decidido mover ficha para atajar la creciente preocupación social. La empresa ha anunciado el lanzamiento de una serie de controles parentales diseñados específicamente para supervisar la interacción de los menores con su popular IA.
Oficialmente, el servicio está dirigido a mayores de 13 años y la nueva funcionalidad busca dar a los padres un mayor control sobre el uso que hacen sus hijos a través de opciones como vincular cuentas para establecer límites de tiempo de interacción con el chatbot y protecciones adicionales.
De hecho, estas herramientas permiten a los progenitores establecer límites concretos, como fijar horarios para bloquear el acceso al chatbot o restringir el uso de sus funciones más avanzadas, como el modo de voz o la creación de imágenes. También será posible activar un filtro para conversaciones sobre temas sensibles, como las dietas o el contenido de naturaleza sexual.
Asimismo, OpenAI ha implementado un protocolo de seguridad adicional que podría resultar clave en situaciones críticas. Si el sistema detecta que un adolescente se encuentra en una situación de peligro inminente, un revisor humano podrá intervenir para analizar el caso y, si lo considera necesario, enviar una alerta directa a los padres para que puedan tomar cartas en el asunto.
Fidji Simo, directora ejecutiva de aplicaciones en OpenAI ha querido exponer a través de la red social 'X' lo que encontrarán los padres que opten por esta nueva opción habilitada en ChatGPT:
"Estamos empezando a implementar controles parentales en ChatGPT, incluyendo el primer sistema de notificaciones de seguridad de su tipo para alertar a los padres si su hijo adolescente podría estar en riesgo de autolesionarse"
Por otro lado, y en un intento por proteger la intimidad de los usuarios, la compañía ha garantizado que el contenido de las conversaciones que los menores mantengan con ChatGPT no será compartido con sus padres. La supervisión se centrará en los patrones de uso y las alertas de riesgo, pero se preservará la privacidad de los jóvenes en sus interacciones directas con la plataforma.
Más allá de estas medidas inmediatas, la empresa ya trabaja en el desarrollo de una solución tecnológica más sofisticada. Se trata de un software avanzado capaz de predecir la edad de los usuarios de forma automática. El objetivo final es que el propio sistema pueda modular sus respuestas y adaptar el tono y el contenido para ofrecer un entorno mucho más seguro y apropiado para cada franja de edad, sin necesidad de una supervisión externa tan directa.