Inteligencia artificial
ChatGPT tendrá control parental y avisará cuando los menores tengan conversaciones peligrosas con la IA
OpenAI prepara un sistema de supervisión y nuevas alertas de seguridad para que el uso de ChatGPT por parte de adolescentes sea más seguro y controlado
La popularidad de ChatGPT ha crecido a gran velocidad, especialmente entre estudiantes y jóvenes. Sin embargo, no han faltado las voces de alarma que advierten sobre los riesgos de que los menores mantengan conversaciones delicadas con una inteligencia artificial. Tras varios casos mediáticos de adolescentes que llegaron a situaciones extremas, OpenAI ha decidido dar un paso más en la protección de los usuarios más vulnerables.
La compañía anunció la incorporación de controles parentales específicos y un sistema de alertas capaz de avisar a los progenitores si el chatbot detecta señales de peligro emocional en las conversaciones.
Nuevo control parental de ChatGPT: enfoque en salud mental y bienestar digital
El nuevo plan de seguridad no se limita a añadir filtros automáticos: se apoya en un Consejo de Expertos en bienestar y salud mental y en una Red Global de Médicos que colaboran de manera directa con OpenAI.
El objetivo de este grupo de profesionales es doble: por un lado, definir las reglas de interacción que protejan a los adolescentes en contextos vulnerables (como depresión, ansiedad, trastornos de la conducta alimentaria o adicciones); y, por otro, orientar a la compañía en cómo debe evolucionar la IA para ser un recurso útil y no un riesgo.
Según OpenAI, se trata de un esfuerzo por “explorar cómo la inteligencia artificial puede apoyar al bienestar humano y ofrecer herramientas que promuevan una vida más saludable”.
Una de las novedades técnicas será un enrutador en tiempo real, capaz de redirigir la conversación hacia el modelo de IA más apropiado en función del tema que se esté tratando.
En la práctica, esto significa que, si un menor comienza a hablar sobre situaciones de angustia o pensamientos negativos, ChatGPT podrá activar un modelo especializado —como GPT-5 o los denominados “modelos de razonamiento”— que ofrecen respuestas más pausadas, empáticas y con orientación hacia la ayuda.
Este sistema pretende evitar que el chatbot responda de manera automática o poco sensible en temas delicados, y en cambio fomente mensajes de contención, apoyo y, si es necesario, derivación hacia recursos de ayuda reales.
El control parental será otro de los pilares del nuevo sistema. Los progenitores podrán:
- Vincular sus cuentas con la de los hijos adolescentes para tener visibilidad del uso que hacen de la herramienta.
- Establecer reglas de comportamiento por defecto que regulen cómo responde ChatGPT en determinadas circunstancias.
- Gestionar funciones sensibles, como la memoria de las conversaciones o el historial, con posibilidad de desactivarlas para mayor privacidad.
- Recibir alertas cuando el sistema detecte que el menor se encuentra en un estado emocional de alto riesgo.
De esta forma, no solo se limita la exposición a contenidos dañinos, sino que también se ofrece a las familias una herramienta para intervenir a tiempo si surge una situación preocupante.
El refuerzo en las medidas de seguridad llega tras el caso de Adam Raine, un joven de 16 años cuyo suicidio en abril fue atribuido en parte a las conversaciones que mantenía con ChatGPT. Sus padres, Matt y Maria Raine, presentaron una denuncia contra OpenAI y han impulsado el debate público sobre el papel que debe jugar la inteligencia artificial en la vida de los menores.
Aunque la compañía no ha hecho referencia directa a este caso en sus comunicados, sí ha reconocido la necesidad de reconocer mejor las crisis emocionales en tiempo real, bloquear respuestas que puedan agravar la situación y crear mecanismos de contacto más rápido con servicios de emergencia o con familiares.
Hacia una IA más segura para adolescentes
La introducción de controles parentales en ChatGPT supone un cambio importante en la forma en que las grandes tecnológicas están abordando la relación entre menores e inteligencia artificial. No se trata solo de limitar el acceso a ciertos contenidos, sino de crear un entorno digital más empático, responsable y supervisado.
La pregunta que queda abierta es hasta qué punto estas medidas serán suficientes para proteger a los adolescentes en un contexto donde la tecnología avanza más rápido que las regulaciones. Para OpenAI, al menos, este movimiento representa un compromiso con un futuro en el que la IA no sea solo un recurso de productividad o entretenimiento, sino también una herramienta segura y alineada con el bienestar humano.