
Inteligencia artificial
OpenAI ya no será tu "amigo": las nuevas reglas de ChatGPT para evitar que la IA aliente la paranoia y el suicidio
Los últimos acontecimientos han requerido de una intervención inmediata por parte de OpenAI, que ya tiene en el horizonte un plan de acción para mejorar a su chatbot ante situaciones delicadas

Por mucho que se hable de avances en materia de inteligencia artificial, el camino que le queda por recorrer es todavía muy largo. En particular, si pensamos en los aspectos más cotidianos y aquellos que tienen que ver con la empatía con el ser humano que se encuentra en el origen de la interacción.
Los últimos acontecimientos han puesto en tela de juicio el modo en que OpenAI, la empresa matriz detrás de ChatGPT, había configurado a su popular asistente conversacional para afrontar conversaciones en las que se vislumbraran problemas anímicos y psicológicos por parte de su interlocutor, cuestión que incluso le ha costado una demanda judicial.
Reacción por parte de OpenAI
Tras ser conocedora de esas circunstancias, la compañía que lidera Sam Altman ha decidido implementar una serie de reglas y mejoras en su chatbot para evitar ese tipo de escenarios en el futuro y poder atajar conversaciones delicadas, en particular de menores, a tiempo para mostrarles la ayuda necesaria.
Ha sido la propia OpenAI quien, a través de un comunicado en su blog oficial, ha trasladado su intención de implementar un control parental durante el próximo mes, medida que irá acompañada de un cambio en el modo en que su asistente conversacional dirige las interacciones para tratar de orientar aquellas en las que haya una carga emocional delicada hacia modelos de razonamiento más adecuados para su gestión.
La compañía enfocada en el desarrollo de inteligencia artificial no es ajena a las consecuencias fatales para algunos usuarios tras interacciones con ChatGPT, y por ello apunta la intención de profundizar en modos de ayuda desde su chatbot para evitar esos escenarios: “Seguimos mejorando la forma en que nuestros modelos reconocen y responden a las señales de angustia mental y emocional, con la ayuda de expertos”.
Para ello, OpenAI ha establecido un plan a desarrollar durante los próximos 120 días en el que ha dejado clara que su intención es dotar a ChatGPT de herramientas que le permitan ayudar a las personas cuando más lo necesitan. Todo ello a través de cuatro pilares:
- Ampliar las intervenciones a más personas en crisis
- Hacer que sea aún más fácil llegar a los servicios de emergencia y obtener ayuda de expertos
- Habilitar conexiones con contactos de confianza
- Fortaleciendo las protecciones para los adolescentes
Refuerzo del equipo médico especializado en salud mental
Para ello, la compañía que lidera Sam Altman ha buscado reforzar su cartera de expertos que coopera en materia de bienestar y salud mental con un Consejo de Expertos en Bienestar e IA y su propia Red Global de Médicos, formada por más de 250 especialistas de 60 países, que según la empresa tecnológica aportarán “la profundidad de su experiencia médica especializada y la amplitud de perspectiva necesarias para fundamentar nuestro enfoque”.
La parte de salud mental es en la que más hincapié quiere hacer OpenAI, que apunta que, de ese abanico de médicos, casi una tercera parte de ellos, entre los que se cuenta a psiquiatras, pediatras y médicos generales, han contribuido a su investigación sobre cómo deberían comportarse los modelos en contextos de conversaciones que denotan una situación psicológica delicada.
Del mismo modo, ChatGPT buscará con las novedades que irá implantando próximamente aprovechar sus modelos de razonamiento más adecuados para situaciones sensibles, como lo puede ser GPT-5 o el modelo o3, cuya configuración está orientada a que destinen más tiempo a pensar y razonar teniendo en cuenta el tono general del historial de conversación para ofrecer una respuesta y orientación más óptimas al interlocutor gracias a sus entrenamientos con el método de alineación deliberativa.
Los padres tendrán mayor control
Por último, OpenAI, sabedora de que cada vez más jóvenes se acercan a su chatbot por ser la generación que denomina como "nativos de la IA" ha abogado por dar una serie de herramientas a los padres para tener en todo momento control sobre aquellos aspectos que puedan merecer más atención.
Así, a lo largo del próximo mes ChatGPT dará la opción establecer unos controles parentales entre los que se encuentra la posibilidad de vincular la cuenta de los hijos adolescentes a la de sus padres. Estos también podrán controlar las respuestas del chatbot con reglas de comportamiento, podrán administrar las funciones que desactivar y recibirán una notificación en el momento en que el asistente perciba una situación de “angustia aguda” en los diálogos con el adolescente.
Una serie de medidas que OpenAI señala que serán “solo el comienzo” en su afán por seguir aprendiendo de cara a dotar al popular chatbot de herramientas adecuadas para que sea lo más útil posible en todos los escenarios, en especial aquellos en los que el estado anímico y mental de un adolescente pueda estar en entredicho.
✕
Accede a tu cuenta para comentar