ChatGPT

ChatGPT quiere el número de tu madre: OpenAI te pedirá un contacto de confianza por si empiezas a "perder la cabeza" con la IA

Las medidas de seguridad orientadas a prevenir problemas de salud mental no son solo para los jóvenes y ChatGPT establecerá un "contacto confiable" para casos de riesgo también en adultos

Errol Musk en el podcast Wide Awake
OpenAI establecerá un contacto de confianza ante riesgos de salud mental en adultos

OpenAI, empresa desarrolladora de ChatGPT, se ha visto inmersa en una serie de situaciones que la han apremiado a establecer medidas que tratan de velar por la seguridad de sus usuarios. Primero llegaron los controles parentales, motivados por los casos en que jóvenes y adolescentes interactuaban con el chatbot sobre cuestiones que dejaban traslucir problemas de salud mental. Se trata de una cuestión conocida por la compañía, pues en sus datos internos reconoce la presencia de más de medio millón de casos semanales de interacciones con signos de psicosis o manía.

Esos datos respaldan el siguiente paso acometido por la compañía que lidera Sam Altman, que ahora no solo centrará su atención y cuidado en los menores de edad, sino que también piensa en los adultos con la próxima función que implantará en su asistente: establecer un contacto de confianza. La idea de OpenAI es reforzar su trabajo y medidas con respecto a la salud mental y para ello piensa en implementar esta medida.

Establecer una persona cercana a la que alertar ante situaciones delicadas

Esta nueva función fue anunciada por la propia OpenAI a través de su blog corporativo. En su presentación, la compañía reconoce la buena acogida que ha tenido por parte de los usuarios el control parental de menores y en esa misma línea ha planteado esta nueva "función de contacto confiable". Proteger a los más vulnerables cuando son menores es una obligación, pero también lo es para una compañía como OpenAI reforzar sus medidas de seguridad para mayores de edad, al detectar las cifras actuales de casos en los que se perciben alteraciones emocionales en los usuarios.

Por ello, en colaboración con el Consejo de Bienestar e IA y de su Red Global de Médicos, organismos establecidos tras las primeras crisis de salud mental de las que se tuvieron constancia, OpenAI trabaja en una característica que llega para ejercer de refuerzo adicional a la seguridad de los usuarios. Lo cierto es que más allá de lo que supone, asignar un contacto de confianza ante escenarios en los que se perciba una crisis de salud mental, pocos detalles arroja la compañía.

En su comunicado, señala que esta nueva función "permitirá a los usuarios adultos designar a alguien para recibir notificaciones cuando puedan necesitar apoyo adicional". Una explicación genérica y que no establece límites o casos particulares, escenarios concretos o sobre quién recae la responsabilidad de decidir en qué situaciones es necesario hacer uso de ese contacto de confianza.

Cierto es que OpenAI reconoce un trabajo intensivo a la hora de mejorar la capacidad de sus modelos de cara a detectar casos de "angustia emocional". Para ello trabaja en nuevos métodos de evaluación con los que aspira a reconocer mejor los riesgos dentro de una conversación, pero tampoco ese aspecto alude a situaciones específicas que requieran de hacer uso de ese contacto de confianza.

La seguridad en las conversaciones con asistentes como OpenAI se ha convertido en una cuestión principal de confianza para los usuarios. La extensión de uso de este tipo de herramientas y el asesoramiento que se busca en ellas ha llegado a ámbitos tan delicados como la salud mental, por lo que la protección en este plano debe ser primordial.

Establecer un contacto de confianza puede ser un punto de partida, pero habrá quien acuda a ChatGPT para entablar ese tipo de conversación sin designar una persona cercana para ese tipo de situaciones, con lo que el dilema seguirá presente para la compañía. ¿Avisar o no avisar? ¿A quién? Preguntas que aún exigen trabajo a Sam Altman y sus equipos de seguridad y bienestar.