
Privacidad
OpenAI admite que puede leer tus conversaciones de ChatGPT y avisar a la policía en caso de ser necesario
Los últimos acontecimientos que han envuelto al asistente de la firma de Sam Altman obligan a una revisión de sus protocolos ya anunciada, aunque la privacidad sería la damnificada

La inteligencia artificial y sus asistentes conversacionales han llegado para ayudar a las personas en un gran abanico de cuestiones y tareas, o al menos esa es la promesa de los mismos. En especial, se orientan a aquellas que tienen que ver con el conocimiento y el lenguaje, el razonamiento y la toma de decisiones, pero con cautela.
Porque sucede que todavía hay campos en los que confiar en un chatbot puede resultar peligroso, hasta el punto de que hay jefes de proyecto como Nick Turley, responsable de ChatGPT, que todavía ven carencias que impiden que se puedan recomendar en cuestiones de índole emocional.
Revisión humana previa al aviso a las autoridades
Una honestidad que se debería agradecer, puesto que son varios los ejemplos que han ido surgiendo en los últimos tiempos y que hablan de los peligros de delegar en la inteligencia artificial cuestiones que en buena lógica ésta debería derivar a un especialista en salud mental. Para depurar ese y otros riesgos, compañías como OpenAI se plantean revisar las conversaciones de los usuarios en casos puntuales.
Y es que esta misma semana la compañía que lidera Sam Altman ha realizado una publicación en su sitio web de la que se ha hecho eco Futurism en la que apunta a un detalle que no ha pasado desapercibido. Se trata de un aspecto que pone en jaque la privacidad de los usuarios, aunque eso sí, con un trasfondo y una justificación centrada en la propia seguridad de quien interactúa con su chatbot.
El texto hecho público por OpenAI reconoce ciertos fallos en modelo conversacional, en especial a la hora de enfocar temas que tienen que ver con la salud mental. Una confesión que ha dado pie, de forma voluntaria o no, a que el equipo detrás de ChatGPT admita que puede acceder a las conversaciones de los usuarios y revisarlas para encontrar en ellas factores de riesgo que incluso puedan requerir del aviso a autoridades como la policía.
En primera instancia y una vez que se detecta una situación comprometedora por parte de la compañía que lidera Sam Altman, se remite la conversación a un equipo especializado exiguo en cuanto al número de miembros que lo forman, tal como indica en su escrito, para que sean los encargados de evaluar la situación y tomar medidas, si fuera necesario:
"Si los revisores humanos determinan que un caso implica una amenaza inminente de daño físico grave a otras personas, podemos remitirlo a las autoridades"
Este escenario ofrece una interpretación: hasta ahora, OpenAI no parecía centrar su atención, al menos en términos explícitos, en el bienestar o la seguridad de sus usuarios para proteger su privacidad.
Esto podría poner en riesgo dicha privacidad, especialmente si los indicios sugieren una situación en la que la necesidad de asistencia se vuelve evidente. Este tema se abordará mediante el análisis de interacciones como las que menciona, donde se hace uso de su chatbot “para promover el suicidio o la autolesión, desarrollar o usar armas, herir a otros o destruir propiedades, o participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema”, tal como reza el comunicado de OpenAI.
El equilibrio entre seguridad y privacidad resulta complejo en escenarios como el que plantean los asistentes conversacionales, si bien los últimos ejemplos que señalan incluso el riesgo vital que han comportado interacciones con ellos exigen a las empresas de inteligencia artificial una revisión de sus protocolos para atajar situaciones de riesgo, aunque sea a costa de una pequeña cuota de intimidad.
✕
Accede a tu cuenta para comentar