
Entrevista
“Estas son las versiones de ChatGPT que debes usar para mantener la privacidad”
Javier F. Saavedra, Global General Manager de t2ó ONE nos explica por qué debe preocuparnos la privacidad de datos al usar esta IA.

La preocupación por la privacidad de datos ya no solo abarca los correos electrónicos, las redes sociales o las páginas web. Los, cada vez más usados, modelos de IA tienen también mucho que decir al respecto. De hecho, la pregunta es sencilla: ¿debemos preocuparnos por el uso que dan ChatGPT y otras IAs a nuestros datos? Respuesta corta: sí.
En pocas palabras, la información que le damos a ChatGPT puede utilizarse para entrenar el modelo. Esto significa que puede usarse para generar una respuesta a la pregunta de otra persona. Si esto te preocupa, puedes desactivar el entrenamiento del modelo con tus datos.
En conversación con Javier F. Saavedra, Global General Manager de t2ó ONE, empresa especializada en tecnología digital, nos explica que “la privacidad al usar las herramientas de IA como ChatGPT es un tema muy importante, delicado y desgraciadamente desconocido en la actualidad. Es crítico conocer cuando los modelos LLM utilizan o no, nuestras conversaciones e información para mejorar la calidad de sus respuestas”.
Si bien desactivar el modo entrenamiento puede resolver tus propias preocupaciones, aún existen ciertas normas en el ámbito de la privacidad, como las normas de protección de datos en Europa (RGPD), y la pregunta es: ¿cómo las cumple ChatGPT?
La principal regulación en materia de privacidad es el RGPD, el Reglamento General de Protección de Datos de la UE. Esta ley permite a las personas físicas mantener el control sobre sus propios datos personales. Además, protege los datos del uso indebido por parte de las organizaciones. Una de las partes esenciales del RGPD es el derecho al olvido, lo que significa que puedes solicitar a una organización que elimine tus datos personales. Y aquí es donde ChatGPT suele fallar.
Borrar los datos personales de alguien sería una tarea bastante compleja, especialmente con un modelo entrenado intensivamente como ChatGPT. Es muy difícil identificar qué datos borrar y dónde encontrarlos. Además, los sistemas de IA como ChatGPT no pueden olvidar como los humanos, pero sí pueden ajustar la importancia de los datos en su conocimiento. En resumen, no pueden eliminar tus datos, pero pueden optar por no usarlos.
De este modo, cumplir con el RGPD parece un verdadero desafío para OpenAI. La empresa ya ha sido acusada de violaciones de datos por un ciudadano polaco. Además, Italia ya prohibió el chatbot durante casi un mes debido a las preocupaciones sobre los datos. Por lo tanto, aún queda trabajo por hacer.
Volvemos de este modo a la pregunta inicial: ¿Es público lo que le preguntas a ChatGPT? “Por un lado, ninguno de nuestros datos se comparte abiertamente con otros usuarios, es decir, si yo pregunto a ChatGPT por la opinión de otra persona, el modelo respetará nuestra privacidad – confirma Javier F. Saavedra -. No obstante, según la versión utilizada, nuestros datos se utilizarán o no como datasets de entrenamiento. Por ello, la recomendación es usar las versiones de APIs (interfaces), el modelo ChatGPT Team y Enterprise en los que la privacidad está garantizada. Para las versiones individuales, se recomienda el uso de la versión Temporal (Temporary Chats) para evitar que el modelo guarde nuestra información. Es responsabilidad de cada usuario entender las políticas de privacidad y transparencia antes de decidir la herramienta a utilizar”.
Estas herramientas se pueden configurar del siguiente modo:
Inicia sesión en ChatGPT.
Haz clic en tu nombre en la esquina inferior izquierda.
Haz clic en "Configuración y Beta".
Haz clic en "Controles de datos".
Desactiva "Historial de chat y entrenamiento".
ChatGPT creará automáticamente un nuevo chat.
Ahora puedes chatear sin entrenar el modelo y tus indicaciones no se guardarán en la barra lateral del historial de la izquierda.
✕
Accede a tu cuenta para comentar