
Inteligencia Artificial
Crear imágenes con ChatGPT: estos son los riesgos de compartir tus fotos con la Inteligencia Artificial
Esta practica que se ha vuelto tendencia en las últimas semanas puede acarrear grandes peligros por los datos que ofreces

La Inteligencia Artificial lleva unos años siendo una gran fuente de información y de las tecnologías que más se prevé que se exploten en el futuro más próximo. Para quienes todavía no han utilizado alguna, se tratan de aplicaciones, máquinas o computadoras que pueden aprender, razonar y actuar de una manera similar a la inteligencia humana.
En este sentido, existen diversas plataformas de estas Inteligencias Artificiales que se utilizan día a día para encontrar, localizar y resumir contenidos de forma fácil y sencilla. Estas tecnologías se suelen basar en internet para la elaboración de las directrices que le pidas y en ocasiones te ofrece las referencias del sitio donde las ha encontrado.
En los últimos días se ha vuelto popular entre la población la creación de un estilo de imágenes a través de ChatGPT. Lo que hace la gente es subir una imagen a dicha aplicación y esta en base a las directrices que se le ofrecen crean un estilo de esa imagen. Cabe señalar que, aunque el estilo Ghibli es el que se ha viralizado en estos días, ChatGPT también permite recrear imágenes en otros como el de Los Simpson, South Park, Rick & Morty o Wallace y Gromit.
Protección de datos en ChatGPT
Al subir la imagen a la plataforma le estás dando el consentimiento para que tome la información necesaria para la elaboración de la imagen que deseas. Ahora bien, esta información podría quedar expuesta y por ende debemos tener mucho cuidado con lo que subimos.
Según la política de privacidad de OpenAI, empresa responsable de ChatGPT, lo que hace la plataforma es recopilar datos personales como el nombre, información de contacto, historial de operaciones e incluso el propio contenido que las personas carguen en el programa.
Con las imágenes, que es lo que se está volviendo tendencia en los últimos días los usuarios permiten a la empresa procesar toda la información y utilizarla en su beneficio para mejorar sus servicios o incluso entrenar modelos de IA.
De acuerdo con la Política de Privacidad que nadie nunca se lee, OpenAI puede utilizar los datos para fines comerciales o desarrollar nuevas funciones. Por otro lado, la empresa asegura que los datos no se almacenan de forma indefinida.
Además, es importante saber que en ocasiones las imágenes que subimos contienen metadatos ocultos y valioso como la fecha y hora e incluso la ubicación geográfica donde se realizó la imagen. Estos datos puede que el usuario no quiera compartirlos y son bastante importante para las empresas y sus fines comerciales.
Por último, muchas personas no son conscientes de las imágenes que suben a estas plataformas, ni las personas que se ven reflejadas y en ocasiones pueden aparecer menores de edad, cosa que es super peligroso y poco recomendable.
Peligros de ChatGPT
Las propias preguntas frecuentes sobre ChatGPT de OpenAI sugieren que no se comparta información sensible y advierten a los usuarios de que los avisos no se pueden eliminar.
Desde la empresa de seguridad welivesecurity ofrecen toda a información necesaria para utilizar con seguridad ChatGPT. Explican que "ChatGPT no tiene acceso directo a información personal y/o privada, pero recuerda aquella que le usuario proporcione durante las sesiones activas o incluso en forma posterior si el usuario así lo configura".
Aclaran que "Toda la información se encuentra sometida a rigurosas políticas de seguridad. Para los datos en reposo, utiliza cifrado AES-256, y para los datos en tránsito, emplea protocolos TLS 1.2 o superiores".
Pero claro, si alguien se hace con tus credenciales puede que haya problemas más graves. Esto se da porque puede acceder al historial de conversaciones y concer cualquier información que hayas compartido en la plataforma. "La gravedad del compromiso de una cuenta puede variar, en tanto son muchos los riesgos asociados. Por ejemplo, los datos obtenidos pueden ser utilizados para ataques de ingeniería social o suplantación de identidad".
¿Cómo proteger tu cuenta y reducir los riesgos?
Además de encontrar los peligros de la aplicación, welivesecurity ofrece una serie de consejos o pautas para garantizar tu seguridad en ChatGPT, muchas de ellas configurables dentro de la misma aplicación:
- Configuración de seguridad: En principio es recomendable utilizar contraseñas robusta para las cuentas y también activar el 2FA cuando estuviera disponible, con el objetivo de impedir accesos no autorizados. Es importante cambiar las contraseñas en forma periódica.
- Gestión de datos y consentimiento: Antes de compartir información en ChatGPT, se recomienda tomar conocimiento de las configuraciones de privacidad para comprender que datos se almacenan y como se usa y de tal manera prestar el consentimiento en forma informada.
- Revisar sesiones activas: ChatGPT permite revisar sesiones activas, cosa útil para detectar actividades inusuales.
- Medir las información compartida: Evitar compartir información sensible mediante los prompts (indicaciones), para el caso de evitar que si se accede en forma indebida a ChatGPT se pudiera acceder a estos datos.
- Revisión de términos y políticas: Es recomendable revisar constantemente los términos y políticas de la aplicación para conocer los cambios y nuevas opciones de seguridad.
- Uso de dispositivos seguros: Conviene acceder a ChatGPT únicamente desde dispositivos protegidos con soluciones de seguridad como antimalware, también con sistemas operativos actualizados a últimas versiones para prevenir en lo posible la explotación de vulnerabilidades que pudieran abrir una posibilidad de acceso a ChatGPT.
- Cierre de sesión en dispositivos compartidos: Si se usa ChatGPT en un dispositivo público o compartido, se recomienda cerrar sesión después de su uso.
- Reportar actividades sospechosas: En caso de detectar intentos de acceso no autorizados o actividades inusuales en la cuenta, se debe reportar a OpenAI.
✕
Accede a tu cuenta para comentar