CHATGPT

¿Está ChatGPT filtrando contraseñas de conversaciones privadas de sus usuarios?

Chase Whiteside es un lector de un portal de noticias tecnológicas, que envió a la redacción, capturas que comprometen a la herramienta de inteligencia artificial.

ChatGPT ha filtrado el historial de conversaciones de varios usuarios.
ChatGPT ha filtrado el historial de conversaciones de varios usuarios.UnplashUnplash

ChatGPT está envuelto en una gran polémica luego de que un usuario denunciara que, supuestamente, la IA está filtrando información privada. Chase Whiteside es un lector de un portal de noticias tecnológicas, que envió a la redacción, capturas que comprometen a la herramienta de inteligencia artificial. En esas imágenes, es posible ver conversaciones de otros usuarios con datos de índole personal o reservada.

Una filtración que ha alertado a miles de usuarios

Whiteside dijo en su reporte del fallo que es un usuario cotidiano de OpenAI, realizando diariamente consultas sobre temas generales. De hecho, la noche anterior a su hallazgo preguntó a la IA sobre nombres de elementos de una paleta de colores. Lo que jamás esperó Chase es que la plataforma le mostraría fragmentos de diferentes conversaciones que al parecer son de otros usuarios.

Chase ha catalogado el suceso como algo “horrible”. Y es que, esto deja entrever que puede ser una de las tantas veces que ChatGPT mostraría información sensible a otras personas. Claramente, la preocupación viene dada por la exposición de datos como usuarios y contraseñas de diferentes aplicaciones web.

Información que puede comprometer la privacidad de muchos usuarios

Queda claro, que, aunque no se trate de conversaciones comprometedoras, simplemente no se debe filtrar el historial de ningún usuario sin su consentimiento. No obstante, lo que se ha filtrado en esta oportunidad sí contenía información que no debió mostrarse. En las capturas había, desde credenciales de usuario de una web de venta de medicamentos, hasta artículos científicos que no se han publicado.

Además, no fue solo una o dos, sino 7 conversaciones de varios usuarios. Así, donde se mostró nombres de usuarios y contraseñas era un chat de un desarrollador que consultó un código PHP para resolver errores de programación. Por otro lado, había otro tipo de conversaciones privadas que, a su parecer no provenían del mismo usuario. Toda esta situación desató la molestia de Chase, y ahora, de muchos otros usuarios.

¿Qué dice ChatGPT?

Fueron un total de siete capturas las que envió Chase Whiteside con conversaciones privadas no relacionadas con su cuenta. Para comprobar la veracidad de lo expuesto, el medio contactó a OpenAI para conocer sus impresiones al respecto. La empresa investigó lo sucedido y ofreció declaraciones: dijo que todo se debió a que “la cuenta de Chase se vio comprometida”.

Un representante de esa organización explicó que la cuenta del usuario fue usada desde Sri Lanka, y que dichas conversaciones se generaron desde ese país. Pero, Whiteside no está de acuerdo. No obstante, aprovechó para resaltar lo mal diseñado que está el chatbot al no ofrecer mecanismos de autenticación de identidades. Para entrar a esa plataforma, solo necesitas usuario y contraseña, y quizás resolver un puzzle, solamente.

Para muchas personas, estas declaraciones no son suficientes. La preocupación sobre la vulnerabilidad de sus cuentas creció con las palabras del representante de OpenAI. Por eso, es posible que algunos decidan abandonar la plataforma hasta que existan mejores métodos de seguridad. Pero, esta es apenas una especulación sobre el futuro del chatbot debido a esta crisis de reputación que vive actualmente.

Casi nadie está conforme con la explicación de OpenAI

Por el momento, la descripción de lo que supuestamente sucedió no ayuda a esclarecer la “denuncia” de Chase, sino que compromete también a la empresa. Saber que cualquier persona, en cualquier parte del mundo puede ingresar a una cuenta en simultáneo es grave. En este caso, Whiteside vive en Brooklyn, EE. UU, y la compañía dijo que otra persona entró a la cuenta desde Sri Lanka.

No obstante, por la naturaleza de las conversaciones se puede notar que no fueron hechas por una sola persona. Es decir, que, o entraron varios usuarios o la explicación de ChatGPT no es correcta. Ahora, la transparencia de esta compañía ha quedado en duda, lo que, posiblemente le pueda traer consecuencias incluso legales si alguien decide tomar acciones.

Cada vez más se hacen necesarias las regulaciones

Lo cierto es que, este hecho revela como las preocupaciones sobre los límites de la IA no son del todo ilógicas. Existe todo un debate que pronto se transformará en ley, cuando en 2026 entre en vigor el Reglamento europeo de la Inteligencia Artificial. Y, aunque un grupo de personas no están de acuerdo con un control excesivo de estás plataformas, sí que es necesario establecer limites.