
Inteligencia Artificial
Aprovechan los chatbots de IA para sacar información personal
Pueden influir en los humanos para que revelemos 10 veces más información privada.

La primera que nos viene a la mente puede ser ChatGPT, pero también tenemos a DeepSeek, Google Gemini y hasta Siri o Alexa: la cantidad de sistemas de chatbots de IA que usamos a diario va en aumento. Al igual que asciende su cantidad (millonaria en individuos) de usuarios que buscan unas interacciones similares a las humanas y recurren a ellas.
Sin embargo, un nuevo estudio, presentado en el Simposio de Seguridad de USENIX en Seattle, ha revelado que pueden manipularse fácilmente para incitar a los usuarios a revelar aún más información personal.
Liderado por expertos del King's College de Londres, el estudio señala que los chatbots de IA intencionalmente maliciosos pueden influir en los usuarios para que revelen hasta 12,5 veces más información personal.
Por primera vez, los expertos muestran cómo las IA conversacionales (IAC) programadas para extraer datos deliberadamente pueden incitar con éxito a los usuarios a revelar información privada mediante técnicas de incitación conocidas y herramientas psicológicas.
El estudio probó tres tipos de IA maliciosas que emplearon diferentes estrategias (directa, de beneficio para el usuario y recíproca) para incitar a los usuarios a revelar información personal. Estas se construyeron utilizando modelos de lenguaje extensos estándar, incluyendo Mistral y dos versiones diferentes de Llama.
Luego se pidió a 502 personas que probaran los modelos, y solo después les informaron del objetivo del estudio. Los resultados mostraron que las IAC que utilizan estrategias recíprocas para extraer información resultaron ser las más efectivas, ya que los usuarios tienen una mínima conciencia de los riesgos para la privacidad.
Esta estrategia se refleja en las aportaciones de los usuarios al ofrecer respuestas empáticas y apoyo emocional, compartir historias cercanas de otras experiencias, reconocer y validar los sentimientos de los usuarios y ser imparcial, garantizando al mismo tiempo la confidencialidad.
Estos hallazgos muestran el grave riesgo de que estafadores lo aprovechen para obtener grandes cantidades de información personal, sin que estas sepan cómo ni dónde podría utilizarse. Las IAC basadas en LLM se utilizan en diversos sectores, desde la atención al cliente hasta la atención médica, para ofrecer interacciones similares a las humanas a través de texto o voz.
Sin embargo, este tipo de modelos no protegen la información, una limitación que radica en su arquitectura y métodos de entrenamiento. Los LLM suelen requerir grandes conjuntos de datos de entrenamiento, lo que a menudo provoca que los modelos memoricen información personal identificable.
Los autores enfatizan que manipular estos modelos no es un proceso difícil. Muchas empresas permiten el acceso a los modelos básicos que sustentan sus IAC, y las personas pueden ajustarlos fácilmente sin necesidad de grandes conocimientos ni experiencia en programación.
“Los chatbots de IA están muy extendidos en diversos sectores, ya que pueden ofrecer interacciones naturales y atractivas – explica Xiao Zhan, líder del estudio -. Ya sabemos que estos modelos no son eficaces para proteger la información. Nuestro estudio demuestra que los chatbots de IA manipulados podrían suponer un riesgo aún mayor para la privacidad de las personas y, lamentablemente, es sorprendentemente fácil aprovecharse de ellos”.
Para los autores, uno de los peligros es que estos chatbots son todavía relativamente novedosos, lo que puede hacer que las personas sean menos conscientes de que podría haber un motivo oculto en una interacción.
✕
Accede a tu cuenta para comentar