Inteligencia artificial

Las IAs pueden poner en peligro tu privacidad: estas son las maneras en las que lo hacen

Más allá de las facilidades que promete la IA, expertos alertan sobre cómo estas tecnologías pueden inferir datos, actuar de forma autónoma y combinar informació de maneras que comprometen nuestra intimidad

Inteligencia Artificial
Inteligencia ArtificialDreamstime

Las advertencias sobre los riesgos asociados con la IA se han multiplicado en los últimos meses, y es que desde organismos de protección de datos hasta instituciones académicas, muchos coinciden en que el avance acelerado de los modelos de lenguaje está superando la capacidad de los usuarios, y en ocasiones de los propios desarrolladores, para comprender cómo se gestiona la información personal, de manera que la preocupación ya no se limita a lo que estas herramientas pueden aprender, sino a lo que pueden deducir, almacenar y hacer de manera autónoma.

En este contexto, un nuevo estudio de la Universidad Northeastern vuelve a encender las alarmas, subrayando que las amenazas para la privacidad van mucho más allá de lo que se había considerado hasta ahora, pues según la investigación, publicada por Tech Xplore, los grandes modelos de lenguaje como ChatGPT, Gemini o Claude no solo retienen datos utilizados durante su entrenamiento, sino que también muestran una preocupante capacidad para explotarlos y combinarlos sin que exista un control claro sobre los límites de esa información.

El asunto es que parte del problema radica en la llamada memorización: fragmentos de datos personales que los modelos integran en sus redes neuronales y que, una vez incorporados, resultan casi imposibles de eliminar por completo causando que, incluso si una persona solicita que su información sea retirada de las bases de datos, el sistema podría seguir conservando trazas integradas en su estructura.

Habrían al menos otras cuatro amenazas

Adicionalmente, se suma un problema cotidiano: el consentimiento desinformado, ya que la mayoría de los usuarios acepta políticas de privacidad demasiado extensas o ambiguas, que permiten a las empresas almacenar conversaciones, metadatos y otros detalles incluso después de seleccionar opciones de exclusión. En la práctica, esto deja a las personas sin un control real sobre qué se guarda, durante cuánto tiempo y con qué fines.

Lo anterior se vuelve aún más preocupante cuando los modelos se integran en herramientas que actúan de forma autónoma, como asistentes capaces de gestionar correos, acceder a archivos o interactuar con servicios online, ya que estas acciones pueden exponer información sensible sin que el usuario sea consciente del riesgo o pueda supervisarlo adecuadamente.

Además, a ello se añade la capacidad de inferencia profunda, un rasgo cada vez más sofisticado de la IA, que se ve en que los modelos actuales pueden deducir información personal que nunca fue proporcionada explícitamente, combinando pistas mínimas, patrones visuales, textos o metadatos. Una simple foto o publicación en redes sociales podría revelar la ubicación, hábitos o características personales de alguien sin necesidad de acceder a datos directos, lo que podría incluso resultar en una forma de vigilancia digital pasiva.

Finalmente, la facilidad con la que la IA puede rastrear, agregar y correlacionar información pública está transformando lo que antes era una tarea exclusiva de expertos en ciberseguridad en una práctica al alcance de cualquier usuario, puesto que esta capacidad de agregación permite reconstruir perfiles completos a partir de fragmentos dispersos, lo que aumenta los riesgos de acoso digital, suplantación de identidad o doxing.

Ante este panorama, los investigadores advierten que muchos de estos riesgos ya forman parte inevitable del ecosistema digital actual, no solo porque los modelos sean cada vez más poderosos, sino porque la conducta en línea de los propios usuarios alimenta continuamente el ciclo de exposición de datos. Aun así, confían en que una mayor consciencia pública puede impulsar decisiones más informadas y políticas más claras. La privacidad, concluyen, no depende únicamente de la tecnología, sino de entender cómo interactuamos con ella.