Entrevista
Natzir Turrado, asesor SEO: "El sistema recuerda qué buscaste, qué elegiste e incluso por qué lo hiciste"
LA RAZÓN entrevista a Natzir Turrado especialista en SEO sobre cómo la IA utiliza nuestros datos

Hoy, La Razón tiene la suerte de contar con Natzir Turrado, consultor especializado en SEO y en inteligencia artificial, que nos hablará del papel de la IA en nuestra vida cotidiana, así como de cómo esta tecnología está transformando la forma en que trabajamos, nos comunicamos y tomamos decisiones.
Con más de 15 años de experiencia como profesional freelance colaborando con grandes marcas a nivel internacional, Turrado aportará su visión experta sobre los retos y peligros que plantea el avance de inteligencia artificial en el presente y en un futuro cercano.
"La mayoría de las personas no se dan cuenta de que están abriendo su vida a una entidad que puede utilizar esos datos posteriormente"
Pregunta (P): ¿Por qué consideras que la IA representa un cambio tan drástico frente a los navegadores tradicionales?
Respuesta (R): Antes, los navegadores clásicos se limitaban a mostrar información, sin interactuar directamente con ella. El problema es que ahora, con los navegadores que incorporan inteligencia artificial, como Atlas o Comet, estas herramientas interpretan, deciden y ejecutan acciones en nombre del usuario. Esto rompe el modelo de seguridad tradicional, ya que para estas herramientas el texto puede convertirse en código o en tareas ejecutables.
(P): ¿Qué tipo de información puede estar en riesgo cuando un usuario utiliza un navegador con IA?
(R): Absolutamente todas estas herramientas van más allá de lo que podían inferir los navegadores tradicionales sobre los gustos personales del usuario, del mismo modo que ocurría al navegar con Chrome, que en el fondo actúa como un panel de Google.
El problema con los nuevos navegadores es que funcionan con la sesión del usuario abierta, lo que les permite acceder a credenciales, conocer direcciones de correo electrónico e inferir con mucha más precisión los intereses del usuario que un buscador convencional. Ya no se trata de cookies, sino de contexto: el sistema recuerda qué buscaste, qué elegiste e incluso por qué lo hiciste.
Recientemente se ha observado que, por ejemplo, que Atlas (el nuevo buscador de open IA) almacena información sobre las páginas visitadas, incluyendo datos médicos o profesionales, algo que la empresa niega estar registrando. Sin embargo, se ha comprobado que es capaz de recordar este tipo de información.
(P): ¿Crees que los usuarios son conscientes de hasta qué punto estos sistemas acceden a sus datos personales?
(R): Para nada. Para la mayoría de las personas, la impresión es que están interactuando con un chatbot común y corriente, sin darse cuenta de que en realidad están abriendo su vida a una entidad que puede utilizar esos datos posteriormente. Ya no se trata simplemente de la facilidad con la que se puede extraer información: este proceso puede realizarse de forma extremadamente sencilla.
Por ejemplo, si se le pide a una inteligencia artificial que resuma el contenido de un correo electrónico, y en ese correo existe algún tipo de instrucción oculta, el sistema podría llegar a extraer contraseñas o acceder a mensajes privados. Del mismo modo, si se le solicita que resuma una página web, estos agentes (especialmente los de carácter nacional) pueden llegar a ejecutar las acciones que aparecen en ese contenido, ya que para ellos el texto puede interpretarse como un conjunto de instrucciones ejecutables.
En el momento en que se le pide a una IA que “resuma” o “analice” un documento, se abren posibles vectores de ataque. Muy pocas personas son realmente conscientes de la cantidad de información personal que está siendo filtrada. A menudo, la respuesta de muchos usuarios es: “yo no tengo nada que esconder”. Pero esto no se trata de ocultar información, sino de proteger la privacidad.
Incluso he hablado de este tema con mis propios padres, y al comprender el alcance del riesgo, decidieron no utilizar estas herramientas. Y, sinceramente, eso es lo que debería hacer todo el mundo hasta que existan capas de seguridad adecuadas.
(P):¿Qué le pasa a nuestra información exactamente una vez se la proporcionamos a la inteligencia artificial? , ¿Para qué se usa?
(R): En primera instancia, las plataformas lo utilizan para conocer las preferencias del usuario y personalizar pequeñas experiencias; esto es comparable al uso habitual de cookies para adaptar contenidos. El problema real es que esa información puede explotarse maliciosamente: un atacante puede robar y conservar datos personales con mucha facilidad.
Por ejemplo, si en una invitación de calendario se incluye un texto con instrucciones concretas, un agente automatizado podría interpretarlas y ejecutar acciones (organizar el día siguiente, acceder a enlaces, completar formularios, etc.). A través de esa vía se podrían llegar a filtrar credenciales o información sensible. Es sorprendente la amplitud de lo que puede hacerse con estos mecanismos y lo sencillo que resulta explotar esos vectores de ataque.
(P): ¿Qué tipo de consultas nunca deberíamos de hacerle a la IA?
(R): En realidad, cualquier acción puede implicar un riesgo. Utilizamos estas herramientas para organizar nuestro día o resumir contenidos, pero cuando se les da acceso a información personal, como por ejemplo, al pedirles que entren en Google Drive para analizar facturas, se cruza un umbral de riesgo muy elevado.
En general, navegar o realizar búsquedas simples podría considerarse relativamente seguro siempre que no haya ninguna sesión iniciada y se haga desde un equipo alternativo, sin cuentas personales abiertas. Ni siquiera las pestañas privadas ofrecen protección real cuando el usuario está identificado en algún servicio. Lo más recomendable sería utilizar estos sistemas sin iniciar sesión y desde un dispositivo independiente, que no esté vinculado al trabajo ni al banco, por ejemplo.
Cualquier solicitud que implique datos personales o información no destinada a ser pública no debería realizarse a través de una inteligencia artificial conectada a la nube.
Respecto a las medidas de protección, actualmente se están implementando algunos parches, pero se ha demostrado que todos los intentos de reforzar la seguridad han sido vulnerados. Los métodos clásicos, como los firewalls, los antivirus o incluso sistemas más avanzados como los EDR, no resultan eficaces en este contexto. La razón es que la ejecución ocurre directamente en la nube del proveedor, donde el usuario no tiene control directo.
Están surgiendo lo que se denominan parches semánticos: mecanismos que intentan detectar si el modelo está siendo manipulado, por ejemplo, al leer un correo electrónico con instrucciones engañosas. Sin embargo, estos sistemas siguen siendo vulnerables, porque los modelos de lenguaje no poseen razonamiento ni sentido común: para ellos, cada palabra puede interpretarse como una orden.
Así como se desarrollan medidas defensivas, también surgen contramedidas. Los atacantes están aprendiendo a engañar a los modelos mediante el propio lenguaje natural.
A día de hoy no existen medidas de seguridad plenamente eficaces, y el problema de fondo es la falta de una separación estricta entre la entrada del usuario y el contexto externo que maneja el sistema.
(P): ¿Qué crees que deberían hacer los gobiernos e incluso las propias empresas respecto a la regulación de la inteligencia artificial?
(R): La regulación actual, especialmente la europea, ha establecido bastantes barreras y limitaciones iniciales, lo cual es positivo como punto de partida. Sin embargo, más allá de las normas, la mejor forma de protegerse frente a los riesgos de la inteligencia artificial es entender cómo funciona. Esto no va de tener miedo, sino de comprender la tecnología.
Por eso, considero fundamental que existan programas de formación desde edades tempranas. De hecho, tuve la oportunidad de visitar mi antigua escuela para explicar a los niños cómo funcionan estas herramientas, y se sorprendieron mucho al descubrir tanto las cosas maravillosas que se pueden hacer con ellas como los riesgos que implican.
La clave está en educar a la población y a las empresas en materia de seguridad digital, ayudándoles a entender que la inteligencia artificial puede convertirse en un vector de ataque directo contra los datos personales y corporativos.
En definitiva, más allá de la regulación, la formación y la concienciación son las herramientas más poderosas para convivir de forma segura con la inteligencia artificial.