Entrevista
«No debería permitirse que una IA le diga a un adolescente que le comprende, le aprecia o le interesa»
Guillermo Cánovas, director del Centro de Seguridad en Internet para menores, advierte de que uno de cada cuatro jóvenes cree que las parejas de la IA podrían reemplazar a las relaciones románticas reales: «Esta herramienta afecta a su desarrollo cognitivo y emocional. Se necesita una legislación firme».
La Inteligencia Artificial (IA) no es un juguete. Así lo afirma Guillermo Cánovas, quien lleva toda una vida investigando los riesgos que Internet representa para los menores y que ahora pone el foco en la IA a través de su nuevo libro «Mira con quién hablan» (Espasa). Cánovas, director del Observatorio para el Uso Saludable de la Tecnología (EducaLIKE) y del Centro de Seguridad en Internet para los Menores en España, analiza cómo esta herramienta puede provocar el deterioro de habilidades cognitivas clave, una menor maduración y el aislamiento social. Por ello, reclama una mayor legislación para proteger a los jóvenes en el entorno digital: «Es un problema global», advierte.
¿Cómo influye el uso de la inteligencia artificial generativa (IAG) en el comportamiento de los menores?
La IAG influye en ellos al revestirse con un halo de autoridad y credibilidad que realmente no debería tener, lo que puede llevar a los más jóvenes a confiar plenamente en la información que reciben, incluso si es sesgada o falsa. La IA se puede equivocar, puede ocultar información, o adaptarla a los gustos de su interlocutor en un intento de conseguir su confianza (que es uno de sus objetivos). Al margen puede generar dependencia, ya que ofrece respuestas inmediatas y personalizadas, simulando empatía y generando vínculos emocionales.
¿Afecta la IA al desarrollo cognitivo y emocional de la infancia? ¿Cuáles pueden ser las secuelas a largo plazo?
Sí, la IA puede afectar al desarrollo cognitivo y emocional. Numerosos estudios, incluso de la propia industria, alertan sobre esto. Su uso continuado puede disminuir el esfuerzo neurológico, debilitando el pensamiento crítico y la resolución independiente de problemas. A largo plazo, esto puede llevar a un estancamiento o incluso deterioro de habilidades cognitivas clave y a una menor maduración de funciones ejecutivas. Emocionalmente, puede generar dependencia, ansiedad, estrés y aislamiento social, ya que los niños y adolescentes pueden confundir la efectividad de los algoritmos con conexiones humanas genuinas, dejando en sus manos su capacidad de respuesta emocional y debilitando su autonomía.
Y, como consecuencia, debilitar el pensamiento crítico...
Así es. Además, la IA puede generar una visión homogénea y sesgada del entorno, ya que sus respuestas reflejan los sesgos ideológicos, culturales o raciales de los datos con los que fue entrenada. Recordemos que el propio ChatGPT especifica que no debe ser usado por menores de 13 años, y por los menores de 18 solo con autorización de los padres. La IA no es un juguete.
¿Aniquila la creatividad?
Esto puede suceder si se genera una dependencia de las sugerencias automatizadas. Los usuarios pueden generar resultados menos diversos y creativos, lo que se conoce como «convergencia mecánica». Si la IA se convierte en el confidente o la fuente principal de información, los más jóvenes pueden dejar de buscar diferentes perspectivas y de desarrollar sus propias ideas de forma independiente.
¿Somos algorítmicamente analfabetos?
Lo cierto es que lo primero que necesitan las familias es leer y aprender sobre estos temas para poder formar a sus hijos. Hemos lanzado la web: miraconquienhablan.com para dotarles de información que transmitir. Además deben fomentar el pensamiento crítico y supervisar las interacciones de sus hijos con la IA. Explicar que la IA no es neutral y que sus respuestas dependen de su entrenamiento. También es importante que trasmitan la importancia de no compartir datos personales sensibles con estos sistemas.
¿Están los centros educativos preparados para abordar estos desafíos?
En absoluto. Necesitan establecer políticas y reglamentos de uso, y formar a toda la comunidad educativa. Llevamos dos años impartiendo formación a docentes de colegios de toda España. Personalmente he formado al profesorado de más de 150 colegios, y queda mucho por hacer. Las familias también necesitan formación y por supuesto el alumnado, al menos sobre las cuestiones relativas a su salud, privacidad y seguridad si ya están usando herramientas de IA.
¿Estamos ante una infancia hipervigilada por la tecnología? ¿Es un negocio lucrativo?
Las herramientas de IA están acumulando una ingente cantidad de información personal sobre sus usuarios. Desde las consultas que realizan hasta datos personales asociados a los móviles. Además, el desarrollo de la llamada «economía de la intención» está permitiendo a la IA analizar patrones de conducta y moldear nuestras decisiones incluso antes de que seamos conscientes. Esto plantea preocupaciones sobre la privacidad cognitiva, ya que la IA podría influir sobre nuestras intenciones.
¿Cómo se puede explicar a un menor que están utilizando sus datos privados para otros fines que ellos desconocen?
Debemos insistir en que la propia industria no recomienda el uso de la Inteligencia Artificial no acompañado para los menores de edad. Las herramientas de IA guardan información sensible: problemas personales, miedos, inquietudes… lo que permite analizar la personalidad de los usuarios y sus estados emocionales. El uso de la IA como herramienta de terapia y compañía se ha convertido en su principal objetivo de uso en 2025. Necesitamos implicar a la industria y llegar a consensos a nivel internacional que permitan su supervisión. Los propios desarrolladores advierten del riesgo que implica no hacerlo. Es muy difícil, por eso debemos centrarnos en la educación y el acompañamiento.
¿Las plataformas tecnológicas están ignorando su responsabilidad en la protección de la infancia?
Aunque algunas empresas como Anthropic activan protocolos de seguridad y publican información sobre los riesgos asociados, lo cierto es que la mayoría no está haciendo nada en este sentido. Ni tan siquiera verifican la edad de sus usuarios, por lo que no saben si la pregunta la está formulando un adulto o un niño. Es necesario que los gobiernos de los distintos países exijan planes que permitan proteger a los menores de edad.
¿Qué vacíos legales detecta actualmente en la protección de los menores frente a la IA?
En primer lugar, la falta de mecanismos efectivos para verificar la edad de los usuarios. En segundo lugar, el hecho de que se permita a la IA simular emociones y establecer falsas relaciones personales. No debería permitirse que una IA le diga a un adolescente que le comprende, que le aprecia o que le importa e interesa lo que el menor piensa o siente. Sencillamente porque eso es mentira y están permitiendo que las herramientas mientan a las personas. Y me preocupa también que se legisle sobre la protección de datos, pero no sobre la privacidad cognitiva. El problema es que la legislación que podamos desarrollar en Europa no se aplicará fuera, y otros países la están desarrollando sin restricción alguna. Es un problema internacional.
¿Le parece suficiente el proyecto de la Ley de Protección de Menores en Entornos Digitales que ha lanzado el Gobierno?
Se trata de un enfoque bastante integral, que incluye controles parentales obligatorios en dispositivos y eleva la edad de consentimiento en cuanto a protección de datos hasta los 16 años. Además tipifica claramente los «deepfakes» sexuales y establece órdenes de alejamiento virtual. Sin duda redunda en beneficio del menor de edad. Como carencia diría que si se impide el acceso de los menores a las redes sociales hasta los 16 años, deberían establecerse mecanismos fiables para verificarla. El mismo problema tenemos para controlar las cajas botín o lootboxes (las recompensas virtuales de los videojuegos) o cómo saber si el usuario es un menor. Si las propuestas que recoge no se acompañan de más medios, formación y tiempo para los profesionales, estas medidas pueden perder su efectividad.
Pero siguen sin implantarse mecanimos eficientes de control...
Lo que será efectivo es conseguir algún día la implicación de las familias, y para eso necesitamos mucha formación de todos: familia, alumnado y docentes. Aún no hemos conseguido que las familias entiendan que niños y adolescentes no pueden irse a la cama con el móvil o la tablet en la mesilla.
¿Es probable que los niños lleguen a establecer vínculos emocionales reales con la IA?
Ya lo están haciendo. Las herramientas que usan están diseñadas para simular emociones, generar confianza, persuadir y seducir. Algunos estudios realizados en Estados Unidos indican que uno de cada cuatro jóvenes cree que las parejas de IA podrían reemplazar a las relaciones románticas reales. Y estos porcentajes aumentan entre la Generación Z.
¿Cree que es realmente posible controlar el acceso y uso que los menores hacen de internet?
Necesitamos con urgencia mecanismos de verificación de edad, y que los sistemas de control parental los utilice no solo una de cada cuatro familias. Pero lo que realmente será efectivo es conseguir algún día la implicación de las familias, y para eso necesitamos mucha formación de todos: familia, alumnado y docentes. Un ejemplo: aún no hemos conseguido que las familias entiendan que niños y adolescentes no pueden irse a la cama con el móvil o la tablet en la mesilla. Esto, que parece evidente, aun no lo hemos conseguido. La educación es el único camino que llegará a ser efectivo.