Caso Almendralejo

La ley, la llave no usada para proteger a los menores de las imágenes «fake»

Acusar a la tecnología, cuando se pueden utilizar distintos tipos de software, es inútil: más normas y mejor educación escolar

Denuncian en Alcalá dos fotos de niñas 'desnudadas' con Inteligencia Artificial, cuyo autor está identificado
Denunciadas en Alcalá (Madrid) dos fotos de niñas "desnudadas" con Inteligencia Artificial, cuyo autor fue identificadoEuropa Press

Apenas dos días después de que conociéramos la noticia de la difusión de fotografías falsas de niñas desnudas manipuladas por inteligencia artificial en Almendralejo, la policía dio cuenta de otro caso similar en Ayamonte (Huelva). En esta ocasión, un menor de 14 años había utilizado una herramienta más rudimentaria (el editor de imágenes Photoshop) para simular el cuerpo desnudo de otras víctimas también menores.

La coincidencia de estos dos sucesos es una ocasión ideal para situar el foco donde verdaderamente nunca debió de dejarse de situar ante una de las polémicas más comentadas de la semana. Tenemos un problema social de envergadura creciente, un problema quizás aún no calibrado con nuestros hijos, un problema que corre como la pólvora por las redes sociales. Pero el problema no es la tecnología. En menos de una semana en dos rincones diferentes del país dos grupos de jóvenes han empleado dos tecnologías muy distintas para cometer el mismo presunto delito. Da igual que en Almendralejo el arma fuera una app que se distribuye por Telegram y que usa rudimentos de inteligencia artificial (algunos expertos consideran que ni siquiera puede llamarse inteligencia artificial a tal tecnología), que en Ayamonte la herramienta sea un software semiprofesional muy conocido en el diseño gráfico o que hubieran utilizado un collage de fotografías cortadas a tijera y pegadas con pegamento. Si estamos enfermos de algo, no es de inteligencia artificial. Los niños implicados decidieron utilizar una herramienta a su disposición para sexualizar a menores compañeras de sexo femenino. Podrían haber cometido cualquier otro delito, haber hecho una broma o haber empleado también cuerpos de sus compañeros del mismo sexo. Pero no, el problema no fue la tecnología empleada, el problema fue la profunda crisis de valores, la hipersexualización de la infancia, el déficit de educación en igualdad… con inteligencia artificial o sin ella.

Al menos esa es la tesis de muchos expertos consultados en los últimos días al calor de los acontecimientos. La más sonora de las voces, por razones obvias, es la de la doctora Mirian Al Adib, ginecóloga, divulgadora de educación sexual y madre de dos de las niñas víctimas en Almendralejo. La doctora Al Adib ha alertado desde hace tiempo de la hipersexualización de la infancia. “Las niñas de hoy -dice- no juegan con muñecas, juegan a hacer twerking en TikTok”.

Los delitos contra la intimidad, el honor y el buen nombre de las personas (en concreto de las mujeres) han existido desde mucho antes de la llegada de las tecnologías de inteligencia artificial de fácil acceso. Desde hace décadas circulan por las redes montajes más o menos burdos con los rostros de celebridades (casi siempre mujeres) insertados en cuerpos desnudos o en explícitos actos sexuales. Es el llamado Porno Fake.

Pero desde 2017, a este ataque se le sumó el uso de la inteligencia artificial que permite representaciones más realistas y más accesibles incluso en imágenes de vídeo. Se conoce a esta técnica como Deep Fake. Más del 90 por 100 de los Deep Fake que circulan por las redes son pornográficos según un informe de la empresa Sensity AI.

Rebecca Delfino, es profesora de derecho digital en la Universidad de Loyola (Estados Unidos) y se ha dedicado a estudiar el fenómeno del Deep Fake. “La práctica es claramente invasiva, abusiva y dañina. Es una suerte de violencia sexual”, dice.

¿Pero es fácilmente perseguible por la ley?

Por desgracia, no. En la mayoría de los países, existe, según Delfino, una ausencia de legislación específica que convierte este ataque en prácticamente impune. “No puedes poner una canción en tu canal de Youtube sin respetar los derechos de autor, no puedes reproducir un fragmento de película en un podcast sin permiso, pero si usas la cara de una actriz famosa y la pegas al cuerpo de una mujer practicando sexo, es posible que no te pueda demandar”.

Al menos en algunos lugares, porque ciertas legislaciones están empezando a poner coto a esta práctica. En Estados Unidos, no existe una legislación federal al respecto, pero algunos estados han diseñado canales legales para la regulación. Se trata de acudir a los llamados “Celebrity rigths” que otorgan a las personas famosas el derecho a controlar el uso que se hace de su imagen para cualquier fin. Esta legislación protege a las personalidades más reconocidas. Para ciudadanas anónimas, la vía más recurrente es interponer una demanda por vulneración de las leyes de protección de datos. Una vía bastante indirecta y muy poco conectada con el auténtico calado de la agresión: la violencia sexual.

La Unión Europea también carece de una legislación específica en la materia. Es verdad que tanto el Parlamento como la Comisión llevan alertando desde 2021 de la dificultad de detectar contenidos falsos de esta naturaleza y la necesidad de regular su uso. De hecho, la Eurocámara ha aprobado este año empezar a negociar el contenido de una Ley de Inteligencia Artificial que limite el uso de esta tecnología y sus posibles efectos dañinos o delictivos. La ley se prevé que entre en vigor en 2026 por lo que aún no sabemos qué protección otorgará contra los casos de las niñas como las de Almendralejo o las mujeres famosas víctimas del porno Deep Fake.

En España sigue existiendo un debate sobre si estos ataques pueden ser castigados bajo la legislación actúa de protección del honor y la intimidad. Las leyes consideran una intromisión ilegítima en la intimidad “la captación, reproducción o publicación por fotografía, filme, o cualquier otro procedimiento, de la imagen de una persona en lugares o momentos de su vida privada o fuera de ellos”. El problema es que estos productos tecnológicos son una reproducción falsa de esa persona, y no una captación de su imagen real. La ley no contempló en los años 80 una amenaza como la de las nuevas tecnologías.

A la espera de reformas legislativas, estas prácticas parece que pueden atajarse más fácilmente mediante el recurso a la vulneración de la protección de datos personales que mediante denuncias de carácter penal. De hecho, en la reciente Ley de Servicios Digitales, en vigor en Europa desde este año, ni siquiera se contempla que las empresas proveedoras de servicios digitales estén obligadas a retirar contenidos para adultos que hayan sido denunciados por no contar con el consentimiento de quienes aparecen en ellos.

Una vez más, se reconoce que la vía para atajar este creciente problema debe ser la educación en valores desde la más tierna infancia. Ni la limitación de la tecnología ni las leyes han encontrado aún la solución.