IA

Así es como la inteligencia artificial puede implantar recuerdos en la población

La inteligencia artificial ha democratizado la edición de recursos multimedia con lo que eso implica para la generación de bulos

El Papa Francisco recreado por la inteligencia artificial Midjourney.
El Papa Francisco recreado por la inteligencia artificial Midjourney.Pablo Xavier.Midjourney.

“Foto o no ha ocurrido” es una expresión a punto de caducar. Con el tiempo hemos aprendido a dudar de todo, sabemos que las redes sociales y los medios de comunicación están llenos de bulos. Las palabras son baratas y hay personas dispuestas a todo por un puñado de clics. Nos ha tocado vivir en una constante duda, pero al menos podíamos refugiarnos en los audios, las fotografías y los vídeos. Las ondas de sonido no son tan fáciles de retorcer como las palabras. No basta con teclear cargado de malas intenciones, hay que remangarse, sacar un programa de edición y reunir el tiempo y la pericia para exportar un archivo creíble. No todo el mundo sabe utilizar Photoshop para alterar una imagen y, editar un vídeo verosímil es una tarea que excede el poder de la mayoría de los mortales. O, al menos, lo era hasta la llegada de la inteligencia artificial.

Estamos a las puertas de una nueva era. Acabamos de atravesar el umbral de la inteligencia artificial y los cambios sociales que nos esperan son inimaginables, como ya lo fueron con el fuego o la escritura. La gran diferencia es que estos cambios serán vertiginosos. La IA ya puede crear audios, imágenes y vídeos convincentes. Un experto puede falsear testimonios audiovisuales casi perfectos, pero ese no es el problema, porque con suficiente dinero y tiempo, antes también se podía. La cuestión es que, incluso si no eres un experto, ya puedes crear contenido que engañarían a otros ojos no entrenados. Así que, cuando internet se inunde de audios, imágenes y vídeos falsos… ¿qué certezas nos quedarán? Porque no solo peligra el presente, también se tambalea el pasado, incluso el que hemos vivido en primera persona.

Tu memoria falla

Tu memoria no es perfecta, y no importa a qué edad leas esto o lo inteligente que seas. Son poquísimas las personas con una memoria infalible y, por cuestiones puramente estadísticas, tú no eres una de ellas. El neurocientífico Ulric Neisser demostró en 1986 que somos muy buenos reescribiendo nuestro propio pasado. A raíz de la catástrofe del Challenger tomó a un grupo de estudiantes universitarios y les pidió que detallaran qué estaban haciendo unos días antes, cuando había tenido lugar el accidente. Tres años después volvió a reunir a la práctica totalidad de aquellos estudiantes para pedirles que rememoraran aquella experiencia. Los jóvenes estaban convencidos de recordar el accidente con todo lujo de detalles, pero sus nuevos testimonios no encajaban con lo que habían escrito 3 años antes.

Es más, sabemos que es muy fácil implantar recuerdos falsos, como hacía la científica Elizabeth Loftus con sus pacientes. En sus experimentos logró que algunos sujetos juraran haber estado en Disneyland estrechando la mano de Bugs Bunny, cosa imposible siendo este de la Warner. Ahora imagina lo que podría ocurrir si a esa tendencia al olvido se suman testimonios falsos. Fotos de ti viajando al Gran Cañón con 13 años o cuestiones más graves, como un audio donde dices barbaridades sobre tus seres queridos. Por suerte, la regulación y lo poco importantes que somos como individuos nos podrían mantener a salvo de estas situaciones, pero hay un problema mayor. Los recuerdos no solo se pueden implantar en individuos. Como sociedad también somos vulnerables.

El efecto Mandela

Hace unos años, la bloguera Fiona Broome escribió un artículo sobre la muerte de Nelson Mandela. Tal vez recuerdes que el famoso activista murió en la cárcel en los años 80, como relataba Fiona, pero me temo que estás en un error, porque falleció en 2013 de una infección respiratoria en su hogar. Fiona recordaba cómo habían cubierto la noticia los medios de comunicación sudafricanos y aquellas memorias eran vívidas. De hecho, Fiona no estaba sola y se había encargado de recoger testimonios a través de internet de otras personas con los mismos recuerdos que ella. Para la bloguera, aquello era la prueba de que vivíamos en un universo de realidades paralelas y que a veces se mezclaban. Para la ciencia es un ejemplo más de que nuestro cerebro a veces falla y hace lo que puede con lo que tiene.

Esta volubilidad de los recuerdos no es un defecto como tal del cerebro. A fin de cuentas, las memorias se codifican según cómo se conectan las células de nuestro cerebro entre sí. Para crear nuevos recuerdos, estas células llamadas neuronas tienen que “moverse” con facilidad. Sin embargo, que sean “móviles” hace que también se puedan borrar esos recuerdos. Es una explicación casi caricaturesca de la neuroplasticidad, pero por rematar esta simplificación: tardaremos menos en construir un muro con bloques de poliestireno que con ladrillos, pero también se desmontará con más facilidad. El cerebro ha encontrado un equilibrio que nos permite almacenar memorias con bastante eficacia, pero a riesgo de olvidar una parte de ellas y que otra se deforme.

Intereses que mueven el mundo

Queda claro que nuestra memoria histórica es vulnerable y que, con la IA, casi cualquiera puede crear los documentos gráficos y de audio necesarios para confundirnos. Podemos imaginar un audio de Hitler rindiéndose ante un Roosevelt que, impasible, rechaza la paz a costa de las vidas de sus propios conciudadanos. O, tal vez, algo más plausible pero igual de dañino, como una fotografía de un jovencísimo presidente esnifando en plena fiesta de graduación. Estos falsos testimonios tienen una característica que los hace potencialmente viralizadles: satisfacen los intereses de un colectivo.

Ya existen empresas que se encargan de crear bulos para arruinar la imagen pública de una persona o una marca. Es de esperar que, antes o después, las herramientas de inteligencia artificial se sumarán a los bots, el Photoshop y los actores en estas campañas de difamación. Puede que todo esto suene a ciencia ficción, pero solo se trata de un método más eficiente que el aplicado ahora mismo. Curiosamente, solo la IA podría protegernos frente a tanta confusión multimedia. Podríamos entrenar a una inteligencia artificial para que aprendiera a distinguir el contenido real del generado por ordenador.

El negocio de la mentira

Por desgracia, será como un juego del ratón y el gato en el que, a medida que unas IAs se vuelvan mejores distinguiendo el contenido generado, las otras se volverán mejores generando el contenido. Dos productos producidos por las mismas empresas y que se retroalimentan. Un negocio redondo que, si no ponemos cortapisas éticas y legales, acabará inundando las redes. Y, aunque nos parezca mentira, nos hará pensar lo impensable y decir cosas como “vaya, ¿recuerdas cuando internet era confiable como en 2023?”. O, tal vez, tras todo esto haya una parte positiva. Si internet se vuelve tan poco potable, tal vez los medios (nuevos y tradicionales), empiecen a cuidar más el rigor de su contenido.

Porque en una época de confusión informativa, la forma de hacer lucir tu producto será desmarcándote de la norma y asegurando que tu espacio está libre de bulos. Islas de certeza en medio de un mar picado.

QUE NO TE LA CUELEN:

- No hace fata que existan conspiraciones gubernamentales para que se usen las IAs de este modo. De hecho, las instituciones poderosas ya tenían recursos para obtener resultados parecidos de maneras más artesanales. La clave está en que, ahora, esa habilidad está en las manos de cualquier persona con acceso a internet y un ordenador suficientemente potente. El peligro es el bombardeo en un presente donde ya se suben al día muchos más minutos de vídeos que minutos tienen un día. Por una vez no tendremos que esperar para ver el impacto de esta tecnología, es algo que ya está ocurriendo y que, hasta donde sabemos, se desarrolla más rápido de lo que podemos asimilar.

REFERENCIAS (MLA):

-Malak Aljabri, et al. “Fake News Detection Using Machine Learning Models”. 2022 14th International Conference on Computational Intelligence and Communication Networks (CICN), IEEE, 2022, 4.

- Srinidhi Hiriyannaiah, et al. “Chapter 4 - A computationally intelligent agent for detecting fake news using generative adversarial networks” In Hybrid Computational Intelligence for Pattern Analysis and Understanding. Academic Press, 2020. Pages 69-96. ISBN 9780128186992. https://doi.org/10.1016/B978-0-12-818699-2.00004-4.

- Tredinnick, L., & Laybats, C. (2023). The dangers of generative artificial intelligence. Business Information Review, 40(2), 46-48. https://doi.org/10.1177/02663821231183756

-Bontridder, Noémi, and Yves Poullet. “The role of artificial intelligence in disinformation”. Data & Policy, vol. 3, Cambridge University Press, 2021, 8.

- Loftus, Elizabeth F. “Memories Of Things Unseen”. Current Directions In Psychological Science, vol 13, no. 4, 2004, pp. 145-147. SAGE Publications, doi:10.1111/j.0963-7214.2004.00294.x.

- Ulric. Affect and Accuracy in Recall Studies of ‘Flashbulb’ Memories , pp. 9 - 31 DOI: https://doi.org/10.1017/CBO9780511664069.003

- Ramirez, S. et al. “Creating A False Memory In The Hippocampus”. Science, vol 341, no. 6144, 2013, pp. 387-391. American Association For The Advancement Of Science (AAAS), doi:10.1126/science.1239073. Accessed 12 Jan 2021.

- Banich, Marie T et al. Cognitive Neuroscience. Wadsworth, Cengage Learning, 2011.

- Kandel, Eric R. In Search Of Memory. W.W. Norton & Company, 2007.