Pepe Bouza
«Deepfakes», el futuro de las «fake news» ya está aquí
Tras aprender a dudar de las «noticias» que leemos, ahora debemos sospechar de los vídeos que vemos.
Tras aprender a dudar de las «noticias» que leemos, ahora debemos sospechar de los vídeos que vemos.
En abril pasado, Obama dejó boquiabiertos a miles de internautas que le vieron llamando «gilipollas» a Trump en un vídeo. No era una «fake news» escrita, eran la imagen en movimiento y la voz del mismísimo ex presidente norteamericano. Tras frotarse los ojos, salieron de su asombro cuando el propio vídeo advertía de que era un montaje, obra del director y actor Jordan Peele, que ponía la boca y las palabras que Obama nunca dijo. Es un «deepfake». En este caso fue elaborado precisamente para alertar de sus riesgos, pero esta tecnología ya está al alcance de cualquiera con programas como Fakeapp.
«Deepfake» es un acrónimo de «deep learning» (el «aprendizaje profundo» de la inteligencia artificial), y «fake news», las noticias falsas sobradamente conocidas. Una combinación explosiva que ha dado como resultado la elaboración de vídeos hiperrealistas en los que se superpone una cara, sonido o escenario diferentes a un vídeo preexistente. Los montajes audiovisuales siempre han existido, pero lo que diferencia a los «deepfakes» es su credibilidad y que ya no hay que ser un experto montador para hacerlos. Además, la relativa facilidad de su realización actual crece exponencialmente a medida que la inteligencia artificial sigue avanzando en su aprendizaje profundo. Hasta las grandes plataformas tecnológicas tienen serias dificultades para identificarlos.
Todo eclosionó en 2017, cuando un usuario anónimo de Reddit (oportunamente llamado Deepfakes) publicó un vídeo porno aparentemente protagonizado por Daisey Ridley. No era ella. Emma Watson, Katy Perry, Taylor Swift o Scarlett Johansson también saben ya de qué va la cosa a su pesar.
Pero lo que parecía una jugarreta más de las que estamos (mal) acostumbrados en el ecosistema de internet, ha hecho saltar todas las alarmas ante su potencial como vehículo de desinformación masiva. Si ya es malo atacar la reputación de una actriz, da repelús pensar en las consecuencias de un «deepfake» de Trump anunciando solemnemente desde la Casa Blanca el bombardeo de una convención de fiscales. Un peligro que, cómo no, ya tiene nombre: «infocalypse» (infocalipsis).
Las empresas tecnológicas, presionadas por las acusaciones de facilitar la difusión de las «fake news», han empezado ya una carrera contrarreloj para dar con el algoritmo perfecto que permita identificar estos vídeos falsos y retirarlos de la circulación. TruePic, referente en la autenticación de fotografías, acaba de recibir una inyección de 8 millones de dólares para hacer lo propio con los «deepfakes».
EL JUEGO DISTÓPICO POST-BREXIT
«Persona de Origen Europeo nº 112: te damos la bienvenida al Bloque de Reubicación B, tu nuevo hogar. El papel que se te ha designado es “gorila de discoteca”. Trabaja duro, no te metas en líos y quizá te dejemos permanecer en el Reino Unido». Así se presenta «Not Tonight», un videojuego distópico en el que los europeos deberán luchar por sobrevivir en una Gran Bretaña post-brexit gobernada por la extrema derecha. Sobrevivir, o algo más: «¿Te unirás a la resistencia y lucharás contra el régimen? ¿O mantendrás la cabeza gacha esperando que algún día todo esto sea un recuerdo lejano?», reta este juego de rol desarrollado por el inglés Tim Constant, que lo considera «un reflejo de lo que sienten ya muchas personas en
Reino Unido».
LA PLAY LIST DE MAROON 5
1. «Eastside»
(Benny Blanco, Halsey).
2. «Natural»
(Imagine Dragons)
3. «Dear sense»
(Louis the Child, Max)
4. «Missing U.»
(Robyn)
5. «Girls like you»
(Maroon 5, Cardi B)
✕
Accede a tu cuenta para comentar