Inteligencia artificial

Deep Fake o como una inocente imagen puede convertirse en un fraude

Se puede utilizar para engañar a instituciones, gobiernos, poblaciones

Inteligencia Artificial
Inteligencia ArtificialArchivoLa Razon

Una imagen, un vídeo o un audio subido a internet puede convertirse en la llave para llevar a cabo estafas con nuestra imagen. Es la "deep fake" o contenido falso (mensajes de voz, vídeos o fotografías) creado con inteligencia artificial a partir de esos archivos subidos a la Red. Una de las últimas víctimas de este fraude ha sido el conocido doctor Pedro Cavadas, cuya imagen ha aparecido promocionando una supuesta cremas milagrosas que tanto valen para las articulaciones como para la diabetes o la sordera.

En este caso, el objetivo del montaje era claramente comercial, y coincide en el tiempo con un gran estafa de 24 millones de euros que ha tenido lugar en Hong Kong. Un empleado de una compañía de esta región fue engañado en una reunión en la que se limitó a ejecutar las órdenes de sus superiores: transferir la cantidad citada. El engaño se basó en la cúpula ejecutiva con la que estaba reunido on line: sólo uno de ellos era real. El resto habían sido creados mediante la técnica de "deep fake".

Esta suplantación de identidad es posible, explica desde Predictland AI Andrés Visús, gracias a que la Inteligencia Artificial es capaz de recrear una imagen de una persona o de cualquier objeto aprendiendo de cientos, de miles de imágenes de esa cara u objeto. Para ello utiliza lo que se denomina redes neuronales generativas antagónicas, GANs, algoritmos que son capaces de aprender de los patrones que encuentra en las imágenes, para luego reproducirlos creando nuevas de ese objeto, rostro o imagen.

El Deep Fake, añade el director de operaciones de esta compañía pionera en la introducción de la Inteligencia Artificial en España, tiene un gran recorrido en relación al fraude, puesto que se puede utilizar para engañar a instituciones, gobiernos, poblaciones y, por lo tanto, incidir en la geopolítica y causar conflictos internacionales.

En cuanto a las soluciones para poner freno a estos contenidos engañosos, también desde Predictland Javier Orús, se lamenta de que la legislación va más lenta que el desarrollo de la Inteligencia Artificial.

En este sentido, y aunque considera que la normativa europea en esta materia “va bien encaminada”, aboga por una regulación que se centre en el uso que se hace de las soluciones de Inteligencia Artificial y origen de los datos que ha utilizado.

Más allá de la cuestión legal, Orús aboga por una ética personal y empresarial de la Inteligencia Artificial, una realidad con más bondad que maldad, en tanto en cuento ofrece soluciones para los distintos sectores productivos en general y para la empresa en particular. Valgan como ejemplos, las aplicaciones y programas relacionaos con la salud y que ya tienen un gran impacto social.