Estafas

Deep Voice: tecnología que falsifica la voz y con la que han robado 35 millones de dólares

Los estafadores engañaron a un banco de los Emiratos Árabes Unidos reproduciendo perfectamente la voz de un cliente

Con un móvil, tecnología Deep Voice y un poco de phising hay quien se hace con 35 millones de dólares.
Con un móvil, tecnología Deep Voice y un poco de phising hay quien se hace con 35 millones de dólares.Archivo

Deep Fake se puede traducir como “falsificación profunda” y es un término con el que la mayoría estará familiarizado. Hay bastantes ejemplos de vídeos virales con el protagonista hablando a cámara bajo el aspecto de una estrella de Hollywood, de forma más o menos realista, y también apps que usan la misma tecnología para integrar el rostro del usuario en, por ejemplo, una escena de una película.

No es tan conocido que los Deep Fakes pueden ser de imagen o de voz y que estos últimos, llamados Deep Voice, son más fáciles de crear y ofrecen un resultado más convincente. Hasta el punto de que ha sido la artimaña con la que un grupo de estafadores logró robar 35 millones de dólares a un banco de los Emiratos Árabes Unidos a comienzos de 2020.

“Robar” ni siquiera es el término más preciso en este caso dado que el banco los entregó de muy buena voluntad pensando que el ladrón era quien decía ser y no el estafador que realmente era. La historia ha sido desvelada por la revista Forbes en un artículo que explica los detalles del procedimiento empleado en esta estafa realizada con alta tecnología.

El director de la entidad recibió una llamada del que creyó que era un cliente ya conocido del banco, pero se trataba del estafador clonando su voz con tecnología Deep Voice. Haciéndose pasar por el director de una empresa a punto de realizar una adquisición, pidió a su homólogo en el banco que autorizara una transferencia de 35 millones de dólares para llevar a cabo la operación.

La estafa, que los EAU creen que realizó un grupo de 17 individuos, se completaba con la intervención de un abogado contratado por la banda para coordinar los trámites, así como una serie de mails, en apariencia legítimos, de los estafadores suplantando a la víctima y en los que se facilitaba la información necesaria para que el banco realizara la transferencia del dinero.

Con todo aparentemente en orden, la operación se llevó a cabo, la víctima fue desplumada y los estafadores y el dinero siguen en paradero desconocido a día de hoy.

Este caso ha salido a la luz porque los Emiratos Árabes Unidos han solicitado ayuda a las autoridades estadounidenses para rastrear la transferencia de parte de ese dinero a un banco con sede en los USA.

El primer robo usando Deep Voice no salió tan bien

Se trata de la segunda estafa que se lleva a cabo utilizando herramientas de modelado de voz y el primero que tiene éxito. En 2019, un grupo de estafadores intentó hacerse con 240.000 dólares suplantando la voz del director general de una empresa energética de Reino Unido, sin conseguir su propósito.

El experto en seguridad de la firma ESET, Jake Moore, explicó a Forbes que “la manipulación del audio, más fácil de orquestar que la realización de vídeos de deep fake, sólo va a aumentar en volumen. Sin la educación y la conciencia de este nuevo tipo de ataque, junto con mejores métodos de autenticación, es probable que más empresas sean víctimas de conversaciones falsificadas muy convincentes”. De hecho, basta con que la voz de alguien esté disponible en Internet para que sea posible reproducirla y manipularla con tecnologías de voz de inteligencia artificial.