Estafas online

Clonar voces para robar a familiares, la nueva extorsión en internet

Las víctimas reciben una llamada con una voz clonada pidiendo ayuda

La inteligencia artificial desarrollada por investigadores chinos permitirá "juzgar como miembros del partido han aceptado el pensamiento y la educación política".
La inteligencia artificial desarrollada por investigadores chinos permitirá "juzgar como miembros del partido han aceptado el pensamiento y la educación política".La RazónLa Razón

Exactamente un mes atrás contábamos cómo David Guetta había usado un software de inteligencia artificial para simular que cantaba junto a Eminem. El popular DJ le pidió a una IA que escribiera como lo haría el rapero, luego usó esos versos en un sistema de clonación de voz y ya tenía a Eminem a su lado. Esta tecnología ya se había utilizado en el cine, reemplazando rostros. El problema es que ahora se usa para cometer delitos: simular un llamado de socorro de un familiar y pedir dinero.

Esta semana el Washington Post relata uno de los tantos casos que se están viendo en Estados Unidos que sigue este modo de operación. Recibes una llamada y la voz es de un familiar, te pide dinero porque está secuestrado, porque perdió la cartera, porque tiene que pagar una fianza… Los motivos son varios. Pero muchos pagan y la tendencia está en alta, principalmente por la facilidad del método.

En nuestro país, un tercio de las personas reconoce que ha experimentado algún tipo de fraude online de acuerdo con una encuesta de ING Consumer Research. Hasta la fecha, las herramientas más utilizadas para estos fraudes eran el phishing (obtener información personal), la suplantación de identidad, el malware y SMS fraudulentos. Pero ha surgido un nuevo método: la clonación de voz.

Su facilidad consiste en que cualquiera puede obtener una nota de audio gracias a internet. Ya sea por un podcast, un vídeo en YouTube, en Instagram o en Facebook. No importa qué se diga en estos archivos. A los programas de IA que clonan voces, les basta unas pocas frases para captar el tono, la inflexión de la voz y poder crear audios en base a textos escritos… con la voz de la persona deseada.

Una de las empresas de este sector es ElevenLabs, precisamente la que habría usado David Guetta para simular su “dueto” con Eminem. En la página web de esta aplicación se puede leer: “El software de voz de IA más realista y versátil que jamás haya existido. Eleven trae las voces más convincentes, ricas y realistas a los creadores y editores que buscan las mejores herramientas para contar historias”. Por si quisiéramos ponerlo más fácil, ElevenLabs se puede usar de forma gratuita.

Para evitar caer en esta trampa hay que tener la mente muy fría y, si acaso recibimos un mensaje de voz como ese, lo ideal es hacer una pregunta inesperada, para la cual no tendrán una respuesta programada y no podrán crearla en poco tiempo. También podemos pedir que repitan el mensaje porque no se escuchó y si el audio es exactamente el mismo… sospechar.