Inteligencia Artificial
Los peligros de GhatGPT: Usan la IA para simular un secuestro
El hecho destaca nuevamente cuan lejos ha llegado esta tecnología y lo fácil que es abusar de ella.
A las advertencias de Elon Musk y la prohibición de usar ChatGPT en algunos países, ahora llega un nuevo capítulo. Y uno bastante desafortunado pero no del todo inesperado. Una mujer denunció ante la policía de Arizona que alguien había usado una inteligencia artificial para clonar la voz de su hija de 15 años y simular un secuestro con el fin de obtener un rescate.
Todo comenzó cuando la madre, Jennifer DeStefano, recibió una llamada de un número misterioso. “Cojo el teléfono y escucho la voz de mi hija, y dice: '¡Mamá!' y ella está sollozando – explicó DeStefano a la estación de noticias WKYT con sede en Arizona –. Le dije: '¿Qué pasó?' Y ella dijo: 'Mamá, me equivoqué', y ella estaba llorando”. Obviamente no es agradable en absoluto recibir este tipo de llamadas y nunca sabemos cómo vamos a reaccionar. De hecho ni siquiera entra entre las posibilidades pensar que se trata de un engaño.
Según la madre de la menor, a continuación escuchó la voz de un hombre que decía: "Echa la cabeza hacia atrás, acuéstate – y luego dirigiéndose a ella – , si llama a la policía la llenaré de drogas. Me saldré con la mía con ella y la dejaré en México”. Entonces le pidió un rescate inicial de un millón de dólares. Afortunadamente, el incidente terminó tan abruptamente como comenzó. No le tomó mucho a DeStefano confirmar que su hija estaba a salvo en su habitación y confundida. Pero ya deja claro que el uso de este tipo de tecnologías puede traer muchos e impensados problemas.
La tecnología que usaron los delincuentes para clonar la voz del adolescente fue extremadamente convincente. "Era su voz – añade DeStefano en la entrevista –. Era su inflexión al hablar, la forma de llorar. Nunca dudé ni por un segundo que era ella. Esa es la parte extraña que realmente me conmovió".
Desafortunadamente este es el primer caso, pero habrá más debido a la facilidad para hacer este tipo de delitos. Con algunos vídeos que cualquier persona suba a internet y estén accesibles para cualquiera, los estafadores pueden alimentar a una IA para que aprenda a hablar como esa persona. Cuantos más videos, más archivos de voz tengan, más convincente será el engaño. Si a eso le sumamos que en redes sociales es fácil descubrir dónde vivimos, quienes componen nuestra familia y otros detalles, la estafa está servida.
Para protegerse, el FBI, más precisamente el agente Dan Mayo que también participó, aconseja mantener lo más posible la privacidad en nuestras publicaciones en línea. Es necesario (intentar al menos) mantener la calma y preguntar cosas muy específicas que solamente esa persona pudiera saber (un medicamento inexistente, hablarle sobre un hermano, cuando solo tiene hermanas, etc.), todo lo que sirva para desenmascarar al estafador. El problema, de acuerdo con Mayo, es que este tipo de delitos está aumentando en frecuencia y a veces, los delincuentes se salen con la suya.
✕
Accede a tu cuenta para comentar