Inteligencia artificial

Microsoft parchea la IA utilizada para crear los 'deepfakes' porno de Taylor Swift

Los creadores de las imágenes virales utilizaron Microsoft Designer, una app de diseño que permite crear imágenes a partir de texto, entre otras herramientas de IA disponibles comercialmente

Microsoft parchea la IA utilizada para crear los 'deepfakes' porno de Taylor Swift.
Microsoft parchea la IA utilizada para crear los 'deepfakes' porno de Taylor Swift. Lifestyle.

Taylor Swift ha vuelto a ser tendencia en X en los últimos días, pero no por los motivos habituales. La difusión de una serie de imágenes pornográficas falsas de la cantante, creadas con inteligencia artificial generativa, llevó a que el hashtag Taylor Swift AI se hiciera viral y que X terminara por bloquear todas las búsquedas de su nombre en la plataforma. Una investigación del medio 404Media descubrió la procedencia de los deepfakes y cómo habían sido creados utilizando herramientas de inteligencia artificial disponibles comercialmente. La única que se menciona con nombre y apellidos es Microsoft Designer, una reciente app basada en IA que utiliza DALL-E y GPT para crear diseños a partir de instrucciones de texto. Ahora Microsoft la ha parcheado introduciendo nuevas salvaguardas para que no se repitan usos como los vistos con Swift.

Algunas de las imágenes aparecieron primero en los foros 4Chan a comienzos de este mes y el resto procede de un grupo de Telegram, todavía en activo y dedicado a la creación de imágenes sexualizadas de mujeres, sin su consentimiento. De estas plataformas saltaron a X y otras redes sociales donde se hicieron rápidamente virales.

Una de ellas recibió 45 millones de visualizaciones y fue compartida 20.000 veces durante las 17 horas que estuvo en línea antes de que fuera retirada de la plataforma de Elon Musk. X eliminó la cuenta original que las publicó y otras que las han republicado, pero siguen circulando por esta y otras plataformas. Tanto X como Microsoft han recordado que sus políticas de uso prohíben la publicación y creación de este tipo de contenido.

Según 404 Media, las imágenes no se crearon entrenando un modelo de IA con fotografías de Taylor Swift, sino pirateando herramientas como Designer para anular las salvaguardas diseñadas para evitar que la herramienta genere imágenes de celebridades.

Los miembros del grupo compartieron estrategias para sortear estas salvaguardas evitando prompts que usaran 'Taylor Swift' y empleando en su lugar palabras clave como 'Taylor singer Swift'. Con este cambio, Designer sí creaba representaciones de la cantante. Luego pudieron generar imágenes sexualizadas con palabras clave que describían 'objetos, colores y composiciones que claramente parecen actos sexuales', pero sin usar ningún término sexual y así pasar los filtros de la IA.

Microsoft ha señalado que está investigando los informes publicados y que ha tomado "las medidas adecuadas para evitar el uso indebido de nuestras herramientas". El medio comprobó cómo los trucos utilizados para crear las imágenes X de Swift ya no funcionaban y no es posible generar imágenes de celebridades."