
Tecnología
Vídeos racistas creados con la IA Veo 3 de Google arrasan en TikTok
Google ha anunciado esta semana la disponibilidad de Veo 3, que genera vídeo y audio sincronizados, en España

Veo 3, la última IA de Google para generar vídeo a partir de instrucciones de texto, fue lanzada el pasado mayo. Sorprendió por su realismo y, sobre todo, por incluir la generación del audio junto con la de imagen, lo que permitía crear un clip que en muchos casos puede pasar por real y no una creación IA. Lógicamente, todo tipo de usuarios se ha lanzado a crear todo tipo de contenido. Y, según un informe de Media Matters, los vídeos de contenido racista creados con Veo 3 están teniendo un éxito viral en TikTok.
La organización, dedicada a monitorizar la desinformación y los sesgos en los medios estadounidenses, señala que los vídeos no sobrepasan los 8 segundos o son una combinación de clips con esta duración, el límite de la duración de uno creado con Veo 3. Además, también puede verse la marca de agua de Veo, lo que confirma su procedencia.
Estos vídeos, uno de los cuales recibió 14,2 millones de visualizaciones, utilizan estereotipos racistas para atacar a las personas negras, principalmente, y también a inmigrantes y judíos. A las primeras, por ejemplo, se les representa como los ‘sospechosos habituales’ en delitos y como monos. Media Matters destaca que el problema no se circunscribe a los vídeos, sino que numerosos comentarios de otros usuarios en las publicaciones se adhieren a ese racismo. TikTok ha asegurado a The Verge que muchas de las cuentas que publicaron estos vídeos fueron eliminadas antes de la publicación del informe.
Los términos del servicio de ambas compañías prohíben este tipo de contenidos. TikTok, en particular, señala que ‘no permitimos discursos de odio, comportamientos odiosos ni la promoción de ideologías de odio. Esto incluye contenido explícito o implícito que ataque a un grupo protegido’. Sin embargo, reconoce al medio Ars Technica que, aunque utilizan tanto medios tecnológicos como moderadores humanos para identificar el contenido que infringe sus políticas, el volumen de vídeos que se publica es demasiado grande como para controlarlo de forma inmediata.
Google, como cualquier compañía de IA, presume de las salvaguardas con las que lanza sus productos para evitar usos contra sus políticas, pero estas no siempre son efectivas. Fue sonado el caso de Gemini cuando, en febrero de 2024, ganó la capacidad de generar imágenes con el modelo Imagen 2. Era tan, tan inclusivo que cometía errores garrafales como personajes históricos con razas y sexo cambiados. Google retiró esa capacidad de Gemini y no volvió a incluirla hasta septiembre con Imagen 3, ya sin estos problemas.
El problema de las salvaguardas es la ambigüedad con la que se puede usar el lenguaje y cómo detalles sutiles permiten conseguir un resultado que no está permitido. Por ejemplo, Veo 3 no entiende el contexto en el que se está usando la representación de monos y eso hace fácil eludirlas.
No es un problema único de TikTok y Google. Estos vídeos también se difunden en X e Instagram, aunque su repercusión es menor allí. Y ahora la herramienta preferida puede ser Veo 3, que está disponible en España desde ayer, pero no tardarán en llegar otras que generen imagen y audio sincronizados, quizás con mejores salvaguardas o peores, y también se viralicen. Google, en cualquier caso, no ha hecho ningún comentario sobre esta situación.
✕
Accede a tu cuenta para comentar