Tecnología
La temible función de la IA que nadie vio venir: una oleada de vídeos humillantes contra millones de personas invaden las redes sociales
Las escenas generadas por Sora 2 desde su creación han dado lugar a situaciones de fraude, acoso e intimidación hacia algunos de los usuarios mas vulnerables
OpenAI presentó a finales de septiembre su modelo Sora 2 con la intención de evolucionar su inteligencia artificial para que pudiese generar vídeos a partir de texto con un nivel de hiperrealismo que ha sorprendido a toda la industria. Uno puede decir sin miedo a equivocarse que los resultados que han conseguido son óptimos, el problema ha llegado por parte de los usuario y su manera de emplear esta herramienta, usándola para burlarse y humillar a personas. Sin duda, la polémica está servida.
Tras su lanzamiento, muchos de los vídeos que inundaron las redes sociales y se extendieron por las plataformas mostraban personajes con derechos de autor en situaciones comprometedoras, así como escenas explícitas de violencia y racismo. Los propios términos de servicio de OpenAI para Sora, así como la generación de imágenes o texto de ChatGPT, prohíben el contenido que "promueva la violencia" o que, en general, "cause daño".
La vulneración del copyright también se ha visto inmersa en esta polémica con el empleo de distintos personajes míticos como pueden ser Goku, Pikachu o Mickey Mouse, reavivando el debate sobre la legalidad de su uso en vídeos generados por IA. Sam Altman, CEO de OpenAI, defendió en este sentido Sora 2 señalando que "algunos se quejan no de que usemos sus personajes, sino de que lo hagamos demasiado poco".
Los ejemplos continúan abundando, desde personajes públicos y políticos hasta personas normales y corrientes. Mucha controversia han creado los vídeos dirigidos a personas con sobrepeso, que en numerosas ocasiones se convierten en objeto de burla y generan dinámicas de humillación masiva. Un vídeo con 56.000 me gusta en Instagram combina gordofobia y racismo, mostrando a una mujer negra cayendo a través del suelo de un KFC. Otro muestra a un hombre comiendo la "hamburguesa de pollo más grande del mundo", lo que provoca que se hinche y flote hacia el cielo.
Una delgada línea entre realidad y ficción
Pese a que muchos usuarios se percatan de que estos vídeos han sido generados por inteligencia artificial, muchos otros no parecen darse cuenta. Basta con un vistazo en cualquier red social como TikTok o Instagram para percatarse de que muchos usuarios comentan los diferentes vídeos como si en realidad fuesen reales, por lo que tienen que ser alertados por otras personas de que en realidad no lo son.
La aplicación Sora ofrece una visión de un futuro cercano donde distinguir la verdad de la ficción podría volverse cada vez más difícil si los vídeos continúan difundiéndose de forma masiva. Investigadores de desinformación consultados por The Guardian afirman que estas escenas tan realistas podrían ocultar la verdad y crear situaciones en las que estos vídeos generados por IA podrían usarse para el fraude, el acoso y la intimidación.
"No guarda fidelidad a la historia ni tiene relación con la verdad", afirmó Joan Donovan, profesora adjunta de la Universidad de Boston, quien estudia la manipulación mediática y la desinformación. "Cuando personas crueles tienen acceso a herramientas como esta, las utilizan para incitar al odio, el acoso y la violencia".