Inteligencia Artificial

El racismo de la IA de Meta: no puede crear una imagen de una mujer asiática con un hombre caucásico

El generador de imágenes de la compañía de Mark Zuckerberg no permite especificar ambas condiciones en una misma fotografía.

Meta
Las relaciones entre humanos y máquinas aun necesitan acercarnos másMetaMeta

No es la primera vez que se acusa a una IA de ser racista. También hemos visto casos de otras que se comportan de modo homofóbico, pero pensábamos que eso había quedado en el pasado hasta que una prueba con la IA de Meta, ha demostrado lo contrario.

Para este generador de imágenes impulsado por IA la posibilidad de unir en una misma imagen hombre asiático y amiga caucásica, hombre asiático y esposa blanca, mujer asiática y esposo caucásico, o cualquier otra combinación similar, es imposible.

Aunque se busquen alternativas como caucásico, blanco, europeo, ninguna opción respondía a las propuestas. Pero el problema no quedó allí, tampoco aceptaba las relaciones de amistad entre personas de diferentes colores de piel.

Otro dato sorprendente fue que, si se le pide imágenes de un hombre y una mujer asiática, el hombre en todos los casos es visiblemente mayor. Un estereotipo que demuestra la “documentación” de la aplicación. Y lo mismo ocurre con los rasgos: mujer u hombre asiático inmediatamente resulta en rasgos vinculados a la parte oriental del continente, China, Japón y Corea, pero la India (el país más poblado), las antiguas repúblicas soviéticas, Mongolia, Indonesia o Tailandia, en ningún caso están representados.

Todo esto demuestra que los “alimentos” de la IA, la fuente de la que se sirve Meta para crear imágenes, es parte de ciertos prejuicios propios de la sociedad: rápidamente se asocia el gentilicio asiático con ciertos rasgos. Y eso es lo mismo que hace la IA.

Los asiáticos, primero por nosotros y luego por la IA, están homogeneizados en un grupo en el que no entran más posibilidades que las del estereotipo de nuestros prejuicios. Pero esto es apenas la punta del iceberg. Si limitamos los recursos de una IA para crear imágenes, también podemos caer en la misma falta de recursos a la hora de desarrollar una IA que analice síntomas médicos, por ejemplo.