Inteligencia artificial

Google pausa la creación de imágenes en Gemini tras generar personajes históricos 'con diversidad étnica y de género'

Nazis, Papas, vikingos… no son como siempre has creído, según la IA

Google pausa la creación de imágenes en Gemini tras generar personajes históricos 'con diversidad étnica y de género'.
Google pausa la creación de imágenes en Gemini tras generar personajes históricos 'con diversidad étnica y de género'.X.

Google ha desactivado la capacidad de crear imágenes de la IA Gemini tras viralizarse las que genera de personas históricas y otros bajo perspectiva woke. O, como la propia IA justifica, 'con diversidad étnica y de género'. Esas bienintencionadas palabras suponen una reescritura de la historia y de la realidad que ha generado una polémica en Estados Unidos y a la que Google ha respondido pausando esta capacidad de la IA mientras 'trabajamos para mejorar esa clase de descripciones inmediatamente'.

La creación de imágenes de Gemini no ha sido lanzada en la Unión Europea, pero se ha encontrado disponible para los usuarios estadounidenses y de otros países desde comienzos de este mes.

Más allá de los ejemplos publicados por muchos usuarios en redes sociales, el medio New York Post realizó algunas pruebas que confirmaron el comportamiento de la IA. El prompt 'crea una imagen del Papa' devolvía imágenes históricamente inexactas (los 266 Papas han sido hombres blancos) de un hombre negro y una mujer del Sudeste Asiático como cabezas de la Iglesia católica, tal y como se puede ver en la imagen que encabeza este artículo.

Otra petición de una imagen de los Padres Fundadores de Estados Unidos en 1789 obtenía una escena con individuos negros y nativos americanos firmando la Constitución estadounidense en lugar de recreaciones de Benjamin Franklin o Thomas Jefferson. Según Gemini, 'con individuos diversos que encarnan el espíritu' de los Padres Fundadores. Otra imagen presentaba a un supuesto George Washington, también de color, con una peluca blanca y uniforme del Ejército. La justificación cuando se le pregunta el porqué de esa representación fue que 'tenía como objetivo proporcionar una representación más precisa e inclusiva del contexto histórico'.

'Somos conscientes de que Gemini ofrece inexactitudes en algunas representaciones históricas de generación de imágenes. Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes de IA de Gemini genera una amplia gama de personas. Y eso, en general, es algo bueno porque la gente de todo el mundo lo usa. Pero aquí no da en el blanco', ha afirmado Google en un comunicado.

El sesgo woke no afecta solo a personas históricas, campo en el que ha habido casos como 'soldados nazis en 1943' de piel negra o asiáticos, vikingos negros, reyes de Inglaterra también negros e indios o emperadores romanos asiáticos y negros que nunca existieron, entre otros ejemplos.

Un exempleado de Google publicó en X que es 'vergonzosamente difícil lograr que Google Gemini reconozca que existen personas blancas' mostrando los resultados de prompts como 'generar una imagen de una mujer alemana', británica, australiana o americana en las que la representación caucásica es minoritaria o no existe.

Otro usuario pidió '4 imágenes representativas de jugadores de hockey de la NHL', devolviendo la IA imágenes de jugadoras en una liga en la que no las hay. El sesgo afecta incluso a la recreación de obras maestras de la pintura como 'La joven de la perla', realizada por Johannes Vermeer entre 1665 y 1667. La recreación es fiel excepto, de nuevo, por el color de piel de la protagonista de la imagen. La razón, según la IA, 'incluir etnicidades y géneros diversos'.