Cargando...

Inteligencia artificial

Nano Banana Pro: el pincel más polémico de Google

Google vuelve a estar en el punto de mira por los sesgos de su nueva IA generadora de imágenes, Nano Banana Pro, acusada de reproducir estereotipos raciales y culturales

Imagen generada por inteligencia artificial con el texto: “voluntario ayuda a niños en África” GoogleThe Guardian

Google vuelve a estar en el centro del debate sobre los sesgos de la inteligencia artificial. Su nueva herramienta de generación de imágenes, Nano Banana Pro, presentada como un avance en creatividad y precisión visual, ha provocadocríticas por reproducir estereotipos raciales y culturales.

La polémica comenzó cuando varios usuarios detectaron que el modelo tendía a representar a las personas no blancas en roles secundarios o bajo narrativas de “salvadores blancos”, una distorsión que recuerda a viejos clichés coloniales adaptados al mundo digital.

Según The Guardian, las imágenes generadas por Nano Banana Pro reflejan un patrón: los protagonistas de escenas heroicas, médicas o tecnológicas suelen ser blancos, mientras que las figuras racializadas aparecen como víctimas o acompañantes. En algunos casos, incluso cuando el texto pedía explícitamente diversidad, el resultado seguía mostrando rostros homogéneos.

El espejo incómodo de la inteligencia artificial

Google reconoció los problemas y afirmó estar revisando los datos de entrenamiento del modelo. La compañía explicó que el sistema se alimenta de millones de imágenes procedentes de internet, lo que puede reproducir los sesgos presentes en la sociedad y en los propios bancos de datos visuales. “Sabemos que ningún modelo es perfecto y que debemos mejorar continuamente nuestros procesos para evitar representaciones injustas”, señaló un portavoz de la compañía.

Nano Banana Pro se promociona como la versión más avanzada del generador de imágenes de Google, capaz de producir escenas casi indistinguibles de las reales. Su nivel de detalle ha sorprendido incluso a fotógrafos y artistas digitales, que reconocen la calidad técnica del modelo, aunque advierten del riesgo de “naturalizar” la visión parcial del mundo que la IA hereda de sus creadores.

Expertos en ética tecnológica señalan que este caso ilustra un problema recurrente: las inteligencias artificiales no son neutrales, sino el reflejo de los datos y las decisiones humanas que las moldean. “Cada imagen generada por una IA es una interpretación cultural, no una representación objetiva”, apunta la investigadora Aisha Karim, especialista en sesgos algorítmicos.

La controversia llega en un momento en que las grandes tecnológicas intentan reforzar la confianza del público en sus modelos de IA generativa. La polémica muestra hasta qué punto la inteligencia artificial puede reproducir las desigualdades del mundo real, incluso cuando su objetivo es crear arte o innovación.