Inteligencia artificial

¿Puede ser machista un algoritmo?

Los algoritmos de inteligencia artificial acarrean dilemas éticos que la ciencia no puede resolver sola.

Renderizado fotográfico de un hombre negro, joven, de pie con el cielo azul y algunas nubesde fondo, visto a través de una red de cuadros cristalinos y con un diagrama de red neuronal superpuesto.
La inteligencia artificial ha llegado para quedarse.Alan Warburton, BBC, Better Images of AICreative Commons

En 2019 se descubrió que la política de publicidad de Facebook contravenía la constitución estadounidense. Permitía que se eligiera el tipo de público en función de categorías que la ley protege, como el género, la raza o la religión. Las ofertas de trabajo para puestos de enfermería o secretaría se mostraban sobre todo a mujeres, mientras que aquellas para conducir taxis o camiones les aparecían más a los hombres.

Peor aún, esta distinción se daba, a veces, incluso sin que las empresas anunciantes lo quisieran. La organización sin ánimo de lucro AlgorithmWatch decidió experimentar y promovió un anuncio en Facebook ofertando puestos de conducción de camiones, cuidado de niños o peluquería. No eligieron ningún tipo de segmentación salvo el área geográfica, que era obligatoria. Pero el algoritmo de inteligencia artificial decidió por su cuenta: la oferta para conducción de camiones se mostró a 4 864 hombres y a 386 mujeres, mientras que el puesto de cuidado de niños se mostró a 6 456 mujeres y a 258 hombres.

Está claro que es útil mostrar ciertos anuncios a las personas a quienes más puedan interesar. Permite a las empresas orientar mejor el gasto en publicidad, y ofrece una mejor experiencia a las personas usuarias. Pero, como se vio en el caso de Facebook, una diferenciación tan drástica puede ser discriminatoria: si estas ofertas de trabajo solo se anunciaran en Facebook, dejarían a los hombres sin apenas posibilidades de solicitar un puesto en cuidado de niños y a las mujeres casi sin poder trabajar en la conducción de camiones.

Basado en datos reales

¿Por qué ocurren estos desequilibrios? Para decidir a qué perfiles se muestra cada anuncio, Facebook utiliza un algoritmo de inteligencia artificial. Al algoritmo se le facilitan datos reales de los tipos de perfiles que se interesan por diferentes tipos de anuncio, de forma que aprende a predecir estos patrones y muestra cada anuncio a los perfiles que más probabilidad tienen de hacer clic en él.

Puesto que las ofertas de trabajo para conducir un camión suelen interesar más a hombres que a mujeres, el algoritmo aprende a mostrárselas preferentemente a ellos. Con el cuidado de niños ocurre a la inversa. Es decir, en los datos de los que aprende el algoritmo ya se establece una asociación entre conducir camiones y ser hombre, y entre cuidar niños y ser mujer.

“No es culpa de la tecnología, la tecnología está condicionada por los seres humanos igual que otras cosas. La construimos nosotros con nuestros sesgos”, expone Lucía Ortiz de Zárate, investigadora en ética y gobernanza en inteligencia artificial en la Universidad Autónoma de Madrid. Y, precisamente por eso, también está en nuestras manos compensar esos sesgos.

Sesgar lo sesgado

Una solución fácil para el caso de Facebook sería impedir que el algoritmo tuviera en cuenta el género de las personas (o su raza, religión, etc.) para decidir si mostrarles un anuncio o no. De esta forma, en teoría, las ofertas de trabajo llegarían siempre a un grupo heterogéneo en cuanto a las categorías protegidas por la ley.

Pero, en la práctica, esta estrategia no funciona. Nuestros perfiles de Facebook contienen muchísima información sobre nosotros. Tanta, que su algoritmo puede identificar nuestro género, raza, etc. con una fiabilidad sorprendentemente alta. “La máquina encuentra patrones que nosotros no somos capaces de diferenciar”, destaca Ortiz de Zárate. Por eso, aunque se impida que estas características se utilicen de manera explícita para decidir qué publicidad mostrarnos, se puede seguir generando la misma discriminación.

Para evitarla, se puede optar por seleccionar un conjunto de datos más equilibrado donde tanto hombres como mujeres se interesen por cualquier anuncio en igual medida. Juan Carlos Muñoz, creador del podcast La Habitación Crítica sobre el impacto social de la inteligencia artificial, advierte: “La calidad de los datos es la parte más crucial”.

Sin embargo, también se puede intervenir en el algoritmo directamente. Si se incluyen instrucciones expresas, es posible mitigar las diferencias de género que se puedan encontrar en los datos. “Es como poner un sesgo a lo que está sesgado” para que se compensen uno al otro, explica Ortiz de Zárate.

Pero los problemas no están solo en los datos y en los algoritmos. También ocurren en el propio soporte físico de la inteligencia artificial, como puedan ser los robots o los asistentes de voz como Siri o Alexa. “Pensemos cuántos robots de asistencia vemos que no sean mujeres blancas y delgadas”, reflexiona Ortiz de Zárate, y cuestiona: “¿Por qué, en lo que queremos que sea nuestro progreso, seguimos perpetuando estos estereotipos?”.

Una razón puede ser que los robots que construimos son un ingenuo reflejo de la realidad que acostumbramos a ver. También es cierto que vende más lo que nos resulta familiar, de modo que romper estereotipos puede tener un coste que no todas las empresas están dispuestas a asumir.

Sin embargo, esta inercia crea un círculo vicioso que no ayudará a tener datos menos sesgados. “A mí me preocupa especialmente”, admite Ortiz de Zárate, que cree se debería prestar más atención a los soportes físicos que elegimos para nuestros algoritmos.

Deber moral

En cualquier caso, la inteligencia artificial está aquí para quedarse y, por fortuna, los dilemas éticos que genera se abren un hueco cada vez mayor en el debate público. Aunque Muñoz y Ortiz de Zárate coinciden en que hay un cierto desconocimiento entre la ciudadanía sobre esta nueva tecnología, las autoridades, al menos en Europa, legislan para protegernos de los posibles daños.

De hecho, actualmente, la inteligencia artificial “solo es legal en asistencia”, según explica Ortiz de Zárate, al menos para aspectos tan determinantes como diagnóstico médico o evaluación de candidaturas para puestos de trabajo. “La última decisión importante siempre la va a tomar una persona”, resalta.

Pero algunas empresas también son conscientes de la desconfianza que pueden generar sus sistemas de inteligencia artificial. Muñoz enfatiza que las compañías tienen un “deber moral” sobre los algoritmos que crean: “si desarrollas un sistema de inteligencia artificial, no puedes desentenderte de las aplicaciones” que le dé el mercado, comenta.

El caso de los anuncios en Facebook muestra claramente que esta máxima no siempre se cumple. Sin embargo, como expone Muñoz, las empresas con mayor conciencia social sí se preocupan de las consecuencias de sus algoritmos incluso antes de implementarlos.

Cada vez son más las empresas que incorporan profesionales de filosofía y ética “que, desde el inicio del diseño, analicen los dilemas éticos y sociales que esa tecnología puede tener asociados”, explica. Son, sin duda, desafíos complejos que requerirán un enfoque interdisciplinar: para afrontar las consecuencias de la inteligencia artificial, necesitamos trascender la propia ciencia.

QUE NO TE LA CUELEN:

  • Las cuestiones éticas que plantea la inteligencia artificial también están en las imágenes que elegimos para representarla. Tanto en los medios como en los archivos gráficos se asocia la inteligencia de las máquinas con la humana, y se muestran robots incluso al hablar de aplicaciones donde no se utilizan. Sin embargo, un exceso de robots esconde la responsabilidad de las personas humanas que desarrollan estas tecnologías, además de que pueden reforzar ciertos estereotipos sobre raza, género o religión. Además, la asociación entre la inteligencia de un algoritmo y la nuestra puede inflar las expectativas sobre la inteligencia artificial. Es lo que concluye la organización sin ánimo de lucro Better Images of AI, que propone imágenes alternativas como la que ilustra este artículo.
  • No todos los algoritmos son de inteligencia artificial: un algoritmo es, simplemente, una serie de instrucciones que le damos a un ordenador. Es más, los algoritmos que no son de inteligencia artificial también pueden fallar e incluso ser discriminatorios. Al igual que los criterios de selección para un puesto de trabajo o para recibir una ayuda social pueden discriminar a ciertos grupos de personas, un algoritmo que aplique esos criterios de manera automática, sin necesidad de inteligencia artificial, también discriminará.

REFERENCIAS (MLA):