Ciencias humanas

La inteligencia artificial sabe si eres gay (y se comporta con los prejuicios humanos)

Un error de base en los datos, un fallo en la lógica de programación o un cambio deliberado por parte de un programador podrían hacer que la tecnología reprodujera exactamente las mismas discriminaciones que sufrimos los humanos.

Alan Turing, el genio informático condenado por ser homosexual
Alan Turing, el genio informático condenado por ser homosexuallarazon

Un error de base en los datos, un fallo en la lógica de programación o un cambio deliberado por parte de un programador podrían hacer que la tecnología reprodujera exactamente las mismas discriminaciones que sufrimos los humanos.

Puede que los seres humanos seamos injustos por naturaleza. Homofobia, xenofobia, machismo, discriminación racial, inequidad salarial... Mucho nos tememos que son comportamientos fieramente humanos, difícilmente encontrables en otras especies animales. Se ha escrito y estudiado mucho al respecto. Las raíces biológicas y neurológicas de la discriminación, la base científica de la solidaridad o la insolidaridad en nuestra especie siguen siendo motivo de debate e investigación. Hasta tal punto que un estudio de la Universidad de Stanford llegó a la conclusión de que la intelegencia artificial sabe si eres gay o heterosexual con tan solo mirar una imagen.

Pero a este escenario natural, se ha incorporado una herramienta que puede venir a resolver el problema. Si las decisiones humanas están transitadas por la inevitable tendencia al prejuicio, ¿podrán los robots ayudarnos a ser más justos? Con el imparable aumento del uso de la inteligencia artificial podríamos estar ante un posible nuevo panorama sin injusticias. Las decisiones, las relaciones, los contratos, los intercambios, las selecciones... podrían tener lugar en un aséptico y objetivo panorama. Los algoritmos no mienten, los algoritmos no entienden de colores de piel, identidades sexuales, religión o condición social. Un mundo cada vez más regido por transacciones automáticas, robotizadas, basadas en la inteligencia artificial debería ser un mundo más justo.

Algunas proyecciones sobre el desarrollo futuro de la robótica predicen que para el año 2050 el 40 por 100 de la decisiones judiciales serán firmadas por programas de inteligencia artificial. A la hora de dirimir si se ha incumplido un contrato, por ejemplo, un robot podría ser más sabio que un humano. Si todos los datos relativos al contrato están digitalizados, si las transacciones que se derivan de él están realizadas digitalmente y la identidad de los firmantes está certificada, no sería necesario un juez humano para hacer seguimiento de su cumplimiento.

Recientemente, otro estudio ha demostrado que un programa de inteligencia artificial sería dos veces más eficaz que un humano a la hora de diagnosticar un cáncer de piel mediante el escaneo de imágenes de tejidos de diferentes pacientes. Parece que no cabe lugar a la duda, al cansancio o al prejuicio.

¿O quizás sí? Esta misma semana, la revista «New Scientist» acaba de alertar de que quizás las cosas no sean tan sencillas como parecen. Los aparatos que toman decisiones basadas en algoritmos matemáticos, la inteligencia artificial y los programas de «machine learning» también podrían estar sometidos al prejuicio y la discriminación. Pero, ¿cómo? La respuesta breve es ésta: todos estos programas dependen de los datos con los que se los alimenta. Un error de base en esos datos, un fallo en la lógica de programación o simplemente un sesgo deliberado por parte de un programador prejuicioso podrían hacer que los programas de inteligencia artificial reprodujeran exactamente los mismos prejuicios y discriminaciones que sufrimos los humanos. O quizás que creen unos prejuicios nuevos. Es más: sería probable que ya lo estén haciendo.

Algunos casos han sido muy notorios. Hace unos años, Google tuvo que pedir perdón públicamente por los errores cometidos por un programa de reconocimiento de imágenes creado por la compañía. En más de una ocasión, las fotos de personas de raza negra fueron etiquetadas como fotos de gorilas. Qué triste paradoja que la inteligencia artificial reprodujera con tanto realismo la identificación tópica del más rancio racismo.

La policía de Oakland descubrió por sorpresa que un sofisticado programa de predicción del crimen (basado supuestamente en el historial delictivo, la condición social, el arraigo o la drogadicción de las personas fichadas) tendía a pensar que las personas de raza negra eran más peligrosas.

La publicación «Harvard Business Review» ha alertado recientemente de que algunos programas de ordenador usados para seleccionar personal entre bases de datos de miles de candidatos, tienden a discriminar a personas con discapacidades.

Se mire como se mire, la inteligencia artificial parece no ser objetiva. Los pequeños o grandes sesgos en los programas de algoritmos (conscientemente introducidos por los humanos que los diseñan o simples errores involuntarios de cálculo) están produciendo una legión de robots racistas, xenófobos, homófobos, injustos...

Y el problema no es menor porque cada vez más actos civiles dependen de estos programas.

Las compañías de seguros ya predicen el riesgo de una póliza mediante esta inteligencia. No es difícil imaginar un futuro en el que millones de ciudadanos de los que no se tienen datos suficientes tengan cada vez más dificultades para acceder a un seguro.

Una docena de bancos europeos usan minería de datos para valorar el riesgo de morosidad de un cliente. La mayoría de estos sistemas se basan en el registro histórico de operaciones. Pero no sería descabellado pensar que pudieran introducirse otros valores a juzgar como la raza o la pertenencia a un determinado colectivo.

El abanico de posibilidades es inmenso. Las máquinas pronto decidirán todo tipo de cosas: a quién se le sirve una copa en el bar, a quién se le da prioridad para un trasplante, a quién se salva antes en caso de accidente que requiera un rescate, a quién se le concede una beca, a quién se mete en la cárcel, a quién se le diagnostica un cáncer... ¿Estamos seguros de que esas decisiones serán más justas por el hecho de ser realizadas por robots?

El ejército de Estados Unidos ya trabaja en robots que pueden acompañar a los soldados humanos en el campo de batalla y que pueden decidir a quién disparan (por tratarse de un enemigo) y a quién no. ¿Creemos que los aparatos producirán un menor número de bajas colaterales, de muertos por fuego amigo?

El fundador del Foro Económico Mundial, Klaus Schawb ha puesto recientemente el dedo en la llaga. «Las empresas deben comprometerse a crear un futuro en el que quepamos todos, en el que las personas sean lo primero y en el que cualquier tecnología novedosa esté creada solo por y para el servicio de la igualdad entre los humanos». Visto lo visto, ese futuro no va a ser tan fácil de construir.

¿Podemos discriminar a un robot por su color?

Está demostrado que los programas de inteligencia artificial pueden ser racistas y que tienden a perpetuar sesgos de la mente humana. Pero, ¿podríamos los humanos discriminar a los robots por el color de su piel? Un informe elaborado por científicos de la Universidad de Canterbury demuestra que sí: también habría discriminación racial entre robots. El trabajo logró detectar que había una mayor tendencia a deshacerse de un robot doméstico si el aparato estaba fabricado con rasgos propios de raza negra que si lo estaba con rasgos de raza blanca o rasgos neutros. El robo-racismo podría ser un problema incipiente. De hecho todos los expertos en robótica reconocen que en el mundo de los droides no existe diversidad de imágenes.