Inteligencia artificial
Necesitamos entender los algoritmos que deciden sobre nuestras vidas
Desde la prosperidad económica a nuestra salud, el futuro estará determinado por modelos matemáticos que predecirán nuestras decisiones, pero un modelo mal construido podría ser catastrófico
Cuando una multinacional se planteó delegar su proceso de selección de personal a un algoritmo, se encontró con que el ordenador penalizaba explícitamente a las mujeres. Tener palabras como “mujer” o “femenino” en el currículum (por ejemplo, “capitana del equipo femenino de fútbol”) disminuía la puntuación de la candidata. La empresa declaró que nunca había llegado a utilizar el algoritmo para tomar decisiones de contratación.
Un algoritmo diferente concedió diez veces más crédito en su nueva tarjeta a un conocido ingeniero de software que a su mujer. Sin embargo, según una de las principales agencias de crédito estadounidenses, la calificación de crédito de ella era mejor que la de él. Nadie en la empresa que concedía las tarjetas supo explicar por qué el algoritmo había tomado esa decisión.
También hay algoritmos en el sistema penal. En Estados Unidos se utilizan para predecir el riesgo de reincidencia de las personas que cometen delitos. La eficacia global es moderada, pero los resultados dependen mucho de la raza. Hay el doble de falsos positivos entre las personas negras que entre las blancas. Es decir, una persona negra tiene el doble de riesgo de ser incorrectamente catalogada como potencial reincidente que una blanca.
Heredando sesgos
¿No son las máquinas las abanderadas de la objetividad? Nada más lejos de la realidad. Los algoritmos no son totalmente autónomos, sino que basan sus decisiones en los datos que se les proporcionan.
Si la multinacional había contratado principalmente a hombres en el pasado, el algoritmo aprendería a darles preferencia a ellos frente a ellas. Si las calificaciones de crédito eran mejores para los hombres que para las mujeres en la empresa de servicios financieros, el algoritmo asimilaría que ellas tienen derecho a menos crédito que ellos. Si entre las personas reincidentes detenidas hay más negras que blancas, el algoritmo prediría que las negras tienen más riesgo de reincidir.
Pero, si los algoritmos se siguen utilizando, es porque ofrecen grandes ventajas potenciales con respecto a los métodos tradicionales. La principal es la capacidad de procesamiento de grandísimas cantidades de datos. Por ejemplo, una empresa reclutando personal puede analizar muchos más currículums de manera automatizada que manual, y así abrirse a contratar personas más diversas.
Hacia decisiones más informadas
En medicina, los algoritmos podrían revolucionar los diagnósticos y tratamientos. A la hora de tomar una decisión, una persona puede tener en cuenta entre cinco y diez datos. Pero la historia clínica de una persona media a lo largo de su vida ocupa 300 millones de libros.
Un algoritmo bien diseñado puede tener en cuenta muchísima más información que una persona para predecir, por ejemplo, el riesgo de que surjan complicaciones después de una operación. Sin algoritmos, no sería posible la llamada Medicina P4: predictiva, preventiva, personalizada y participativa.
Si la obtención de un puesto de trabajo o de una tarjeta de crédito pueden ser factores muy trascendentes para la vida de una persona, el juicio de un algoritmo en materia de salud puede suponer la diferencia entre la vida y la muerte. Por eso es de máxima importancia que los algoritmos que se utilicen en medicina no caigan en fallos como los anteriores.
Para conseguirlo, un nuevo estudio plantea seis criterios que debe cumplir cualquier algoritmo en materia de salud. Con esta propuesta, el equipo, procedente de las Universidades de Florida, Virginia y Emory, en Estados Unidos, pretende establecer un marco para evaluar los algoritmos que ya existen, además de orientar el desarrollo de algoritmos futuros.
Seis criterios de calidad
Según el estudio, publicado en PLOS Digital Health, los algoritmos de salud tienen que ser explicables. Es decir, deben poder aclarar la importancia relativa de las diferentes características de un paciente y su estado de salud en los resultados del algoritmo, sin confundir asociación con causalidad. Además, deben ser dinámicos, de modo que ajusten sus predicciones a los cambios en el paciente en tiempo real. También tienen que ser precisos, aprovechando al máximo todos los datos disponibles sobre cada paciente.
El cuarto criterio para los algoritmos es que sean autónomos, es decir, que necesiten poca intervención humana en el aprendizaje, y ninguna en la ejecución. Además, deben ser justos, evaluando y mitigando los sesgos implícitos y las desigualdades sociales. Por último, los algoritmos deben ser reproducibles. Por tanto, requieren validación externa y se deben compartir con las comunidades académicas.
Además de lanzar esta propuesta de criterios, el estudio analiza los ocho algoritmos de salud más citados en la bibliografía académica para averiguar si los cumplen. Aunque todos estos algoritmos se consideran precisos, ninguno cumple todos los criterios de la lista. Es decir, hay amplio margen de mejora, sobre todo para hacerlos más autónomos, justos, explicables y reproducibles.
Aunque el estudio se ciñe al terreno de la salud, estos criterios bien podrían aplicarse a otros ámbitos. Ninguno de los tres algoritmos iniciales es justo, ya que discrimina a ciertos sectores de la población. Pero tampoco son explicables, ya que ni siquiera las empresas saben cómo llega el algoritmo a las decisiones que toma. Las empresas se han llegado a escudar en esta falta de transparencia para eludir responsabilidades, pero el nuevo estudio precisamente reclama que no es una excusa válida.
En plena cuarta revolución industrial, es esperable que cada vez más decisiones se deleguen a algoritmos. Los ordenadores nos ofrecen un gran potencial de tomar decisiones mucho más informadas de lo que seríamos capaces sin ellos. Pero solo anticipándonos a los riesgos que pueden conllevar sabremos usarlos para que realmente nos beneficien.
QUE NO TE LA CUELEN:
- Aunque los algoritmos a veces tienen sesgos importantes, sería utópico pedir que estuvieran totalmente libres de ellos. Como apunta este estudio, se trata de que tengan en cuenta las desigualdades sociales y mitiguen la discriminación. De la misma forma, no podemos exigir una eficacia del 100%, pero ya hay algoritmos que superan a las personas en eficacia para una determinada tarea y ahí radica su utilidad.
REFERENCIAS (MLA):
- Loftus, Tyler J. et al. “Ideal algorithms in healthcare: Explainable, dynamic, precise, autonomous, fair, and reproducible”. PLOS Digital Health, 2022. https://doi.org/10.1371/journal.pdig.0000006
- Caliskan, Aylin, et al. “Semantics Derived Automatically from Language Corpora Contain Human-like Biases”. Science, vol. 356, no. 6334, 2017, pp. 183–186.https://doi.org/10.1126/science.aal4230.
- Dastin, Jeffrey. “Amazon scraps secret AI recruiting tool that showed bias against women”. Reuters, 2018.https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G
- Angwin, Julia; Jeff Larson, Surya Mattu and Lauren Kirchner. “Machine Bias”. ProPublica, 2016.https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
- Patnaik, Subrat. “Apple co-founder says Apple Card algorithm gave wife lower credit limit”. Reuters, 2019.https://www.reuters.com/article/us-goldman-sachs-apple-idUSKBN1XL038
✕
Accede a tu cuenta para comentar