Coronavirus
Suena a ciencia ficción, pero es totalmente cierto. En un momento en el que se debate sobre qué grupos de población deben vacunarse antes que otros contra la COVID-19, ya se ha planteado esta disyuntiva: ¿existe un algoritmo encargado de determinar quién es merecedor de una dosis y quién no? La respuesta es sí, aunque hay que matizarla. El pasado 12 de diciembre, la Administración de Medicamentos y Alimentos de Estados Unidos (FDA, por sus siglas en inglés) aprobó de emergencia el uso de la fórmula de Pfizer-BioNTech. El número de casos estaba disparado en el país, por lo que no se podía perder más tiempo. Así que, al día siguiente, se puso en marcha el proceso. Lo curioso (y polémico) es que fue la inteligencia artificial la encargada de determinar sus destinatarios en el hospital Stanford Medicine (California).
El problema apareció cuando ésta excluyó de las primeras vacunas a los médicos residentes que se encuentran en contacto directo con afectados por el coronavirus para dar prioridad a aquellos profesionales que realizan otro tipo de tareas. ¿Por qué se determinó de esta forma? De las primeras 5.000 personas a las que se inoculó la sustancia, tan sólo siete tenían este rango. Una cifra que representa el 0,5% de la plantilla. A todo ello hay que sumarle que los jefes de área les pidieron que se ofrecieran como voluntarios para cubrir la Unidad de Cuidados Intensivos en previsión de un posible aumento masivo de contagios durante las fiestas navideñas. Por lo que las protestas no tardaron en producirse. Según los facultativos denunciantes, deberían ser ellos los primeros en inmunizarse por ser los encargados de tratar a los enfermos. Sin embargo, la explicación que les dieron echó más leña al fuego que otra cosa: al tratarse de gente más joven, con menos riesgo a padecer complicaciones severas y al no contar con una plaza fija en los centros de salud, el algoritmo no les dio prioridad.
“Vivimos rodeados de ellos: desde los que nos recomiendan qué video ver en YouTube hasta los que juegan con nosotros en la PlayStation 5”, señala Carlos Ramírez, programador y analista. “Hay que tener en cuenta que son creaciones humanas y que, como tal, pueden trasladar los sesgos ideológicos, políticos, culturales o históricos de quienes los idearon”. Aunque también se da el supuesto de sistemas justos que se vuelven injustos por el tratamiento que hacen de los datos que reciben. Ese sería el caso, por ejemplo, del chatbot de Microsoft que aprendió a escribir comentarios racistas. “En el ámbito sanitario, se suelen utilizar para clasificar a los pacientes que llegan a urgencias en función de su nivel de riesgo para evitar la saturación y conseguir una distribución equitativa de los recursos”, continúa Ramírez. “El gran hándicap que localizamos surge cuando se les introducen demasiadas variables: cuántas más tengan, más posibilidades de error existen”.
Así lo reflejó, en 2019, un estudio publicado en la revista Science: demostró cómo 10 algoritmos ampliamente utilizados en Estados Unidos para brindar asistencia terminaron favoreciendo a personas blancas sobre negras. ¿Qué sucedió? Que sus diseñadores asumieron que quienes gastaban más en estos servicios eran los que se encontraban más enfermos y los que necesitaban más ayuda. Y, por ende, los que gastan más también son más ricos y tienen más probabilidades de ser blancos. Como resultado, se asignó menos tratamiento a los sujetos negros con las mismas condiciones médicas que los blancos. “El objetivo es evitar este tipo de sesgos para que no se produzcan situaciones como la de Stanford”, concluye Ramírez.
Araceli, la primera española
“Los residentes estamos con los pacientes. A nosotros nos piden intubarlos in situ, pero algunos jefes que se comunican por videollamadas desde casa están siendo vacunados antes que nosotros”, declaró Sarah Johnson, obstetra de tercer año, al diario ProPublica. La profesional, que asistió partos en los que la madre era positiva en COVID-19, no fue seleccionada por el programa informático. Pero sí una de sus compañeras que realiza labores de administración y que, por tanto, presenta un riesgo de contagio menor. La experiencia de Nurial Moghavem, un sanitario de Neurología, no resulta menos llamativa. Este joven fue el primero en dar la voz de alarma sobre lo que estaba ocurriendo en este hospital. A los pocos días de conocerse la noticia, tuiteó que finalmente había recibido su dosis, aunque no en Stanford. Se la administraron en un hospital de Santa Clara. “Este centro sí cree que los residentes somos profesionales esenciales en la primera línea”.
Al respecto, la portavoz de Stanford Medicine, Lisa Kim, asumió la “responsabilidad total” de los errores que se habían cometido. “Nuestra intención era desarrollar un proceso ético y equitativo. Pedimos disculpas a toda nuestra comunidad, incluidos nuestros becarios y otros proveedores que han desempeñado su labor heroicamente durante la pandemia”, explicó a ProPublica, donde también anunció su intención de revisar el plan “de inmediato”. Este hecho ha abierto de nuevo el debate sobre los denominados algoritmos injustos. Ahora bien, ¿cómo se pueden controlar? Mientras que en Estados Unidos reina la opacidad sobre su uso y sus consecuencias, en España apenas se ha planteado una regulación al respecto. De hecho, en el caso concreto de nuestro país, aún se desconoce por qué se eligió a Araceli como la primera persona en recibir la vacuna.