EE.UU. trabaja en una inteligencia artificial que decida el triaje de víctimas en situaciones de emergencia

DARPA, la Agencia de Proyectos de Investigación Avanzada de Defensa de Estados Unidos, desarrolla un programa llamado In The Moment que consiste en una IA que tome las decisiones de triaje utilizando algoritmos y datos y eliminando los prejuicios humanos

El programa que está desarrollando DARPA para decidir el triaje en situaciones de emergencia finalizará en tres años y medio.
El programa que está desarrollando DARPA para decidir el triaje en situaciones de emergencia finalizará en tres años y medio. FOTO: La Razón (Custom Credit) Cortesía de DARPA.

Triaje es una palabra maldita para miles de familias desde que en la primavera de 2020 supuso el abandono de otros tantos miles de ancianos enfermos a su suerte tras el colapso del sistema sanitario en la primera ola de la pandemia. La decisión de priorizar la asistencia sanitaria en función de las posibilidades de supervivencia y los recursos disponibles puede provocar profundos dilemas éticos en situaciones de emergencia como la mencionada u otras como un atentado terrorista indiscriminado, un conflicto bélico o una catástrofe natural.  Según publica The Washington Post, Estados Unidos está trabajando en una solución de inteligencia artificial en la que delegar este tipo de decisiones rápidas bajo la premisa de que eliminar prejuicios humanos y utilizar algoritmos y datos salvarían vidas en una situación de emergencia.

El proyecto está siendo llevado a cabo por DARPA, la Agencia de Proyectos de Investigación Avanzada de Defensa de Estados Unidos, en colaboración con empresas privadas que no han sido desveladas, y se encuentra aún en sus primeros pasos. Bautizado como In the Moment (En el momento), trata de evaluar el alineamiento de los algoritmos con expertos humanos en tomar decisiones en situaciones en las que no hay una respuesta clara, según explica DARPA en un comunicado en su web.  El objetivo es desarrollar “tomadores de decisiones algorítmicos confiables para operaciones del Departamento de Defensa”.

In the Moment

In the Moment tiene prevista una duración de tres años y medio y consta de dos fases. En la primera, de dos años, se centra en la toma de decisiones de triaje que afectan a “unidades pequeñas” mientras que la segunda, de año y medio, lo hará en situaciones más complejas como eventos con grandes cantidades de víctimas de forma indiscriminada.

A su vez, el programa consta de cuatro áreas técnicas. En la primera se desarrollan técnicas de caracterización que identifiquen y cuantifiquen atributos clave de los tomadores de decisiones en situaciones difíciles. En la segunda se crea un sistema de puntuación que cuantifique la alineación entre un tomador de decisiones humano y un algoritmo. La tercera área técnica se encarga de la evaluación del programa y la cuarta “es responsable de la integración de políticas y prácticas; proporcionar experiencia legal, moral y ética al programa; apoyar el desarrollo de futuras políticas y conceptos de operaciones (CONOPS) del Departamento de Defensa; supervisar el desarrollo de un proceso de operaciones éticas (DevEthOps); y la realización de eventos de divulgación para la comunidad política más amplia.”

Matt Turek, responsable del programa en DARPA, afirma en The Washington Post que las sugerencias de los algoritmos modelarán las de “humanos altamente confiables” expertos en triaje y que podrán acceder a información necesaria para tomar las mejores decisiones en situaciones en las que un experto humano se puede ver sobrepasado.

Por ejemplo, la IA podría conocer los recursos disponibles en un hospital cercano (disponibilidad de medicamentos, suministro de sangre, personal médico) para ayudar en la toma de decisiones.  “Eso no cabría en el cerebro de un solo humano que toma decisiones. Los algoritmos informáticos pueden encontrar soluciones que los humanos no pueden”, afirma Turek.

La OTAN también trabaja en un asistente de triaje digital

Estados Unidos no es la única potencia que está trabajando en un sistema de triaje digital. El medio cita al coronel y jefe de la rama médica de la OTAN, Sohrab Dalal, cuyo equipo trabaja con la Universidad Johns Hopkins en un asistente de triaje digital que pueda ser empleado por los países de la OTAN. Este asistente utilizará conjuntos de datos de heridos de la OTAN, sistemas de puntuación de víctimas, modelos predictivos e información sobre el estado de los pacientes para decidir quien debe recibir atención en primer lugar en una situación en la que los recursos son limitados.

Dalal cree que el proceso de triaje tiene casi 200 años y puede actualizarse. “Es un muy buen uso de la inteligencia artificial. La conclusión es que tratará mejor a los pacientes y salvará vidas”, afirma.

DARPA, fundada en 1958 por el presidente Eisenhower, ha sido un actor clave en el desarrollo de tecnologías que iniciaron su camino en el ámbito militar antes de ser de uso general como Internet, el GPS o los satélites meteorológicos. Por ese motivo una de las suspicacias que levante el programa In the Moment es su eventual uso fuera de situaciones excepcionales.

Serias dudas entre los expertos

Expertos consultados por The Washington Post han expresado serias dudas sobre dejar en manos de una inteligencia artificial decisiones que implican quien vive y quien muere en una situación de emergencia. Sally A. Applin, antropóloga especializada en la ética de la inteligencia artificial, opina que aunque “la IA es excelente para contar cosas”, el programa de DARPA “podría sentar un mal precedente por el cual la decisión de la vida de alguien se pone en manos de una máquina”.

Otra preocupación es el sesgo que una IA puede adquirir en su proceso de aprendizaje, como se ha visto en muchas ocasiones. “Sabemos que hay sesgo en la IA; sabemos que los programadores no pueden prever todas las situaciones; sabemos que la IA no es social; sabemos que la IA no es cultural” explica Applin.

Peter Asaro, filósofo de IA en New School, plantea que los militares deben decidir cuanta responsabilidad ponen en manos de la IA y cómo van a lidiar con la ética de las situaciones de emergencia. En el caso de una gran explosión con víctimas civiles y militares ¿tendrían los primeros menos prioridad? “Se trata de una cuestión de valores. Le puedes decir a una máquina que priorice de cierta manera, pero la IA no lo sabe por si misma” asegura.