Peligroso uso militar

Michael Wooldridge, profesor de informática en Oxford: "El riesgo no es la moral de la IA, sino los seres humanos inmorales"

La inteligencia artificial tiene una cara oscura. Puede servir para justificar las decisiones más éticamente reprochables, especialmente en el ámbito militar

Un caza volando por el cielo
La IA puede convertirse en una excusa para la toma de las peores decisionesPixabay

La inteligencia artificial planeta una gran cantidad de dilemas. Uno de ellos es su uso moralmente reprochable, algo que ha comentado Michael Wooldridge, prestigioso experto en IA, en una reciente entrevista. Concretamente lo que preocupa a Wooldrige es su uso militar, para justificar que la IA tome decisiones condenables.

El profesor de informática de la Universidad de Oxford, con un extenso y contrastado conocimiento en inteligencia artificial, ha concedido una entrevista a Jonathan B. Uno de los puntos claves de esta es el uso de la IA para excusar la toma de decisiones, como bombardeos militares, bajo el pretexto de que ha sido ella quien ha tomado la decisión de atacar cierta localización y no una persona.

"Abdicar su moral"

La inteligencia artificial cada vez avanza más rápido. Por ello, según indica Wooldrige, existe un tipo de trabajo que "trata de dotar a la inteligencia artificial de un tipo de razonamiento ético y moral". Esto permitiría usar a las máquinas para tomar las decisiones más peliagudas.

Sin embargo, aunque, por un lado, pueda ser útil para tomar decisiones más racionalmente, el profesor advierte que ello facilitaría a la gente "abdicar su moral". El gran problema es que se podrían justificar ciertas decisiones no éticas bajo el pretexto de que "no fue mi culpa, sino de la máquina".

Concretamente lo que más preocupa a Wooldrige es su uso militar. "Fue la máquina quien decisión escoger esa escuela como objetivo, y disparar los misiles. Así que no ha sido nuestra culpa del todo" afirma, poniendo de ejemplo un hipotético bombardeo civil.

"El riesgo real no es la moral de la IA, sino los seres humanos inmorales" declara el experto. Para él, quienes crean y despliegan la inteligencia artificial resultan los máximos responsables de su uso. "Son ellos los que tienen que justificar las acciones de las máquinas que están utilizando" concluye.