IA militar
Michael Wooldridge, experto en IA: "Estoy muy preocupado, sobre todo en el ámbito militar"
La inteligencia artificial puede resultar muy útil, pero también peligrosa. Esto es lo que cree Michael Wooldridge, profesor de Informática en Oxford, ante su posible uso militar
La inteligencia artificial (IA) abre una ventana de oportunidades, pero también alberga peligros. Uno de los principales expertos mundiales en esta tecnología tiene miedo ante sus usos éticamente incorrectos, especialmente en el ámbito militar, donde podría usarse como excusa para cometer atrocidades, como bombardeos civiles.
Michael Wooldridge es profesor de Informática en Oxford y un especialista en inteligencia artificial. En una reciente entrevista con Jonathan B, ha revelado que uno de sus mayores miedos respecto a la IA es un uso militar en el que la propia tecnología tome las decisiones, con los verdaderos responsables de estas excusándose con ella.
"No fue mi culpa, sino de la máquina"
La inteligencia artificial cada vez goza de mayor protagonismo en todos los ámbitos. Esta tecnología no solo está presente en el día a día para ayudarnos en el trabajo o guiarnos en la cocina, sino que los ejércitos se están armando con ella. Por ello, no resulta extraño un escenario donde la IA tome las decisiones clave a nivel militar.
Según indica Wooldridge en la entrevista, se está trabajando para "dotar a la inteligencia artificial de un tipo de razonamiento ético y moral". Ello significa que se busca delegar en la máquina las decisiones más críticas, que, tal y como comenta el experto, podría ser un bombardeo a una escuela, entre otras posibilidades. El desarrollo de las IA con supuesta capacidad de toma de elecciones facilitaría a la gente "abdicar su moral", lo que abriría un peligroso horizonte de posibilidades en el ámbito militar.
De este modo, los altos cargos o responsables de las acciones militares podrían excusarse en que "no fue mi culpa, sino de la máquina", tal y como se ejemplifica en la entrevista. Para Wooldrige, "el riesgo real no es la moral de la IA, sino los seres humanos inmorales", quienes atisban una oportunidad de justificar acciones o desligar sus responsabilidades.
Por ello, afirma que los responsables de las hipotéticas acciones de la IA son quienes crean y despliegan esta tecnología. "Son ellos los que tienen que justificar las acciones de las máquinas que están utilizando" declara.