Inteligencia Artificial

Reid Blackman profesor de filosofía y asesor de ética de inteligencia artificial: "La IA se está volviendo cada vez más compleja y el panorama de riesgos también"

Peligros en materia de sesgo, alucinaciones o privacidad sobrevuelan de manera directa a la evolución de la inteligencia artificial, tal como advierte el experto estadounidense

Reid Blackman, experto en inteligencia artificial y filósofo
Reid Blackman, experto en inteligencia artificial y filósoforeidblackman.com

A la hora de estudiar una disciplina, el comienzo siempre es sencillo. Lo habitual es que sea una materia sobre la que existe una base y un interés y desde él, se parte de una visión más amplia para, con el paso de las lecciones, ir avanzando en los entresijos del tema.

Y por supuesto, cada vez se vuelve un poco más complicado y surgen cuestiones inherentes al área que se trata y que plantean dudas, incluso morales. De esto no escapa la inteligencia artificial y el evento Metafuturo Bizkaia Quantum celebrado en Bilbao con la presencia de La Razón sirvió de escenario para hablar de ello.

En él, Reid Blackman, que fuera profesor de filosofía en la Universidad Colgate y en la UNC-Chapel Hill y que ahora centra su actividad en la consultoría de riesgos éticos en inteligencia artificial a través de la empresa Virtue, que él mismo fundó, ahondó precisamente en esa idea. Blackman se centró en la inteligencia artificial y los peligros que su evolución puede llevar asociados sin que los actores implicados en su desarrollo parezcan ser conscientes.

Riesgos de fondo en el avance de la inteligencia artificial

La profundización en la que se está viendo inmersa la inteligencia artificial tiene un lado positivo, aunque con un ingrediente preocupante: con la evolución, los peligros crecen y la conciencia sobre ellos no parece hacerlo en la misma línea, a ojos de Reid Blackman:

“La IA se está volviendo cada vez más compleja, lo que implica que el panorama de riesgos también se vuelve cada vez más complejo. Francamente, es una locura, y la gente que está ahí fuera identificando y gestionando estos riesgos no tiene, de verdad, la solución”

Reid Blackman, experto en inteligencia artificial

Con sus palabras Reid Blackman se posiciona en la línea de pensamiento de otros expertos en inteligencia artificial como Yoshua Bengio, considerado uno de los ‘padrinos de la IA’ junto a Geoffrey Hinton y Yann LeCun. Para Bengio, al igual que para Blackman, se está descuidando el control en la evolución de la inteligencia artificial, algo sobre lo que el propio Blackman puso el foco en el acto de Bilbao: “Los tecnólogos están empezando a lanzar IAs que no saben controlar. Muchos creen que sí, pero ya sabéis: un buen grado de arrogancia es bastante común entre científicos de datos y expertos en inteligencia artificial”, destacó sin pelos en la lengua.

El consultor ético y experto en Filosofía quiso dar una definición sencilla de lo que supone la inteligencia artificial antes de enumerar los tres grandes riesgos que, en su opinión, alberga. Para Reid Blackman, pensar en IA es hacerlo en “software que aprende por ejemplo”. Es decir, se le muestra algo y se le dice lo que es para que pueda aprenderlo. Con ello sobre la mesa, Blackman señaló los sesgos, la privacidad y las alucinaciones como los principales peligros de la inteligencia artificial.

Sesgos a la hora de mostrarle más elementos de un tipo que de otro, privacidad por cuanto requiere de datos personales cualquier servicio de IA y alucinaciones con las invenciones que todo el mundo ha visto en el momento en que la inteligencia artificial se ve en la necesidad de cumplir con su cometido de dar una respuesta, aunque no la tenga. Una reflexión que Blackman zanjó con una frase de lo más elocuente: “Todo esto viene incorporado a la IA. Está en la herramienta que se materialicen estos riesgos éticos”.