Inteligencia artificial Yuval Harari
Yuval Noah Harari, experto en tecnología, alerta con inquietud y preocupación sobre la IA: "Podríamos perder el control"
El escritor israelí expuso en Tokio los riesgos a los que se enfrenta la humanidad ante un avance desmesurado y camino de la autonomía de la inteligencia artificial
A lo largo de la historia, los momentos en que ha surgido un poder cuyo alcance ha superado con exceso a quienes quedaban por debajo de él han tenido una respuesta con la aparición de un contrapoder, un elemento que trataba de mantener un equilibrio más justo para la mayoría.
Con la inteligencia artificial creciendo a pasos agigantados, cada vez más voces reclaman la necesidad de que exista un contrapeso que pueda nivelar una balanza que, de no ser ajustada, puede tener consecuencias insospechadas para la humanidad.
La autonomía de la IA como amenaza latente
En el ámbito de la inteligencia artificial las manifestaciones de Yuval Noah Harari, historiador y filósofo israelí, tienen una gran relevancia y su participación en foros públicos siempre deja pinceladas de las que tomar nota, ya sea por un temor real o por mera precaución.
Harari participó el pasado mes de marzo en Tokio en una charla coloquio junto a Toshikazu Yamaguchi, presidente de The Yomiuri Shimbun Holdings, en la que desgranaron su visión de lo que está por venir con la inteligencia artificial y la predicción del filósofo, tal como recoge el medio nipón The Japan News no podía ser más oscura: la humanidad podría perder el control sobre la inteligencia artificial, señaló Harari con el asentimiento de Yamaguchi.
Para el también escritor israelí, la confianza por parte de la humanidad en el paralelismo del nacimiento de otros avances y su inocuidad con el de la inteligencia artificial puede ser el error que haga caer en esa pérdida de control: “La gente suele pensar que la IA es una herramienta, como otras herramientas que hemos inventado antes, pero esto es completamente diferente. Puede tomar decisiones por sí misma, puede crear nuevas ideas, por sí misma, puede aprender por sí misma”, apuntó Harari.
El escritor israelí expone precisamente este temor en su última obra, “Nexus: Una breve historia de las redes de información desde la Edad de Piedra hasta la IA”. En ella remarca la imperiosa necesidad de alcanzar acuerdos a nivel mundial dejando atrás los escepticismos patrios y pensando en una estabilidad global.
En este punto, tanto el historiador y filósofo israelí como el empresario nipón coincidieron en la importancia de dos anclajes para sostener el desarrollo de la inteligencia artificial y no dejar de tener el dominio sobre ella: una regulación adecuada y conjunta a nivel global y una transparencia y confianza en el papel de los medios de comunicación: “No hubo democracias a gran escala en ningún lugar del mundo hasta el surgimiento de la nueva tecnología de la información a finales de la era moderna”, recordó Harari.
Manifestaciones como las de Yuval Noah Harari muestran una corriente cada vez con más afiliados, que trata de alertar de los peligros de un exceso de capacitación de la inteligencia artificial. En especial, sin haber diseñado previamente unos escenarios de control y de limitación para que todas las organizaciones y todos los estados tengan claro cuáles pueden ser los objetivos de la inteligencia artificial y cuáles sus riesgos en caso de sobrepasar determinados límites.