Buscar Iniciar sesión

Yuval Noah Harari: "Hay un potencial totalitario en la IA"

El escritor publica "Nexus", donde apunta los peligros de las tecnologías actuales y los retos que nos aguardan
El autor israelí Yuval Noah HarariAlberto R. RoldánLa Razón

Madrid Creada:

Última actualización:

El éxito imprevisto de su libro «Sapiens» –muy alabado por los lectores, pero también muy criticado en cenáculos académicos y universitarios– catapultó a Yuval Noah Harari a la fama a la velocidad supersónica que suelen tener los «best-sellers». El éxito elevó su papel de intelectual al de arúspice. Todo un logro. Una impresión que ha ido apuntalándose con obras posteriores, como «Homo Deus» y «21 lecciones para el siglo XXI». En estas ya quedaba claro cierto fatalismo que asomaba con anterioridad. Una visión pesimista sobre el futuro que aflora en su nuevo trabajo, «Nexus» (Debate), y que él justifica argumentando que se conocen de sobra los beneficios que reporta esta tecnología y que «a los pensadores nos queda ahora centrarnos en su parte oscura, que es donde reside el peligro». Un peligro que se conjura invirtiendo en «más seguridad».
Con esta premisa de base, Harari reflexiona sobre cuestiones centrales para él, y para todos, que tienen que ver sobre la capacidad de la tecnología para aumentar el conocimiento, la influencia que ejercen las redes, los problemas de la actual sociedad de la información o la interactuación con la inteligencia artificial. «La IA es distinta de cualquier otra tecnología previa. Es un agente independiente. Cualquier tecnología anterior, incluso las armas nucleares, era distinta: no tenían poder inteligente. La bomba atómica no podía inventar un arma nueva ni tomar decisiones. La IA es distinta. Puede producir imágenes, crear códigos y otra IA más potente. Ahí se producirá una explosión de la IA».
«La IA permite una vigilancia total que acabe con cualquier libertad»Yuval N. Harari
El intelectual es muy claro en sus planteamientos y compara la evolución humana con la de la IA para que seamos conscientes de lo que está por llegar. «Muchos dicen que la inteligencia artificial no crea buenas partituras ni buenos textos ni buenas imágenes... Pero es que estamos en el primer paso de esta revolución. La IA de hoy son como las amebas de las que evolucionamos. La diferencia es que nosotros necesitamos millones de años para llegar hasta hoy y ella, no, es más rápida. ¿Cómo será la IA cuando sea un dinosaurio, dentro de unos diez o veinte años? Cada vez más los instrumentos de la cultura y el entretenimiento se producirán con IA, pero la IA es una inteligencia alien. La cuestión es: ¿cómo afectará a la psicología humana?».
«La información no es conocimiento y la mayor parte de la información, hoy, es basura»Yuval N. Harari
Harari es un hombre que habla desde planteamientos filosóficos, humanistas y políticos. «Existe un potencial totalitario en la IA. La diferencia entre regímenes autoritarios y totalitarios es que los primeros controlan la esfera política, pero dejan que la gente tenga su propia privacidad, y el segundo sabe lo que hacemos y pensamos. Pero Hitler, como Stalin, tenían limites respecto a sus súbditos, porque no podían seguir constantemente a toda la población. La KGB no podía vigilar a cada individuo de la URSS, pero, incluso si lo hiciera, no podría analizar tantos informes. Pero la IA, en cambio, permite una vigilancia total que acabe con cualquier libertad, y, además, no necesitas policías para hacerlo. Ahora existen programas de reconocimiento de caras y de voces. Israel está creando este régimen con software y cámaras. En Irán vemos lo mismo. Las cámaras reconocen a las mujeres sin velo y las castiga. La autoridad para castigarlas está en manos de la IA. Y esto no es ciencia ficción, esto pasa hoy».
Harari recapacita sobre los medios y lanza lo que es casi un eslogan: «La información no es conocimiento. Eso es una visión muy ingenua». Y remata aduciendo: «La mayor parte de la información es basura, no es verdad. Un informe verdadero cuesta dinero, tiempo y esfuerzo». Una reflexión que le lleva a una deducción: «En general, la gente prefiere historias falsas a las complicadas, que son donde reside la verdad. Si queremos que prevalezca la verdad, tenemos que invertir en ella, creando instituciones, periódicos, instituciones académicas. Si no se hace, la verdad quedará enterrada por la mala información».
En este contexto cobra una enorme importancia cómo la extrema derecha y la izquierda se están aprovechando de la coyuntura actual: «Los dos extremos coinciden en su desconfianza de las instituciones creadas por los hombres para que prevalezca la verdad: los tribunales, las universidades, la ciencia, porque comparten la creencia cínica de que a los hombres solo les interesa el poder. Eso es mentira».
Harari, que defiende que para programar las inteligencias artificiales se necesitan filósofos y humanistas, no solo ingenieros, considera que «en las democracias debes confiar en alguien para que funcione y las dictaduras se basan en el terror. Si destruyes todas las instituciones, allanas el terreno para implantar una dictadura. En esa lucha son imprescindibles los periodistas y los científicos». Una de sus preocupaciones es que los algoritmos ocupen el puesto del editor –lo que ya ocurre en algunas plataformas– y que empiecen a divulgar historias falsas porque atraen la atención: «Los algoritmos de las empresas se han dado cuenta de que el odio, el miedo y la rabia mantienen la atención de los hombres y diseminan teorías de la conspiración. Es un gran problema. Por eso los gigantes de estas tecnologías deberían ser responsables de las decisiones de sus algoritmos y de lo que hacen».

Archivado en: