Confesión

Yuval Noah Harari, historiador y visionario, alerta sobre la peligrosa IA: "Nunca invoques un poder que no puedas controlar"

El autor de "Sapiens" compara la IA con una "inteligencia alienígena" capaz de tomar decisiones propias y alerta de sus riesgos existenciales para la humanidad

Yuval Noah Harari en el programa 'The Daily Show' el pasado septiembre de 2024
Yuval Noah Harari en el programa 'The Daily Show' el pasado septiembre de 2024The Daily Show

Yuval Noah Harari, el influyente historiador y autor de éxitos como "Sapiens", conocido por sus análisis sobre el pasado y futuro de la humanidad, ha lanzado una contundente advertencia sobre el desarrollo de la Inteligencia Artificial.

En un extracto de su nuevo libro "Nexus", Harari recurre a antiguas fábulas como la de "El Aprendiz de Brujo" para ilustrar su principal temor: estamos invocando fuerzas que podríamos ser incapaces de manejar. Su mensaje es todo un toque de atención: "Nunca invoques un poder que no puedas controlar".

Por qué la IA es diferente, y puede llegar a ser peligrosa

Harari argumenta que la IA no es simplemente una herramienta más avanzada que aquellas que ya teníamos a nuestro alcance hasta el momento. Es, según él, la primera tecnología en la historia capaz de tomar decisiones y crear nuevas ideas por sí misma.

A diferencia de inventos anteriores, donde el control final siempre residía en manos humanas (una bomba nuclear no decide a quién atacar), la IA actúa como un "agente" independiente. Drones autónomos que deciden objetivos, IAs que diseñan estrategias militares o incluso crean IAs más potentes... ese es el cambio radical.

El historiador va un paso más allá y sugiere que quizás deberíamos pensar en la IA no como inteligencia "artificial", sino como "inteligencia alienígena". A medida que evoluciona, se vuelve menos dependiente de nuestros diseños y más ajena a nuestra forma de pensar.

Su progreso no va hacia una inteligencia "a nivel humano", sino hacia algo distinto, potencialmente más potente y, sobre todo, que no comprendemos ni controlamos del todo. El famoso "Movimiento 37" de AlphaGo contra el campeón de Go Lee Sedol es, para Harari, un ejemplo perfecto: una jugada brillante e inesperada que ni sus propios creadores podían explicar por completo, una verdadera "caja negra".

Si no podemos entender ni controlar plenamente a estos nuevos "agentes", los peligros son inmensos y variados, según Harari:

  • Socavamiento de la democracia: decisiones cruciales sobre nuestras vidas (hipotecas, empleos, incluso política económica) tomadas por algoritmos opacos que los ciudadanos no pueden entender ni cuestionar.
  • Amenazas catastróficas: un dictador podría ceder a una IA el control de armas nucleares; terroristas podrían usarla para diseñar y diseminar nuevos patógenos letales; o podría usarse para crear "armas de destrucción social masiva" (fake news, deepfakes a gran escala) que destruyan la confianza y la cohesión social.
  • Colonialismo de datos y desigualdad: Unas pocas potencias líderes en IA (menciona a EEUU y China) podrían acaparar los datos globales, convirtiendo al resto del mundo en "colonias de datos" controladas por la información. La brecha entre países ricos y pobres podría agrandarse drásticamente.
  • Conflictos globales: La IA podría dividir el mundo tras una "cortina de silicio", dificultando la cooperación global ante crisis como la ecológica. Además, la ciberguerra impulsada por IA es inherentemente impredecible y podría escalar más fácilmente que la disuasión nuclear del pasado.

La raíz del problema: nuestra incapacidad de cooperar

Harari no cree que el peligro principal sea una IA inherentemente malévola, sino nuestras propias limitaciones como especie. Nuestra incapacidad histórica para la cooperación global unificada, la existencia de malos actores y las divisiones geopolíticas hacen que regular eficazmente una tecnología tan poderosa y transfronteriza como la IA sea un desafío monumental. Si unos pocos países fallan en controlarla responsablemente, las consecuencias podrían ser globales.

Frente al optimismo de algunos visionarios tecnológicos, Harari se alinea con la creciente preocupación de expertos y gobiernos sobre los riesgos catastróficos de la IA. Su análisis es una advertencia severa: estamos jugando con fuego al desarrollar una inteligencia "alienígena" potencialmente superior a la nuestra.

La lección del aprendiz de brujo es hoy más relevante que nunca. Necesitamos encontrar urgentemente formas de cooperación global y mecanismos de control robustos antes de que los "espíritus algorítmicos" que hemos convocado se vuelvan imposibles de contener.