Cargando...

Inteligencia Artificial

Yuval Noah Harari, historiador, alerta sobre la IA: “No tenemos experiencia en convivir con una especie más inteligente que nosotros”

En su último vídeo en redes, el autor de Sapiens dejó un aviso incómodo: la humanidad jamás ha controlado a una especie más inteligente

Yuval Noah Harari, historiador, alerta sobre la IA: “No tenemos experiencia en convivir con una especie más inteligente que nosotros” Unsplash

En su último vídeo difundido en sus perfiles, el historiador y autor de libros como Homo Deus o Sapiens, Yuval Noah Harari, resume lo que para él es el mayor problema que tendrá la humanidad en poco tiempo, con una comparación sencilla: "No tenemos ningún ejemplo en la historia de una especie menos inteligente que consiga controlar a otra más inteligente. Los caballos no nos controlan, las vacas no nos controlan. Nosotros las controlamos".

Client Challenge

A partir de ahí, plantea el escenario que le preocupa: "¿Qué pasa cuando creemos una especie más inteligente que nosotros? Quizá a corto plazo sea bueno para el crecimiento económico, pero ¿qué ocurrirá en 20 o 30 años, cuando millones de IAs superinteligentes gestionen las finanzas, el ejército o la cultura?".

El marco no es nuevo en su pensamiento, pero sí más urgente. Harari insiste en que la IA no es solo otra herramienta, se comporta como un agente capaz de tomar decisiones y crear sistemas -desde productos culturales hasta dispositivos financieros- fuera de nuestro entendimiento inmediato. Por eso reclama mecanismos de control y ritmos más lentos de adopción para poder corregir errores a tiempo.

Por qué le inquieta la "coexistencia" con una superinteligencia

El argumento central es evolutivo y político a la vez. Evolutivo: nunca hemos compartido el planeta con una inteligencia superior; nuestra experiencia es la contraria (dominar especies menos capaces), y no hay guiones históricos sobre cómo mantener poder y autonomía en ese caso. Político: si agentes de IA llegan a gestionar infraestructuras críticas -finanzas, defensa, cultura, información- sin una arquitectura de gobernanza robusta, la asimetría de capacidades podría derivar en pérdida de control humano efectivo. Harari lo ha formulado en charlas y artículos: la IA puede inventar "nuevas historias" y redes de cooperación a una escala que desborda nuestras instituciones, y eso exige rediseño de salvaguardas antes de que sea tarde.

Y ahora, ¿qué?

Harari no profetiza un apocalipsis inevitable, pero sí un punto de inflexión que requiere decisiones conscientes: construir sistemas de supervisión, ralentizar despliegues de alto impacto y reforzar la confianza entre humanos para poder regular tecnologías que, por definición, pueden desbordarnos. En su línea, la pregunta ya no es solo "qué puede hacer la IA", sino cómo compartimos poder con agentes más inteligentes sin perder el timón democrático.