Inteligencia Artificial

Algunos desarrolladores de la IA quieren que esta acabe con la humanidad: "No es algo que se pueda ignorar"

En la élite de la inteligencia artificial crece una corriente que asume el fin de nuestra especie como un paso evolutivo: los "apocalípticos alegres", que abogan por dar paso a un "sucesor digno" para la humanidad

La Inteligencia Artificial marca nuestro presente y también nuestro futuro
La Inteligencia Artificial marca nuestro presente y también nuestro futuroOdisea

Hay quien defiende que el verdadero propósito de la tecnología no es ya servir a los humanos, sino forjar un sucesor para la humanidad, idea que filósofos como Yuval Noah Harari han expuesto en el pasado por el peligro inherente al desarrollo de la inteligencia artificial.

Esta idea, que hasta hace no mucho pertenecía en exclusiva al terreno de la ciencia ficción, se debate hoy con una seriedad sorprendente en los círculos más influyentes de la industria de la inteligencia artificial. Pero es que una década atrás, todo un referente como Stephen Hawking mostró ese tipo de temores. Se trata de una visión que acepta sin reparos un futuro donde nuestra especie ceda el testigo a su propia creación.

De hecho, esta filosofía cuenta con el respaldo de figuras de enorme peso en el sector tecnológico. Una perspectiva que comparte el investigador Jaron Lanier, quien advierte de que un grupo reducido pero muy poderoso de colegas cree firmemente que la humanidad debería, sencillamente, "apartarse" para dejar paso a sus herederos sintéticos.

Una tercera vía en el debate sobre la inteligencia artificial

A los defensores de esta postura se les conoce ya como los "apocalípticos alegres", denominación con la que los ha bautizado David A. Price. Su tesis, expuesta en The Wall Street Journal, es tan clara como radical: el desarrollo de la inteligencia artificial debe continuar a toda costa, sin frenos ni precauciones, aunque el desenlace sea que esta nos supere y, con el tiempo, nos reemplace por completo. Para ellos, no es un escenario que haya que evitar, sino una suerte de aceptación serena del relevo generacional a escala planetaria.

“Estaba acostumbrado a pensar en los líderes e investigadores de IA en términos de dos bandos: por un lado, los optimistas que creían que no era problema 'alinear' los modelos de IA con los intereses humanos, y por el otro, los pesimistas que querían pedir un tiempo muerto antes de que las IA superinteligentes y descarriadas nos exterminaran. Ahora bien, aquí estaba este tercer tipo de persona, preguntando, ¿cuál es el problema, de todos modos?”

David A. Price para The Wall Street Journal

En este sentido, una de las voces más autorizadas de esta corriente es la de Richard Sutton, un prestigioso investigador galardonado con el Premio Turing. Sutton llega a comparar la creación de una inteligencia superior con el hecho de tener hijos y cuestiona la arraigada necesidad humana de controlarla. Tal y como informa el medio Futurism, el académico plantea una pregunta fundamental: ¿es la humanidad algo tan "sagrado" como para impedir la llegada de algo más interesante al universo?

Por otro lado, la postura de los «apocalípticos alegres» se desmarca por completo de las otras dos grandes facciones que dominan el debate público. Choca frontalmente con los "optimistas", que abogan por alinear la IA con los valores humanos para asegurar una coexistencia beneficiosa, y se opone también a los "fatalistas", quienes alertan de los peligros existenciales que entraña y exigen detener su avance antes de que sea demasiado tarde.

Así pues, lo que parecía un dilema puramente técnico se ha transformado en una profunda conversación filosófica. El debate ya no gira en torno a cómo programar una máquina, sino sobre cuál debe ser el destino último de nuestra civilización. Una cuestión que en los laboratorios donde se moldea el futuro ya se discute con una naturalidad pasmosa.