Cargando...

Entrevista

Serge Haroche, Nobel de Física, sobre la Inteligencia Artificial: "La humanidad se encuentra en una encrucijada"

El físico francés ha compartido con LA RAZÓN sus reflexiones sobre la evolución del mundo de la ciencia y la Inteligencia Artificial

Serge Haroche, físico francés laureado con el premio Nobel de Física en 2012 Fundación Ramón Areces

La Inteligencia Artificial ha llegado para quedarse. En los últimos años, este sector ha emprendido una carrera vertiginosa, de la que muchos empezaron a ser conscientes a raíz del lanzamiento de ChatGPT, aplicación que acercó los modelos de lenguaje a un público generalista. Desde 2022, la base de usuarios de la que hoy se considera la IA más popular del mundo ha seguido creciendo, prueba de que esta tecnología ya forma parte del día a día de millones personas.

Sin embargo, no todos son beneficios. Detrás de las facilidades que la IA aporta en el ámbito del trabajo, estudios u hogar, se esconden importantes consideraciones éticas: protección de la privacidad, el uso responsable de los datos, la concentración de poder, los sesgos en la información facilitada, e incluso el impacto en el marco laboral en un futuro. En este sentido, el premio Nobel de Física, Serge Haroche (Casablanca, 1944) ha compartido con LA RAZÓN sus reflexiones sobe lo que muchos ya definen como una nueva revolución industrial.

Haroche -pionero en la física cuántica, y galardonado en 2012 junto a David Wineland- visitó Madrid con motivo del evento 'Nobel Prize Conversations', organizado por Nobel Outreach y la Fundación Ramón Areces. En el encuentro, el físico francés participó en un debate junto Geoffrey Hinton -Premio Nobel de Física en 2024 y considerado el 'padre' de la Inteligencia Artificial- y María Isabel González Vasco, experta en criptografía, sobre los retos y el futuro de la IA.

Serge Haroche: "Los trabajos basados en la robotización automática se perderán"

P: ¿Qué le atrajo del mundo de la física?

R: Es muy difícil racionalizarlo, pero desde muy joven me interesaban las matemáticas, la computación.... Cuando estaba en la secundaria, me asombraba que una ecuación matemática pudiera explicar el mundo físico (...) Así que decidí que quería dedicarme a este campo e intentar hacer algo al respecto. Al principio quería ser astrofísico, porque era la época en que se lanzaron los primeros satélites a la Tierra a finales de la década de 1950 y también la carrera hacia la Luna (...) y luego, cuando fui a la 'École Normale' (...) estuve expuesto a muy buenos profesores que hablaban de relatividad y física cuántica y entendí que podían usar las matemáticas, no solo para entender la astronomía exterior y el universo, sino también para entender el mundo microscópico, los átomos y los fotones, y así fue natural.

P: Al inicio de su carrera, ¿en algún momento soñó con obtener un Premio Nobel por su trabajo?

R: No, eso vino mucho más tarde. Creo que es mejor no pensar demasiado en eso, porque mucha gente se decepcionará ya que hay muy pocos los Premios Nobel. Y hay muchos factores que explican por qué se gana o no, así que no creo que sea la motivación principal.

P: ¿La comunidad científica está logrando comunicar de manera efectiva a la sociedad los avances que se han conseguido?

R: Creo que los científicos deberían intentar comunicarse más y mejor con el mundo exterior, porque debemos combatir una tendencia muy peligrosa: la creciente indiferencia de la sociedad hacia la ciencia. Dicen que la ciencia es una actividad reservada a las élites -a quienes temen- que intentan controlar el mundo. Esto genera miedo y resentimiento entre quienes no son científicos. Y creo que es una gran paradoja de nuestra sociedad moderna, que la ciencia nunca haya tenido tanto éxito como ahora, y al mismo tiempo, que no se confíe en ella. Vemos que el hecho de que la gente niegue el cambio climático y no crea en la vacunación, en general, se alimenta del resentimiento. Esto alimenta el populismo, y es muy malo.

P: Jeffrey Hinton, Premio Nobel y uno de los padres de la IA, ha menudo ha advertido sobre los peligros de esta tecnología. ¿Estamos realmente ante una amenaza para la sociedad?

R: En cuanto descubrimos algo, lo inventamos, no podemos simplemente ignorarlo. Un ejemplo es la física nuclear. Cuando Einstein escribió la ecuación E=mc² al cuadrado, quedó claro que había una enorme cantidad de energía dentro de los átomos nucleares. Esto condujo a las centrales nucleares, pero también a las armas nucleares. Y así, tenemos sus ventajas y desventajas. La IA es lo mismo. Descubrimos que podemos imitar la inteligencia natural. Podemos imitar las redes neuronales naturales mediante dispositivos artificiales que, de alguna manera, aumentan la potencia de estos dispositivos, y este aumento de potencia podría utilizarse para fines positivos o negativos, y eso es algo que debemos afrontar.

Está claro que debemos intentar controlarlo de la misma manera que intentamos -sin mucho éxito- controlar la proliferación de armas nucleares. Así que creo que ahora la humanidad se encuentra en una encrucijada. Debe comprender que el poder que la ciencia otorga a las personas puede usarse en ambos sentidos, y que debemos ser lo suficientemente inteligentes como para usarlo en la dirección correcta. Pero comparto los temores de (Geoffrey) Hinton y el hecho de que nos encontramos en un momento en el que pueden ocurrir cosas malas, tanto en lo que respecta a la IA como a las guerras nucleares, etc. Así que todo está en juego, y debemos ser muy cautelosos.

P: La legislación sobre IA es otro tema candente. En algunos círculos defienden que un exceso de regulación puede ser negativo para los avances e innovación en este campo. ¿Cuál es su opinión?

R: Creo que la legislación tiene que implementarse por razones sencillas. La IA invadirá todos los dispositivos; en todos los dispositivos que tengamos habrá herramientas que podrán recopilar información sobre las personas que usan IA, y esa información puede ser diseminada y usarse para invadir la privacidad de la gente. Así que esto es algo que tenemos que tener en cuenta. La IA se producirá en distintos países: en China, en Estados Unidos y también en Europa. Vivimos en una época de libre comercio, en la que bienes y dispositivos pueden intercambiarse y venderse de una parte del mundo a otra. Si no tenemos reglas, no podremos confiar en que lo que compramos en un país no sea una especie de herramienta de espionaje en otros países.

Por tanto, si no existe este tipo de regulación que sitúe determinadas cuestiones en primer plano y unas normas éticas con las que todo el mundo pueda estar de acuerdo, será muy perjudicial para el comercio global; rompería las comunicaciones mundiales. (...) Europa está en una situación muy extraña, porque la mayor parte del desarrollo de IA tiene lugar fuera -en China y en EE UU- y Europa se limita a ser muy creativa al intentar imponer normas, pero no puedes imponer reglas si no tienes la capacidad para fabricar los dispositivos. Esto es un problema.

P: Como sociedad, ¿tenemos realmente mecanismos eficaces para influir en que las compañías gestionen nuestros datos con mayor cuidado?

R: Ojalá se pudiera lograr, pero no es la primera vez que esto sucede en una revolución digital. Incluso antes de que se desarrollara la IA, ya existían los mismos problemas la hora de usar internet o las redes sociales. Grandes medios como Twitter, Facebook y TikTok utilizan algoritmos para atraer a la gente, para desarrollar estas burbujas donde las personas intercambian ideas y se aíslan en pequeñas comunidades. Ya era un mal desarrollo el hecho de que los niños estuvieran expuestos a lo digital, a los ordenadores y a los teléfonos desde una edad temprana. Tiene efectos muy negativos en ellos, y tenemos que adoptar medidas. Lo que también es paradójico, es lo difícil que es controlarlo en países democráticos. Un país autocrático como China puede ejercer más control porque no respeta las reglas democráticas. En Europa, es más difícil, pero debemos lograr cierto control, porque de lo contrario, los aspectos negativos prevalecerán sobre los positivos.

P: Otra de las grandes preocupaciones que genera la IA es la destrucción de empleo. Algunos informes apuntan a que en un futuro entre el 20% y 40% de los trabajos desaparecerá. ¿Es este un escenario realista?

R: Ante todo, diría que todas las revoluciones industriales han cambiado el equilibrio en el mercado laboral: han hecho que algunas personas tengan éxito y que otras tengan problemas. Y quedó claro con la revolución cuando se introdujeron las máquinas en el siglo XIX -los telares y las máquinas capaces de hacer automáticamente lo que antes se hacía a mano fueron la base de las revoluciones que ocurrieron en Europa a mediados del siglo XIX-, porque los trabajadores perdieron sus empleos frente a estas máquinas.

Ahora estamos en la misma situación. Es evidente que, por ejemplo, los traductores o los intérpretes verán afectado su trabajo, porque la inteligencia artificial es muy buena traduciendo de un idioma a otro, y cada vez lo hace mejor. Todos los trabajos basados en la robotización automática también se perderán, y las personas tendrán que adaptarse al sistema. No solo deberán aprender habilidades cuando son jóvenes, sino también aprender a ser flexibles y capaces de adaptarse al cambio tecnológico. Creo que esta es una de las razones por las que existe tanta desconfianza hacia la ciencia: la gente teme esa necesidad de flexibilidad que se les exigirá, y eso introduce una cierta incertidumbre sobre el futuro, lo cual asusta. Pero pienso que esto es inevitable.

P: ¿Qué aspectos positivos traerá la IA en un futuro?

R: La gran mejora en la comunicación es evidente. Dentro de unos años -incluso ya ahora- será posible hablar en cualquier idioma y ser entendido por cualquier otra persona gracias a la traducción automática de una lengua a otra. Será sin duda algo muy bueno. También los avances en el diagnóstico médico son ya fantásticos. El hecho de poder reconocer en radiografías o en cualquier tipo de escáner signos de enfermedades que serían muy difíciles de captar con el ojo humano, y que en muy poco tiempo la IA pueda ofrecer un diagnóstico y ayudar a los médicos, es algo muy positivo. Creo además que será muy útil en la ciencia, porque puede manipular enormes cantidades de datos para descubrir correlaciones entre eventos y observaciones, lo que permitirá a los científicos desarrollar nuevos modelos para entender la complejidad del mundo. Pero no deja de ser una herramienta.

Serge Haroche: "Tenemos algunos dirigentes que son depredadores"

P: En su opinión, ¿cuál es el mayor mito o malentendido que la gente tiene sobre la Inteligencia Artificial?

R: Uno de los miedos distópicos es que, algún día, la inteligencia artificial supere a la inteligencia humana, que las máquinas tomen el control. No veo cómo podría suceder, porque lo "artificial" significa que se trata de algo creado por el ser humano, utilizando sistemas que imitan lo que hace la naturaleza, pero que, en todo caso, son muy diferentes del cerebro humano.

Todo en el cerebro se hace mediante procesos biológicos. Las neuronas son objetos biológicos. La manera en que las neuronas están construidas está determinada por el ADN, por una maquinaria desarrollada a lo largo de millones de años de evolución. Esto hace que el sistema sea mucho más sutil que cualquier máquina artificial que podamos crear. Por ejemplo, si miras la manera en que los robots intentan usar inteligencia artificial: si quisieras entrenar a un robot para que coja un objeto específico o para que cocine, resulta extremadamente difícil, mientras que un niño puede aprenderlo en unos minutos.

Además, la inteligencia artificial es mucho más costosa en términos de energía. Hay que alimentarla con datos acumulados en servidores, lo cual requiere una cantidad enorme de energía. Se ha dicho que para enseñar a un niño a aprender, o para que un gato aprenda a reconocer su entorno, basta con unos pocos vatios de energía cerebral, mientras que la inteligencia artificial consume megavatios de energía.

Esto plantea otro problema: la cantidad limitada de energía que tenemos en este planeta. Si tenemos que destinar tanta energía a la inteligencia artificial, podría ser a costa de otros usos energéticos. Y todos sabemos que uno de los grandes problemas -por ejemplo, con el cambio climático- es precisamente que la energía es limitada. Así que todo esto forma parte de un gran problema: el hecho de que estamos alcanzando los límites de lo que la Tierra puede ofrecernos, y la inteligencia artificial es uno de esos asuntos.

P:¿Qué podemos hacer ante esta falta de recursos?

R: Hay maneras de afrontarlo. Por ejemplo, el mes que viene, en noviembre, habrá una de esas grandes cumbres sobre el clima que se celebrará en Brasil; miles de personas se reunirán para discutir lo que pasó en París hace diez años, y el plan de acción era un mapa racional de medidas. El problema es que ese plan no se siguió, y con el clima, como con la inteligencia artificial, también necesitas una hoja de ruta. Si no la sigues, iremos directos contra un muro. ¿Cómo afrontarlo? Para hacerlo se necesita racionalidad. Se necesitan personas sabias en el poder. Se necesitan buenos dirigentes políticos dispuestos a tomar decisiones. Se necesita algo de coraje, que falta en nuestro mundo.

Soy muy pesimista (...) Tenemos algunos dirigentes que son simplemente depredadores, que sólo quieren usar la inteligencia artificial para su propio beneficio. Y me refiero a los grandes oligarcas, a personas como los responsables de Facebook y WhatsApp, etc., lo cual me ha decepcionado muchísimo; al principio uno podía pensar que eran progresistas, que intentaban desarrollar esto para el bien de la humanidad, y la forma en que ahora apoyan a Trump y tratan de complacerle demuestra que, en realidad, su único objetivo es intentar ganar dinero y adquirir poder usando la IA para ello.