
Inteligencia artificial
Geoffrey Hinton, el "padrino" de la IA, se sincera sobre su creación: "Me consuelo con la excusa de que, si yo no lo hubiera hecho, otro lo habría hecho"
El ganador del premio Nobel de Física de 2024 optó por salir de su zona de confort y abandonar Google para poder alertar de los riesgos asociados a la inteligencia artificial

Ser consecuente con los actos de uno es de las cuestiones más complejas hoy en día. En ocasiones, el llegar a ello requiere de grandes sacrificios como el que tuvo que hacer Geoffrey Hinton en 2022, cuando decidió dar un paso a un lado y abandonar todo un gigante tecnológico como Google.
La causa de esa decisión: poder ser libre para alertar de lo que consideraba que podrían ser riesgos para la humanidad con la llegada de la inteligencia artificial. Resulta paradójico, puesto que Hinton, junto a Yoshua Bengio y Yann LeCun, está considerado uno de los padrinos de esa nueva rama que ahora es un elemento más del día a día.
Responsabilidad relativa de Geoffrey Hinton
Fue el propio Geoffrey Hinton quien reconoció este punto en una entrevista concedida en el año 2023 al periódico estadounidense The New York Times. En ella, el ganador del premio Nobel de Física de 2024 junto a John Hopfield, asumió que su trabajo puede acabar teniendo consecuencias negativas para la humanidad en caso de que no se establezca un control adecuado sobre la inteligencia artificial, si bien se liberó de parte de la culpa:
“Me consuelo con la excusa de siempre: si no lo hubiera hecho yo, lo habría hecho otro”
Se trata de una reflexión profunda de todo un referente como Hinton, para quien el desarrollo de la inteligencia artificial era un objetivo vital. Esto cambió al ver las diferentes derivadas que podía tomar, cuestión que Hinton reconoce, pero en la que pone toda la responsabilidad sobre quienes hagan uso de la inteligencia artificial y el modo en que quieran destinarla: "Es difícil ver cómo se puede evitar que los actores maliciosos lo usen para cosas malas", apuntó en la conversación con el diario estadounidense.
Geoffrey Hinton sustenta su decisión en algo tan racional como lo es una mirada al pasado, a las bases que impulsaron la inteligencia artificial, y en lo que se ha convertido con las últimas evoluciones: "Miren cómo era hace cinco años y cómo es ahora. Tomen la diferencia y propáguenla al futuro. Eso da miedo", dijo sobre las implicaciones actuales de la inteligencia artificial.
Mayor velocidad de evolución de la esperada
A corto plazo, la preocupación principal de Geoffrey Hinton estaba en el hecho de que el público en general no fuera capaz de discernir entre lo que era verdad y lo que había creado la IA y que no se correspondía con la realidad. Ahora su preocupación va más allá y el temor se centra en la rapidez con la que se ha avanzado en ese terreno y el problema que asoma en caso de que la IA se acerque a superar la inteligencia humana:
“La idea de que estas cosas pudieran volverse más inteligentes que las personas... algunos la creían, pero la mayoría pensaba que era una locura. Y yo pensaba que era una locura. Pensaba que faltaban 30, 50 años o incluso más. Obviamente, ya no lo creo”
Todos esos puntos llevaron a Hinton a tomar una decisión valiente y en la que creía tanto como cuando en 1972 empezó a estudiar y desarrollar la red neuronal precursora de la IA: abandonar Google para, desde una posición objetiva e independiente, alertar de los peligros que puede acarrear un avance sin control de la inteligencia artificial.
✕
Accede a tu cuenta para comentar