
Tecnología
El nuevo Premio Nobel de Física alerta de que la IA es 'una amenaza existencial' para la humanidad, pero tiene una solución
En una entrevista con Bloomberg, el 'padrino de la IA' Geoffrey Hinton insiste en que es probable que 'en algún momento de los próximos 20 años, estas cosas se vuelvan más inteligentes que nosotros'

A comienzos de mes, la Academia de Ciencias sueca otorgó el Premio Nobel de Física a John Hopfield y Geoffrey Hinton 'por descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales'. El segundo de ellos, el británico Hinton, es considerado desde hace años como 'el padrino de la IA' por su papel en sentar las bases de su desarrollo y por haber tenido una carrera más visible que la de su compañero de Nobel.
Este investigador de 76 años desarrolló en 2012, junto a Ilya Sutskever y Alex Krishevsky, una red neuronal capaz de analizar miles de fotografías y aprender por sí misma a identificar elementos comunes en ellas: animales, personas, objetos, etc. Esta tecnología se encuentra en la base del funcionamiento de chatbots como los que posteriormente crearon OpenAI y Google, y por ella recibió en 2018, junto a sus colegas Sutskever, cofundador de OpenAI y que recientemente abandonó, y Krishevsky, el premio Turing, considerado el Nobel de la computación.
Hinton comenzó a trabajar en IA para Google en 2013, compañía que abandonó una década después para tener la libertad necesaria para alertar de los peligros de la inteligencia artificial sin entrar en contradicción con su trabajo en la compañía. Lo ha hecho en varias ocasiones desde entonces, vaticinando un futuro sombrío y ha vuelto a hacerlo en una nueva entrevista, ya como Premio Nobel, concedida a Bloomberg, en la que habla de la 'amenaza existencial' que supone el desarrollo sin control de la IA.

'Sí, realmente es una amenaza existencial. Algunas personas dicen que esto es solo ciencia ficción y hasta hace poco yo creía que era algo muy lejano. Siempre pensé que sería una amenaza a muy largo plazo, pero pensaba que pasarían cien años antes de que tuviéramos cosas realmente inteligentes, tal vez 50 años. Tuvimos mucho tiempo para pensar en ello. Ahora creo que es bastante probable que en algún momento de los próximos 20 años, estas cosas se vuelvan más inteligentes que nosotros y realmente debemos preocuparnos por lo que sucederá entonces', afirma Hinton al medio.
Fue esta percepción la que le llevó a dejar su trabajo con la IA en Google. Hasta entonces, se había sentido cómodo con el enfoque de la compañía de no sacar nada hasta que fuera lo suficientemente seguro, pero el éxito de OpenAI con ChatGPT lo cambió. Como Microsoft, como Meta, como Open AI, Google comenzó a apresurarse en el desarrollo de nuevos productos de inteligencia artificial.
El nuevo Premio Nobel de Física no es solo agorero, sino que propone alternativas. Aboga desde hace tiempo por una regulación a nivel global de las inteligencias artificiales y en Bloomberg ha señalado que el Gobierno de Estados Unidos debería poner 'a los mejores investigadores jóvenes a trabajar en este problema con los recursos necesarios. Estos no los tienen los gobiernos, los tienen las grandes empresas. El Gobierno debería insistir en que las grandes empresas gasten mucho más en seguridad e investigación de la seguridad. Ahora mismo emplean un tanto por ciento bajo y casi todos sus recursos van a la creación de modelos más grandes y mejores'.
A la pregunta de cuál es la cantidad que deberían dedicar, Hinton explica que no se trata de un número sino un porcentaje de sus recursos de computación. 'Creo que sería perfectamente razonable decir un tercio. Ese es mi punto de partida, pero me podría conformar con un cuarto', afirma Hinton. Es decir, que una de cada tres GPU que empresas como Google, Microsoft o Meta emplean para la computación de sus modelos de lenguaje se use para investigar su seguridad.
✕
Accede a tu cuenta para comentar