Investigación IA

Ilya Sutskever, uno de los padres de ChatGPT, desvela el potencial humano inesperado: "Es posible que las redes neuronales humanas sean más profundas de lo que pensamos"

El modo en que los humanos aprendemos determinadas disciplinas deja ver un principio de aprendizaje que se puede asociar con una complejidad neuronal que todavía no se traslada a entornos artificiales

Ilya Sutskever durante la entrevista para el pódcast con Dwarkesh Patel
Ilya Sutskever durante la entrevista para el pódcast con Dwarkesh PatelYouTube

La industria de la inteligencia artificial ha cogido velocidad de crucero. Al menos así lo indican las evoluciones que se ven en cada nuevo modelo que lanzan los grandes referentes del sector, como OpenAI, Anthropic o más recientemente Google, quien hace escasos días puso a disposición de los usuarios las capacidades de Gemini 3 con su mejora en razonamiento y comprensión de matices.

Con la inteligencia artificial general (AGI) en el horizonte hay quienes tratan de frenar la euforia de la industria o, al menos, diferenciar bien lo que puede implicar y lo que no. Y es que existen estudios científicos que recalcan que el lenguaje y el pensamiento humano son materias independientes, algo que supone un obstáculo insalvable de cara a que la AGI pueda llegar a pensar como los humanos.

Una línea compartida en cierto modo por un experto en aprendizaje profundo y redes neuronales artificiales como el informático teórico y cofundador de OpenAI Ilya Sutskever. Alumno aventajado de Geoffrey Hinton, uno de los padrinos de la inteligencia artificial, Sutskever defiende la idea de que los humanos contamos con lo que él denomina "función de valor", un principio central de aprendizaje que revela una complejidad neuronal a la que la IA no tiene modo de hacer frente. Al menos por ahora.

El aprendizaje automático como pista de mayor complejidad neuronal

Así lo manifestó Sutskever, que el próximo 8 de diciembre cumplirá 39 años, durante su participación en el espacio de divulgación que Dwarkesh Patel ofrece a través de su canal de YouTube, en el que cuenta con más de un millón de suscriptores que siguen sus pódcast y entrevistas sobre ciencia e investigación. La inteligencia artificial puede seguir aprendiendo, aunque tal vez haya capacidades del cerebro humano que le cueste obtener.

En el transcurso de la charla con Ilya Sutskever, quien abandonó su puesto de científico jefe en OpenAI el pasado año, el que fuera impulsor de los primeros pasos de la compañía junto a Sam Altman, Elon Musk y otros, reconoció que existe en el cerebro humano la existencia de un principio de aprendizaje automático que permite a las personas ser conscientes de manera ágil y rápida de aquello que están recibiendo por primera vez.

Para explicar su idea, Sutskever se sirvió de la analogía de un joven que aprende a conducir sin profesor externo gracias a esa “función de valor”. Pese a ello, algo en la mente denota el punto en que puede encontrarse: “Un adolescente que está aprendiendo a conducir empieza a conducir y ya tiene una idea de cómo conduce inmediatamente. Su confianza es baja, y luego, por supuesto, la velocidad de aprendizaje de cualquier adolescente es tan rápida que después de 10 horas ya está listo”, expresó.

Un ejemplo con el que Ilya Sutskever llegó al punto central de su exposición, el hecho de que tal vez las máquinas podrían aprender de ese mismo modo, aunque existe una complicación que él mismo señaló. Esa complicación es la complejidad neuronal que se oculta tras dicha capacidad del cerebro humano, que puede ser mayor de lo que establece la creencia actual:

"Sin embargo, puede haber otro obstáculo: la posibilidad de que las neuronas humanas realicen más cálculos de lo que creemos. Y si eso es cierto, y si juega un papel importante, las cosas podrían ser más difíciles. En cualquier caso, creo que apunta a la existencia de un principio de aprendizaje automático sobre el que tengo opiniones"

Ilya Sutskever, antiguo científico jefe de OpenAI, durante el pódcast de Dwarkesh Patel

Un principio de aprendizaje que Sutskever considera que no sería sencillo de replicar por parte de la inteligencia artificial en sus modelos, si bien reconoce que podría inspirar mejores métodos de aprendizaje para la IA aunque asumió que “lamentablemente las circunstancias dificultan su análisis en detalle.”