Ciencia española
Avance en IA: no solo es más humana, también nos supera
“Hemos demostrado, por primera vez, que una red neuronal genérica puede imitar o superar la generalización sistemática humana en una comparación directa", señalan los autores.
Alan Turing debe estar mordiéndose las uñas, esperando el momento en el que su test se vea superado con honores. Si las IAs son cada vez más capaces o inteligentes, según cómo se vea, ahora han dado un salto que se perseguía desde finales de los años 1980. Los seres humanos tienen la capacidad de aprender un nuevo concepto y luego usarlo inmediatamente para comprender los usos relacionados de ese concepto. Una vez que aprendemos el concepto “leer”, podemos usarlo para otros contextos, como “leer entre líneas” o “leer la palma de la mano”. Esto se conoce como “generalizaciones compositivas”. Y una IA ha alcanzado este umbral.
A finales de la década de 1980, Jerry Fodor y Zenon Pylyshyn, filósofos y científicos cognitivos, postularon que las redes neuronales artificiales (básicamente los motores que impulsan la inteligencia artificial y el aprendizaje automático) no son capaces de establecer las conexiones conocidas generalizaciones compositivas. Sin embargo, en las décadas posteriores, los científicos han estado desarrollando formas de llevar esta capacidad a la tecnología de inteligencia artificial… con éxito desigual.
Ahora, un equipo de científicos de las universidades de Nueva York y la Pompeu Fabra, han desarrollado una técnica, publicada en Nature, que mejora la capacidad de herramientas como ChatGPT, para hacer generalizaciones compositivas. La técnica, bautizada Metaaprendizaje para la composicionalidad (MLC), supera los enfoques existentes y está a la par, y en algunos casos mejor, que el desempeño humano. El MLC se centra en el entrenamiento de redes neuronales para mejorar la generalización compositiva a través de la práctica.
Hasta ahora se esperaba que fuera posible alcanzar esta etapa de desarrollo a partir de métodos de entrenamiento estándar de aprendizaje automático, pero MLC lo ha abordado desde otra perspectiva: entrenando al sistema en esa habilidad precisa y esto es lo que ha permitido desbloquear nuevos poderes, señalan los autores del estudio.
"Durante 35 años, los investigadores en ciencias cognitivas, inteligencia artificial, lingüística y filosofía han estado debatiendo si las redes neuronales pueden lograr una generalización sistemática similar a la humana – explica en un comunicado Brenden Lake, uno de los autores del estudio -. Hemos demostrado, por primera vez, que una red neuronal genérica puede imitar o superar la generalización sistemática humana en una comparación directa".
Al explorar la posibilidad de reforzar el aprendizaje compositivo en redes neuronales, los investigadores crearon MLC, un novedoso procedimiento de aprendizaje en el que una red neuronal se actualiza continuamente para mejorar sus habilidades a lo largo de una serie de desafíos. En uno de ellos, por ejemplo, MLC recibe una nueva palabra y se le pide que la use en la composición; por ejemplo, tomar la palabra "saltar" y luego crear nuevas combinaciones de palabras, como "saltar dos veces" o "saltar dos veces hacia la derecha". Luego, MLC recibe un nuevo desafío que presenta una palabra diferente, y así sucesivamente, mejorando cada vez las habilidades de composición de la cadena.
Para comprobar la eficacia de MLC, Lake y Marco Baroni, investigador del Instituto Catalán de Investigación y Estudios Avanzados de la Pompeu Fabra University, llevaron a cabo una serie de experimentos con participantes humanos que eran idénticos a las tareas realizadas por MLC.
Además, en lugar de aprender el significado de palabras reales (términos que los humanos ya conocerían), también tuvieron que aprender el significado de términos sin sentido (por ejemplo, "zup" y "dax") tal como los definieron los investigadores y saber cómo aplicarlos. Los resultados mostraron que MLC funcionó tan bien como los participantes humanos y, en algunos casos, mejor que nosotros, superando también a los sistemas más conocidos, como ChatGPT y GPT-4.
“Los modelos de lenguajes grandes como ChatGPT todavía luchan con la generalización compositiva, aunque han mejorado en los últimos años – concluye Baroni -. Pero creemos que MLC puede mejorar aún más las habilidades de composición de modelos de lenguaje grandes".
✕
Accede a tu cuenta para comentar