Cerebro

Este bebé entrenó una inteligencia artificial con solo 2 años

Sam, recogió información visual y auditiva en primera persona durante varios meses con la que han enseñado a hablar a una IA

Este es Sam, un bebé que llevó 61 horas una cámara con la que se pudo entrenar a una inteligencia artificial para que aprendiera "a hablar".
Este es Sam, un bebé que llevó 61 horas una cámara con la que se pudo entrenar a una inteligencia artificial para que aprendiera "a hablar".NYU'sNYU's Center of Data Science

¿Hay algo innato en el lenguaje? Esa ha sido una de las preguntas que más ha intrigado a filósofos, lingüistas y neurocientíficos durante décadas y, ahora, los autores de un estudio publicado en la revista científica Science dicen tener la respuesta gracias a la inteligencia artificial. Durante 19 meses, los investigadores registraron la experiencia en primera persona de Sam, un bebé que empezó el estudio teniendo apenas medio año y que, ahora, ya tiene 11 años.

Es importante entender que, aunque el estudio duró desde que Sam tenía 6 meses hasta que tenía 25, la cámara que pusieron en su frente no estuvo grabando todo ese tiempo. En total, registró apenas 61 horas durante todo ese tiempo y buena parte del tiempo, captó ruido de fondo, voces que se superponían o imágenes sin mucha relevancia que no apuntaban a la fuente de las voces, por lo que hace difícil interpretar lo que estaba escuchando. A partir de todo eso, los investigadores han logrado 600.000 fragmentos de vídeo que han emparejado con 37.500 palabras captadas por el micrófono. ¡Muchísimo menos que los 400 millones de imágenes que suele necesitar normalmente una IA!

Un resultado excelente

Eso ha sido suficiente para que una IA bastante básica aprenda a reconocer objetos, lo cual, para los investigadores, prueba que no hace falta tener un cerebro predispuesto para el lenguaje para aprenderlo como lo hacen los bebés. En palabras de Brenden Lake, científico cognitivo computacional de NYU y uno de los investigadores principales del estudio: "Según nuestros cálculos, a un niño le llevaría 100.000 años escuchar la cantidad de palabras habladas que necesitan normalmente los chatbots para aprender. Yo también dudaba que esos modelos pudieran arrojar mucha luz sobre el aprendizaje y el desarrollo humano".

Los resultados fueron magníficos, la IA, a pesar de no ser de las más sofisticadas ni de lejos, logró identificar correctamente un 62% de los objetos que le mostraron los investigadores. Por supuesto, se trataba de objetos que ya había visto Sam y la tarea de la IA era elegir qué foto entre cuatro opciones correspondía a una palabra dada. Sin embargo, resulta que el tiempo de entrenamiento es un porcentaje muy superior al que alcanza por puro azar, rondando el 25%. Todo esto es especialmente sorprendente si recordamos que el tiempo grabado representa apenas el 1% del tiempo que Sam estuvo despierto durante esos años. No obstante, de ahí a negar que en el cerebro humano hay cierta predisposición al lenguaje, hay todo un mundo.

No tan rápido

Las ideas más radicales acerca de que la gramática sea relativamente innata al ser humano han sido descartadas por numerosos estudios científicos y argumentos filosóficos desde los tiempos en que Chomsky popularizó la cuestión. Así que, en realidad, el debate actual se centra más bien en torno a cuánto nos condiciona la biología de nuestro cerebro en este aprendizaje, tanto para bien como para mal. Sabemos que no es mucho, pero que, indudablemente, es algo. Así pues, los resultados obtenidos por este estudio no son tan revolucionarios como parecen sugerir sus investigadores.

Por otro lado, hay problemas claros con el planteamiento de la investigación. Por un lado, la inteligencia artificial se centra en cuestiones semánticas, pero el lenguaje es mucho más y, de hecho, la gramática (ausente en el estudio), es la verdadera cuestión de debate.

En segundo lugar, estamos hablando de una inteligencia artificial especialmente diseñada para aprender por asociación y contrastando palabras similares, pero no idénticas para que sus diferencias ayuden a establecer clasificaciones. Es cierto que estos procesos son análogos a los que ocurren en el cerebro de un bebé, pero no son iguales y, por lo tanto, asumir que las conclusiones sacadas sobre el funcionamiento de una IA son extrapolables a un cerebro de humano son, como poco, peliagudas.

Así que no, por desgracia Sam y los adultos que le colocaron una cámara en la frente durante 19 meses no han logrado probar gran cosa, y aunque el estudio es vistoso e interesante, posiblemente no pase a la historia de la ciencia o, en todo caso, lo hará como una anécdota. Y todo esto nos invita a reflexionar y preguntarnos si un estudio merece la pena antes de empezarlo, sobre todo cuando requiere la colaboración de personas.

QUE NO TE LA CUELEN:

  • Noam Chomsky, planteaba que existe una gramática innata, la hipótesis de la estructura profunda, y ahora sabemos que es incorrecta. Sin embargo, no debemos caer en el lado contrario de la balanza y negar la influencia biológica o sobrestimar la cultural, como la hace la hipótesis de Sapir–Whorf en su versión fuerte, que considera que las lenguas influyen en la estructura de nuestro cerebro determinando completamente nuestra percepción del mundo

REFERENCIAS (MLA):

  • Wai Keen Vong et al. 2024. Grounded language acquisition through the eyes and ears of a single child. Science (383) 504-511. DOI:10.1126/science.adi1374.