Máquinas que necesitan dormir y la estupidez artificial

Las inteligencias artificiales son cada vez más sobrehumanas, pero existe otro camino que propone entontecerlas para estudiarnos a nosotros mismos.

Oveja eléctrica como alegoría a la famosa novela de Philip K. Dick que dio lugar a la película Blade Runner: ¿Sueñan los androides con ovejas eléctricas?
Oveja eléctrica como alegoría a la famosa novela de Philip K. Dick que dio lugar a la película Blade Runner: ¿Sueñan los androides con ovejas eléctricas?AnónimoCreative Commons

Tal vez los androides no sueñen con ovejas eléctricas, pero puede que debieran hacerlo. Estamos lejos de ese mundo de replicantes que Philip K Dick imaginó y los androides, robots con forma humana, no son la punta de lanza de nuestra tecnología. Aunque existen autómatas sobrecogedores, como los famosos actores de los vídeos de Boston Dynamics, la verdadera revolución parece estar viniendo de la inteligencia artificial. Es mucho más abstracta que un robot, pero imita nuestras capacidades cognitivas e incluso supera a algunas de ellas.

Por suerte, hace tiempo que algunos investigadores se han dado cuenta de que esta deriva no es la única posible y que, si nuestro propósito es estudiar nuestro cerebro con la ayuda de redes neuronales, puede que tengamos que entontecerlas un poco. Nuestros cerebros no tienen una memoria perfecta y su capacidad de atención termina por disiparse, tal vez en el momento más inoportuno. La novedad no es tanto esta suerte de estupidez artificial, sino el hecho de que, buscándola, encontremos que algunos de nuestros aparentes defectos como criaturas orgánicas que somos son, en realidad, ventajas. Aquí es donde entra el sueño, una supuesta debilidad que podría no ser tal.

Menos humano

En los últimos años o, mejor dicho, en los últimos meses, la inteligencia artificial se ha revolucionado. Tenemos inteligencias artificiales capaces de escribir artículos, de componer música, de reconocer todo tipo de objetos, de pintar cuadros, incluso de programar. No obstante, aunque algunas de estas mejoras han sido inspiradas en cómo funciona nuestro cerebro, la mayoría han sido perfeccionadas alejándose de cualquier inspiración biológica. Las hemos optimizado deshaciéndonos del incómodo corsé de la evolución, creando más allá de las restricciones impuestas por nuestra biología y la de nuestros ancestros. En algunos casos, ni siquiera hemos dirigido nosotros esa mejoría, como es el caso de los algoritmos evolutivos, o las redes neuronales adversarias, capaces de mejorarse a sí mismas o compitiendo con otras respectivamente.

Para entender este devenir de los acontecimientos, podemos retrotraernos sucintamente a uno de los primeros hitos de la inteligencia artificial, el diseño del perceptrón por Frank Rosenblatt en 1958. El perceptrón imitaba una neurona a la luz de los últimos descubrimientos en biofísica por parte de Hodgking y Huxley, aunque dejando de lado detalles biológicos para conferirle más peso a cierta idea desarrollada por McCulloch y Pitts unos años ante, la de abstraer el funcionamiento de las neuronas que componen nuestro cerebro como si fueran puertas lógicas. Estas puertas lógicas, en lenguaje común, podrían entenderse como palabras que nos ayudan a trabajar con conceptos lógicos, como “Y” para denotar que han de ocurrir dos cosas para que suceda algo, u “O”, para indicar que tiene que suceder una cosa u otra para que tenga lugar un evento.

El perceptrón de Rosenblatt era una especie de neurona artificial y poco a poco, con el tiempo, fue sumándose a otras neuronas, creando complejas capas donde unas se comunicaban con otras y otras con unas, estableciendo interacciones análogas a las de nuestro cerebro. Por el camino hubo más inspiraciones biológicas, pero llegó un momento en que hizo falta algo más. Es sencillo entenderlo si lo comparamos con las prótesis. Durante muchos cientos de años las prótesis buscaron ser estéticas y su funcionalidad se veía limitada por el intento de que se parecieran lo máximo posible a la estructura anatómica perdida. La revolución llegó cuando entendimos que podían ser mucho más útiles si olvidábamos ese intento de emular lo anatómicamente correcto y buscábamos lo tecnológicamente óptimo. Esta es la idea que terminó dando a luz a las prótesis que usan algunos velocistas, por ejemplo, anatómicamente irreconocibles, pero mucho más rápidas de lo que sería un pie clásico.

Así es como poco a poco las inteligencias artificiales fueron apartándose del cerebro que las vio nacer. Sin embargo, hay un pie, y es que, a diferencia de un dedo gordo, cuya biomecánica conocemos al dedillo, el encéfalo y más concretamente nuestro cerebro, siguen siendo una gran incógnita. Sabemos que en él tienen lugar multitud de procesos que pueden parecernos caprichosos por el simple hecho de que ignoramos su finalidad. ¿Cómo podemos entonces saber de qué rasgos “humanos” conviene prescindir por completo en estas simulaciones?

Entonces ¿de qué prescindimos?

Este problema se vuelve especialmente importante cuando lo que buscamos no es tanto un uso comercial de estas inteligencias artificiales, como un apoyo para simular los procesos cognitivos que tienen lugar en nuestro cerebro. Un ejemplo es el sueño. Sabemos mucho más sobre él de lo que sabíamos durante la primera mitad del siglo pasado. Ahora sabemos que el sueño tiene una influencia clara en nuestra capacidad de almacenar recuerdos, sabemos que tiene una gran influencia sobre nuestro estado anímico y hemos sido capaces de desvelar la arquitectura que lo constituye, las distintas fases de actividad cerebral que atravesamos durante el sueño.

No obstante, seguimos desconociendo su función precisa, y ahí entran en juego las inteligencias artificiales. Algunas de ellas, especialmente diseñadas para imitar estructuras cerebrales o funciones cognitivas específicas, nos permiten estudiar los efectos que tiene en ellas introducir una actividad análoga al sueño. Por supuesto, estos resultados hay que interpretarlos con cuidado, pero incluso en los casos más conservadores, si el diseño experimental es bueno, puede ayudarnos a hacer más robusta alguna de las hipótesis existentes sobre cómo funciona el sueño en nuestro cerebro.

Por ejemplo, uno de los modelos más extendidos para explicar cómo nos ayuda el sueño a fijar recuerdos consiste en imaginar los recuerdos como conjuntos de neuronas especialmente conectados entre sí, esto es, que suelen activarse juntas y de forma independiente al resto del cerebro. Cada vez que activamos este conjunto de neuronas, sus uniones se refuerzan, haciendo más difícil que el tiempo las debilite y perdamos el recuerdo. Los hipocampos son unas estructuras cerebrales especialmente plásticas, esto es, propicias a que las uniones entre sus neuronas cambien, se refuercen o se debiliten con facilidad. Permite un aprendizaje rápido creando memorias a corto plazo, no obstante, como he dicho, al ser tan plástico también se debilita antes.

Precisamente por eso es interesante que tales memorias acaben siendo fijadas en un soporte más estable, como la corteza de nuestro cerebro, menos plástica por lo que más difícil de guardar, pero también más difícil de perder. Durante el sueño, posiblemente, se activen los recuerdos más recientes una y otra vez, reforzando sus uniones y permitiendo que, por repetición, se fijen en la corteza cerebral, llevándolos así a una memoria a largo plazo.

La máquina que duerme

Pues bien, podemos crear redes neuronales artificiales que imiten estos sistemas muy grosso modo y ver si los resultados al introducir el sueño son los esperados. La realidad que hay tras estas inteligencias artificiales es mucho más parca de lo que se suele imaginar, apenas un montón de números ordenados por filas y columnas que, al operar entre ellos, acaban haciendo que emerjan propiedades similares a las que queremos estudiar a la hora de manipular información.

Un ejemplo, sin ir más lejos, fue el del estudio de Alberto Fachechi, Elena Agliali y Adriano Barra en 2019, publicado en la revista Neural Networks. En él empleaban una red neuronal en desuso para propósitos comerciales, pero lo suficientemente simple y “biológica” como para tener cabida en este experimento. El modelo de Hopfield empleado, que así se llama, aprende de forma equivalente a esas neuronas que, cuando se activan juntas, se refuerza su asociación, de hecho, ese tipo de aprendizaje recibe el nombre de Hebbiano y es el que clásicamente tiende puentes entre redes neuronales naturales (biológicas) y artificiales (las de las inteligencias artificiales). La clave del estudio estuvo en implementar dos fases, una en la que la red neuronal aprendía y fijaba en su “memoria” patrones, y otro en que más o menos podríamos decir que dormía, momento en que purgaba los patrones menos relevantes que había guardado durante su vigilia para quedarse con los más robustos.

Más allá del curioso planteamiento del estudio, los resultados fueron muy llamativos. La red neuronal durmiente era capaz de almacenar casi 8 veces más información que una red de Hopfield clásica gracias a sus fases de vigilia y sueño. Sus memorias se volvían más robustas al ruido y al paso del tiempo y, en cierto modo, ayudan a hacer algo más probable la hipótesis aquella del hipocampo volcando información en la corteza durante el sueño, al menos en cuanto a sus aspectos más generales.

Queda mucho camino por recorrer, tanto en las inteligencias artificiales más puras como en aquellas que buscan “entontecerse” para estudiar al mismo cerebro del cual una vez emergieron. Con el tiempo veremos progresos asombrosos en ambas áreas, eso es algo casi seguro, la verdadera incógnita no es tanto esa, como qué más aparentes defectos de nuestro cerebro terminarán por revelarse como genialidades de la evolución.

QUE NO TE LA CUELEN:

  • Las inteligencias artificiales no son simulaciones perfectas de nuestro cerebro ni buscan serlo. Incluso las que buscan emular sistemas biológicos no deben replicar cada detalle, pues perderían la esencia generalizadora que han de tener los buenos modelos matemáticos. No debemos olvidar que son números operando entre sí siguiendo reglas. Lo que emerge de ellos es fascinante, pero tiene una clara diferencia ontológica con aquello que sucede en nuestros cerebros, condicione esto más o menos los límites de lo biológico y lo artificial.

REFERENCIA (MLA):