Inteligencia Artificial

Un implante cerebral permite que una persona con parálisis se comunique mediante un avatar digital

El dispositivo intercepta las ondas cerebrales de un paciente, las “traduce” a palabras y expresiones faciales y, finalmente, las exterioriza envía al avatar

Interfaz cerebro/ordenador
Ann, de espaldas, entrenando el algoritmo de IA para reconocer las señales cerebrales.Noé BergerNoé Berger

A principios de año todo el mundo se hizo eco de la tecnología que permitió que una persona tetrapléjica volviera a caminar después de 12 años. La tecnología se basaba, básicamente, en la interfaz cerebro-ordenador, un puente que desde un ordenador envía señales a la mente salvando los tramos rotos o dañados. Pero a pesar de todos nuestros en esta tecnología, los dispositivos que ayudan a los pacientes con parálisis grave a comunicarse siguen siendo extremadamente lentos. Hasta ahora.

Dos equipos de científicos, de la Universidad de Stanford y de la de Berkeley, han diseñado un dispositivo capaz de cambiar por completo cómo se comunican estas personas, según relatan en un estudio publicado en Nature. En términos muy básicos, el dispositivo intercepta las ondas cerebrales de un paciente, las interpreta en habla y expresiones faciales y las exterioriza en un avatar digital de sí mismo.

"Nuestro objetivo es restaurar una forma de comunicación plena y encarnada, que es la forma más natural para nosotros de hablar con los demás - señala Edward Chang, coautor del estudio, en un comunicado -. Estos avances nos acercan mucho más a hacer de esta una solución real para los pacientes".

El equipo de Chang ha demostrado que su implante cerebral puede permitir a los pacientes "hablar" hasta 80 palabras por minuto y, en promedio, entre 60 y 70, simplemente pensando. Aunque no es tan rápido como el habla humana natural, que puede producir 160 palabras por minuto, esto aún supera el triple del récord anterior. La base del implante es una herramienta para convertir las señales cerebrales en texto. Para ello, los investigadores entrenaron un algoritmo de IA con las señales eléctricas del cerebro de sus pacientes mientras se repetían una selección de frases. El algoritmo fue diseñado no para buscar palabras, sino sus distintas unidades de sonido llamadas fonemas.

Para Alexander Silva, coautor del estudio, el funcionamiento es sencillo: "si hacemos un sonido P o un sonido B, implica juntar los labios. Eso activaría una cierta proporción de los electrodos que intervienen en el control de los labios".

Esta etapa del dispositivo también es bastante precisa, con una tasa de acierto del 91%. Para lograr algo parecido al habla de la vida real, los investigadores llevaron el implante un paso más allá al equipar un software de animación con una IA personalizada que podría usar las señales de palabras del paciente para simular expresiones faciales. Combinando esto con una reconstrucción de su voz, el habla del paciente podría plasmarse en una copia digital en una pantalla cercana.

Eso sí, hay que destacar que la tasa de error del 9 % se produjo con un vocabulario de solo 50 palabras. Sin embargo, cuando llegaron a un vocabulario de 125.000 palabras, la tasa de error era cercana al 24%, lo cual sigue siendo impresionante, pero sin duda sería frustrante de usar, al menos mientras el algoritmo no reciba tanta información. Luego del entrenamiento y uso, esta tasa puede descender aún más.

Lo importante es que los investigadores han demostrado que este tipo de dispositivo es posible, al menos para el paciente específico para el que lo diseñaron. Las versiones futuras tendrán que demostrar su valía en pacientes con todo tipo de parálisis y, con suerte, reducir los errores, pero hasta ahora los hallazgos son prometedores.