
Cerebro
Este dispositivo convierte tus pensamientos en voz y podría devolver el habla a muchos pacientes
Una investigación de la Universidad de California ha logrado traducir la actividad cerebral en palabras en tiempo real

Imagina que un accidente te hubiera arrebatado el habla, que pudieras entender un discurso e incluso pensar con palabras, pero que fueras incapaz de emitirlas. ¿Te sientes atrapado? Ese es el caso de pacientes con parálisis que afectan a las cuerdas vocales u otras estructuras relacionadas con el habla, su cerebro está en plena actividad, pero desconectado del cuerpo. Por suerte, un dispositivo diseñado por investigadores de la Universidad de California Berkeley podría devolverles el habla en tiempo real e, incluso, su antigua voz.
La investigación acaba de ser publicada en el revista Nature Neuroscience y presenta resultados revolucionarios. Porque ya existían interfaces cerebro-máquina capaces de traducir “pensamiento” en voz, pero este es ocho veces más rápido que los mejores jamás diseñados. En menos de un segundo es capaz de transformar la actividad cerebral del sujeto en sonidos y, gracias a la inteligencia artificial, hacer que suene con el timbre y el tono que tenía antes del accidente. Detalles que no solo devuelven la capacidad de comunicarse verbalmente, sino parte de la identidad perdida con la parálisis.
De chispazos a palabras
Nuestro cerebro no es un ordenador, pero tampoco una caja de magia y fuegos artificiales. En parte, está constituido por células que se comunican a través de impulsos eléctricos y sustancias químicas y cuya actividad podemos analizar. Durante el último siglo la neurociencia ha basado buena parte de su éxito (y sus errores) en el desarrollo de nuevas técnicas de neuroimagen, como la resonancia magnética funcional o la gammagrafía. Estas, junto con las famosas electroencefalografías, permiten “ver” qué partes del cerebro se activan en cada instante y nos ayudan a cartografiar su superficie, buscando correlaciones relevantes.
Por ejemplo, si vemos que una región concreta de la corteza que hay sobre nuestra nuca se activa ante las imágenes en color, pero no con las que son en blanco y negro, podemos sospechar que esa región está relacionada con el procesamiento del color. Con estudios más finos, podemos incluso aprender a identificar las formas geométricas que están viendo los sujetos. Porque, de todas las funciones cognitivas, la visión es una de las que comprendemos mejor. Y, aunque sabemos bastante sobre el lenguaje, la estructuras encargadas de producirlo son mucho más abstractas, no podemos trazar un mapa de en qué zona de nuestra corteza se encuentra la palabra “queso” o la sílaba “mo”. ¿Cómo funciona entonces el invento de la Universidad de California? ¿Cómo han logrado traducir la actividad cerebral en palabras?
Un poco más adelante
Los dispositivos cerebro-máquina capaces de devolver el habla a sujetos resuelven el problema de cartografiar las estructuras cerebrales relacionadas con la producción de lenguaje de una forma bastante elegante: simplemente, lo ignoran. Porque si hay una función cognitiva que conocemos casi tan bien como la vista es la motricidad y, una vez se ha generado una frase en nuestras estructuras del lenguaje, tenemos que vocalizarla. El área motora primaria ya está bien cartografiada, tanto que podemos pintar sobre ella la silueta deformada de un humano, representado qué zona de la corteza controla el movimiento de cada músculo. Así que… ¿y si el dispositivo solo tiene que identificar cómo indica el cerebro que se deberían de mover las cuerdas vocales? Eso es relativamente más sencillo y, por suerte, funciona. En este caso, los investigadores le presentaron unas frases escritas a Ann, su sujeto de pruebas. Tras pedirle que intentara pronunciarlas en silencio, analizaron la actividad eléctrica de su área motora primaria, acumulando una gran cantidad de datos.
A continuación, los expertos buscaron correlaciones con la ayuda de una inteligencia artificial, una suerte de diccionario que vinculara patrones de actividad concretos con sonidos. Con ese diccionario, si Ann intentaba vocalizar en silencio sus pensamientos, solo tenían que registrar la actividad eléctrica de su cerebro, alimentar con ella a la inteligencia artificial y, con el diccionario, esta podría ponerle voz de una forma similar a como lo hacen los asistentes del hogar, como Siri o Alexa. De hecho, los investigadores se inspiraron en algunas características de estos dispositivos para reducir el tiempo que tardaba en convertir la información en voz, pasando de 8 segundos a apenas 1.
Más ventajas
Es más, la tecnología desarrollada funciona tan bien que no solo es capaz de vocalizar palabras con las que ya hubiera sido entrenada. Los expertos le pidieron a Ann que intentara pronunciar las 26 palabras del alfabeto fonético de la OTAN (Alpha, Bravo, Charlie…) y los resultados fueron excepcionales. El dispositivo no solo es mucho más rápido que sus antecesores, sino que los iguala en precisión. La velocidad no ha supuesto un sacrificio y parece que puede funcionar a partir de información sobre la actividad cerebral recogida con sistemas relativamente diferentes. Según narran los investigadores, han podido replicar los resultados a partir de información tomada con electrodos insertados en el cerebro y otros colocados en su superficie. Esta flexibilidad podría contribuir a consolidar la tecnología y acercarnos un poco más al día en que los interfaces cerebro-máquina logren devolver su voz a pacientes como Ann.
QUE NO TE LA CUELEN:
- Aunque los resultados son muy prometedores, todavía no podemos asegurar su implementación en el panorama sanitario. La llegada de los interfaces cerebro-máquina ya ha comenzado, pero tardará en completarse.
REFERENCIAS (MLA):
- Anumanchipalli, Gopala, et al. “A Streaming Brain-to-Voice Neuroprosthesis to Restore Naturalistic Communication.” Nature Neuroscience, 31 Mar. 2025, https://www.nature.com/articles/s41593-025-01905-6.
✕
Accede a tu cuenta para comentar