
Investigación
Un proyecto pionero desarrollará neuroprótesis del habla basadas en IA explicable
El objetivo es avanzar en la decodificación del habla y el lenguaje a partir de señales cerebrales mediante el uso de algoritmos avanzados de inteligencia artificial

La Universidad de Granada (UGR) desarrollará neuroprótesis del habla basadas en inteligencia artificial explicable con un proyecto pionero que busca devolver la comunicación a personas con pérdida del habla mediante interfaces cerebro-computadora y algoritmos avanzados.
La UGR ha obtenido financiación en la convocatoria nacional 'Proyectos de Investigación en el Ámbito de la Inteligencia Artificial 2025 para desarrollar NeurSpeechXAI', que busca crear neuroprótesis del habla capaces de descifrar la intención comunicativa de una persona a partir de su actividad cerebral.
La iniciativa, dirigida por el investigador del Departamento de Teoría de la Señal, Telemática y Comunicaciones de la Escuela Técnica Superior de Ingenierías de Informática y Telecomunicación José Andrés González, ha recibido 478.900 euros y se ha situado entre las 69 propuestas financiadas.
NeurSpeechXAI forma parte de un proyecto desarrollado en colaboración con la Universidad del País Vasco y el Basque Center on Cognition, Brain and Language (BCBL) de San Sebastián y tiene como objetivo avanzar en la decodificación del habla y el lenguaje a partir de señales cerebrales mediante el uso de algoritmos avanzados de inteligencia artificial.
El proyecto busca poder ayudar a personas que han perdido la capacidad de hablar por lesiones neurológicas o enfermedades neurodegenerativas como la esclerosis lateral amiotrófica (ELA) y que, en los casos más graves, pueden encontrarse en un estado de enclaustramiento, plenamente conscientes pero sin posibilidad de comunicarse verbalmente.
El proyecto busca desarrollar neuroprótesis que transformen señales cerebrales en texto o voz sintetizada, utilizando algoritmos similares a los que emplean asistentes virtuales como Siri o Alexa, pero adaptados para interpretar directamente la actividad neuronal.
Este enfoque promete una comunicación más rápida, directa y natural, abriendo nuevas vías de autonomía para personas con discapacidades motoras severas.
La investigación combinará algoritmos de IA con distintos métodos de registro de la actividad cerebral, tanto invasivos como no invasivos, para analizar cómo se codifica el lenguaje en diferentes niveles.
Sumará técnicas de IA explicable (XAI) que permitirán interpretar qué patrones cerebrales influyen en las decisiones de los modelos, aportando herramientas valiosas para su validación clínica y para avanzar en el conocimiento del cerebro humano.
En NeurSpeechXAI participan investigadores del Centro de Investigación Mente, Cerebro y Comportamiento (CIMCYC) de la UGR, especialistas de la Unidad de Neurocirugía del Hospital Virgen de las Nieves de Granada y el Neural Interfacing Lab de la Universidad de Maastricht (Países Bajos), referente mundial en interfaces cerebro-computadora centradas en el habla.
✕
Accede a tu cuenta para comentar


