
Apple
Unos científicos investigan cómo unos AirPods, combinados con inteligencia artificial, podrían leer nuestra mente
Apple investiga cómo convertir los AirPods en auriculares capaces de leer señales cerebrales en tiempo real

Hasta ahora, los AirPods eran sinónimo de música, llamadas y comodidad en nuestras orejas.
Pero Apple quiere que sean mucho más y quiere llevar su creación a un punto que parece alejado de la realidad, y es que la marca de la manzana quiere crear unos auriculares capaces de interpretar lo que pasa en tu cerebro.La idea suena a ciencia ficción, pero las investigaciones ya apuntan a que podrían leer señales cerebrales en tiempo real gracias a inteligencia artificial y sensores avanzados.
Auriculares que escuchan más allá de la música
La clave está en trasladar la tecnología EEG hospitalaria, la misma que se usa en hospitales para estudiar la actividad cerebral, al oído. En lugar de colocar electrodos sobre el cuero cabelludo, los nuevos AirPods integrarían diminutos sensores en su carcasa, capaces de captar las señales eléctricas que genera el cerebro.
Esos datos viajarían al iPhone, donde un algoritmo entrenado con autoaprendizaje los procesaría para reconocer patrones típicos humanos como son la atención, el estrés, las fases del sueño o incluso posibles anomalías neurológicas.
Lo sorprendente es que todo esto ocurriría sin que el usuario tenga que hacer nada.
Es decir, el sistema, conocido como PARS, aprende por sí mismo a diferenciar las señales, sin depender de bases de datos etiquetadas por especialistas.
En pruebas experimentales, los resultados han igualado o superado métodos tradicionales, lo que abre la puerta a que un dispositivo cotidiano pueda realizar funciones que antes estaban reservadas a equipos hospitalarios.
Imagina lo que esto significaría en la vida diaria de una persona, y es que los AirPods podrían avisarte si estás demasiado cansado para conducir, detectar episodios de estrés antes de que se desborden, registrar tus ciclos de sueño o incluso ayudar a entrenar la concentración con técnicas de biofeedback avanzado.
Pero es que no solo se quieren quedar en lo que transmite el cerebro, sino que quieren llegar a todas las partes del cuerpo, y es que con otros sensores integrados podrían medir el pulso sanguíneo, la actividad muscular facial o los movimientos oculares.
La información se procesaría en tiempo real y, si el usuario lo autoriza, podría compartirse con profesionales médicos para un seguimiento más preciso clínico.
Pero ahora es cuando deberíamos parar y pensar y preguntarnos: ¿qué significa que unos auriculares puedan leer nuestra mente?
Para algunos, será una herramienta de bienestar y prevención; para otros, un recordatorio de que la intimidad cerebral es el último territorio por conquistar.
Lo cierto es que Apple está empujando los límites de lo que entendemos por “auriculares”. Ya no se trata solo de escuchar música, sino de escuchar al cuerpo.
Y aunque todavía queda camino por recorrer, la idea de que unos AirPods puedan anticipar un problema de salud o ayudarte a descansar mejor ya no parece tan lejana posible.
✕
Accede a tu cuenta para comentar


