Miden con inteligencia artificial la respuesta del cerebro ante diversos géneros musicales y este es el resultado
Una investigación determina que la respuesta cambia según los gustos del oyente, lo que podría favorecer la creación de aplicaciones de recomendación
Creada:
Última actualización:
Investigadores de la Universidad de Málaga (UMA) han analizado cómo responde el cerebro al oír distintos géneros musicales y han clasificado mediante inteligencia artificial las señales eléctricas que se producen en él, diferenciando además cómo se comportan si es voz o melodía. Los expertos han concluido que el cerebro responde de manera distinta ante los diversos estímulos y han identificado esas diferencias según las relaciones entre los niveles de energía de las señales eléctricas que se registran en las diferentes regiones cerebrales, según ha informado la Fundación Descubre.
Han observado que éstas cambian según el género musical que se escuche y si gusta o no la canción que suena. Sabiendo cómo reacciona el cerebro según el estilo que se está escuchando y los gustos del oyente, se puede llegar a afinar más la selección que se propone al usuario, según el investigador Lorenzo J. Tardón. Esto podría permitir el desarrollo de aplicaciones de recomendación musical que irían más allá de las listas de reproducción actuales.
Para ello han definido un esquema de caracterización de la actividad cerebral basado en las relaciones entre las señales eléctricas, adquiridas en diferentes localizaciones por medio de electroencefalografía, y su clasificación mediante el uso de dos tipos de pruebas: binaria y multiclase. La primera de ellas utiliza tareas con algoritmos sencillos, donde se diferencian voz hablada y música. La segunda, más compleja, analiza las respuestas cerebrales al escuchar canciones de diferentes géneros musicales: balada, clásica, metal y reguetón.
Las redes neuronales son herramientas de inteligencia artificial para procesar datos de una manera similar al funcionamiento del cerebro humano. Los resultados de este trabajo se obtuvieron mediante la red neuronal conocida como LSTM bidireccional, que aprende relaciones entre los datos, que se pueden interpretar como memoria a largo y corto plazo. Es un tipo de arquitectura utilizada en aprendizaje profundo que trata la información en dos direcciones diferentes, desde el principio hasta el final y viceversa. De esta manera el modelo reconoce el pasado y el futuro de las referencias incluidas y crea contextos para la clasificación.
El electroencefalograma muestra las zonas del cerebro que se activan según el género musical que se escuche. Concretamente, la red neuronal utilizada para realizar estas tareas de clasificación consta de 61 entradas que reciben las secuencias de datos con las relaciones de energía entre las diferentes zonas del cerebro. La información se procesa en las sucesivas capas de la red para generar respuestas a las preguntas que se realicen sobre el tipo de contenido sonoro que se escucha, o los gustos de la persona que escucha una pieza musical.
En los ensayos, los voluntarios estaban provistos de unos gorros con electrodos que captan la señal eléctrica del cerebro, y al mismo tiempo, se conectaban unos altavoces donde se oía la música y se establecían unas marcas de sincronización para comprobar lo que ocurre en cada momento durante la media hora del experimento. Los investigadores continúan sus estudios para evaluar otro tipo de sonidos y tareas y la reducción del número de canales del electroencefalograma, lo que permitiría una mayor usabilidad del modelo para otras aplicaciones y entornos