Inteligencia Artificial

Una IA transforma en imágenes tus sueños

Lo hace analizando los patrones de la actividad cerebral. El sistema no precisó de entrenamiento previo.

Stable Difussion
En la imagen superior las imágenes "reales" y debajo las reconstruidas por la IA. Sí, aún falta precisión.Yu Takagi y Shinji NishimotoYu Takagi y Shinji Nishimoto

Cuando hablamos de los últimos avances en inteligencia artificial, Stable Diffusion siempre ha estado entra las preferidas por quienes buscan crear nuevos tipos de imágenes. Es una IA muy fácil de utilizar y que en general requiere poco entrenamiento para sacar buenos resultados. Tanto que un equipo de científicos ha conseguido que lo haga sin instrucciones escritas y ahora le basta con “leer” la actividad cerebral para crear una imagen. Así de sencillo: transforma lo que pensamos, soñamos o imaginamos en imágenes, sin necesidad de describirlas.

En un estudio publicado por Yu Takagi y Shinji Nishimoto de la Universidad de Osaka, los autores proponen “un nuevo método de reconstrucción visual utilizando Stable Difussion. Mostramos que nuestro método puede reconstruir imágenes de alta resolución con alta fidelidad semántica a partir de la actividad cerebral de humanos. A diferencia de estudios previos de reconstrucción de imágenes, nuestro método no requiere entrenamiento ni ajustes de modelos complejos de aprendizaje profundo: solo requiere simples mapeos de fMRI (resonancias magnéticas funcionales)”.

Básicamente los autores descubrieron que podían reconstruir imágenes de alta resolución y alta precisión a partir de la actividad cerebral. La primera parte de esta investigación fue crear un modelo de los datos de la imagen, a partir de señales de fMRI. Luego, se procesó el modelo y se le agregó ruido (se completaron ciertas áreas) a través del proceso de difusión propio de la IA. Finalmente, los investigadores decodificaron representaciones de texto de señales de fMRI dentro de la corteza visual superior y las usaron como entrada para producir una imagen construida final. Antes de este nuevo estudio, ningún otro investigador había intentado usar modelos de difusión para la reconstrucción visual.

A pesar del carácter pionero, la base de esta investigación no es nueva: en 2014 el artista chino Jody Xiong utilizó biosensores EEG para conectar a dieciséis personas con discapacidad a globos de pintura. Los voluntarios usaron sus pensamientos para explotar globos específicos y crear sus propias pinturas. Lo interesante, y la próxima pregunta de los científicos es si esto se puede llevar a otros terrenos. El estudio habla de actividad cerebral humana pero, ¿podría utilizarse también en otros primates? ¿Qué hay de su uso en delfines por ejemplo?