Inteligencia artificial: ¿Los robots matarán a las estrellas de la música?

El primer concurso de canciones producidas por inteligencias artificiales se ha celebrado ya.

El mundo puede volverse virtual de un momento a otro. Estamos sobreviviendo a una pandemia, pero quién sabe qué traerá el futuro. De momento, los museos, el cine y la música ensayan modelos cibernéticos de difusión. Pero, ¿qué hay de la creación? ¿Puede experimentar cambios relacionados con la tecnología a corto plazo? Aunque hay quien teme que una máquina pueda llegar a competir con el cerebro humano, estamos todavía bastante lejos de eso cuando hablamos de creación «cultural». Muchos artistas han puesto en marcha proyectos de instalaciones movidas por un algoritmo. Antes del coronavirus, pudo verse en Madrid la obra de Ian Cheng (a través de la Fundación Sandretto Re Rebaudengo) en la que la intervención del artista se reduce a la producción de un algoritmo que genera automáticamente las imágenes, que narran una historia. En el caso de la música, en 2020 estamos en una fase que podemos calificar de «infancia de la inteligencia artificial», pero en la que empiezan a darse progresos llamativos. El último ha sido el «Eurovisión de la robótica» que se celebró entre 13 equipos con el objetivo de crear un tema de tres minutos escritos con modelos de código abierto y propios. Científicos, programadores y músicos presentaron sus temas para el concurso, pero los proyectos en este área se multiplican: músicos de vanguardia y reconocido prestigio como Arca y Toro y Moi han utilizado inteligencia artificial para sus creaciones. Recientemente se ha presentado una máquina, llamada Jukebox, creada por investigadores del laboratorio OpenAI que, tras «aprender» 1,2 millones de canciones ha sido capaz de, mediante un algoritmo, generar canciones partiendo de cero e imitando el «estilo» de artistas y géneros que solo reconoce el oído humano, como Sinatra o 2 Pac. ¿Matarán algún día los robots a las estrellas del pop?

Los algoritmos ya están en la música desde hace tiempo. En servicios como Spotify, por ejemplo, que escanean, registran y predicen nuestros gustos. Otra cosa es que estos algoritmos sean capaces de producir música. En 2018, Francois Pachet, un pionero de la música de IA lanzó el primer álbum pop compuesto con inteligencia artificial, «Hello, World» y el año pasado, la cantante y compositora experimental Holly Herndon publicó «Proto», un álbum en el que interactuaba con una versión de sí misma generada por inteligencia artificial.

Modular «beats»

También Brian Eno exploró este universo en «Reflection» y después en «The Ship» y cada vez ha más proyectos de compañías de vanguardia como The Mill o Amper generan melodías automáticamente y permiten modular preferencias como el género, la instrumentación o los «beats» por minuto. Los diferentes equipos de la Eurovisión robótica, llamada AI Contest, fueron convocados a presentar sus canciones, que cada equipo elaboró con diferentes enfoques. Por ejemplo, Algomus and Friends, el equipo francés, combinaron la inteligencia artificial con un toque humano. Los alemanes de Ligatur, en cambio, dejaron al programa hacer todo el trabajo con el objetivo de que se vieran «sus potencialidades y sus limitaciones». Cada grupo debía presentar, además de su propuesta, un informe de los sistemas empleados en la escritura de la melodía para descartar demasiada intervención humana. Finalmente, fue el equipo australiano Uncanny Valley quienes se llevaron la victoria con «Beautiful The World». Según describía la propia organización, el evento trataba de «investigar las habilidades creativas de la inteligencia artificial y su impacto. En el fondo, el planteamiento no parece tan ajeno a al aprendizaje humano. Para generar nueva música, los modelos artificiales tienen que “escuchar” grandes cantidades de música existentes (procesar datos) antes de que puedan generar “ideas musicales significativas”».

Sin embargo, estos proyectos están lejos de ser los únicos en la materia. Curiosamente también con Eurovisión como trasfondo, el año pasado se presentó un proyecto que trataba de «explorar la creatividad humana y desafiarla». Con unos principios parecidos, los ingenieros de Oracle Israel desarrollaron una red neuronal que trató de producir una «canción tipo de Eurovisión» procesando cientos de las presentadas al concurso anteriormente. Afab Sobol, unos de sus responsables, señaló que «no se trataba tan sólo de componer una canción, había que investigar primero el ADN de una típica canción de Eurovisión y después lograr que una máquina lograra componerla». El resultado, «Blue jeans and bloody tears» es más que aceptable, aunque con algo de trampa: los responsables del proyecto dijeron que la canción fue producida por la inteligencia artificial, pero lo cierto es que fue necesaria la intervención del ser humano para elegir y ordenar los cientos de fragmentos que el sistema había generado. Por otro lado, sin una garganta humana, la de Izhar Cohen, ganador israelí de Eurovisión 1978 con «A-ba-ni-bi», habría sido difícil de digerir la expresión robótica del muñeco. Aquí está el resultado.

Otro proyecto interesante es el de Dadabots, un canal de Death Metal en que un sistema de IA está componiendo música de manera ininterrumpida durante 24 horas y que se presentaron al Eurovisión robótico con «I’ll Marry You, Punk Come», un tema con el que quedaron en segunda posición, que mezcla sonidos electrónicos y cantos gregorianos con un resultado bastante irregular. Incluso hay proyectos de música de estilo tradicional como el DAC (Deep Artificial Composer), creado en Suiza por la Escuela Politécnica Federal de Lausana, que crea partituras musicales de estilos irlandés tradicional o klezmer. Lo han logrado gracias al aprendizaje que realiza el algoritmo al entrenarle con típicas canciones tradicionales.

Fase embrionaria

Por último, recientemente se han presentado los resultados de otro proyecto, Jukebox, que ha conseguido resultados notables para una fase embrionaria de la inteligencia artificial. Utilizando lo que denominan una «red neuronal» con el mismo tipo de tecnología de aprendizaje automático utilizada para crear falsificaciones de vídeos («deep-fakes») entrenaron al modelo con música «sin atributos» o «cruda». Los investigadores de OpenAI explican que generar música al nivel de audio terminado como haría un humano es un desafío enorme ya que las secuencias son muy largas. Una canción típica de 4 minutos con calidad de CD (44 kHz, 16 bits) tiene más de 10 millones de pasos, es decir, que aprender la semántica de alto nivel de la música es muy complejo atendiendo simplemente a las combinaciones posibles de cada canción. Además, la estadística no es buena narradora. Sin embargo, estos investigadores fueron capaces de hacer «aprender» a la máquina hasta 1,2 millones de canciones de diversos artistas y géneros. El modelo, de cuyos frutos puede escucharse en la red, es capaz de producir una canción con estilo a lo Elvis Presley, Katy Perry, Frank Sinatra, 2Pac y Rage Against the Machine. Es cierto que el resultado no es completamente redondo, sino que los productos suenan a bocetos o pastiches de varias cosas a la vez, pero el logro, según los científicos, es grande porque el programa reconoce cualidades de la música como lo haría un oído humano.