Estamos más cerca que nunca antes en la historia de que una máquina, un robot, sea capaz de llevar a cabo de forma autónoma eso que los humanos llamamos música. Pero si algo nos ha distinguido a través de los tiempos es la capacidad de desarrollar artes a partir de los sentimientos. Entonces, ¿puede una IA llegar a ser una estrella de la música?

Si atendemos al concepto de música más tradicional, hablamos del arte del ser humano para combinar de manera lógica y coherente sonidos y silencios, y que para ello es necesario el uso de los principios fundamentales de la melodía, la armonía y el ritmo, y aún así y con todo, también deben entrar en la ecuación la intervención de complejos procesos psico-anímicos.

Advertisement

Visto así, parece complicado pensar que una IA pueda componer, ya que no entiende de emociones, ¿o sí? El propio concepto de la música ha variado a lo largo de los años evolucionando hacia un concepto cada vez más abstracto y ligado a la propia tecnología. Si antes la máquina era el soporte para escuchar música, hoy la máquina es parte de la ecuación para crearla.

Es posible que el problema hoy sea definir qué es y qué no es música, porque ahí están los algoritmos de cientos de programas e instrumentos electrónicos que son capaces de componer en base a la programación. En cualquier caso vamos a intentar buscar la respuesta en los experimentos de ahora y antes como previo paso a ese posible futuro donde las máquinas deberían llegar a convertirse en autores y compositores de música en el mundo.

Siglo XIX, despertando a la electrónica

Práctica con un Telarmonio.

Sponsored

Para que una máquina pueda llegar a componer música debe de haber una relación directa con la tecnología musical electrónica, por lo que debemos remontarnos a finales del siglo XIX, un momento en la historia donde aparecía la figura de Edouard-León Scott de Martinville, el hombre que patentó en 1857 el fonoautógrafo, es decir, el primer dispositivo capaz de grabar sonido. Este sistema grababa los sonidos visualmente y no podía reproducirlos de nuevo.

Unos años más tarde aparece otra figura histórica, quizá de las más grandes, respondiendo a la pregunta sobre la posibilidad de crear música a partir de la electricidad. Hablamos de Thaddeus Cahill, pionero e inventor del telarmonio, un instrumento electromecánico, podríamos decir que un principio de órgano electrónico, que le llevó años de trabajo desde la patente de 1897.

Estamos ante el primer instrumento enteramente electrónico y polifónico, aunque con un problema: era inmenso (nada menos que 200 toneladas con una longitud de 18 metros de largo.). Un dispositivo que usaba una rueda tonal electromagnética que generaba sonidos típicos de órgano y piano ofreciendo hasta 7 octavas, 36 notas por octavas y frecuencias de entre 40 a 4000 Hz. Tras el primer Telarmonio se llegarían a construir dos modelos más, ambos más caros y aún mayores en tamaño. Un instrumento histórico y pionero que murió en el año 1916 tras el boom de la radiodifusión. No quedan grabaciones ni prototipos del mismo pero sin duda estamos ante el precursor de otros sistemas y programas con los que la electrónica se encaminaría a desarrollar “música”.

Siglo XX, las máquinas “cantan”

El ordenador Ferranti Mark I.

Advertisement

Saltamos de siglo y nos plantamos en mitad del siguiente. En 1949 aparece la CSIRAC, un prototipo de ordenador creado en Australia. Bajo este nombre se encuentra otro pequeño gran paso para que la IA componga, fue el primer ordenador capaz de reproducir música, melodía que no fue grabada aunque sí ha sido reconstruida con bastante exactitud. CSIRAC “tocó” música un día de agosto de 1951.

Unos meses tarde se sumaría un nuevo hito a través del ordenador Ferranti Mark I, el primer equipo que se destinó de manera masiva a la comercialización en el mundo. Pero además, este fue, según muchos, el primer ordenador en “interpretar” una canción, es decir, el primero en conseguir una grabación original gracias a un comando que permitía emitir un sonido (este a su vez era el que permitía a la máquina dar a los operadores una retroalimentación auditiva).

Advertisement

Este “sonido” se alteró en frecuencia de manera que el Mark I podía llevar a cabo “versiones”, entre otras In the Mood, Baa Baa Black Sheep o God Save the Queen. Ocurrió en 1951 y fue grabado por la BBC con la ayuda en la programación de Christopher Strackey, profesor de matemáticas amigo de Alan Turing.

Seis años después, en 1957, Mat Mathews (de Bell Labs) conseguía otro pequeño paso desarrollando los programas MUSIC (culminado con MUSIC V), un lenguaje de síntesis directa digital.

Llegados a la siguiente década hacía su aparición el primer ordenador “cantante”, el primero que oficialmente “dio la nota” (más o menos). Hablamos del IBM 7094, el cual un 15 de enero de 1962 fue presentado en sociedad como modelo que sería utilizado ampliamente en el uso para experimentos científicos que necesitaban de potencia en los cálculos.

Advertisement

Advertisement

En cualquier caso este equipo pasará a los anales de la historia como el primero sobre el que se pudo modular y crear una voz sintética. Todo gracias a los programadores John Kelly, Carol Lockbaum y Max Mathews, quienes pusieron “en boca” del ordenador una versión del tema Daisy Bell de Harry Dacre. Si alguna vez te preguntaste la razón de que HAL 9000 cantase la letra en 2001, aquí tienes la razón. Un guiño del genio de Kubrick a la historia de este equipo pionero. De esta forma el 7094 conseguía interpretar una canción:

Un año antes, en 1961, LaFarr Stuart programaba el ordenador CYCLONE (Universidad de Iowa) con el que se conseguiría otro avance para tocar temas sencillos y bastante reconocibles a través de un altavoz amplificado adherido a un sistema que se había utilizado originalmente para temas administrativos y de diagnóstico. Una década, la de los 60, donde el sintetizador llegó para quedarse de la mano del mítico Modular Moog, lo que haría más fácil empezar a construir música desde una herramienta diseñada para lanzar sonidos nuevos (aunque siempre con la necesidad del hombre para programarlos).

La máquina como generador de música

Estudio de grabación. Foto: PrinceOfLove / Shutterstock

Advertisement

Saltando varias décadas y entrando en el nuevo siglo, la tecnología informática, con el software a la cabeza, ha logrado que la creación de música sea más accesible para la creación musical. Los algoritmos hoy son capaces de producir composiciones originales copiando a clásicos de cualquier género, aunque seguimos a cuestas con la misma pregunta, ¿podemos hablar de arte original en la composición generada a partir de una máquina?

Uno de los laboratorios de pruebas en este campo se está produciendo en París, en los laboratorios de Sony Computer Science. Un equipo formado por programadores y científicos centrándose en dos áreas: las múltiples facetas de la interacción en la música y los desafíos actuales para describir lo que es la música.

Advertisement

Con estos mimbres el equipo trabaja en algoritmos que permitan a los ordenadores llevar a cabo acercamientos, aunque “propios”, de una gran variedad de estilos, desde Bach hasta un solo de John Coltrane. Se busca por tanto generar melodías basadas en compositores conocidos. La idea es conseguir desarrollar una aplicación que fluya sola como compositora de música.

¿Cómo? Lo que buscan es construir programas que analicen obras de compositores para luego sintetizarlas dándole salida a otras con las mismas características distintivas. Los dos vídeos siguientes muestran alguno de los trabajos realizados en laboratorio.

David Cope es otra eminencia actual en el desarrollo en la idea de máquinas que compongan música. Se trata de un científico y compositor de San Francisco que se ha centrado en la investigación de la música y su relación con la IA. Para ello creó un software en 1981 bajo el nombre de EMI (Experiments in Music), una serie de algoritmos que eran capaces de interpretar música a partir de la información que recibía, de forma que la sintetizaba en otra, en una nueva.

Posiblemente con la llegada de EMI cabe preguntarse donde está límite o quién es el autor tras la “nueva” melodía. Más tarde y con el tiempo el propio Cope ha evolucionado su trabajo con Emily Howell, un programa que perfeccionaba aún más el algoritmo inicial de EMI. Los siguientes vídeos son una prueba de hasta donde ha llegado, el primero con una nueva sinfonía a partir del original de Vivaldi. En el segundo EMI toma a Chopin como “profesor”.

También puede existir variantes, donde la máquina no sea el compositor, pero sí parte de la banda. Este es el caso de Orchestrion, aunque aquí el verdadero genio es el músico Pat Metheny y su prodigiosa idea en el año 2009. El guitarrista estadounidense de Jazz cambió los parámetros establecidos para construir toda una banda de “robots” a su alrededor, una “banda” con la que acabó de gira.

Advertisement

Metheny sustituyó al hombre por una IA que toca instrumentos reales, todo controlado a través de midi y él mismo como “hombre orquesta”. Como vemos en los vídeos a continuación, el ordenador responde a Metheny cuando este toca la guitarra. En este caso no existe sampler ni es un proyecto de estudio, es todo en directo, con instrumentos reales y gracias al estudio de la IA junto a un grupo de científicos e ingenieros en Estados Unidos. El músico acabaría su proyecto con una gira en el 2010 de más de 100 conciertos en todo el mundo, lo que daría como resultado The Orchestration Project.

La propia DARPA en Estados Unidos también trabaja en el desarrollo de IA avanzada para componer música. La idea que tienen es la de conseguir robots que puedan producir y reproducir su propia música Jazz, probablemente uno de los géneros más complicados de llevar a cabo por una IA debido a la importancia de la improvisación.

La razón de que este desarrollo esté centrado en el jazz se basa en la idea de que las máquinas entiendan la propia improvisación del ser humano, lo que ayudaría a los científicos a enseñar a la IA cómo tomar caminos no programados ante problemas o situaciones de emergencia. Para ello DARPA ha financiado un software que pueda interactuar con músicos, un proyecto donde se busca que reaccionen y tomen decisiones espontáneas en tiempo real basadas a su vez en condiciones cambiantes. Un proyecto en ciernes al que aún le falta mucho recorrido pero que podría dar con la construcción de una verdadera IA capaz de resolver problemas y expresar una forma de creatividad.

Advertisement

Acabamos esta aproximación en la búsqueda de IA como compositores con dos proyectos más. El primero es el trabajo que se realiza desde España en este campo. Se trata de Iamus, un ordenador creado por la Universidad de Málaga con la capacidad de crear sinfonías por sí solo sin necesidad del hombre de por medio.

Iamus funciona a partir de unas pequeñas “reglas” a la hora de construir una composición tales como el número de instrumentos o el tiempo que va a durar la obra. Tras ellas, el ordenador y su algoritmo son capaces de construir piezas en segundos. La composición que vemos a continuación es Nasciturus, una sinfonía de música clásica contemporánea creada únicamente por un ordenador.

El segundo es el desarrollo que llevó a cabo Mason Bretan, estudiante en el Instituto de Tecnología de Georgia. Mason ha sido capaz de construir un sistema de IA que genera música a partir de conocimientos teóricos previos. Una idea que le surgió como experimento o idea de tener robots que le acompañen mientras toca música. Brutal.

Viendo el conjunto de esfuerzos y proyectos en conjunto a lo largo de la historia, quizás es posible que estemos más cerca de lo que creemos de construir la máquina perfecta, esa que sea capaz de crear nuevos clásicos contemporáneos, y que además lo haga basados en nuestros propios gustos. Sería increíble.

Psst! también puedes seguirnos en Twitter y Facebook :)