Mardi 31 juin, l’équipe Google Brain – le think tank de la firme de Mountain View dédiée aux recherches en intelligence artificielle (AI) – présentait la première création musicale de son nouveau programme d’AI, Magenta. À l’écoute, la première séquence de piano composée par le programme (en écoute ici) sur laquelle l’équipe de Google a rajouté un beat, donnant le ton quant aux utilisations possibles des créations de Magenta. D'aucuns soulignent d'ailleurs des tonalités proches du piano Honky Tonk du synthétiseur Casio SA-1...

Plusieurs initiatives de recherches avaient d’ores et déjà créé des algorithmes permettant de générer des séquences musicales harmonieuses, voire de véritables symphonies. Or, ces programmes étaient essentiellement basés sur des stratégies d’imitation : une séquence musicale était entrée par l’homme, l’algorithme la modifiant pour improviser un nouveau morceau.

Avec Magenta, Google ouvre une nouvelle voie. Projet coopératif et open source, Magenta regroupe à la fois des artistes, codeurs, et chercheurs en machine learning. L'objectif, concevoir des algorithmes générant des musiques intégrant la part de hasard et d’innovation propre à la créativité humaine. Pour l’instant en phase d’initiation, le programme devrait acquérir des facultés créatrices de plus en plus puissantes.

Machine Music


L'initiative n'est toutefois pas nouvelle. Les premières expérimentations du genre datent de 1981. David Cope – ancien professeur de musique à l’Université de Santa Cruz (Californie) – travaillait alors sur un algorithme capable d’imiter le style musical d’un artiste. À partir d’une séquence fournie, l’algorithme recombinait les notes en une nouvelle suite logique afin de produire des travaux du même genre. En se concentrant sur la musique classique, David Cope a réussi à produire – à partir des travaux de Bach ou Mozart – des symphonies dont l’authenticité a trompé plus d’un expert quant à leur origine humaine ou informatisée.



En 2010, l’Université de Malaga (Espagne) créait Iamus, un module informatique appliquant un processus de sélection naturelle à des séquences musicales afin de composer des morceaux de musique classique en éliminant les séquences disharmonieuses. Développé dans le cadre du même projet, Melomics étend Iamus aux autres genres musicaux et sort en 2014 le premier album entièrement composé et interprété sans intervention humaine. Attention, l'écoute peut être un peu douloureuse.



D’après Daniel Cope, ce type de programmes permettrait de lever certaines barrières à la création : ils traduiraient rapidement une idée abstraite en notes de musique. Ainsi, il s'agirait d'une véritable économie de temps, d’énergie et d’argent en éliminant rapidement les mauvaises idées des artistes.

Une vision eugéniste de la musique ? L’ancien professeur de musique taxe de ridicules les craintes d’une éviction de la créativité humaine par les ordinateurs : elles sont d’après lui la seule expression de la vanité humaine et bloqueraient un progrès commun bénéfique à la création. De par leurs liens originels avec la technologie, les musiques électroniques pourraient être les premières bénéficiaires de cette révolution. Et les producteurs, leurs premières victimes. Great.