78. Multitudes 78. Printemps 2020
Majeure 78. Cultivons nos intelligences artificielles

Faire de l’IA un instrument et compagnon de musique

et

Partagez —> /

Interview de Jean-Claude Heudin
par Ariel Kyrou

Aux initiatives actuelles pour tenter de faire de la musique avec l’intelligence artificielle, comme celles menées aujourd’hui par Google ou les équipes d’Elon Musk, manque l’essentiel : l’intention artistique et le feedback émotionnel. Telle est l’analyse de Jean-Claude Heudin, qui est à la fois un scientifique spécialisé dans l’intelligence artificielle et les sciences de la complexité, et un musicien et compositeur. Ce chercheur, qui a été l’un des premiers à concevoir un agent conversationnel du type Siri d’Apple, travaille aujourd’hui sur un projet d’IA pour la musique électronique : Angelia, avec en perspective pour 2020 un album regroupant ses premières « études inhumaines » pour piano. La voie d’avenir, selon lui, est en effet de coupler l’intelligence artificielle avec des instruments et que le code générant de la musique puisse être modifié en live, en fonction du jeu des musiciens ou de la réaction du public.

Ariel Kyrou : Jean-Claude, lorsque l’on parle de « musique et intelligence artificielle », le premier exemple qui vient en tête, et qui d’ailleurs apparaît comme par hasard au top d’une recherche avec ces mots-là sur Google, c’est Magenta de ce même Google : l’intelligence artificielle qui aurait été la première à avoir composé un morceau, d’ailleurs sans intérêt, en juin 2016, dans le cadre d’un programme de recherche en open source. Plus récemment, en avril 2019, il y a eu l’IA Dadabots « qui génère du Death Metal en continu », puis c’est Elon Musk qui a présenté MuseNet, « la nouvelle intelligence artificielle d’OpenAI, la fondation d’Elon Musk. Cette IA est capable de créer des chansons avec 10 instruments et 15 styles de musique différents… » Que penser de Magenta, de Dadabots ou de MuseNet ? Cela sonne tout de même comme de simples gadgets sans trop d’intérêt, non ?

Jean-Claude Heudin : Le problème avec la plupart de ces expérimentations est qu’elles ont certes un intérêt technologique indéniable, mais aucun intérêt artistique. Lorsque l’on s’attaque à un sujet aussi culturellement important que la musique, on s’attend à écouter quelque chose de nouveau ou d’émotionnellement marquant. Ce qui n’est pas le cas. Ces exemples utilisent d’ailleurs le plus souvent une approche similaire : pour simplifier, un réseau de neurones artificiel entraîné sur un très grand nombre de partitions d’un ou plusieurs compositeurs. À partir de là, si on lui présente quelques notes au départ, le réseau va tenter de prédire une suite en se basant sur ce qu’il a appris. Cela donne des résultats bluffants pendant quelques secondes, mais sur un temps plus long, cela devient rapidement ennuyeux, voire inaudible.

Avec du Frédéric Chopin par exemple, on obtient une suite de notes statistiquement correcte qui a effectivement un arrière-goût de Chopin, mais qui n’arrive jamais à nous faire ressentir l’émotion romantique caractéristique du compositeur polonais. Une sorte de Chopin lobotomisé en quelque sorte. De mon point de vue, il manque au moins deux choses fondamentales dans cette approche qui tente de reproduire les résultats spectaculaires d’un AlphaGo dans l’univers du jeu de go, transposé dans le monde de la musique : une intention artistique et un « feedback émotionnel ». La musique c’est de l’émotion à l’état pur, et là il n’y en a pas.

A. K. : L’enjeu serait donc de mettre dans le processus, et de l’intention artistique, et des émotions, par exemple via la réaction de musiciens ou à terme du public ? Mais est-ce seulement possible ? Et si oui, en utilisant quel genre d’intelligence artificielle ? Et de quelle façon, en imaginant quelles interactions, quels types de mécanismes de création entre l’individu et la machine ?

J.-C. H. : Le plus important est de remettre l’humain au centre. Trop souvent, sa place est tout simplement oubliée dans les projets d’intelligence artificielle. Ainsi, une IA pour la musique doit augmenter les capacités créatrices d’un artiste et non chercher implicitement à le remplacer. Il est donc impératif que cette IA soit interactive et qu’elle puisse s’insérer dans le processus créatif du compositeur.

Pour interagir, il faut un langage commun. La musique possède son propre langage, sous la forme des partitions connues de tous. Il y a longtemps déjà, certains musiciens ont proposé des alternatives plus graphiques et plus souples, comme Iannis Xenakis ou bien encore Brian Eno. Mais toutes ces représentations sont assez peu adaptées aux traitements algorithmiques. Pour ma part, je travaille donc à un « langage de programmation musical » à la fois compréhensible pour un auteur et interprétable directement par l’IA. Je m’intéresse aussi au live coding (ou en français « programmation à la volée »), une tendance musicale qui émerge depuis quelques années où l’on joue de la musique en direct avec du code informatique.

A. K. : Cela signifie donc que l’on pourrait coder en live, improviser du code dans le cadre d’une interaction avec un programme, pourquoi pas fonctionnant lui-même via une intelligence artificielle ? Pour le coup, ne serait-ce pas une petite révolution pour la musique, mais également pour la danse et tous les arts vivants, permettant non pas juste une programmation en amont puis une simple exécution du programme, mais une interaction permanente avec la machine ?

J.-C. H. : Oui, c’est bien cela. Cela peut paraître a priori étrange de vouloir créer ou modifier du code en temps réel pour créer de la musique. Je ne sais pas si on doit parler de révolution, mais ce type d’interaction ouvre des perspectives nouvelles, surtout si l’on parle d’intelligence artificielle. L’idée est que l’IA soit couplée à un instrument et que le code générant de la musique puisse être modifié, altéré. L’ensemble devient alors une sorte d’instrument augmenté. On peut ainsi imaginer de coupler des instruments classiques, comme un piano par exemple, ou bien des instruments plus originaux et conçus spécialement. Ainsi, pour mes expérimentations, outre le piano, j’utilise aussi un synthétiseur modulaire dont j’ai choisi l’architecture et tous les modules qui le composent : oscillateurs analogiques, samplers, filtres, générateurs d’enveloppe, effets, etc. C’est un instrument impressionnant, entièrement reconfigurable. Couplé avec l’IA, il s’anime et devient presque organique. Composer et jouer avec un tel instrument est très stimulant.

A. K. : Sous-jacent à tout ce qu’on dit là, dans le rapport à l’intelligence artificielle en matière de musique, il y a aussi cet enjeu d’émotion dont tu parlais ?

J.-C. H. : Oui, l’émotion est clairement un aspect crucial de mon approche de création musicale avec une intelligence artificielle. Ce sujet représente un véritable challenge pour la recherche en IA, car une machine ne ressent aucune émotion. Il serait trop long d’en expliquer ici les raisons, mais c’est un fait. De plus, dans une majorité de cas, l’IA est sourde : elle « n’écoute » pas ce qu’elle produit car elle « n’entend » rien. En cela, elle n’est pas plus évoluée que les automates musiciens du Siècle des lumières. Pour aller plus loin, il est néanmoins possible de concevoir des architectures où l’IA perçoit son environnement sonore. Les données obtenues peuvent être analysées en temps réel pour générer des stimuli qui font évoluer un « métabolisme émotionnel », sorte de simulation de notre système limbique, qui va en retour influer sur des paramètres modifiant l’expressivité de l’interprétation, ou le choix de telle ou telle ligne mélodique pour l’improvisation, par exemple. On peut ensuite imaginer étendre cette perception de l’environnement en « écoutant » les autres musiciens voire le public, ou augmenter la capacité de perception grâce à la vision artificielle.

A. K. : Là, c’est le moment où l’on commence à avoir le vertige. L’IA devient en quelque sorte à la fois un instrument préprogrammé, donc limité, et un partenaire du musicien ou compositeur, une sorte de musicien virtuel avec lequel interagir… Donc, si je comprends bien, l’IA n’entend pas, n’écoute pas, mais enregistre et traite en permanence les données de son environnement sonore – et pourquoi pas visuel – pour faire évoluer sa façon de jouer voire de composer en live, c’est-à-dire d’improviser. Mais ce mot, improviser, n’est-il pas absurde à propos d’une machine ?

J.-C. H. : Non, improviser n’est pas un terme absurde. Beaucoup pensent qu’une machine ne peut pas être créative. Cela sous-entend que la création serait une sorte de don mystérieux réservé à l’humain. Un musicien se lève un matin et hop, l’inspiration lui vient et, comme illuminé, il crée une mélodie à partir de rien. D’une part, cela passe sous silence l’énorme quantité de travail nécessaire à un compositeur pour parvenir à des résultats probants. D’autre part, toute création n’émerge pas du néant, mais s’appuie sur une longue lignée d’œuvres déjà existantes, de styles, de règles, de longs processus d’apprentissage et de méthodes. Il n’y a aucune raison pour que cela ne soit pas possible avec un ordinateur. Je vais prendre un exemple. La nature est d’une créativité incroyable, mais nous savons aujourd’hui que ce qui est à l’œuvre est le principe de l’évolution par sélection naturelle. On peut tout à fait simuler ce principe pour obtenir des programmes qui sont capables de créer de nouvelles structures à partir de plus anciennes. On appelle cela des algorithmes génétiques. C’est l’une des méthodes que j’utilise pour créer et sélectionner des mélodies lors des phases de composition ou d’improvisation. Les mélodies sont alors comme des brins d’ADN que l’évolution peut croiser et muter afin d’obtenir une nouvelle génération de mélodies. En s’inspirant des processus créatifs que l’on observe dans la nature, on obtient des programmes qui sont capables de créativité.

A. K. : Ce point-là, de la créativité potentielle d’une intelligence artificielle en tant que telle, est un sujet polémique. D’abord, je ne suis pas certain du tout que la nature puisse être mathématisable et que l’on puisse résumer la vie à une évolution par sélection naturelle. La vie, ou plutôt la vitalité d’un individu comme d’un collectif me semblent beaucoup plus que cela : quelque chose de l’ordre de la fulgurance, des moments de poésie et de rupture, une capacité parfois improbable d’utiliser une activité pour un art n’ayant rien à voir, par hasard ou par sérendipité, à la façon du ticket de métro ou de l’épingle à cheveu que Kurt Schwitters utilisait pour son Merzbau. Imaginer une machine qui, sans le moindre apport humain en amont, serait une musicienne inouïe ? À court ou moyen terme, impossible d’y croire. Pour être créative et improviser à la façon d’un John Coltrane au sax ou d’un Jaco Pastorius à la basse, une IA réellement autonome devrait avoir une histoire et cultiver des histoires avec ses congénères elles aussi autonomes, multipliant les activités pour s’inspirer de multiples influences, souvent involontaires. Que cette perspective ne soit pas impossible en théorie, je te l’accorde volontiers, ne serait-ce que par amour de la science-fiction, mais on en est si loin que je n’imagine pas que nous puissions ne serait-ce que tutoyer un tel Everest avant des centaines voire des milliers ou dizaines de milliers d’années. Pour peu que nous puissions créer un jour des machines à ce point performantes sans qu’elles ne dépensent une énergie si folle que cela reviendrait à actionner une chaîne de cataclysmes nucléaires, je me demande si tu ne travailles pas, en réalité, pour un très lointain futur, tel celui de la Culture dans la série de romans de Iain M. Banks… Serais-tu plus optimiste que moi ?

J.-C. H. : Je me suis mal fait comprendre. Je n’ai pas dit que tout ce que l’on observe autour de nous était dû à la sélection naturelle, mais que c’était un principe essentiel pour le vivant. Il existe bien d’autres lois, comme par exemple la gravitation en physique, qui permettent de mieux comprendre le monde qui nous entoure, mais en partie seulement. Je suis viscéralement attaché à la notion de complexité.

Personnellement, je n’utiliserais pas le terme de « fulgurance », car comme je l’ai dit, il laisse croire à une sorte d’illumination quasi divine, tout en masquant les années de travail nécessaires pour devenir un John Coltrane ou un Jaco Pastorius. Utilisé conjointement avec celui de « vitalité », cela m’évoque le discours vitaliste et son étincelle divine, ce que je réfute totalement. À la place de fulgurance, je préfère le terme d’émergence, qui est au cœur des sciences de la complexité. On le vulgarise souvent par un vieux dicton : « Le tout est plus que la somme de ses parties. » Des nombreuses interactions non-linéaires d’éléments, associées parfois au hasard, émergent des propriétés ou des structures qui ne sont pas présentes au niveau des éléments pris indépendamment.

En outre, je n’ai pas dit qu’il n’y avait aucun besoin d’apport humain, bien au contraire, surtout dans un domaine comme la musique, où la culture, les cultures devrais-je dire, sont essentielles. Dans mon projet, j’utilise d’ailleurs des bases de connaissances qui contiennent les règles mélodiques et harmoniques, ainsi que de nombreuses « partitions » provenant de compositeurs classiques comme Frédéric Chopin, Sergei Prokofiev, etc., ou bien encore Chick Corea, Keith Jarrett pour le jazz. J’en intègre de nouvelles régulièrement, qui viennent enrichir le « vocabulaire musical » de l’IA, tout comme un musicien apprend de ses maîtres en travaillant des morceaux qui deviendront pour lui sa culture musicale, ses références.

Mais je suis d’accord sur le fond : une IA consciente et totalement autonome relève de la science-fiction, et pour très longtemps encore. Mes objectifs sont plus modestes, même si j’aime jouer avec l’imaginaire que cela suggère.

A. K. : Revenons sur Terre. As-tu déjà commencé à expérimenter ces travaux de recherche musicale, pourquoi pas dans le cadre d’un concert ?

J.-C. H. : Je travaille sur mon projet d’intelligence artificielle pour la musique électronique depuis l’été 2018. Le projet s’appelle Angelia, une contraction de « Angel » (ange en français) et IA. Il est en cours de développement et même s’il reste encore beaucoup à faire, les premiers résultats sont très prometteurs. J’ai déjà réalisé un live en « duo » avec Angelia et le synthétiseur modulaire en novembre 2019, et je prépare un premier album pour 2020. Celui-ci regroupera les premières « études inhumaines » pour piano. Les lives sont très importants, car ils représentent un moment, artistiquement fort et d’échanges avec le public, toujours très intéressant. Ils permettent d’expérimenter en conditions réelles, ce qui est indispensable pour progresser.

A. K. : Rêvons un peu, mais en toute lucidité. Imaginons que l’idée de substitution totale de l’humain par l’intelligence artificielle ne soit plus le Graal des projets de type Magenta de Google, et que, d’ici six ans, tes recherches se soient concrétisées de façon substantielle, au même titre que d’autres dans la même direction. Comment, dans six ans donc, pourrais-tu décrire un concert mêlant des humains et des intelligences artificielles différentes, avec sons comme images, et pourquoi pas des interactions avec le public. À l’idéal, à quoi cela pourrait-il ressembler ?

J.-C. H. : « Difficile à dire… Toujours mouvant est l’avenir », disait le vieux maître Jedi. Six ans, c’est à la fois long et très court. En tout cas, je ne m’intéresse pas à des concerts où les musiciens seraient des robots. Mon rêve serait de pouvoir jouer avec d’autres musiciens, avec des instruments classiques et d’autres augmentés, créant de nouvelles expériences sonores, assistés par des « anges » qui subliment la musique. Je rêve aussi de l’émergence de nouvelles formes ou styles musicaux, et d’expériences émotionnelles interactives. Et puis peut-être que l’un des anges y chantera, en écho du monologue final de l’androïde qui va mourir dans Blade Runner : « J’ai vu tant de choses que vous, humains, ne pourriez pas croire… »