ANGELIA : ange ou démon de l’IA musicale ?

futuristic-computer-eq`uipment-glows-dark-connected-by-network-server-generated-by-ai-1080x675.png
06 Jun, 2025

Le créateur d’ANGELIA est-il un musicien ou un scientifique ?

Je suis musicien, mais mon métier de base est la recherche en intelligence artificielle. J’ai obtenu mon doctorat et l’habilitation à diriger des recherches à l’université d’Orsay. Mes travaux à cette époque, on est en 1988, portaient sur la réalisation d’un microprocesseur IA pour les applications embarquées. Je me suis ensuite intéressé aux architectures et algorithmes biomimétiques, autrement dit comment concevoir des ordinateurs et des programmes inspirés par la nature. Puis, avec deux personnes/associés, on a créé et développé la première école du web à partir de 1995. À cette époque, on nous prenait pour des fous ! J’ai quitté l’enseignement en 2017 et depuis je me consacre au projet ANGELIA.

Je crois savoir que tu as aussi écrit un « best seller » de l’IA : Comprendre le Deep Learning ?

En tant que chercheur, j’ai écrit de nombreux articles et ouvrages sur l’IA et la robotique, dont « Les créatures artificielles » et « Robots et Avatars » chez Odile Jacob. Oui, en 2016, j’ai publié le premier livre en français sur le Deep Learning [1], qui a contribué à faire connaître les réseaux de neurones à un public de plus en plus large.

ANGELIA, une IA hybride entraînėe uniquement sur de la musique du domaine public. Explique-nous !

Conscient des problèmes liés au Deep Learning, j’ai plutôt orienté mes travaux vers ce que j’appelle « l’intelligence algorithmique ». C’est bien de l’IA, mais l’humain reste au cœur du processus de création. ANGELIA vient des termes « Angel », ange en français, et « IA » [2]. Elle peut être décrite comme une IA générative, mais à la place d’un « prompt », il y a un véritable langage de programmation musical, qui fait appel à plusieurs types d’algorithmes en fonction des besoins : algorithme génétique, développement fractal, automates cellulaires, chaînes de Markov, entre autres. L’apprentissage utilise peu de données et ces dernières sont sélectionnées avec soin parmi un corpus de grands compositeurs classiques, tous du domaine public.

 Tu mentionnes les problèmes liés au Deep Learning, peux-tu préciser ?

Les IA génératives actuelles utilisent essentiellement les technologies auto-régressive et/ou des modèles de diffusion latente [3]. Les résultats sont impressionnants, mais ils sont généralement assez stéréotypés, sans grande originalité. En outre, ces outils utilisent pour cela un volume considérable de données, au mépris du droit des artistes. Ils sont énergivores et ont besoin d’eau pour refroidir les infrastructures nécessaires.

Enfin, ce sont des « boîtes noires » utilisables par l’intermédiaire de requête séquentielle par prompt, ce qui est inadaptée pour les performances lives et la composition musicale en général. A contrario, ANGELIA s’exécute sur une simple tablette, avec des algorithmes parfaitement explicables, sur des corpus limités libres de droits. Son langage de programmation permet une écriture précise de la musique, laissant une large part de création au compositeur.

 ANGELIA, l'éternel prototype ou un jour accessible chez un éditeur ?

Si ANGELIA est un projet de recherche, c’est avant tout un projet artistique. Je ne souhaite pas rendre la technologie accessible, car mon objectif est de composer, faire des concerts, et cela me prendrait beaucoup trop de temps de créer un produit avec toutes les contraintes de marketing, développement, et de support que cela implique. De même, pas de Github où mon code servirait de données pour entraîner une IA éthiquement discutable. Je fais cela pour créer de la musique, car c’est ce qui me motive. Et puis, au bout du compte, les technologies sont éphémères, c’est lamusique qui prime.

J'ai eu la chance de performer live avec toi au SynthFest (synthfestfrance.com). Raconte-nous ce qui se passe lorsque l’on joue avec une IA sur scène.

ANGELIA est conçu pour composer, et aussi pour interpréter la musique en temps réel. Elle ne génère pas directement du son, mais des commandes et du MIDI(*) qui contrôlent de véritables instruments électroniques.

J’utilise un setup modulaire composé de synthétiseurs, de sampleurs et d’effets. Cela me permet de travailler précisément sur le rendu final, l’orchestration, les textures sonores des instruments.

Sur scène, ANGELIA joue fidèlement la « partition » en appliquant des algorithmes d’humanisation, voire d’improvisation, afin de rendre l’interprétation plus vivante. J’interviens un peu comme un DJ qui mixe les différents instruments, pour assurer la meilleure cohérence musicale, modifier la dynamique, ajouter des effets. C’est comme jouer en duo avec une machine intelligente. Et ici sur scène, Laurence Laurence Malherbe, Mezzo-Soprano a improvisé avec ANGELIA tout comme toi derrière tes claviers ! La sensation est intense, il n’y a pas de “eye contact” avec ANGELIA : tout doit se faire à l’oreille. Faut être bon musicien pour jouer avec une IA live sur scène comme tu l’as fait.

 Ce week-end, tu fais quoi ?

Je travaille sur de nouveaux algorithmes basés sur la mécanique quantique. Dans un article récent, j’ai introduit le concept de note quantique ou Qunote [4]. Il s’agit d’utiliser les propriétés de superposition, cohérence/décohérence et d’intrication des systèmes quantiques pour créer de la musique. Vous pouvez écouter les premiers résultats sur ma chaîne YouTube [5]. C’est inspirant et cela ouvre de toutes nouvelles perspectives de création avec ANGELIA.

Illustration : Jean-Claude Heudin, Angelia et FreD Martin pour une performance live au SynthFest France 2025

[1] Heudin, J.-C., Comprendre le Deep Learning : une introduction aux réseaux de neurones, ėditions Science eBook, Paris, 2016.

[2] Heudin, J.-C., Angelia: An emotional AI for electronic music, https://researchgate.net/   publication/368513976, 2024.

[3] Heudin, J.-C., Musique, intelligence artificielle et données, CNMlab, Paris, 2023, https://cnmlab.fr/recueil/musique-et-donnees/chapitre/8/

[4] Heudin, J.-C., Quantum Music with Qunotes, https://researchgate.net/publication/387503808,

2024.

[5] https://youtube.com/@jcheudin

(*) MIDI : Musical Instrument Digital Interface. C’est un protocole d’échange de data (mais pas de son) entre des synthés, des ordinateurs et autres. On génère une information MIDI (il peut y avoir 128 paramètres : hauteur de la note, vélocité, vibrato…) qui pèse quelques octets et qui peut être envoyé à des instruments ou autres qui interpréteront en son audio écoutable.

Articles
Actualités
Partager:
hmyXqiVG_400x400.jpeg
FreD Martin

Designed by Algoretico © 2025 All Rights Reserved