Du Conservatoire à l'intelligence Artificielle : les secrets d'innovation de Joachim Garraud

futuristic-computer-eq`uipment-glows-dark-connected-by-network-server-generated-by-ai-1080x675.png
27 May, 2025

Du Conservatoire à l'intelligence Artificielle : les secrets d'innovation de Joachim Garraud

Il fait danser la planète depuis 30 ans ! Que ce soit pour David Guetta ou pour les 30 000 festivaliers de son Elektric Park Festival, ce génial DJ Producteur et bidouilleur musicien est aussi un entrepreneur de talent : la FNAMM (avec Jean-Michel Jarre), son podcast « 200 Sec d’IA Musicale », son album OVP3... Il répond à nos IA questions ! FreD Martin.

Joachim, vous êtes l’un des DJs et producteurs les plus sollicités au monde. Comment ce premier prix de conservatoire en piano et percussion parvient-il à se réinventer et rester au sommet ?

En parallèle de mes études au Conservatoire de Musique de Nantes, où j’ai obtenu un premier prix de piano et de percussion, je bricolais déjà des ordinateurs pour essayer de faire de la musique. J’avais 12 ou 13 ans, et à l’époque, les premiers ordinateurs comme le Spectrum ZX81 ou le Texas Instruments TI99 ne permettaient pas vraiment de composer. La véritable révolution est arrivée en 1984-85, avec l’apparition de la musique assistée par ordinateur (MAO), la norme MIDI et des logiciels séquenceurs comme Notator de C-Lab, qui a ensuite été racheté par Apple pour devenir Logic Pro.
Je crois que musique et technologie ont toujours été indissociables. Aujourd’hui, je compose avec des ordinateurs de plus en plus puissants et je collabore avec de nombreux artistes, parfois sans connaissances en solfège. Je leur transmets mon expérience en composition, production et réalisation. Ce qui me passionne, c’est la recherche du son, la sculpture sonore, et cette osmose entre les notes jouées et le choix des sons. C’est cette quête qui me permet de durer dans ce métier.

Quand avez-vous commencé à explorer l’IA musicale ?

Pour moi, tout a commencé avec les premiers claviers-arrangeurs des années 80. On pouvait y faire jouer des sons d’orgue, de flûte, de piano ou de violon, et selon l’accord joué, le clavier proposait un arpège : c’était déjà une forme d’intelligence musicale. Mais concrètement, j’ai commencé à utiliser l’IA il y a 5 ou 6 ans, en collaborant avec Mubert, l’un des pionniers de la musique générative par IA. J’ai alors travaillé avec des outils en ligne qui exploitent la puissance de calcul et de rendu pour, par exemple, extraire une voix d’un mp3, ralentir un tempo de plus de 10 % sans perte de qualité audio, ou effectuer des time-stretchings performants.

Quelle production musicale récente avez-vous réalisée grâce à l’IA, et quel est son apport ?

En 2022, j’ai fondé le duo Avoriaz avec l’artiste DeLaurentis (*). Nous utilisons l’IA pour développer nos morceaux : après avoir écrit les parties A et B, l’IA propose une partie C. Nous lui confions aussi le développement d’instrumentations, en lui laissant générer différentes rythmiques. Un nouvel opus sortira d’ailleurs cette année.
L’IA permet aujourd’hui des choses impossibles auparavant, comme démixer un fichier stéréo pour en extraire huit à neuf pistes distinctes : basse, violon, synthé, piano, percussions (grosse caisse, caisse claire, etc.). Les séparateurs de stems sont essentiels, surtout pour le sampling : on peut isoler une partie de la rythmique ou une texture de synthé précise.
Au quotidien, j’utilise l’IA comme un super assistant : elle m’aide à retrouver rapidement mes samples, loops, bases de données, et à classer instantanément mes deux téraoctets de sons. Elle identifie les similitudes entre les samples et me suggère parfois des idées auxquelles je n’aurais pas pensé, dans la continuité logique de mon travail. Par exemple, avec Ableton Live 12, si j’aime un son de basse, le logiciel va retrouver sur mon disque dur tout ce qui s’en rapproche.

Les générateurs d’IA musicales vont-ils bouleverser l’industrie comme le remix ou le sampling ?

On compare souvent l’IA au sampling des années 90. Le sampling a permis de créer de nouveaux styles, mais il s’agissait surtout de recycler l’existant. Quant à la performance live, je reste dubitatif : voir Earth, Wind & Fire à douze sur scène, c’est inégalé par rapport à un DJ qui déclenche trois sons sur un pad synchronisé. On a perdu en qualité humaine, même si c’est une autre forme de performance.
Les générateurs d’IA musicales(**) marquent une étape clé, car ils remplacent de nombreux métiers de l’industrie. Aujourd’hui, certaines plateformes produisent une chanson complète en 40 secondes : structure, paroles, mélodie, arrangements, accords, ligne de basse… Prête à être déposée à la SACEM. Si la qualité sonore n’est pas encore parfaite, elle devient de plus en plus professionnelle.

Les progrès sont fulgurants : toutes les trois semaines, une nouvelle version de calculateur plus puissante apparaît. Quand on voit Microsoft construire une centrale nucléaire avec six EPR ou Tesla déployer le supercalculateur DOJO, on comprend que ces technologies, d’abord réservées à l’industrie, vont bientôt s’appliquer à la musique. Et déjà aujourd'hui, il est difficile de distinguer une voix humaine d’une voix générée, ou un vrai violon d’une émulation.
L’IA va bouleverser l’industrie musicale, comme Napster l’a fait à son époque. Napster a rendu la musique gratuite et accessible à tous : aujourd’hui, on ne l’achète plus, on la loue. Avec l’IA, nos relations aux royalties vont aussi profondément évoluer.

Qu’est-ce que l’IA ne fait pas encore dans la musique, l’audio ou l’apprentissage, et qu’est-ce qui se prépare ?

L’IA n’a pas encore révolutionné l’éducation musicale. J’imagine un système capable d’écouter un élève jouer, de donner des instructions personnalisées en temps réel, d’analyser la posture des doigts grâce à la vidéo, et d’accompagner l’apprentissage partout dans le monde, sans barrière de langue.
Cette année, une plateforme va permettre de transformer n’importe quel fichier audio en session multi-pistes MIDI. Elle reproduira chaque instrument avec précision et offrira la possibilité de modifier paroles, tempo, ou d’ajouter des effets comme la compression ou la réverbération. La flexibilité sera immense : imaginez déposer le mp3 de « Enjoy the Silence » (Depeche Mode) et obtenir toutes les pistes séparées, avec la même reverb, le même compresseur, le même délai. Même si le synthétiseur ou le sampler utilisé n’existe pas, la plateforme le recréera ! On voit déjà cette révolution avec Synthplant 2 (Sonic Charge), RipX DAW ou Samplab.

Vous êtes rassurant et positif sur l’IA, alors que beaucoup s’en inquiètent. Quelle est votre vision de l’IA musicale à cinq ou dix ans ?

Prédire à cinq ou dix ans est difficile tant l’IA évolue vite. À court terme, je suis positif : ces outils me font gagner du temps et augmentent ma productivité. Mais cela va aussi générer plus de concurrence : davantage de personnes produiront de la musique, mais moins pourront en vivre.
Dans les années 90, j’avais bricolé des câbles pour isoler une voix sur une piste stéréo. Aujourd’hui, l’IA le fait en quelques secondes. C’est magique. Mais dans cinq ou dix mois, serons-nous encore capables de distinguer ce qui est 100 % humain de ce qui est généré par la machine ? Le défi est déjà passionnant.

(*) DeLaurentis, artiste IA de référence, a répondu aux questions de FreD Martin pour EuropIA. À retrouver dès juin 2025 !
(**
) "Les générateurs d’IA musicales, voir l’article « Musicien, il y a une IA pour ça » du 5 novembre 2024 (Institut EuropIA).

Articles
Partager:
hmyXqiVG_400x400.jpeg
FreD Martin

Designed by Algoretico © 2025 All Rights Reserved