Musicien, il y a une IA pour ça !
Musicien, il y a une IA pour ça !
Par FreD Martin, Expert "IA, Son et Musique"
Co-écrit avec Yohann Abbou
« Tu sais, il n’y a pas que Suno dans la vie. Tu ne peux pas résumer l’IA musicale aux générateurs automatiques de musique. Ça va bien au-delà du One-click music. T’as déjà jammé avec Endlesss ? T’as jamais utilisé Landr pour faire un pré-mastering ? En fait, c’est comme en entreprise, quand tu écoutes les salariés parler entre eux, l’IA impacte la chaîne de valeur de leur productivité à leur créativité. » Ce dialogue n’a rien d’imaginaire et dans le monde musical pro, oui on gagne du temps et on va plus loin grâce à l’IA !
Quand on est musicien, on a un rapport particulier à l’instrument. On aime le jouer en reprenant les succès du moment. C’est un bon prétexte pour pratiquer sa technique instrumentale, pour s’inspirer en commençant par imiter (tout comme l’IA !) et aussi pour faire travailler son oreille musicale en relevant la grille harmonique. Mais y aurait-il une IA pour ça ? Oui, « IA » une IA pour ça : Chordify. Cette app analyse votre mp3 et trouve les accords de votre audio. C’est le Shazam harmonique et tout comme lui, la banque musicale est giga monstrueuse : Chordify dispose déjà de 36 millions de chansons. Il est également intéressant de lui donner une suite d’accords et l’app vous citera les chansons qui les utilisent en piochant dans ses données. L’impact créatif est réel : on constate que les 3 accords de sa chanson sont les 3 mêmes que tels tubes, ça peut inspirer ! L’effet pédagogique l’est tout autant : si vous savez jouer 3 accords, vous savez jouer X milliers de titres musicaux. Ces nouveaux assistants pédagogiques sont efficaces pour apprendre à jouer d'un instrument. C’est complémentaire au couple adaptatif / social avec IA embarquée, comme nous l’avions vu avec Guitar Social Club dans un précédent article.
Pour travailler l’harmonie et les suites d’accords (à défaut de celles de Bach), plusieurs apps sont dans la course : Chordchord, Musicca, Autochords… Notre préférence va à celle de Mathieu Routhier avec son Suggester qui génère une suite d’accords à la demande.
Une fois que l’on maîtrise quelques grilles d’accords sur son instrument polyphonique, on est prêt à jammer ! Et pour ça, depuis les isolements forcés, on a appris à jouer ensemble mais à distance, notamment avec Endlesss. On doit cette app à Tim Exile, un ancien de chez Native Instruments célèbre éditeur des incontournables Kontakt, Traktor et autre Izotope sur lequel nous reviendrons. Avec Endlesss, on se retrouve en temps réel dans un tchat où l’on va partager des idées musicales et construire un morceau ensemble. C’est une jam session que l’on peut créer ou que l’on peut rejoindre selon le contexte voulu. Ça marche très bien sur une boucle de 4 accords que chacun améliorera à sa guise.
Sur les générateurs d’IA musicale dans un contexte de chansons, nous ne reviendrons pas sur le leader Suno; cette entreprise, qui pourrait bien valoir un milliard de dollars, a été fondée par des anciens de Meta et TikTok. Regardons plutôt MusicGen de Meta qui génère en 12 secondes une musique à partir de vos prompts mais aussi à partir d’un mp3 que vous lui proposez. On est tout aussi impressionné par MusicLM de Google qui est aussi un text-to-music qui se concentre sur la mélodie et les textures musicales. Bien sûr, avoir associé Suno, Meta et Google dans ce même paragraphe n’a rien d’anodin. Et le fait d’avoir oublié Udio non plus. D’ailleurs Uncharted Labs (Udio) fut fondée par d’anciens chercheurs du Google DeepMind. Il ne serait pas surprenant de voir, d’ici la fin de l’année, quelques rapprochements et pas que musicaux. Google ou Meta sont proches de la victoire face à un Apple qui a choisi d’autres courses. Dans ce monde de générateurs d’IA musicale où une nouvelle app voit le jour toutes les 24h, citons aussi Soundraw (efficace sur la pop, le rock, le funk, le hip hop, l’électro et même l’acoustique), Jukedeck (toujours dans la course depuis 2014 !), AIVA (spécialiste de la musique instrumentale et déjà utilisée dans des contextes de jeux vidéo, de musique à l’image…), Amper Music (distribuée par Shutterstock, principalement pour les vidéastes pour YouTube, Insta ou les podcasters de Spotify), et bien sur OpenAI n’est jamais très loin, et propose MuseNet.
Le cœur de l’enregistrement pour un musicien, c’est sa station de travail audio numérique (STAN) ou, en anglais, sa Digital Audio Workstation (DAW). Les leaders depuis des décennies, quel que soit le style musical sont Pro tools (Avid), Logic Pro (Apple), Cubase (Steinberg) ou Studio One Pro (Presonus). Certains outils se sont spécialisés dans des univers musicaux : FL studio, Ableton Live, Bitwig Studio. Le monde gratuit, que l’on peut soutenir par des donations, n’est pas en reste avec Audacity, Cakewalk, Reaper ou Luna (Universal Audio) depuis un an... L’IA musicale est déjà présente par exemple chez Apple avec des fonctionnalités dans Logic comme le puissant Session player ou le plus classique Stem Splitter que l’on retrouve sur des outils dédiés mais pas intégrés dans un DAW. Celui qui agite les discussions autour du café dans nos studios, c’est RIPX DAW de Hitnmix. Ce DAW déborde d’IA intégrée et se révèle musical et professionnel. A suivre !
Une fois qu’une chanson a été composée, chantée, enregistrée, il faudra la mixer et la masteriser. Le mixage consiste à mélanger ‘correctement’ les instruments et à orienter l’écoute vers l’émotion recherchée. C’est un sujet depuis… les Beatles ! Le mastering est tout comme le mixage une étape aussi technique qu’artistique. D’une part, il faut que le fichier musical soit agréable à écouter aussi bien sur un haut-parleur d’iPhone que sur une sono de concert, et d’autre part, c’est la dernière étape où l’on peut encore ajouter une petite couleur musicale à l’œuvre en jouant sur le son.
A ce stade, l’IA est une aide maintenant précieuse pour laquelle il n’y a souvent pas de retour en arrière. Pour le mixage, nous sommes nombreux à utiliser Neutron (Izotope) ou Cryo Mix qui combine mix et mastering. L’IA fait une différence notamment sur quatre traitements du signal audio. Et c’est surtout la correction des fréquences qui remporte la palme : l’équalisation (EQ). Depuis cinq ans, Soundtheory Gullfoss fait des miracles IA ou plus récemment Soothe2, le winner 2024, de Oeksound qui adapte son traitement fréquentiel en temps réel et ne l’appliquera parfois qu’une micro-seconde s’il le faut ! SmartEQ (Sonible) reste aussi dans la course et repose sur de l’IA. Trois autres types de traitement sont en vogue avec une IA pointue : la compression (SmartComp2 de Sonible), le noise gate (Debleed de THR) et la réverbération qui consiste à créer un espace (Neoverb de Izotope et Vocal Reverb de Antares, l’éditeur du célèbre autotune).
Pour le mastering, citons Ozone (Izotope, encore) et Landr qui est un outil en ligne.
Plusieurs autres outils reposant sur l’IA interviennent souvent après la création musicale ou pour la restauration sonore. À moins que les artistes en fassent des outils natifs de créativité, l’avenir nous le dira. Aujourd’hui ces plug-ins servent principalement à nettoyer et améliorer le signal audio : enlever des bruits de fond, les parasites... Izotope RX11 (racheté par Native Instruments) et le Clarity Vx (Waves) font l’unanimité.
Le musicien, artiste IA, devra aussi s’intéresser à la création de clip vidéo et se tournera vers Flux-ai.io, en attendant que le prometteur text-to-video de Sora (OpenAI) soit enfin disponible. Et si nous voulons que notre musique soit utilisée pour des pubs, des films… il faudra la ‘synchroniser’. Et l’IA pourra classer notre musique, c’est le rôle de Bridge Audio.
Que ce soit Google ou bien Meta, l’un des deux se retrouvera sur le devant de la scène musiciale sous peu. La tendance est au générateur d’art et de musique sans dissociation. Et sur ce point, le projet open source Magenta de Google avec son utilisation de l’apprentissage automatique pour créer de l’art et la musique est à suivre de près. On entrevoit les interactions et les possibles entre les IA et nous, les humains.