Du Conservatoire à Artiste IA : DeLaurentis transforme l’IA en instrument !

On te présente souvent comme la première “artiste IA” en France. Comment as-tu vécu cette aventure et quels ont été tes premiers pas avec l’intelligence artificielle ?
Je préfère rendre hommage à des projets portés par le laboratoire de recherche Sony CSL avec leur premier outil « Flow Machine » 2014-2015(*).
Pour ma part, j’ai commencé à intégrer l’IA dans ma création à partir de 2018, lors de la conception de mon album Unica. J’invitais depuis longtemps les « happy accident » et « bugs » dans mon processus créatif jusqu’à ce que je conceptualise cette co-création avec la machine par Unica, ma sœur numérique. Tout au long de l’album elle s’émancipe dans mon laboratoire sonore pour devenir une véritable IA autonome, un peu à la manière de Gepetto qui créé Pinocchio dans son atelier. J’ai collaboré alors avec les équipes de Spotify CTRL, travaillant main dans la main avec des développeurs pour générer de nouvelles sonorités, même si à l’époque, les outils étaient encore très peu accessibles et les résultats souvent peu exploitables. Ce qui m’intéressait, c’était de me laisser surprendre par des sons que je n’aurais pas pu créer seule. C’est la même démarche pour le choeur virtuel (live session au studio de l’IRCAM) que je partage en exclusivité avec vous ou encore Sinvocea avec l’ia créé en collaboration avec Sony CSL sur mesure pour mon nouvel album « Musicalism » me permettant de dessiner avec ma voix en temps réel.
(*) Flow Machine, projet d’IA appliquée à la création musicale, dirigé par François Pachet (key speaker de notre #IADATE : IA & Musique du 5 nov 2024 à Nice)
Quels étaient ces défis techniques et artistiques de la création musicale avec l’IA à tes débuts ?
En 2018, il n’existait aucune interface utilisateur conviviale : il fallait travailler directement avec des développeurs. Les outils comme Orchestrator généraient des partitions MIDI ou des enchaînements d’accords, mais sur trois minutes de musique, il n’y avait parfois qu’un seul accord intéressant. Mon rôle était de trier, d’éditer et de guider la machine en expliquant ce qui fonctionnait ou non. C’était fastidieux, mais aussi fascinant de voir l’outil progresser au fil des mois. J’étais motivée par l’idée d’être pionnière, de participer à la naissance de nouveaux styles et de repousser les limites de la création musicale.
En 2022 j’ai été invitée au studio de Sony CSL-Paris à découvrir leurs outils d’IA DrumGan (générateur de sons de batterie), Notono (sounddesign), Pia (générateur midi), DrumNet (générateur de patterns rythmiques) avec lesquels j’ai revisité le répertoire classique du début 20ème (Debussy, Fauré, Ravel, Satie..) dans l’EP « Classical Variations ». Suite à cette collaboration, nous avons décidé de créer l’outil « Sinvocea », un IA que j’utilise en live, à partir de l’analyse audio de ma voix, des visuels sont générés sur une écran derrière moi en temps réel.
Et depuis 2023, j’utilise des outils open-source de clonage vocal, c’est une vraie révolution dans la création musicale. J’ai pu entrainer des modèles avec ma voix et les cloner avec d’autres voix mais aussi des instruments, des sons en tout genre, des oiseaux... afin de créer des hybridations vocales. Par exemple, sur le titre « Bluebird on a Dune » extrait de mon album Musicalism, j’ai cloné ma voix et celle de Sophie Delila avec qui j’ai composé le titre pour faire chanter la mélodie par le mélange de nos 2 timbres !
Et en 2025, tu évoques la notion d’accident créatif propre à l’IA. Quelle est cette réalité pour toi ?
Le principal défi réside dans la collaboration humain-machine : il faut apprendre à guider l’IA, à trier ses propositions et à en faire un véritable partenaire de création. L’opportunité majeure, c’est d’accéder à des formes musicales inédites, de sortir des schémas habituels et de renouveler sans cesse l’inspiration. L’IA permet de générer des « happy accidents », qui deviennent la source de nouvelles idées artistiques. Il faut accepter de se laisser surprendre par ses propositions musicales parfois farfelues, ces accidents créatifs propres à l’IA. L’évolution est aux outils de plus en plus intuitifs, capables d’interagir en temps réel avec les musiciens et de s’adapter à leurs univers. Tu as toi-même performé live sur scène avec une IA(*), tu as dû ressentir un frisson inédit. L’enjeu sera de préserver l’authenticité artistique tout en exploitant la puissance de l’innovation technologique. L’IA c’est pour enrichir la palette créative !
(*) voir l’article « ANGELIA, ange ou démon de l’IA musicale ?» par FreD Martin pour l’Institut EuropIA
Quel conseil donnerais-tu aux artistes qui souhaitent se lancer dans l’exploration de l’IA musicale ?
Je leur dirais de ne pas avoir peur d’expérimenter et d’accepter l’imprévu. L’IA n’est pas un outil magique, mais un partenaire qui demande du temps, de la curiosité et une vraie démarche artistique. Il faut savoir guider la machine, mais aussi se laisser surprendre. L’essentiel est de garder une vision personnelle et de s’approprier la technologie pour qu’elle serve le propos artistique, et non l’inverse.
Comment imagines-tu l’avenir de la création musicale avec l’IA, concrètement ?
Je vois l’IA comme un partenaire créatif de plus en plus interactif : demain, elle pourra improviser en live, s’adapter à l’énergie du public, ou proposer des textures inédites à la volée. On pourra créer des concerts uniques, où chaque performance sera influencée par la machine. L’IA ouvrira aussi la création à ceux qui n’ont pas de formation classique, tout en permettant aux artistes confirmés d’explorer des territoires sonores inédits. Et il ne faut pas hésiter à détourner les outils de leur fonction première, de se les approprier et peut être d’inventer de nouveaux styles.. comme les producteurs de Détroit qui avaient détourné la TB 303 pour créer l’Acid ! Mais l’essentiel restera toujours l’émotion humaine : l’IA doit amplifier la créativité, pas la remplacer.
2 illustrations :
1/ rose edit :
2/ sony IA web :
