Du studio au streaming : l'influence de l'IA sur l'évolution de la musique et son impact sur le marché
La première représentation en direct documentée associant l'IA générative et un musicien a eu lieu en novembre 2022, lorsque le pianiste David Dolan (Guildhall School of Music and Drama) a improvisé en dialogue avec un système d'IA semi-autonome conçu par le compositeur Oded Ben-Tal (Kingston University). Ce concert révolutionnaire a démontré les possibilités créatives de l'IA en tant que partenaire collaboratif dans le domaine musical. Depuis lors, des musiciens, et même des non-musiciens, ont adopté l'IA générative, produisant des compositions complètes avec des voix, des instruments et même des sons provenant d'instruments inexistants. Cela marque le début d'une nouvelle ère où l'IA redéfinit la création et la production musicales. Alors que l'intelligence artificielle continue de transformer les industries, le monde de la musique connaît sa propre révolution. Des amateurs aux grandes maisons de disques, les acteurs de l'ensemble du secteur sont aux prises avec les implications de cette technologie.
L'industrie musicale, qui a toujours été façonnée par les avancées technologiques, entre dans une nouvelle phase de transformation. Compte tenu de l'influence considérable de ce secteur sur le divertissement, les médias et les plateformes de streaming hébergeant des millions de titres, l'intégration de l'IA promet de redéfinir la manière dont la musique est créée, produite et consommée.
L'IA générative, technologie à l'origine de cette révolution, est rapidement passée de la recherche universitaire à des applications concrètes. Des modèles tels que Music Transformer et MusicLM repoussent les limites du possible, transformant des concepts abstraits en compositions harmonieuses. Ces systèmes d'IA, entraînés sur de vastes ensembles de données de morceaux de musique, sont désormais capables de générer des mélodies, des harmonies et même des chansons entières avec une maîtrise étonnante.
Cependant, comme pour toute révolution technologique, l'essor de l'IA dans le domaine de la musique suscite à la fois enthousiasme et inquiétude. Les artistes et les professionnels du secteur sont divisés quant à son impact potentiel. Certains y voient un outil puissant au service de la créativité et de la démocratisation, tandis que d'autres s'inquiètent des conséquences sur la création artistique humaine et la sécurité de l'emploi.
Le paysage de l'industrie musicale est déjà en pleine mutation. Les plateformes de streaming exploitent l'IA pour proposer des playlists personnalisées, tandis que les logiciels de production intègrent des outils d'mixage et de mastering assistés par l'IA. Même les grandes maisons de disques explorent le potentiel de l'IA pour la découverte de nouveaux talents et la prévision des tendances.
Alors que nous entrons dans cette nouvelle ère, les questions ne manquent pas. Comment l'IA va-t-elle redéfinir les rôles des artistes, des producteurs et des ingénieurs ? Quelles considérations juridiques et éthiques devons-nous prendre en compte ? Et surtout, comment cette technologie va-t-elle influencer le lien émotionnel entre les musiciens et leur public ?
Dans cet article, nous allons examiner l'état actuel de l'IA générative dans le domaine de la musique, ses applications dans différents secteurs de l'industrie et les perspectives d'avenir qu'elle laisse entrevoir. De la technologie qui sous-tend ces modèles d'IA aux défis pratiques liés à leur mise sur le marché, nous verrons comment cette innovation est en passe de transformer l'une des industries créatives les plus appréciées et les plus influentes au monde.
Alors que l'industrie musicale entre dans cette ère dominée par l'intelligence artificielle, il apparaît clairement que les compositeurs de demain ne seront peut-être plus uniquement des êtres humains, ce qui marque un tournant majeur alors que le secteur s'aventure dans ce nouveau domaine.
1. La technologie derrière l'IA générative appliquée à la musique
De la composition au code : les avancées de l'IA générative dans le domaine musical
Le passage de la composition traditionnelle à la musique générée par l'IA a été tout simplement révolutionnaire. Nous connaissons bien la génération de texte grâce à ChatGPT et la génération d'images grâce à Stable Diffusion et MidJourney. Les avancées majeures en matière de génération musicale résident dans l'adaptation de ces puissants modèles aux spécificités des data musicales.
I. GPT pour la musique (génération discrète)
Tout comme les modèles GPT traitent le langage, des principes similaires peuvent s'appliquer aux éléments musicaux. La clé réside dans la tokenisation, c'est-à-dire la décomposition de la musique en unités distinctes et gérables. Le processus consistant à appliquer les modèles GPT à la musique par le biais de la tokenisation est une étape cruciale pour permettre à l'IA de comprendre et de générer de la musique. Voici une explication plus détaillée :
1. La tokenisation en musique : tout comme les modèles GPT décomposent le texte en tokens (mots ou sous-mots), la musique doit être décomposée en unités distinctes que l'IA peut traiter. Nous explorons ci-dessous deux méthodes de tokenisation :

i. Les notes peuvent être considérées comme des éléments distincts contenant plusieurs informations :
a) Hauteur : la note spécifique jouée (par exemple, do, ré, mi, etc.)
b) Durée : la durée pendant laquelle la note est tenue (par exemple, noire, blanche)
c) Intensité : le volume auquel la note est jouée
d) Instrument : l'instrument qui joue la note
ii. Exemple : une note en do (C4) jouée pendant un quart de temps pourrait être représentée par les jetons : ; ; , tandis qu'une note en sol (G3) jouée pendant un demi-temps pourrait être représentée par les jetons : ; ;
(on peut ajouter des jetons pour les vélocités, les structures de mesure, les instruments, les genres,…)
iii. Création de séquences numériques :
Ces séries de jetons de notes sont ensuite concaténées et organisées en séquences, à l'instar de la manière dont les mots forment des phrases dans les modèles linguistiques. Un identifiant numérique unique est attribué à chaque jeton, ce qui permet au modèle GPT de recevoir une entrée similaire à celle utilisée pour la génération de texte.
iv. Exemple : une phrase musicale se présente sous la forme suivante : [123 ; 8 ; 456 ; 118 ; 12 ; 451 ;…] où chaque chiffre représente un événement musical spécifique.

i. Les fichiers audio sont stockés sur les ordinateurs au format WAV, qui représente l'amplitude du signal en fonction du temps. Cela offre une représentation plus riche que de simples partitions.
ii. Cette onde peut être divisée en segments représentant la « signification de la musique » à l'aide d'un modèle entraîné (similaire à BERT pour les vecteurs de mots) qui génère une version tokenisée de l'entrée audio.
iii. Les vecteurs obtenus peuvent être conditionnés par une intégration conjointe de l'audio et du texte, créant ainsi des tokens qui représentent à la fois les caractéristiques audio et la description textuelle, ce qui permet à l'utilisateur d'utiliser une invite textuelle comme entrée lors de l'inférence.
2. Formation en IA :
3e génération :
Music Transformer, développé dans le cadre du projet Magenta de Google, a marqué une étape décisive dans ce domaine. En étant parmi les premiers à Postuler mécanisme d’attention du Transformer — une pierre angulaire des modèles linguistiques — aux séquences musicales, il a permis d’obtenir une cohérence remarquable dans les compositions de longue durée. D’autres modèles ont suivi le mouvement, repoussant chacun les limites de ce que l’IA pouvait accomplir en matière de création musicale.
II. Modèles de diffusion pour la musique (génération continue)
Les modèles de diffusion, tels que MidJourney ou Stable Diffusion, ont été largement adoptés et utilisés pour la génération d'images. Les images générées sont de plus en plus détaillées et personnalisables, offrant une grande cohérence tout en permettant d'ajouter des détails de style ou de résolution via une instruction. Cette personnalisation constitue également une fonctionnalité intéressante pour la génération musicale. Comment transformer la musique en image ?
La musique comme une image :

En considérant les spectrogrammes comme des images et en les associant à une description textuelle, il est possible d'exercer un contrôle précis sur la génération, ce qui permet aux utilisateurs de demander la musique de leur choix, comme ils le feraient pour des images avec MidJourney.
Combler le fossé entre innovation et industrie : les défis de la génération musicale par l'IA :
Nous avons exploré deux méthodes différentes pour générer de la musique à l'aide de l'IA. Toutes ces technologies ont donné lieu à des démonstrations impressionnantes et divertissantes. Cependant, le chemin qui mène des expériences en laboratoire à des produits prêts à être commercialisés est semé d'embûches. Les obstacles techniques sont nombreux, qu'il s'agisse de garantir une qualité constante dans divers styles musicaux ou de gérer les exigences informatiques liées à la génération en temps réel. Les défis commerciaux sont tout aussi redoutables, les développeurs ayant du mal à trouver le public et les cas d'utilisation adaptés à leurs compositeurs IA.
Les considérations managériales et juridiques ajoutent encore à la complexité. Constituer et diriger des équipes à la croisée de la musique et de l'IA nécessite un mélange unique de compétences. Parallèlement, le paysage éthique et juridique reste largement inexploré, soulevant des questions sur le droit d'auteur, la paternité de l'œuvre et la nature même de la créativité à l'ère de l'IA.
À mesure que nous approfondissons notre analyse des applications et des produits actuels issus de cette révolution technologique, il apparaît clairement que l'impact de l'IA sur l'industrie musicale sera considérable, touchant tous les acteurs, des auditeurs aux grandes maisons de disques.
2. Applications et produits actuels
À mesure que l'IA générative continue de se développer, diverses plateformes et divers outils ont fait leur apparition dans l'industrie musicale. Ces innovations passent du stade de concepts expérimentaux à celui d'applications concrètes, chacune offrant des fonctionnalités et des possibilités d'utilisation différentes.
I. Le plus utilisé aujourd'hui : Suno.AI
Dans le domaine de la création musicale par IA, Suno.AI a suscité un vif intérêt. La plateforme permet aux utilisateurs de créer de la musique à partir de consignes textuelles, en générant des morceaux complets comprenant des voix, des instruments et des paroles, dans divers genres et styles.
Suno.AI a annoncé disposer d'une base de 12 millions d'utilisateurs et avoir mené à bien plusieurs levées de fonds, atteignant une valorisation de 500 millions de dollars. La plateforme propose à la fois des formules gratuites et payantes, la version gratuite permettant aux utilisateurs de créer un nombre limité de morceaux par jour. Ses applications vont de la création de bandes-annonces de films aux bandes originales de jeux vidéo.
Un cinéaste travaillant sur un court-métrage pourrait utiliser Suno.AI pour générer une bande originale personnalisée lorsqu'il ne peut pas engager de compositeur. Les agences de publicité explorent la plateforme pour créer rapidement des jingles et de la musique d'ambiance pour les publicités, ce qui pourrait modifier leur processus de travail en matière de musique publicitaire.
II. Autres plateformes musicales basées sur l'IA
Si Suno.AI a suscité beaucoup d'intérêt, cette plateforme s'inscrit dans un écosystème en pleine expansion de plateformes musicales basées sur l'IA.
À mesure que ces plateformes évoluent et que de nouvelles voient le jour, les applications de l'IA dans le domaine musical ne cessent de se diversifier. Des créateurs indépendants aux grandes entreprises, les possibilités d'utilisation sont très variées, laissant entrevoir un avenir où l'IA pourrait jouer un rôle de plus en plus important dans la création et la production musicales.
3. Conséquences pour les différentes parties prenantes
À mesure que l'IA générative continue d'évoluer, son impact se répercute sur tous les aspects de l'industrie musicale. Des auditeurs aux grandes maisons de disques, chaque acteur voit sa relation avec la création et la consommation musicales se transformer. Si certains considèrent ces changements avec inquiétude, d'autres y voient l'évolution naturelle d'un secteur qui a toujours été façonné par les progrès technologiques.
I. Les auditeurs
Pour les amateurs de musique, ce parcours a été marqué par une personnalisation et une découverte toujours plus poussées. Avant l'arrivée de l'IA, les auditeurs comptaient sur les animateurs radio, les magazines musicaux et le bouche-à-oreille pour découvrir de nouveaux morceaux. Les playlists étaient minutieusement élaborées à la main, souvent limitées par les bibliothèques musicales personnelles.
Avec l'avènement de l'intelligence artificielle, des plateformes telles que Spotify ont lancé en juillet 2015 des fonctionnalités comme « Discover Weekly », qui utilisent des algorithmes pour analyser les habitudes d'écoute et proposer de nouveaux titres. Cela a marqué une avancée considérable dans la découverte musicale personnalisée, permettant aux auditeurs de découvrir un éventail plus large d'artistes et de genres musicaux.
Aujourd’hui, grâce à l’IA générative, nous sommes sur le point de bénéficier d’une expérience encore plus personnalisée. LifeScore est un système qui ne se contente pas de recommander des morceaux existants, mais qui crée de nouvelles compositions en fonction de l’humeur, de l’activité ou même data biométriques de l’auditeur. Un jogger pourrait ainsi bénéficier d’une bande-son personnalisée générée en temps réel, s’adaptant à son rythme et à sa fréquence cardiaque, et mélangeant ses genres préférés pour créer quelque chose d’entièrement nouveau.
II. Artistes
Pour les musiciens, le processus créatif a toujours été influencé par les outils et les technologies disponibles. Avant l’IA, la composition reposait largement sur les instruments traditionnels et les techniques d’enregistrement. L’arrivée des synthétiseurs et des stations de travail audio numériques (DAW) à la fin du XXe siècle a déjà commencé à transformer la manière dont la musique était créée. Comme l’a fait remarquer Jean-Michel Jarre, l’un des pionniers de la musique électronique : « C’est la technologie qui a toujours dicté les styles, et non l’inverse. C’est parce que nous avons inventé le violon que Vivaldi a composé la musique qu’il a composée… Pour moi, l’IA n’est pas nécessairement un danger si elle est bien utilisée ».
Les logiciels de composition peuvent suggérer des progressions d'accords ou des mélodies, jouant ainsi le rôle d'un partenaire collaboratif dans le processus créatif.
Avec l'IA générative, on assiste à l'émergence de la co-création assistée par l'IA. Les artistes peuvent désormais saisir une mélodie de base ou une idée de paroles et demander à un système d'IA de générer des éléments complémentaires, ce qui peut ouvrir la voie à de nouvelles directions créatives. Certains musiciens vont même jusqu'à expérimenter l'adaptation de style en temps réel lors de concerts, en utilisant l'IA pour modifier leur son à la volée en fonction des réactions du public.
Pour les artistes amateurs, de nombreuses applications de formation exploitent l'intelligence artificielle pour proposer des expériences d'apprentissage en temps réel, interactives et personnalisées. Grâce à d'autres outils permettant de simuler des arrangements et des formations musicales, l'accès à la créativité est facilité, ce qui permet à davantage de personnes de jouer et d'apprécier la musique.
III. Ingénieurs
Le métier d'ingénieur du son a toujours nécessité une adaptation constante aux nouvelles technologies. Traditionnellement, le mixage et le mastering étaient des processus entièrement manuels, qui exigeaient une oreille fine et des années d'expérience. Interrogé pour cet article, Marius Blanchard, Data chez Spotify, a déclaré : « L'IA n'est pas là pour remplacer les musiciens, mais pour leur donner les moyens d'agir. C'est un outil qui peut aider les artistes à explorer de nouveaux horizons créatifs et à repousser les limites de la création musicale. »
L'IA a déjà fait son entrée dans ce domaine, avec des outils tels que Neutron d'iZotope qui offrent une assistance intelligente au mixage. Ces systèmes sont capables d'analyser un morceau et de suggérer des réglages d'égalisation, des niveaux de compression et d'autres paramètres, ce qui permet de rationaliser le processus de mixage.
À mesure que l'IA générative gagne en sophistication, nous pourrions voir apparaître des systèmes de mixage et de mastering entièrement automatisés, capables de traiter un album entier avec une intervention humaine minimale. Cependant, de nombreux professionnels du secteur estiment que la touche humaine restera toujours indispensable pour saisir les nuances émotionnelles d'une interprétation.
IV. Entreprises du secteur de la musique et des plateformes
Les maisons de disques et les éditeurs de musique s'appuient depuis longtemps sur l'intuition humaine et les études de marché pour repérer les tendances et découvrir de nouveaux talents. Les responsables A&R (Artists and Repertoire) parcouraient les clubs et écoutaient des démos à la recherche de la prochaine grande révélation.
L'intégration de l'IA a fait évoluer ce processus vers une prise de décision data. Les plateformes analysent data en continu, l'engagement sur les réseaux sociaux et d'autres indicateurs afin d'identifier les artistes émergents et de prédire leur potentiel de succès.
Grâce à l'IA générative, les entreprises du secteur musical explorent des possibilités encore plus radicales. Certaines testent des systèmes d'IA capables de générer de la musique adaptée à des segments de marché ou à des groupes démographiques spécifiques. D'autres utilisent des modèles prédictifs pour anticiper quelles structures musicales ou quels thèmes lyriques sont susceptibles de trouver un écho auprès du public dans les mois à venir.
Alors que le secteur s'efforce de s'adapter à ces changements, la question centrale demeure : comment l'équilibre entre la créativité humaine et l'assistance de l'IA va-t-il évoluer ? Si certains craignent la disparition de la touche humaine dans la création musicale, d'autres considèrent l'IA comme un outil qui, à terme, renforcera la créativité humaine en ouvrant de nouvelles voies d'expression et de collaboration.
4. Perspectives d'avenir et opportunités
Alors que l'IA générative continue de transformer l'industrie musicale, les acteurs concernés sont confrontés à un ensemble complexe de considérations juridiques, économiques et éthiques. Cette technologie révolutionnaire promet de démocratiser la création musicale tout en remettant en question les notions traditionnelles d'art et de droit d'auteur.
I. Aspects juridiques et commerciaux
1. Le droit d'auteur à l'ère de l'IA
Avant l'avènement de l'IA, la législation sur le droit d'auteur dans le domaine musical était relativement simple. Les compositeurs et les interprètes détenaient les droits sur leurs œuvres originales, et il existait des directives claires concernant l'échantillonnage et l'usage loyal. Cependant, l'apparition de la musique générée par l'IA a considérablement brouillé ces frontières.
Aux États-Unis, la protection du droit d'auteur s'étend aux œuvres originales, tandis que la doctrine européenne met l'accent sur la touche personnelle du créateur. Cette distinction revêt une importance cruciale lorsqu'il s'agit de musique générée par l'IA. Le Bureau américain du droit d'auteur a déclaré qu'il n'enregistrerait pas les œuvres produites par une machine ou par un simple processus mécanique fonctionnant de manière aléatoire ou automatique, sans apport créatif ni intervention d'un auteur humain.
En 2023, au moins une affaire très médiatisée a mis en lumière les préoccupations liées au droit d’auteur concernant la musique générée par l’IA imitant des artistes populaires. Un morceau intitulé « Heart on My Sleeve », qui utilisait l'IA pour imiter les voix de Drake et de The Weeknd, a été mis en ligne sur des plateformes de streaming avant d'être rapidement retiré. Universal Music a déposé une plainte auprès de YouTube, et la vidéo du morceau a été supprimée. Cet incident a soulevé des questions concernant les droits de la personnalité et l'utilisation non autorisée des voix d'artistes, même si celles-ci ont été créées par l'IA. Cette action a créé un précédent quant à la manière dont l'industrie pourrait traiter les contenus créés par l'IA qui ressemblent étroitement aux œuvres d'artistes existants.
Pour les artistes, l'IA est une arme à double tranchant. Certains considèrent cette technologie comme un outil de collaboration, tandis que d'autres craignent qu'elle ne dévalorise leur art.
Les maisons de disques sont confrontées à leurs propres défis.
2. Prévisions du marché
Le marché de l'IA dans le secteur musical est sur le point de connaître une croissance significative. Les analystes du secteur prévoient que ce marché atteindra 38,7 milliards de dollars d'ici 2033, contre 3,9 milliards en 2023. Cette multiplication par dix reflète l'adoption généralisée attendue des outils d'IA dans divers aspects de la production, de la distribution et de la consommation musicales. Il est intéressant de noter que les artistes recherchent davantage des outils basés sur l'IA pour la production et le mastering musicaux (66 %) que pour la génération musicale par l'IA (47 %). Les outils favorisant la créativité sont considérés comme plus importants que les outils de génération pure par l'IA, même si nous devons nous préparer à écouter de plus en plus d'extraits musicaux générés par l'IA.
II. Transformations potentielles
1. La démocratisation de la production musicale
L'IA réduit les obstacles à la création musicale. Des outils qui nécessitaient autrefois des studios coûteux et des années de formation sont désormais accessibles via des applications conviviales. Cette démocratisation pourrait entraîner une explosion de nouveaux styles musicaux et de nouvelles voix.
Alex Mitchell, fondateur d’une start-up spécialisée dans les technologies musicales et PDG de Boomy, envisage un avenir où tout le monde pourra devenir compositeur. « Aujourd’hui, nous voyons des gens partout dans le monde créer des chansons en un clin d’œil avec Boomy, les publier et même percevoir des redevances. Pour la première fois, l’expression musicale s’ouvre à un tout nouveau type de créateurs et de public. »Cette accessibilité pourrait bouleverser le paysage musical et permettre de révéler des talents qui, sans cela, seraient peut-être restés dans l’ombre.
2. Nouvelles interactions entre les artistes et le public
L'IA est en effet en train de transformer la manière dont les artistes interagissent avec leur public. Certains artistes et certaines plateformes musicales testent déjà des chatbots basés sur l'IA qui permettent aux fans d'interagir avec leur catalogue musical de manière innovante. Par exemple, Spotify a intégré à son application un chatbot alimenté par l'IA qui interagit avec les utilisateurs afin de cerner leurs préférences musicales, leurs humeurs et leurs habitudes d'écoute. Cela permet au chatbot de créer des playlists personnalisées et de proposer de nouveaux titres adaptés aux goûts propres à chaque utilisateur.
Ces chatbots basés sur l'IA sont utilisés pour renforcer l'engagement des fans en leur proposant des recommandations personnalisées, des mises à jour en temps réel et des expériences interactives. Ils peuvent fournir des informations sur les artistes, recommander des playlists, faciliter l'achat de billets et répondre aux demandes des fans, favorisant ainsi des liens plus étroits entre les artistes et leur public.
Holly Herndon, une artiste avant-gardiste, a récemment lancé une version IA de sa voix avec laquelle ses fans peuvent collaborer pour créer des morceaux personnalisés. Ce mélange de créativité humaine et de capacités de l'IA laisse entrevoir un avenir où la frontière entre l'artiste et le public s'estompe de plus en plus.
Une conclusion à plusieurs facettes
I. Le rôle de l'IA dans la créativité
L'intégration de l'IA dans la création musicale soulève des questions profondes sur la nature même de la création artistique. Alors que certains affirment que l'IA n'est qu'un outil, à l'instar d'un nouvel instrument, d'autres craignent qu'elle ne vienne affaiblir la dimension humaine qui confère à la musique toute sa force émotionnelle.
Marius Blanchard, Data à l'université Columbia et actif dans l'industrie musicale, offre une perspective nuancée : « Je ne pense pas que l'IA remplacera un jour les artistes ; […] le lien entre le public et l'artiste s'établit à de nombreux niveaux qui vont bien au-delà de la musique. J'espère plutôt que l'IA démocratisera l'accès à une production sonore de qualité et stimulera la créativité d'un nombre croissant d'artistes, leur permettant ainsi d'exprimer et de partager leurs créations. »
II. Conséquences sur l'emploi dans le secteur
À mesure que les capacités de l'IA se développent, certains postes au sein de l'industrie musicale pourraient évoluer ou devenir obsolètes. Les ingénieurs du son, par exemple, devront peut-être adapter leurs compétences pour travailler en collaboration avec des outils de mixage et de mastering basés sur l'IA. Cependant, de nouvelles catégories d'emplois devraient voir le jour, telles que celles de programmeurs musicaux spécialisés en IA ou de consultants en éthique de l'IA pour les industries créatives.
III. Authenticité et lien émotionnel
La question la plus importante à laquelle le secteur est confronté est peut-être de savoir si la musique générée par l'IA peut créer les mêmes liens émotionnels avec les auditeurs que les œuvres créées par l'homme. Si l'IA est capable d'analyser des schémas et de créer des compositions techniquement abouties, la qualité indescriptible de l'expérience humaine qui imprègne souvent la grande musique reste difficile à reproduire.
Holly Herndon, musicienne électronique et chercheuse en intelligence artificielle, se montre optimiste: « Je pense que la meilleure voie à suivre pour les artistes est de s'ouvrir aux avancées en matière d'apprentissage automatique », a-t-elle déclaré, suggérant qu'ils « réfléchissent à des moyens d'inviter d'autres personnes à expérimenter avec eux, sous certaines conditions ».
Références
Jeff Ens et Philippe Pasquier, (2020). MMM : Exploration de la génération musicale conditionnelle à pistes multiples
à l'aide du modèle Transformer. Prépublication arXiv arXiv:2008.06048 https://arxiv.org/abs/2008.06048
Andrea Agostinelli et al. (2023). MusicLM : Génération de musique à partir de texte. Prépublication arXiv arXiv:2301.11325 https://arxiv.org/abs/2301.11325
Huang et al. (2018). Music Transformer : Génération de musique avec une structure à long terme. Prépublication arXiv arXiv:1809.04281 https://arxiv.org/abs/1809.04281
Ke Chen et al. (2023). MusicLDM : Améliorer la nouveauté dans la génération de musique à partir de texte grâce à des stratégies de mixage synchronisées sur le rythme. Prépublication arXiv arXiv:2308.01546 https://arxiv.org/abs/1809.04281

BLOG





