[Chronique] L'affinité et l'avenir du Live Coding et de la musique IA
Column fr Ai Experimental Live Coding
Prologue : Le jour où Chord est monté sur scène
| Texte : mmr | Thème : La culture du jeu d’accords et de musique générés par l’IA. Explorez les changements créatifs qui se produisent à cette intersection. |
Dans la pénombre du club, ce qui apparaît à l’écran, ce ne sont pas des notes mais des accords.
d1 $ sound "bd sn [hh*2]"──Ce n’était pas une partition musicale, mais un algorithme improvisé.
Cette culture appelée « Live Coding » est née à Sheffield en Angleterre au début des années 2000. Les artistes écrivent des programmes en temps réel sur scène et les diffusent immédiatement sous forme de son. Une fusion de musique et de codage, de culture club et d’algorithmes. Cette nouvelle expression résonnera plus tard profondément avec la musique IA.
Chapitre 1 : Naissance d’une culture du « jeu » d’accords
Les origines du Live Coding résident dans la composition algorithmique. Les premiers exemples incluent les expériences de composition automatique réalisées par Lejaren Hiller et Iannis Xenakis dans les années 1950. Le Live Coding a porté cela dans le 21e siècle et a ramené la réalité physique et les fonctionnalités en temps réel.
En 2004, la communauté « TOPLAP » a été proposée par Alex McLean et Nick Collins. Le slogan était « Montrez-nous vos écrans ! » En partageant le processus (code) de production sonore avec le public, L’idée était de transformer le processus de production lui-même en spectacle.
Les environnements tels que TidalCycles, SuperCollider et Sonic Pi sont Permet l’acte « d’écrire des sons à la main » de manière improvisée, Cela a apporté une nouvelle nature live à la musique électronique.
Chapitre 2 : Transformation de la génération induite par l’IA
Dans le contexte de la musique IA, la génération musicale utilisant le deep learning a fait des progrès significatifs à la fin des années 2010. Des exemples représentatifs incluent « Jukebox » d’OpenAI, « Magenta » et « Riffusion » de Google.
L’IA n’écrit pas de code. Au lieu de cela, il apprend des modèles à partir de grandes quantités de données et « internalise » les règles de production. En d’autres termes, l’IA est une intelligence algorithmique « extérieure » au Live Coding. Cependant, ces dernières années, les frontières se sont rapidement estompées.
Par exemple, les utilisateurs de TidalCycles utilisent GPT pour suggérer des codes en temps réel, Des cas commencent à apparaître où l’IA analyse les performances en direct et prédit le prochain rythme. Cette fusion laisse présager un avenir où l’IA deviendra une co-star du Live Coding.
Chapitre 3 : Différences entre l’improvisation humaine et « l’improvisation » machine
Les Human Live Coders apprécient les erreurs et le hasard. Des sons inattendus et des malentendus animent la musique. En revanche, l’improvisation de l’IA est une « reconstruction » basée sur des données passées, Pour l’essentiel, cela reste dans les limites du vraisemblable.
Mais cette différence est aussi source de créativité. L’IA propose des combinaisons infinies et les humains y trouvent un sens. La relation entre les deux n’est pas une relation de « domination et subordination », mais plutôt une relation créatrice mutuellement complémentaire.
Chapitre 4 : Evolution et comparaison des principaux outils
| Nom de l’outil | Développeur/organisation | Caractéristiques | Possibilité de collaboration IA |
|---|---|---|---|
| Cycles de marée | Alex McLean | Environnement Live Coding basé sur Haskell spécialisé pour la description de modèles | Génération de code en temps réel possible avec l’intégration ChatGPT |
| SuperCollider | James McCartney | Un environnement établi de longue date pour la synthèse sonore et la composition algorithmique | Le contrôle des paramètres sonores à l’aide de modèles d’IA est en cours |
| Sonique Pi | Sam Aaron | Basé sur Ruby avec à la fois l’éducation et la performance à l’esprit | Exemples de code assisté par l’IA utilisés dans les milieux éducatifs |
| Riffusion | Seth Forsgren et coll. | Modèle de diffusion qui génère des spectrogrammes | L’IA elle-même génère directement du son |
| Ocelot / Hydra | Environnement de codage en direct qui intègre la vidéo + le son générés | La synchronisation IA de la vision et du son est possible |
Chapitre 5 : Exemple de collaboration entre IA et Live Coding
-
Expérience AI-DJ (2023, Festival CTM de Berlin) Un Live Coder humain joue sur TidalCycles et l’IA analyse le BPM, l’harmonie et la disposition spatiale. Générez des mixages réactifs en temps réel. En conséquence, nous avons pu jouer sous une forme où l’IA suit le « rythme humain ».
-
Algorave × GPT Jam (2024, Tokyo) Plusieurs Live Coders reçoivent des suggestions de code basées sur GPT sur scène, Effectuer en effectuant des corrections sur place. Les discussions du public sont utilisées comme données d’entrée. Une tentative a été faite pour que l’IA lise « l’atmosphère du lieu ».
-
Riffusion+Boucle de marée TidalCycles réorganise de manière aléatoire les sons fragmentés générés par l’IA, Un nouveau format de production dans lequel l’IA est en charge des « matériaux » et les humains sont en charge de la « structure ».
Chapitre 6 : Éthique et créativité - Qu’est-ce qu’un « performer » à l’ère de l’automatisation ?
À qui appartiennent les droits d’auteur lorsque l’IA écrit du code ? Le concept d’« original » est-il vrai dans la production improvisée ?
Ces questions sont étroitement liées à la philosophie du Live Coding. La philosophie de TOPLAP « ouvrir le processus » est Transparence = démocratisation de la créativité. Lorsque l’IA rejoint cette culture, Nous devons résister à la « boîte noire ».
Si une IA générative propose un code, son processus d’apprentissage et ses critères de décision devraient également être rendus publics. C’est la clé pour ouvrir l’avenir de la musique algorithmique.
Chapitre 7 : Perspectives d’avenir - Vers une « collaboration basée sur des algorithmes »
Dans les années 2030, les « sessions IA » deviendront monnaie courante dans la production musicale. L’IA n’est pas seulement un outil, mais se positionne comme un co-interprète. Les humains dirigent la direction des concepts et des émotions, L’IA improvise des centaines de modèles sonores. Le fait de sélectionner et d’éditer à partir de là est en soi une « performance ».
De plus, en intégrant l’environnement Live Coding à l’IA, Il est également possible qu’elle devienne une “interface invite = performance”. Plus besoin de souris ou de MIDI. L’ère où le langage et les pensées elles-mêmes deviennent des sons arrive.
Illustration : Chronologie de l’évolution du Live Coding × IA
Diagramme de corrélation : structure collaborative de Live Coder et d’IA
Conclusion : Une nouvelle démocratisation de la créativité
Le Live Coding passe par “l’expression improvisée à travers des accords”. Il a ouvert la musique à un acte que n’importe qui pouvait créer. L’IA favorisera davantage la démocratisation, Nous essayons de créer une culture de partage de « l’intelligence du spectacle ».
Algorithmes et humains, machines et émotions. Où les frontières fondent, Un nouvel horizon musical s’ouvre.
Les accords transcendent les partitions et l’IA apprend à improviser. La musique n’est plus un « brevet exclusif humain » ; Intelligence co-créative.