[Chronique] L'affinité et l'avenir du Live Coding et de la musique IA

Column fr Ai Experimental Live Coding
[Chronique] L'affinité et l'avenir du Live Coding et de la musique IA

Prologue : Le jour où Chord est monté sur scène

Texte : mmr Thème : La culture du jeu d’accords et de musique générés par l’IA. Explorez les changements créatifs qui se produisent à cette intersection.

Dans la pénombre du club, ce qui apparaît à l’écran, ce ne sont pas des notes mais des accords. d1 $ sound "bd sn [hh*2]"──Ce n’était pas une partition musicale, mais un algorithme improvisé.

Cette culture appelée « Live Coding » est née à Sheffield en Angleterre au début des années 2000. Les artistes écrivent des programmes en temps réel sur scène et les diffusent immédiatement sous forme de son. Une fusion de musique et de codage, de culture club et d’algorithmes. Cette nouvelle expression résonnera plus tard profondément avec la musique IA.


Chapitre 1 : Naissance d’une culture du « jeu » d’accords

Les origines du Live Coding résident dans la composition algorithmique. Les premiers exemples incluent les expériences de composition automatique réalisées par Lejaren Hiller et Iannis Xenakis dans les années 1950. Le Live Coding a porté cela dans le 21e siècle et a ramené la réalité physique et les fonctionnalités en temps réel.

En 2004, la communauté « TOPLAP » a été proposée par Alex McLean et Nick Collins. Le slogan était « Montrez-nous vos écrans ! » En partageant le processus (code) de production sonore avec le public, L’idée était de transformer le processus de production lui-même en spectacle.

Les environnements tels que TidalCycles, SuperCollider et Sonic Pi sont Permet l’acte « d’écrire des sons à la main » de manière improvisée, Cela a apporté une nouvelle nature live à la musique électronique.


Chapitre 2 : Transformation de la génération induite par l’IA

Dans le contexte de la musique IA, la génération musicale utilisant le deep learning a fait des progrès significatifs à la fin des années 2010. Des exemples représentatifs incluent « Jukebox » d’OpenAI, « Magenta » et « Riffusion » de Google.

L’IA n’écrit pas de code. Au lieu de cela, il apprend des modèles à partir de grandes quantités de données et « internalise » les règles de production. En d’autres termes, l’IA est une intelligence algorithmique « extérieure » au Live Coding. Cependant, ces dernières années, les frontières se sont rapidement estompées.

Par exemple, les utilisateurs de TidalCycles utilisent GPT pour suggérer des codes en temps réel, Des cas commencent à apparaître où l’IA analyse les performances en direct et prédit le prochain rythme. Cette fusion laisse présager un avenir où l’IA deviendra une co-star du Live Coding.


Chapitre 3 : Différences entre l’improvisation humaine et « l’improvisation » machine

Les Human Live Coders apprécient les erreurs et le hasard. Des sons inattendus et des malentendus animent la musique. En revanche, l’improvisation de l’IA est une « reconstruction » basée sur des données passées, Pour l’essentiel, cela reste dans les limites du vraisemblable.

Mais cette différence est aussi source de créativité. L’IA propose des combinaisons infinies et les humains y trouvent un sens. La relation entre les deux n’est pas une relation de « domination et subordination », mais plutôt une relation créatrice mutuellement complémentaire.


Chapitre 4 : Evolution et comparaison des principaux outils

Nom de l’outil Développeur/organisation Caractéristiques Possibilité de collaboration IA
Cycles de marée Alex McLean Environnement Live Coding basé sur Haskell spécialisé pour la description de modèles Génération de code en temps réel possible avec l’intégration ChatGPT
SuperCollider James McCartney Un environnement établi de longue date pour la synthèse sonore et la composition algorithmique Le contrôle des paramètres sonores à l’aide de modèles d’IA est en cours
Sonique Pi Sam Aaron Basé sur Ruby avec à la fois l’éducation et la performance à l’esprit Exemples de code assisté par l’IA utilisés dans les milieux éducatifs
Riffusion Seth Forsgren et coll. Modèle de diffusion qui génère des spectrogrammes L’IA elle-même génère directement du son
Ocelot / Hydra Environnement de codage en direct qui intègre la vidéo + le son générés La synchronisation IA de la vision et du son est possible  

Chapitre 5 : Exemple de collaboration entre IA et Live Coding

  • Expérience AI-DJ (2023, Festival CTM de Berlin) Un Live Coder humain joue sur TidalCycles et l’IA analyse le BPM, l’harmonie et la disposition spatiale. Générez des mixages réactifs en temps réel. En conséquence, nous avons pu jouer sous une forme où l’IA suit le « rythme humain ».

  • Algorave × GPT Jam (2024, Tokyo) Plusieurs Live Coders reçoivent des suggestions de code basées sur GPT sur scène, Effectuer en effectuant des corrections sur place. Les discussions du public sont utilisées comme données d’entrée. Une tentative a été faite pour que l’IA lise « l’atmosphère du lieu ».

  • Riffusion+Boucle de marée TidalCycles réorganise de manière aléatoire les sons fragmentés générés par l’IA, Un nouveau format de production dans lequel l’IA est en charge des « matériaux » et les humains sont en charge de la « structure ».


Chapitre 6 : Éthique et créativité - Qu’est-ce qu’un « performer » à l’ère de l’automatisation ?

À qui appartiennent les droits d’auteur lorsque l’IA écrit du code ? Le concept d’« original » est-il vrai dans la production improvisée ?

Ces questions sont étroitement liées à la philosophie du Live Coding. La philosophie de TOPLAP « ouvrir le processus » est Transparence = démocratisation de la créativité. Lorsque l’IA rejoint cette culture, Nous devons résister à la « boîte noire ».

Si une IA générative propose un code, son processus d’apprentissage et ses critères de décision devraient également être rendus publics. C’est la clé pour ouvrir l’avenir de la musique algorithmique.


Chapitre 7 : Perspectives d’avenir - Vers une « collaboration basée sur des algorithmes »

Dans les années 2030, les « sessions IA » deviendront monnaie courante dans la production musicale. L’IA n’est pas seulement un outil, mais se positionne comme un co-interprète. Les humains dirigent la direction des concepts et des émotions, L’IA improvise des centaines de modèles sonores. Le fait de sélectionner et d’éditer à partir de là est en soi une « performance ».

De plus, en intégrant l’environnement Live Coding à l’IA, Il est également possible qu’elle devienne une “interface invite = performance”. Plus besoin de souris ou de MIDI. L’ère où le langage et les pensées elles-mêmes deviennent des sons arrive.


Illustration : Chronologie de l’évolution du Live Coding × IA

timeline title Live CodingとAIミュージックの進化(2000–2025) 2000 : TOPLAP結成、Live Coding文化が誕生 2004 : TidalCycles初期版登場 2016 : Deep Learning音楽生成モデル(Magenta, OpenAI MuseNet) 2020 : RiffusionがAIスペクトログラム生成を開始 2023 : AI × Live Coding共演イベントが欧州で拡大 2025 : GPTベースのリアルタイムLive Coding環境登場

Diagramme de corrélation : structure collaborative de Live Coder et d’IA

flowchart TD A["人間(Live Coder)"] -->|コード入力・即興| B["Live Coding環境(Tidal, SuperCollider)"] B -->|生成音の出力| C["AI解析モジュール(テンポ・構造分析)"] C -->|予測・提案| D["AI生成器(Riffusion, GPT系)"] D -->|素材生成| B B -->|音響出力| E["観客(リアクションデータ)"] E -->|感情解析| C

Conclusion : Une nouvelle démocratisation de la créativité

Le Live Coding passe par “l’expression improvisée à travers des accords”. Il a ouvert la musique à un acte que n’importe qui pouvait créer. L’IA favorisera davantage la démocratisation, Nous essayons de créer une culture de partage de « l’intelligence du spectacle ».

Algorithmes et humains, machines et émotions. Où les frontières fondent, Un nouvel horizon musical s’ouvre.

Les accords transcendent les partitions et l’IA apprend à improviser. La musique n’est plus un « brevet exclusif humain » ; Intelligence co-créative.


Monumental Movement Records

Monumental Movement Records