【칼럼】 Live Coding과 AI 음악의 친화성과 미래

Column ko Ai Experimental Live Coding
【칼럼】 Live Coding과 AI 음악의 친화성과 미래

서장 : 코드가 무대에 올라간 날

문장 : mmr 테마 : 코드를 연주하는 문화와 AI에 의한 생성 음악. 그 교차로에서 일어나는 창조의 변화를 탐구

클럽의 어둠, 스크린에 떠오르는 것은 음표가 아니라 「코드」. d1$sound "bd sn[hh*2]"──그것은 악보가 아니라 즉흥 알고리즘이었다.

‘Live Coding’이라 불리는 이 문화는 2000년대 초반 영국 셰필드에서 탄생했다. 아티스트들은 스테이지에서 실시간으로 프로그램을 쓰고 즉시 소리로 출력한다. 음악과 코딩, 클럽 문화와 알고리즘의 융합. 이 새로운 표현은 나중에 AI 음악과 깊게 공명해 나가게 된다.


제1장: 코드를 “연주하는” 문화의 탄생

Live Coding의 원류는 알고리즘 컴포지션(Algorithmic Composition)에 있다. 옛날에는 1950년대의 Lejaren Hiller나 Iannis Xenakis의 자동작곡 실험. 그것을 21세기에 이어, 신체성과 실시간성을 되찾은가 Live Coding이다.

2004년 Alex McLean과 Nick Collins가 제창한 커뮤니티 ‘TOPLAP’은 “Show us your screens!”라는 슬로건을 내걸었다. 소리를 내는 과정(코드)을 관객과 공유함으로써, 생성 과정 자체를 퍼포먼스화한다는 이념이었다.

TidalCycles, SuperCollider, Sonic Pi와 같은 환경은 “소리를 손으로 쓰는”행위를 즉흥적으로 가능하게 해, 전자 음악에 새로운 라이브성을 가져왔다.


2장: AI가 가져오는 생성의 변화

AI 뮤직의 맥락에서 2010년대 후반에 딥러닝에 의한 음악 생성이 크게 진전했다. OpenAI의 「Jukebox」, Google의 「Magenta」, 「Riffusion」등이 대표예이다.

AI는 코드를 쓰지 않는다. 대신 ** 대량의 데이터에서 패턴을 배우고 생성 규칙을 “내재화”**합니다. 즉, AI는 Live Coding의 ‘밖’에 있는 알고리즘적 지능이다. 하지만 최근, 그 경계는 급속하게 모호해지고 있다.

예를 들어 TidalCycles 사용자가 GPT를 사용하여 실시간으로 코드를 제안하거나 AI가 라이브의 반응을 해석해 다음 리듬을 예측하는 사례도 나타나기 시작했다. 이러한 융합은 ‘AI가 Live Coding의 공연자가 되는’ 미래를 가리키고 있다.


제3장: 인간의 즉흥성과 기계의 “즉흥”의 차이

인간의 Live Coder는 오류와 우연을 아군으로 만든다. 예기치 않은 출음과 사고의 어긋남이 음악을 추진한다. 반면에 AI의 즉흥은 과거 데이터를 기반으로 한 ‘재구성’이며, 본질적으로 확률의 범위 내에 머물러 있습니다.

하지만 이 차이가 창조의 원천이기도 하다. AI는 무한한 조합을 제공하고 인간은 거기에 의미를 발견합니다. 양자의 관계는 ‘지배와 종속’이 아니라 상호보완적인 창조관계로 향하고 있다.


4장: 주요 도구의 진화와 비교

툴명 개발자/단체 특징 AI 연계 가능성
TidalCycles Alex McLean 패턴 기술에 특화된 Haskell 기반의 Live Coding 환경 ChatGPT 연계로 실시간 코드 생성 가능
SuperCollider James McCartney 사운드 합성 및 알고리즘 작곡의 노포 환경 AI 모델에 의한 사운드 파라미터 제어 진행 중
Sonic Pi Sam Aaron 교육 및 성능 양면을 의식한 Ruby 기반 교육 현장에서 AI 보조 코드 예제 활용
Riffusion Seth Forsgren 등 스펙트로 그램을 생성하는 확산 모델 AI 자체가 소리를 직접 생성

제5장: AI와 Live Coding의 협연 예

  • AI-DJ 실험(2023, Berlin CTM Festival) 인간의 Live Coder가 TidalCycles에서 연주하고, AI가 BPM·화성·공간 배치를 해석. 실시간으로 응답 믹스 생성. 결과, “인간의 노리”에 AI가 추종하는 형태에서의 공연이 성립.

  • Algorave × GPT Jam(2024, Tokyo) 여러 Live Coder가 무대에서 GPT 기반 코드 제안을 받고, 그 자리에서 수정하면서 연주. 청중의 채팅이 입력 데이터에. AI가 “장의 공기”를 읽는 시도가 이루어졌다.

  • Riffusion+Tidal Loop AI가 생성한 단편적 사운드를 TidalCycles가 랜덤 재배치하고, **AI가 “소재”, 인간이 “구조”를 담당 **하는 새로운 제작 형식.


제6장: 윤리와 창의성—자동화 시대의 “연주자”란

AI가 코드를 작성할 때 저작권은 누구에게 귀속되는가? 즉흥적 생성에 “오리지널”이라는 개념은 성립하는가?

이러한 질문은 Live Coding의 철학과 밀접하게 관련되어 있습니다. TOPLAP이 내건 “프로세스를 공개하라”는 이념은 투명성=창조성의 민주화를 의미했다. AI가 이 문화에 합류하면 우리는 “블랙 박스”에 저항해야합니다.

생성 AI가 코드를 제안한다면 그 학습 과정이나 판단 기준도 공개되어야 한다. 그것이 알고리즘 음악의 미래를 여는 열쇠가 된다.


제7장: 미래 전망 - “알고리즘이 연주하는 공연”에

2030년대 음악 제작 현장에서는 ‘AI 세션’이 일반화될 것이다. AI는 단순한 툴이 아니라 공연자=Co-Performer로 자리매김된다. 인간은 개념과 감정의 방향성을 지시하고, AI는 즉흥적으로 수백 패턴의 소리를 제시. 거기에서 선택·편집하는 행위 자체가 “연주”가 된다.

또한 Live Coding 환경이 AI와 통합됨에 따라 「프롬프트=연주 인터페이스」가 될 가능성도 있다. 더 이상 마우스도 MIDI도 필요없고, 언어와 사고 자체가 소리가 되는 시대가 오고 있다.


도판 : Live Coding × AI의 진화 연표

timeline title Live CodingとAIミュージックの進化(2000–2025) 2000 : TOPLAP結成、Live Coding文化が誕生 2004 : TidalCycles初期版登場 2016 : Deep Learning音楽生成モデル(Magenta, OpenAI MuseNet) 2020 : RiffusionがAIスペクトログラム生成を開始 2023 : AI × Live Coding共演イベントが欧州で拡大 2025 : GPTベースのリアルタイムLive Coding環境登場

상관도: Live Coder와 AI의 협동 구조

flowchart TD A["人間(Live Coder)"] -->|コード入力・即興| B["Live Coding環境(Tidal, SuperCollider)"] B -->|生成音の出力| C["AI解析モジュール(テンポ・構造分析)"] C -->|予測・提案| D["AI生成器(Riffusion, GPT系)"] D -->|素材生成| B B -->|音響出力| E["観客(リアクションデータ)"] E -->|感情解析| C

결론 : 창조의 새로운 민주화

라이브코딩은 ‘코드에 의한 즉흥표현’을 통해 음악을 모두가 생성할 수 있는 행위로 열었다. AI는 그 민주화를 더욱 추진하고, “연주하는 지능”을 공유하는 문화를 만들어 내려고 한다.

알고리즘과 인간, 기계와 감정. 그 경계가 녹는 곳에, 새로운 음악의 지평이 일어난다.

코드는 악보를 넘어, AI는 즉흥을 배운다. 음악은 더 이상 “인간의 전매 특허”가 아니라, 공창의 지능(Co-Creative Intelligence)이다.


Monumental Movement Records

Monumental Movement Records