[칼럼] 라이브코딩과 AI음악의 인연과 미래

Column ko Ai Experimental Live Coding
[칼럼] 라이브코딩과 AI음악의 인연과 미래

프롤로그: 코드가 무대에 오른 날

텍스트: mmr 주제 : AI가 만들어낸 화음과 음악을 연주하는 문화 그 교차점에서 일어나는 창의적인 변화를 살펴보세요.

클럽의 어둠 속에서 화면에 나타나는 것은 음표가 아닌 화음이다. d1 $ sound "bd sn [hh*2]"──악보는 아니고 임의의 알고리즘이었습니다.

라이브 코딩(Live Coding)이라는 문화는 2000년대 초반 영국 셰필드에서 탄생했습니다. 아티스트는 무대에서 실시간으로 프로그램을 작성하고 이를 즉시 사운드로 출력한다. 음악과 코딩, 클럽 문화와 알고리즘의 융합. 이 새로운 표현은 나중에 AI 음악에 깊은 반향을 불러일으켰습니다.


1장: 화음을 ‘연주’하는 문화의 탄생

라이브 코딩의 기원은 알고리즘 구성에 있습니다. 가장 초기의 사례로는 1950년대 Lejaren Hiller와 Iannis Xenakis의 자동 구성 실험이 있습니다. 라이브 코딩은 이를 21세기로 옮겨 물리적 특성과 실시간 기능을 다시 가져왔습니다.

2004년 Alex McLean과 Nick Collins가 커뮤니티 “TOPLAP”을 제안했습니다. 슬로건은 ‘당신의 화면을 보여주세요!’였습니다. 소리가 만들어지는 과정(코드)을 관객과 공유함으로써, 제작 과정 자체를 퍼포먼스로 승화시키겠다는 생각이었다.

TidalCycles, SuperCollider 및 Sonic Pi와 같은 환경은 즉흥적으로 “손으로 소리를 쓰는” 행위를 가능하게 하며, 이는 일렉트로닉 음악에 새로운 생동감을 불어넣었습니다.


2장: AI가 가져온 세대의 변화

AI 음악의 맥락에서 딥러닝을 활용한 음악 생성은 2010년대 후반에 큰 진전을 이루었습니다. 대표적인 예로는 OpenAI의 ‘Jukebox’, Google의 ‘Magenta’, ‘Riffusion’ 등이 있습니다.

AI는 코드를 작성하지 않습니다. 대신, 대량의 데이터로부터 패턴을 학습하고 생산 규칙을 ​​”내재화”합니다. 즉, AI는 라이브 코딩의 ‘외부’에 있는 알고리즘 지능입니다. 그러나 최근에는 그 경계가 급속도로 흐려지고 있습니다.

예를 들어 TidalCycles 사용자는 GPT를 사용하여 실시간으로 코드를 제안합니다. AI가 라이브 연주를 분석해 다음 리듬을 예측하는 사례가 나타나기 시작했다. 이러한 융합은 AI가 라이브 코딩의 공동 주연이 되는 미래를 가리킵니다.


3장: 인간 즉흥 연주와 기계 ‘즉흥 연주’의 차이점

휴먼 라이브 코더는 오류와 우연을 즐깁니다. 예상치 못한 소리와 오해가 음악을 이끈다. 이에 비해 AI 즉흥성은 과거 데이터를 기반으로 한 ‘재구성’이며, 본질적으로 그것은 확률의 범위 내에 남아 있습니다.

그러나 이 차이는 창의성의 원천이기도 하다. AI는 무한한 조합을 제공하고, 인간은 그 속에서 의미를 찾는다. 둘 사이의 관계는 ‘지배와 종속’의 관계가 아니라, 오히려 상호보완적인 창조적 관계이다.


4장: 주요 도구의 진화와 비교

도구 이름 개발자/조직 특징 AI 협업 가능성
조수주기 알렉스 맥클린 패턴 설명에 특화된 하스켈 기반 라이브 코딩 환경 ChatGPT 통합으로 실시간 코드 생성 가능
슈퍼콜라이더 제임스 매카트니 사운드 합성 및 알고리즘 구성을 위한 오랜 환경 AI 모델을 활용한 사운드 파라미터 제어 진행 중
소닉 파이 샘 아론 교육과 성능을 모두 고려한 Ruby 기반 교육 환경에서 사용되는 AI 지원 코드 예제
리퓨전 Seth Forsgrenet al. 스펙트로그램을 생성하는 확산 모델 AI 자체가 직접 소리를 생성
오셀롯/히드라 생성된 영상 + 사운드를 통합한 라이브코딩 환경 시각과 소리의 AI 동기화가 가능하다  

5장: AI와 라이브 코딩의 협업 예시

  • AI-DJ 실험 (2023, 베를린 CTM 페스티벌) 인간 라이브 코더가 TidalCycles에서 플레이하고 AI가 BPM, 조화, 공간 배치를 분석합니다. 실시간으로 반응형 믹스를 생성하세요. 그 결과, AI가 ‘인간의 리듬’을 따라가는 형태로 공연을 할 수 있게 됐다.

  • Algorave × GPT Jam(2024, 도쿄) 여러 라이브 코더가 무대에서 GPT 기반 코드 제안을 받습니다. 그 자리에서 수정하면서 수행합니다. 청중의 채팅이 입력 데이터로 사용됩니다. AI가 ‘장소의 분위기’를 읽도록 시도했습니다.

  • 리퓨전+조류 고리 TidalCycles는 AI가 생성한 조각난 소리를 무작위로 재배열하여, AI가 ‘재료’를 담당하고 인간이 ‘구조’를 담당하는 새로운 제작 형식.


6장: 윤리와 창의성 - 자동화 시대의 ‘퍼포머’란?

AI가 코드를 작성하면 저작권은 누구에게 있나요? 즉흥 연주에서도 ‘오리지널’이라는 개념이 적용되나요?

이러한 질문은 라이브 코딩의 철학과 밀접한 관련이 있습니다. TOPLAP의 “프로세스를 개방한다”는 철학은 투명성 = 창의성의 민주화. AI가 이런 문화에 합류하면 우리는 ‘블랙박스’에 저항해야 합니다.

생성 AI가 코드를 제안하는 경우 학습 과정과 결정 기준도 공개되어야 합니다. 이것이 알고리즘 음악의 미래를 여는 열쇠입니다.


7장: 미래 전망 - ‘알고리즘 중심 협업’을 향하여

2030년대에는 음악 제작에 ‘AI 세션’이 일반화될 것이다. AI는 단순한 도구가 아닌 공동 수행자로 자리매김하고 있습니다. 인간은 개념과 감정의 방향을 지시하고, AI는 수백 가지의 사운드 패턴을 즉석에서 만들어냅니다. 거기에서 선택하고 편집하는 행위 자체가 ‘퍼포먼스’이다.

또한 라이브코딩 환경과 AI를 융합하여, ‘프롬프트=성능 인터페이스’가 될 가능성도 있다. 더 이상 마우스나 MIDI가 필요하지 않습니다. 언어와 생각 자체가 소리가 되는 시대가 오고 있습니다.


그림: 라이브 코딩 × AI 진화 타임라인

timeline title Live CodingとAIミュージックの進化(2000–2025) 2000 : TOPLAP結成、Live Coding文化が誕生 2004 : TidalCycles初期版登場 2016 : Deep Learning音楽生成モデル(Magenta, OpenAI MuseNet) 2020 : RiffusionがAIスペクトログラム生成を開始 2023 : AI × Live Coding共演イベントが欧州で拡大 2025 : GPTベースのリアルタイムLive Coding環境登場

상관관계도: Live Coder와 AI의 협업 구조

flowchart TD A["人間(Live Coder)"] -->|コード入力・即興| B["Live Coding環境(Tidal, SuperCollider)"] B -->|生成音の出力| C["AI解析モジュール(テンポ・構造分析)"] C -->|予測・提案| D["AI生成器(Riffusion, GPT系)"] D -->|素材生成| B B -->|音響出力| E["観客(リアクションデータ)"] E -->|感情解析| C

결론: 창의성의 새로운 민주화

라이브 코딩은 “화음을 통한 즉흥적 표현”을 통해 이루어집니다. 그는 누구나 만들 수 있는 행위에 음악의 길을 열었습니다. AI는 민주화를 더욱 촉진할 것이며, ‘공연의 지능’을 공유하는 문화를 조성하려고 노력하고 있습니다.

알고리즘과 인간, 기계와 감정. 경계가 녹아내리는 곳, 새로운 음악적 지평이 열립니다.

코드는 악보를 초월하며 AI는 즉흥 연주를 학습합니다. 음악은 더 이상 ‘인간의 독점 특허’가 아닙니다. 공동 크리에이티브 인텔리전스.


Monumental Movement Records

Monumental Movement Records

中古レコード・CD・カセットテープ・書籍など