[Columna] La afinidad y el futuro del Live Coding y la música con IA

Column es Ai Experimental Live Coding
[Columna] La afinidad y el futuro del Live Coding y la música con IA

Prólogo: El día que Chord subió al escenario

Texto: mmr Tema: La cultura de tocar acordes y música generada por la IA. Explore los cambios creativos que ocurren en esa intersección.

En la oscuridad del club, lo que aparece en la pantalla no son notas sino acordes. d1 $ sonido "bd sn [hh*2]"──No era una partitura musical, sino un algoritmo improvisado.

Esta cultura llamada “Live Coding” nació en Sheffield, Inglaterra, a principios de la década de 2000. Los artistas escriben programas en tiempo real en el escenario y los emiten inmediatamente como sonido. Una fusión de música y codificación, cultura de club y algoritmos. Esta nueva expresión más tarde resonará profundamente en la música de IA.


Capítulo 1: Nacimiento de una cultura de “tocar” acordes

Los orígenes de Live Coding se encuentran en la Composición algorítmica. Los primeros ejemplos incluyen experimentos de composición automática realizados por Lejaren Hiller e Iannis Xenakis en la década de 1950. Live Coding ha llevado esto al siglo XXI y ha recuperado la funcionalidad física y en tiempo real.

En 2004, Alex McLean y Nick Collins propusieron la comunidad “TOPLAP”. El lema era “¡Muéstranos tus pantallas!” Al compartir el proceso (código) de producción de sonido con la audiencia, La idea era convertir el proceso de producción en sí en una actuación.

Entornos como TidalCycles, SuperCollider y Sonic Pi son Permite el acto de “escribir sonidos a mano” de forma improvisada, Aportó una nueva naturaleza viva a la música electrónica.


Capítulo 2: Transformación generacional provocada por la IA

En el contexto de la música con IA, la generación de música mediante aprendizaje profundo logró avances significativos a finales de la década de 2010. Ejemplos representativos incluyen “Jukebox” de OpenAI, “Magenta” y “Riffusion” de Google.

La IA no escribe código. En cambio, aprende patrones a partir de grandes cantidades de datos e “internaliza” reglas de producción. En otras palabras, la IA es inteligencia algorítmica que está “fuera” de Live Coding. Sin embargo, en los últimos años, los límites se han desdibujado rápidamente.

Por ejemplo, los usuarios de TidalCycles usan GPT para sugerir códigos en tiempo real, Están empezando a aparecer casos en los que la IA analiza actuaciones en directo y predice el siguiente ritmo. Esta fusión apunta a un futuro en el que la IA se convertirá en coprotagonista de Live Coding.


Capítulo 3: Diferencias entre la improvisación humana y la “improvisación” mecánica

Human Live Coders disfruta de los errores y las posibilidades. Sonidos inesperados y malentendidos impulsan la música. Por el contrario, la improvisación de la IA es una “reconstrucción” basada en datos pasados, Básicamente, permanece dentro de los límites de la probabilidad.

Sin embargo, esta diferencia es también la fuente de la creatividad. La IA proporciona infinitas combinaciones y los humanos encuentran significado en ellas. La relación entre ambos no es de “dominación y subordinación”, sino más bien de una relación creativa mutuamente complementaria.


Capítulo 4: Evolución y comparación de las principales herramientas.

Nombre de la herramienta Desarrollador/organización Características Posibilidad de colaboración con IA
Ciclos de marea Alex McLean Entorno Live Coding basado en Haskell especializado en descripción de patrones Es posible la generación de código en tiempo real con la integración ChatGPT
Supercolisionador James McCartney Un entorno establecido desde hace mucho tiempo para la síntesis de sonido y la composición algorítmica Está en marcha el control de parámetros de sonido mediante modelos de IA
Sonic Pi Sam Aarón Basado en Ruby teniendo en cuenta tanto la educación como el rendimiento Ejemplos de código asistido por IA utilizados en entornos educativos
Riffusión Seth Forsgren et al. Modelo de difusión que genera espectrogramas La propia IA genera sonido directamente
Ocelote / Hidra Entorno Live Coding que integra vídeo + sonido generado La sincronización de visión y sonido con IA es posible  

Capítulo 5: Ejemplo de colaboración entre IA y Live Coding

  • Experimento AI-DJ (2023, Festival CTM de Berlín) Un Live Coder humano juega en TidalCycles y la IA analiza los BPM, la armonía y la disposición espacial. Genera mezclas responsivas en tiempo real. Como resultado, pudimos coprotagonizar una forma en la que la IA sigue el “ritmo humano”.

  • Algorave × GPT Jam (2024, Tokio) Varios Live Coders reciben sugerencias de código basadas en GPT en el escenario, Realice mientras realiza correcciones en el acto. Los chats de la audiencia se utilizan como datos de entrada. Se intentó que la IA leyera la “atmósfera del lugar”.

  • Riffusión+bucle de marea TidalCycles reorganiza aleatoriamente los sonidos fragmentados generados por la IA, Un nuevo formato de producción en el que la IA se encarga de los “materiales” y los humanos de la “estructura”.


Capítulo 6: Ética y creatividad: ¿Qué es un “intérprete” en la era de la automatización?

¿Quién posee los derechos de autor cuando la IA escribe código? ¿Es válido el concepto de “original” en la producción de improvisación?

Estas preguntas están estrechamente relacionadas con la filosofía del Live Coding. La filosofía de TOPLAP de “abrir el proceso” es Transparencia = democratización de la creatividad. Cuando la IA se una a esta cultura, Necesitamos resistirnos a la “caja negra”.

Si una IA generativa propone un código, su proceso de aprendizaje y sus criterios de decisión también deberían hacerse públicos. Ésta es la clave para desbloquear el futuro de la música algorítmica.


Capítulo 7: Perspectivas de futuro: hacia una “colaboración impulsada por algoritmos”

En la década de 2030, las “sesiones de IA” se convertirán en algo común en la producción musical. La IA no es sólo una herramienta, sino que se posiciona como un co-ejecutor. Los humanos dirigen la dirección de los conceptos y las emociones, La IA improvisa cientos de patrones de sonido. El acto de seleccionar y editar a partir de ahí es en sí mismo una “actuación”.

Además, al integrar el entorno Live Coding con IA, También existe la posibilidad de que se convierta en una “interfaz rápida = rendimiento”. Ya no necesitas un mouse o MIDI. Se acerca la era en la que el lenguaje y los pensamientos se convierten en sonidos.


Ilustración: Live Coding × Cronología de la evolución de la IA

timeline title Live CodingとAIミュージックの進化(2000–2025) 2000 : TOPLAP結成、Live Coding文化が誕生 2004 : TidalCycles初期版登場 2016 : Deep Learning音楽生成モデル(Magenta, OpenAI MuseNet) 2020 : RiffusionがAIスペクトログラム生成を開始 2023 : AI × Live Coding共演イベントが欧州で拡大 2025 : GPTベースのリアルタイムLive Coding環境登場

Diagrama de correlación: estructura colaborativa de Live Coder y AI

flowchart TD A["人間(Live Coder)"] -->|コード入力・即興| B["Live Coding環境(Tidal, SuperCollider)"] B -->|生成音の出力| C["AI解析モジュール(テンポ・構造分析)"] C -->|予測・提案| D["AI生成器(Riffusion, GPT系)"] D -->|素材生成| B B -->|音響出力| E["観客(リアクションデータ)"] E -->|感情解析| C

Conclusión: Una nueva democratización de la creatividad

Live Coding se realiza a través de “expresión improvisada a través de acordes”. Abrió la música a un acto que cualquiera podía crear. La IA promoverá aún más la democratización, Estamos tratando de crear una cultura de compartir la “inteligencia de la actuación”.

Algoritmos y humanos, máquinas y emociones. Donde los límites se derriten, Se levanta un nuevo horizonte musical.

Los acordes trascienden las partituras y la IA aprende a improvisar. La música ya no es una “patente exclusiva humana”; Inteligencia Co-Creativa.


Monumental Movement Records

Monumental Movement Records