[Spalte] Die Affinität und Zukunft von Live Coding und KI-Musik
Column de Ai Experimental Live Coding
Prolog: Der Tag, an dem Chord die Bühne betrat
| Text: mmr | Thema: Die Kultur des Akkordspiels und der von KI erzeugten Musik. Entdecken Sie die kreativen Veränderungen, die an dieser Schnittstelle stattfinden. |
In der Dunkelheit des Clubs erscheinen auf dem Bildschirm keine Noten, sondern Akkorde.
d1 $ sound „bd sn [hh*2]“──Es war keine Partitur, sondern ein improvisierter Algorithmus.
Diese Kultur namens „Live Coding“ wurde Anfang der 2000er Jahre in Sheffield, England, geboren.
Künstler schreiben Programme in Echtzeit auf der Bühne und geben sie sofort als Ton aus.
Eine Fusion aus Musik und Codierung, Clubkultur und Algorithmen.
Dieser neue Ausdruck fand später großen Anklang bei der KI-Musik.
Kapitel 1: Geburt einer Kultur des „Spielens“ von Akkorden
Die Ursprünge des Live Coding liegen in der Algorithmischen Komposition.
Zu den frühesten Beispielen gehören automatische Kompositionsexperimente von Lejaren Hiller und Iannis Xenakis in den 1950er Jahren.
Live Coding hat dies ins 21. Jahrhundert getragen und Körperlichkeit und Echtzeitfunktionalität zurückgebracht.
Im Jahr 2004 wurde die Community „TOPLAP“ von Alex McLean und Nick Collins vorgeschlagen.
Der Slogan lautete: „Zeigen Sie uns Ihre Bildschirme!“
Indem wir den Prozess (Code) der Tonerzeugung mit dem Publikum teilen,
Die Idee war, den Produktionsprozess selbst in eine Performance zu verwandeln.
Umgebungen wie TidalCycles, SuperCollider und Sonic Pi sind es Ermöglicht das improvisatorische „Handschreiben von Klängen“, Es brachte einen neuen Live-Charakter in die elektronische Musik.
Kapitel 2: Transformation der Generation durch KI
Im Kontext der KI-Musik machte die Musikgenerierung mittels Deep Learning Ende der 2010er Jahre erhebliche Fortschritte.
Repräsentative Beispiele sind „Jukebox“ von OpenAI, „Magenta“ von Google und „Riffusion“.
KI schreibt keinen Code.
Stattdessen lernt es Muster aus großen Datenmengen und „verinnerlicht“ Produktionsregeln.
Mit anderen Worten handelt es sich bei KI um algorithmische Intelligenz, die „außerhalb“ von Live Coding liegt.
In den letzten Jahren verschwimmen die Grenzen jedoch rapide.
Beispielsweise verwenden TidalCycles-Benutzer GPT, um Codes in Echtzeit vorzuschlagen.
Es tauchen immer wieder Fälle auf, in denen KI Live-Auftritte analysiert und den nächsten Rhythmus vorhersagt.
Diese Fusion deutet auf eine Zukunft hin, in der KI zum Co-Star im Live Coding wird.
Kapitel 3: Unterschiede zwischen menschlicher Improvisation und maschineller „Improvisation“
Human Live Coder genießen Fehler und Zufälle.
Unerwartete Geräusche und Missverständnisse bestimmen die Musik.
Im Gegensatz dazu ist KI-Improvisation eine „Rekonstruktion“ auf der Grundlage vergangener Daten.
Im Wesentlichen bleibt es im Rahmen der Wahrscheinlichkeit.
Dieser Unterschied ist jedoch auch die Quelle der Kreativität.
KI bietet unendlich viele Kombinationen, und der Mensch erkennt darin einen Sinn.
Die Beziehung zwischen den beiden ist nicht eine von „Dominanz und Unterordnung“, sondern eine sich gegenseitig ergänzende kreative Beziehung.
Kapitel 4: Entwicklung und Vergleich der wichtigsten Tools
| Werkzeugname | Entwickler/Organisation | Funktionen | Möglichkeit der KI-Zusammenarbeit |
|---|---|---|---|
| Gezeitenzyklen | Alex McLean | Haskell-basierte Live-Coding-Umgebung, spezialisiert auf Musterbeschreibung | Echtzeit-Codegenerierung mit ChatGPT-Integration möglich |
| SuperCollider | James McCartney | Eine seit langem etablierte Umgebung für Klangsynthese und algorithmische Komposition | Die Steuerung der Klangparameter mithilfe von KI-Modellen ist in Arbeit |
| Sonic Pi | Sam Aaron | Ruby-basiert mit Blick auf Bildung und Leistung | KI-gestützte Codebeispiele für den Einsatz im Bildungsbereich |
| Riffusion | Seth Forsgren et al. | Diffusionsmodell, das Spektrogramme erzeugt | KI selbst erzeugt direkt Klang |
| Ozelot / Hydra | Live-Coding-Umgebung, die generiertes Video + Ton integriert | KI-Synchronisation von Bild und Ton ist möglich |
Kapitel 5: Beispiel für die Zusammenarbeit zwischen KI und Live Coding
-
AI-DJ Experiment (2023, Berlin CTM Festival) Ein menschlicher Live-Programmierer spielt auf TidalCycles und die KI analysiert den BPM, die Harmonie und die räumliche Anordnung.
Erzeugen Sie reaktionsschnelle Mixe in Echtzeit.
Dadurch konnten wir in einer Form mitspielen, bei der die KI dem „menschlichen Rhythmus“ folgt. -
Algorave × GPT Jam (2024, Tokio) Mehrere Live-Programmierer erhalten auf der Bühne GPT-basierte Codevorschläge. Führen Sie gleichzeitig Korrekturen vor Ort durch. Als Eingabedaten dienen Chats des Publikums.
Es wurde versucht, KI die „Atmosphäre des Ortes“ lesen zu lassen. -
Riffusion+Gezeitenschleife TidalCycles ordnet die von der KI erzeugten fragmentierten Geräusche nach dem Zufallsprinzip neu an. Ein neues Produktionsformat, bei dem die KI für die „Materialien“ und der Mensch für die „Struktur“ verantwortlich ist.
Kapitel 6: Ethik und Kreativität – Was ist ein „Performer“ im Zeitalter der Automatisierung?
Wem gehört das Urheberrecht, wenn KI Code schreibt?
Gilt das Konzept des „Originals“ auch für die Improvisationsproduktion?
Diese Fragen stehen in engem Zusammenhang mit der Philosophie des Live Coding.
Die Philosophie von TOPLAP, „den Prozess zu öffnen“, lautet
Transparenz = Demokratisierung der Kreativität.
Wenn KI dieser Kultur beitritt,
Wir müssen der „Black Box“ widerstehen.
Wenn eine generative KI einen Code vorschlägt, sollten auch deren Lernprozess und Entscheidungskriterien öffentlich gemacht werden.
Dies ist der Schlüssel zur Erschließung der Zukunft der algorithmischen Musik.
Kapitel 7: Zukunftsaussichten – Auf dem Weg zur „algorithmgesteuerten Zusammenarbeit“
In den 2030er Jahren werden „KI-Sessions“ in der Musikproduktion alltäglich werden.
KI ist nicht nur ein Werkzeug, sondern wird als Mitwirkender positioniert.
Der Mensch bestimmt die Richtung von Konzepten und Emotionen,
KI improvisiert Hunderte von Klangmustern.
Der Akt der Auswahl und Bearbeitung von dort aus ist selbst eine „Performance“.
Darüber hinaus wird durch die Integration der Live-Coding-Umgebung mit KI
Es besteht auch die Möglichkeit, dass es zu einer „Prompt = Performance-Schnittstelle“ wird.
Benötigen Sie keine Maus oder MIDI mehr.
Die Ära, in der Sprache und Gedanken selbst zu Klängen werden naht.
Illustration: Live-Coding × Zeitleiste der KI-Entwicklung
Korrelationsdiagramm: Kollaborative Struktur von Live Coder und KI
Fazit: Eine neue Demokratisierung der Kreativität
Live Coding erfolgt durch „improvisatorischen Ausdruck durch Akkorde“. Er machte Musik zu einem Akt, den jeder erschaffen konnte. KI wird die Demokratisierung weiter vorantreiben, Wir versuchen, eine Kultur des Teilens der „Intelligenz der Leistung“ zu schaffen.
Algorithmen und Menschen, Maschinen und Emotionen. Wo die Grenzen verschmelzen, Ein neuer musikalischer Horizont entsteht.
Akkorde gehen über Noten hinaus und KI lernt zu improvisieren. Musik ist kein „exklusives Patent des Menschen“ mehr; Co-Kreative Intelligenz.