Game Music komponieren

|

Kannst Du Dich noch an Liedern aus Videospielen aus der Kindheit erinnern? Zum Beispiel an einen Song aus dem Nintendo Klassiker: „Tetris“ oder „Super Mario Bros.“ oder das altbekante „Wacka-wacka-wacka“ von Pacman? Vermutlich lautet die Antwort bei den meisten: Ja. Aber warum ist das so? Nehmen wir an, ein musikalischer Loop dauert eine Minute. Und der Spieler verbringt ingesamt ein halbes Jahr mit einem Spiel, das er täglich nur 30 Minuten spielt. In diesem Fall hört er täglich das gleiche Musikstück 30 mal und insgesamt sogar 5475 mal. Diese Zahl wird insbesondere dann signifikant, wenn man feststellt, dass viele Spieler ein Spiel nicht nur über ein halbes Jahr und nicht nur für täglich 30 Minuten, sondern häufig sehr viel länger spielen.



Hat man ein Musikstück fünf bis zehntausend mal gehört, ist es klar, dass man es auch Jahre oder Jahrzehnte danach problemlos wiedererkennen und singen kann. Die Kehrseite der Medaille ist aber, dass Musik, die sich so oft wiederholt, relativ bald nervtötend wird. Und so stellen nicht wenige Spieler nach einer unbestimmten Dauer, die Musik im Spiel einfach ab.

Was in Ermangelung von Speicherplatz bei den alten Konsolen noch ein nötiges Übel war, ist heute zunehmend lösbar geworden. Durch Musik, die für Abwechslung sorgt. Hier existieren zwei Ansätze. Zum einen haben wir einen variierenden Ansatz und zum andern einen adaptiven Ansatz.

Adaptive Spielmusik

Bei adaptiver Game Music ist die Musik deswegen adaptiv, weil sie sich – ähnlich wie in einem Film – mit der Handlungs- und Emotionslage des Protagonisten bewegt: Wird die Situation für den Protagonisten brenzlig, spiegelt die Musik diesen Umstand wider.

Nehmen wir einen Film, so fügt sich dieser mühelos in einen linearen Ablauf ein. Er beginnt zu einem bestimmten Zeitpunkt und endet zu einem bestimmten Zeitpunkt. Dazwischen spielt sich die Story zu festgelegten Punkten ab. Schaue ich mir heute Minute 34 in einem Film an, so geschieht genau dasselbe, was auch in einer Woche geschieht, wenn jemand anders sich auf einem anderen Kontinent befindet und sich Minute 34 des gleichen Films anschaut. Die Bilder sind festgelegt und linear.

Auch Musik funktioniert in einem linearen Ablauf. Ein Lied hat einen Anfang und ein Ende und dazwischen spielen sich Melodie und Harmonie ab. Kaufe ich mir eine Lady Gaga-CD und springe bei einem Song auf Minute 2:12 so höre ich exakt das gleiche, was jemand anders hört, wenn er die gleiche Lady Gaga-CD in einer Woche auf einem anderen Kontinent hört.

Bei klassischen Filmen spielt sich also genau diese Mixtur ab: Zwei lineare Medien funktionieren gemeinsam. Der gleiche Film wird überall bei Minute 34 die gleichen Bilder mit der gleichen Musik abspielen. Eine perfekte Symbiose.

Bei Video- und Computerspielen sieht die Sache allerdings etwas anders aus. Da der Spieler massiv in das Spielgeschehen eingreift, verliert das Spiel seine lineare Form in aller Regel. Spiele also ich ein Spiel 34 Minuten lang, so bin ich mit an Sicherheit grenzender Wahrscheinlichkeit an einer anderen Stelle als eine andere Person, die 34 Minuten spielt.

Trotzdem verfügen Spiele aber über Musik. Wir haben es also mit der ungewöhnlichen Paarung eines nichtlinearen Mediums (dem Spiel) mit einem linearen Medium (der Musik) zu tun. Und müssen es irgendwie schaffen, dass die Musik ihre Linearität verliert – oder zumindest mit Tricks versuchen, die Linearität ein Stück weit „aufzubrechen“.

Adaptive Spielmusik kommt generell häufiger bei filmähnlichen Spielen vor. Also solchen Spielen, die in ihrer Aufmachung einem Film gleichkommen. Allerdings ist sie keineswegs darauf beschränkt. Prinzipiell kann jedes Spiel durch adaptive Spielmusik aufgewertet werden. Dabei unterscheidet sie sich von der „variierenden Spielmusik“ vor allem dadurch, dass sie das Geschehen im Spiel adaptiert – sich also nicht „grundlos“ verändert.

INGAME: Die Autos stehen an der Start-/Zielgeraden und warten darauf, endlich durchstarten zu können. Es ertönt ein satter Dancebeat im Hintergrund. Eine Ampel blendet sich ein. Rot. Rot. Rot. Grün. Der Startschuss ist gefallen. Bässe kommen zum Beat hinzu. Mit jedem Gegner, der überholt wird, gesellt sich ein weiteres Instrument zur Musik. Das Auto des Spielers geht in Führung und ein kompletter, energiegeladener Dancesong erklingt. Doch da schiebt sich im Seitenwinkel auch schon ein gegnerischer Wagen am Auto des Spielers vorbei. Der Spieler wird überholt und kriegt die Kurve nicht. Er kommt von der Fahrbahn ab und kracht gegen die Leitplanke. Während der Spieler versucht, wieder auf die Fahrbahn zu gelangen, ziehen allmählich seine Gegner Stück für Stück an ihm vorbei. Mit jedem Gegner werden es wieder weniger Instrumente im Arrangement. Bis der Spieler sein Auto wieder auf der Fahrbahn hat, erklingt nur noch der Drumbeat mit einer Basslinie: Der Spieler befindet sich an letzter Position.

Das obige Rennspiel ist ein gutes Beispiel dafür, wie man auch unabhängig von cineastischen Spielen adaptive Musik anwenden kann. Die Musik steht im Einklang mit der Handlung. Der Spieler merkt auch anhand der Musik, „was Sache ist“. Die Musik spiegelt die Spielhandlung wider.

Eine andere Möglichkeit des adaptiven Spiels hätte darin bestehen können, dass die Musik beispielsweise in 4 unterschiedlichen Geschwindigkeiten vorliegt, die nahtlos ineinander übergehen können. Sodass die Musik immer schneller wird, je weiter vorne sich der das Auto des Spielers befindet. Dies müsste natürlich geschickt eingesetzt werden und nicht so, dass ein „Pitchwheel“-Effekt entsteht und die Musik immer schneller und höher wird.

Variierende Spielmusik

Eine andere Art und Weise für Abwechslung zu sorgen, ist die variierende Spielmusik, bei der durch Variationen in Arrangement, Harmonien oder Melodien dafür gesorgt wird, dass die Musik nicht zu monoton wird.

Diese Form der Spielmusik ist nicht adaptiv. Geht also nicht auf die Dinge ein, die im Spiel passieren, sondern ist wie statische Musik, nur mit mehr Abwechslung.

Eine Methode wäre zum Beispiel die, dass der Komponist eine gewisse Anzahl an Musikfragmenten produziert, die alle untereinander kombiniert werden können. Nehmen wir als Beispiel 10 unterschiedliche Soundfiles, mit jeweils 8 Takten Länge. Alle sind in der gleichen Tonart, alle sind im gleichen Tempo. Die Variationen finden allesamt innerhalb der 8 Takte statt. Anfang und Ende sind jedoch so, dass die Übergänge überhaupt nicht auffallen und der Eindruck entsteht, man würde nur ein einzelnes Lied hören.

So könnte man nun alle 10 Soundfiles direkt aneinandergereiht abspielen und so ein Stück mit 80 Takten abspielen. Bei Tempo 100 wären das etwas mehr als drei Minuten Musik. Ständig wiederholt wäre auch das nach einigen Stunden des Spiels langweilig.

424px-Wolfgang-amadeus-mozart_1.jpg

Wusstest Du schon? Das Prinzip der unwillkürlichen Variation existiert schon seit geraumer Zeit. Zum Ende des 18. Jahrhunderts war es ein beliebtes Spiel, Musik mittels Würfeln zu komponieren. Auch Mozart soll unter dem Titel „Mozart’s Musikalisches Würfelspiel“ 1787 ein solches Spiel erstellt haben. Die Vorgehensweise ist dabei so, dass eine bestimmte Anzahl an musikalischen Fragmenten komponiert wird, die – wie in unserem Ansatz – untereinander kombiniert werden können. Zwei Würfel entscheiden dann darüber, welche Segmente gespielt werden.

Aber dadurch, dass diese drei Minuten Musik in 10 einzelne, untereinander austauschbare Segmente unterteilt sind, lässt sich eine größere Vielfalt erzielen. Man lässt die Game Engine die einzelnen Segmente einfach wahllos und zufällig aneinanderreihen. Dies spart einerseits die Rechenresourcen der Konsole und erweckt andererseits den Eindruck, als hätte man es mit ständig neuen Kombinationen und Variationen an Musik zu tun. Durch jede Kombination entsteht ja quasi ein neues Musikstück. Auf diese Art und Weise wird das Musikstück um ein Vielfaches der drei Minuten verlängert wahrgenommen.

Durch diese einzelnen „Musikmodule“ – also die kurzen Segmente an Musik, sehen wir auch einen Lösungsansatz/-versuch, um die „lineare Musik“ etwas „unlinearer“ zu machen. Natürlich bleibt die Musik auch in diesen Fällen linear. Allerdings haben wir nun nicht mehr nur einen Start- und einen Endpunkt sondern multiple. In diesem Beispiel sogar10  Start und 10 Endpunkte. An all diesen Start- und Endpunkten kann der lineare Ablauf der Musik verändert werden.

Neben diesem Ansatz des – nennen wir es mal – digitalen Würfelspiels gibt es auch noch andere Ansätze. Schließlich unterstützen heutzutage viele Konsolen den MIDI-Standard. Ist man als Komponist also in der Situation, auf einen konsoleninternen Sequenzer zugreifen zu können, so kann man auch hier direkt Einfluss auf die Musik nehmen und für Variationen sorgen.

Adaptiv, statisch oder variierende Game Music?

Welche Musik ist nun wann angebracht? Diese Entscheidung fällst Du als Komponist natürlich nicht allein. Denn Spielemusik besteht neben den musikalisch-handwerklichen Anforderungen auch aus den technischen Möglichkeiten. Nicht jede Game Engine kann zum Beispiel adaptive Musik im Spiel umsetzen und nicht jede Konsole verfügt über genügend Rechenleistung, um neben der Grafik auch noch „komplizierte Manöver“ bei der Musik zuzulassen.

Abgesehen davon spielen natürlich auch betriebswirtschaftliche Aspekte in die Entscheidungsfindung der Spieleproduzenten hinein. Adaptive Musik ist generell mehr Kompositions- und Produktionsaufwand, als wenn im Hintergrund einfach immer statisch der gleiche Song abgespielt wird. Das bedeutet, dass ihre Erstellung mehr Zeit – und damit auch mehr Geld kostet, als bei „statischer Musik“.

Es spielen also einige Faktoren hinein und in den meisten Fällen obliegt die Entscheidung darüber, ob die Musik nun statisch, adaptiv oder variierend ist, nicht beim Komponist, sondern beim Produzenten/ den Developern.

Integration von adaptiver Spielmusik

Wann bietet sich adaptive Spielmusik also an? Diese Frage ist nicht so einfach zu beantworten, denn prinzipiell kann man sagen: Eigentlich immer. Adaptive Spielmusik ist quasi ein Qualitätsmerkmal und wird – wenn sie richtig umgesetzt wird – auch zu einem herausragenderen Spielerlebnis seitens des Spielers führen.

Ob nun aber adaptive Spielmusik in ein Spiel integriert wird, hängt nicht nur von der Entscheidung des Komponisten ab. Schließlich muss adaptive Spielmusik von einer Spielengine, unterstüzt werden. Und dazu existieren unterschiedliche Wege.

Integration der Musik mittels Branching

Das englische Wort: „Branching“ heißt übersetzt „Verzweigen“. Gemeint ist dabei der Ansatz, dass die einzelnen Spuren eines Songs einzeln abgespielt werden. Die einzelnen Spuren können nun jeweils gemutet und in der Lautstärke verändert werden.

Einige Instrumente können dabei auf zwei unterschiedlichen Spuren aufgenommen sein, von denen jeweils eine gemutet ist.

Nehmen wir also folgendes Setup an:

  • Eine Bassspur
  • eine Gitarrenspur
  • eine Streicherspur

Diese drei Grundspuren bleiben immer gleich. Darauf aufbauend jeweils zwei Spuren von denen jeweils eine gemutet ist:

  • Zwei Spuren für Melodie
  • Zwei Spuren für Drumsound (einmal actionreich, einmal schleichend)

Wir haben nun also ein Lied, das aus insgesamt sieben Spuren besteht und von denen jeweils zwei Spuren zwingend gemutet sind (eine Melodie- und eine Drumspur). Aber: Auch alle anderen Spuren lassen sie muten und in der Lautstärke verändern.

INGAME: Der Protagonist befindet sich in einem Aufzug nach unten. Die Bassspur erklingt allein. Die Türen öffnen sich und zeigen einen dunklen Keller eines Industriegebäudes. Die Spur mit dem schleichenden Drumsound kommt hinzu. Es spielen jetzt Bass und Drums. Der Spieler lässt den Protagonisten einige Schritte im Keller machen. Die Gitarrenspur setzt ein. Es spielen jetzt Bass, Drums (schleichend) und Gitarren. Der Protagonist begegnet einem Gegner. Die Spur mit den „schleichenden“ Drums wird ausgeblendet und die Spur mit den actionreichen Drums, sowie die Streicherspur eingeblendet. Sobald der Gegner erledigt ist, werden Streicher und actionreiche Drums ausgeblendet und stattdessen wieder die schleichenden Drums eingeblendet.

Durch die Aufteilung des Songs in mehrere Spuren können wir in gewissem Maße für Abwechslung, Variierung und Adaption sorgen.

Da allerdings immer alle Spuren laufen (und nur einige davon stummgeschalten sind), stellt das Branching vergleichsweise hohe Anforderungen an die Audioengine. Im oben erwähnten Beispiel hat die Musik an sich lediglich fünf Spuren, von denen zwei Variationen beinhalten. Trotzdem werden bereits 7 Spuren gleichzeitig laufen gelassen.

Viele Songs bestehen allerdings aus mehr als nur Bass, Gitarre, Strings, Melodie und Drums. Häufig kommen noch 1-2 Synthesizer, weitere Gitarren, Keyboards/Klaviere, Bläser- und (weitere) Streicherspuren hinzu. Wie viele Spuren dem Spielemusiker hier zur Verfügung stehen, ist also von der Audioengine und Leistungsfähigkeit der Plattform abhängig.

Layering

Layering (Überlagerung) ist so ähnlich wie Branching, nur dass sich hier alles in einer kleineren Dimension abspielt. So wird ein einzelner, kompletter Track an bestimmten Stellen (z.B. Feindkontakt) durch eine oder zwei darübergeschichtete Spuren „aufgefüllt“.

Der Song spielt also – wie bei statischer Musik – die ganze Zeit. Findet dann zum Beispiel eine Kampfszene statt, wird eine Spur mit einer dramatischen Streicherlinie darüber gelegt.

Der so entstehende Effekt sorgt zwar für etwas Abwechslung der Musik und adaptiert auch das Spielgeschehen ein wenig, ist allerdings alles in allem sehr vorhersagbar und repetetiv.

Parallel Composing

Auch das „Parallel Composing“ – auf Deutsch: Nebeneinanderlaufendes Komponieren hat einige Ähnlichkeit mit dem Branching.

Prinzipiell geht es auch hier darum, dass gleichzeitig mehrere Spuren laufen. Allerdings ist es so, dass beim Parallel Composing immer nur eine Stereo-Spur hörbar ist und die anderen Spuren alle gemutet sind.

Insofern handelt es sich bei den einzelnen Spuren also nicht um die Aufnahme einzelner Instrumente, sondern um komplette Lieder, die untereinander austauschbar sind.

Zum Beispiel komponiert der Spielemusiker einen Anschleichsong in D-Moll, Tempo 118 bpm und einer bestimmten Auswahl an Instrumenten. Der Anschleichsong ist relativ arm an Drums und eher atmosphärisch gehalten.

Dieser Song wird nun loopbar gemacht und exportiert.

Nun komponiert der Spielemusiker einen Kampfsong. Dieser Song basiert quasi auf dem Anschleichsong, ist auch in D-Moll und auch Tempo 118 bpm. Die Drums sind allerdings intensiver und die Melodie etwas anders und gedoppelt.

In der gleichen Vorgehensweise komponiert und produziert der Spielemusiker nun 4 Songs für unterschiedliche Situationen.

Die Spielengine startet beim Beginn eines Levels nun alle vier Songs gleichzeitig. Allerdings sind vier davon nicht hörbar, da die Lautstärke auf Minimum gesetzt ist. Tritt nun eine bestimmte Situation im Spiel ein ( – beginnt also zum Beispiel ein Kampf), so wird durch die Spielengine der hörbare Song langsam leiser gemacht, während zur gleichen Zeit ein anderer Song von der (unhörbaren) Minimallautstärke auf Normallautstärke geregelt wird. Wohlgemerkt: Das geschieht gleichzeitig. Während der eine Song leiser geregelt wird, wird der andere Song in gleichem Maße lauter geregelt.

Da alle vier Songs im gleichen Tempo und der gleichen Tonart sind – und auch sonst relativ viel Ähnlichkeit zueinander haben (aufeinander basieren), wird er Spieler im Idealfall kaum bemerken, was „hinter den Kulissen“ der Spielengine vor sich geht.

Parallel Composing erlabt ausreichend musikalische Flexibilität und ist zudem resourcenschonend, da nur eine gewisse Anzahl an Stereospuren gleichzeitig läuft, ohne dass die Spielengine daran noch etwas ändern müsste. Es müssen während des Spiels also keine neuen Songs geladen werden, sondern kann alles zu Beginn des Levels stattfinden. Die Überblendung der einzelnen Spuren funktioniert dann über den Lautstärkeregler der Spielengine.

Im Gegensatz zum Branching wird also nicht jedes einzelne Instrument auf einer Spur benötigt. Vier Songs kosten so 8 Spuren, die gleichzeitig laufen.

Transitions

„Transitions“ bedeutet auf deutsch übersetzt „Übergänge“. Das Prinzip hinter dem „Transitions“-Ansatz kennst Du vielleicht schon von „Entertainer-Keyboards“, die von Alleinunterhaltern genutzt werden. Oftmals bieten diese Keyboards Begleitrhythmen. Jeder dieser Begleitrhythmen hat mehrere Arrangements, sodass der Alleinunterhalter beispielsweise für den Chorus eines Songs eine etwas anders arrangierte Begleitung hat, als für den Vers. Verbunden werden diese einzelnen Arrangements mit sogenannten „Fill-Ins“. Der Alleinunterhalter befindet sich also z.B. im Arrangement A, drückt auf die „Fill-In“-Taste und wechselt nach diesem kurzen Zwischenspiel ins Arrangement B.

Dieses Prinzip liegt also mehr oder weniger dem Transitions-Ansatz zu Grunde. Der Spielemusiker komponiert mehrere Songsegmente, sowie passende „Transitions“ – also quasi „Fill ins“, die die einzelnen Segmente miteinander verbinden.

Nehmen wir also folgendes Beispiel: Du hast vier Segmente für ein 2D-Rollenspiel auf einem Handheld (ähnlich der Zeldareihe in den 1990ern auf dem Gameboy) komponiert.

Das erste Segment, dass Du erstellt hast, ist „Erkundungsmusik“. Sie ist ruhig und soll immer ertönen, wenn der Spieler mit seinem Protagonist durch die Spielewelt tingelt.

Das zweite Segment ist die „Konversationsmusik“. Dieses zweite Segment ertönt immer dann, wenn sich der Protagonist in einem „Gespräch“ mit einer anderen Spielfigur befindet.

Das dritte Segment ist die „Kaufmannsmusik“, die immer dann erklingt, wenn der Protagonist ein Handelsgeschäft betritt, um sich neue Waffen zu kaufen oder Erfahrungpunkte durch Fähgikeiten zu ersetzen.

Das vierte Segment ist die „Kampfmusik“, die logischerweise immer dann auftaucht, wenn sich der Protagonist in einem Kampf befindet.

INGAME: Der Protagonist betritt einen Kaufmannsladen (Kaufmannsmusik erklingt) und verlässt ihn direkt im Anschluss – nach zwei Sekunden – wieder (Erkundungsmusik erklingt). Er läuft nun weitere zwei Sekunden durch die Landschaft und findet dann einen Gegner, gegen den er kämpft (Kampfmusik erklingt). Der Gegner ist schneller k.o. als erwartet, sodass wieder Erkundungsmusik erklingt. Der Protagonist steuert direkt auf eine Spielfigur zu und spricht mit ihr (Kommunikationsmusik erklingt).

In diesem Beispel hatte kein Segment die Chance einmal komplett abgespielt zu werden, weil die Aktionen des Spielers einfach viel zu schnell waren. So wurde die Kaufmannsmusik nur zwei Sekunden lang gespielt und dann direkt wieder von der Erkundunsmusik unterbrochen usw.

Es ist daher wichtig, darauf zu achten, dass die einzelnen Segmente zu jedem Zeitpunkt unterbrochen werden können und der Fill-In/ die Transition so wirkt, dass es beim Spieler kaum auffällt, wenn ein neues Songsegment beginnt.

Nehmen wir also an, dass wir 4 Segmente mit jeweils 8 Takten erstellen, so sollten die Harmonien während der einzelnen Segmente nicht zu ausgefallen werden, als dass sie nicht durch eine passende Transition „aufgelöst“ werden könnte. Der Spieler sollte also nicht mit dem „Da-fehlt-noch-was“-Gefühl von unaufgelösten Harmonien zurückgelassen werden.

Prinzipiell ist dieser Ansatz für die Audioengine nicht allzuschwer und rechenintensiv. Allerdings muss der Spielemusiker natürlich dafür sorgen, dass erstens die einzelnen Segmente zueinander passen und zweitens für alle Verbindungen die passenden Fill-Ins komponieren.

Generative

Diese Methode funktioniert nur dann, wenn Konsolen einen eigenen Sequenzer anbieten. Dies ist nicht mehr bei allen Konsolen der Fall, da der klassische „Midi-Sound“ heutzutage nicht erwünscht ist und andererseits der Einsatz von sample-basierter Midiproduktion noch zu resourcenaufwändig ist.

Will man als Musiker am eigenen PC große Orchestermusik sample-basiert produzieren, so benötigt man dafür einerseits einen sehr schnellen PC und andererseits viel Festplattenspeicherplatz, schließlich umfassen solche VST-Libraries häufig mehrere hundert Gigabyte an Speicherplatz. Derzeit wäre es also viel zu aufwändig (und teuer), eine komplette Library in die Konsolen zu integrieren.

Allerdings kann – bei der Geschwindigkeit in der der technologische Fortschritt derzeit vonstattengeht – auch nicht ausgeschlossen werden, dass hochwertige sample-basierte Sequenzer in ferner Zukunft Konsolen zur Verfügung stehen.

Der generative Ansatz, jedenfalls, basiert darauf, dass auch Algorithmen in einem bestimmten Maße für Abwechslungen sorgen können. Nehmen wir als Beispiel einen Drumsound. Er besteht in aller Regel aus Bassdrum, Snare, HiHats – als Basis. Die Snaredrum schlägt in aller Regel mindestens auf die 2 und 4 eines 4/4 Taktes. Nun könnte man ja innerhalb dieser 2er und 4er Hauptschläge in einem Algorithmus die Snare noch ab und zu in den Zwischenzeiten leiser zuschlagen lassen. Oder die HiHats mal etwas schneller und mal akzentuierter spielen lassen.

Hat man diese Algorithmen mal definiert, so könnte die Spielengine von alleine für Abwechslung sorgen. Die Takte würden sich also nicht wahllos wiederholen, sondern die Game Engine würde ständig Variationen einbauen.

Diese Ansätze gehen im Forschungsbereich sogar schon so weit, dass komplette Harmonieabfolgen automatisch nach Gefühlslage erstellt werden.

Der generative Ansatz ist für uns als Spielemusiker prinzipiell nicht so interessant, da die Erstellung dieser Algorithmen natürlich von Programmierern vorgenommen werden muss. Diese müssen zwar über musikalisches Wissen verfügen – aber als Musiker, der nicht über Programmierkenntnisse, ist der generative Ansatz in aller Regel uninteressant.

Insbesondere auch vor dem Hintergrund, dass die wenigsten Konsolen heutzutage über die Fähigkeiten verfügen, hochwertig samplebasierte Musik auszugeben. Und die Frage, ob und in welchem Umfang diese Fähigkeiten überhaupt jemals kommen werden, die Zukunft entscheiden wird.

Bis dahin soll dieses Thema nur am Rande erwähnt werden. Grundsätzlich steht außerdem die Frage im Raum, ob und in welchem Maße Algorithmen gute Musik ersetzen werden können. Als subjektive Meinung, sei an dieser Stelle erlaubt, zu behaupten, dass der generative Ansatz vermutlich nicht über die leichte Anpassung von Drumsounds, wie es beispielsweise in modernen (auch computer-basierten) Drumcomputern bereits angewendet wird, hinausgehen wird. Bei aller Liebe zur Technologisierung und musiktheoretischen Grundlagen, bleibt Musik letztlich doch das Resultat das entsteht, wenn ein Mensch versucht Emotionen zu konservieren.