Der Podcast "KI verstehen" ist ein Format des Deutschlandfunks, das sich mit der Rolle und den Anwendungen von Künstlicher Intelligenz (KI) im Alltag beschäftigt. In dieser Folge wird das Thema Musik und KI behandelt. Gehostet wird die Sendung von Moritz Metz, der gemeinsam mit Friederike Weicher Seri, die Musikwissenschaften studiert hat, durch die Episode führt. Sie diskutieren, ob und wie KI den kreativen Prozess des Komponierens unterstützen oder sogar ersetzen kann.
Die Episode beginnt mit einem Experiment, bei dem Moritz zwischen zwei Musikstücken entscheiden soll, welches von einer KI komponiert wurde. Beide Stücke beginnen mit derselben Phrase, jedoch wurden sie unterschiedlich fertiggestellt. Moritz vermutet, dass das zweite Stück von Menschen komponiert wurde, da es geschmeidiger klingt.
Der Podcast beleuchtet die Geschichte der KI in der Musik, die bis in die 1980er Jahre zurückreicht, als der Musikprofessor David Cope begann, mit KI zu experimentieren, um aus einer kreativen Krise herauszukommen. Er entwickelte einen Algorithmus, der mit klassischen Werken trainiert wurde und in der Lage war, im Stil von Komponisten wie Bach oder Beethoven Musik zu produzieren. Diese frühen Experimente zeigten, dass KI Musikstile gut imitieren kann, was auch von Professor Reinhard Kopiez, einem Experten für Musikpsychologie, bestätigt wird.
Ein weiterer Schwerpunkt der Episode ist die Diskussion über die Möglichkeiten und Grenzen der KI in der Musikproduktion. Die Hosts sprechen über Tools wie Suno und Udio, die in der Lage sind, bestehende Musikstile zu reproduzieren, jedoch Schwierigkeiten haben, etwas völlig Neues zu schaffen. Die rechtlichen Implikationen der Nutzung solcher Tools werden ebenfalls angesprochen, insbesondere die Bedenken von Künstlern, deren Werke ohne Zustimmung für das Training von KI-Modellen verwendet werden.
Ein praktisches Beispiel für die Anwendung von KI bei der Musikkomposition wird anhand des Kooperationsprojekts zwischen den Münchner Symphonikern und Google vorgestellt. Das Werk "The Twin Paradox" ist eine ko-kreative Komposition, bei der KI zur Unterstützung der menschlichen Komponisten eingesetzt wurde. Es wird diskutiert, wie Sprachmodelle wie Google Gemini bei der Schaffung von Musik eingesetzt werden können, indem sie Vorschläge für Melodien und Orchestrierung liefern.
Die Hosts stellen fest, dass KI zwar ein nützliches Werkzeug im kreativen Prozess sein kann, aber nicht in der Lage ist, die menschliche Kreativität vollständig zu ersetzen. Die menschlichen Komponisten Jakob Haas und Adrian Sieber betonen, dass die Arbeit mit KI das Komponieren nicht unbedingt erleichtert, sondern eher eine zusätzliche Ebene der Komplexität einführt.
Letztlich wird festgestellt, dass KI derzeit nicht die Fähigkeit besitzt, originelle und innovative Musik zu schaffen, die von menschlichen Komponisten erwartet wird. Der Podcast endet mit der Erkenntnis, dass KI in der Musik als Werkzeug zur Unterstützung genutzt werden kann, aber nicht die menschliche Kreativität und künstlerische Originalität ersetzen kann.