None

Zukunftspotenzial der KI in der Musik

Kunst gilt als zutiefst menschliche Eigenschaft, schöpferisch zu sein. Was passiert im Zeitalter von Künstlicher Intelligenz mit dieser Kreativität?

Text: Leonie Reineke, 17. April 2025

 

Geschichten erfindet sie im Turbotempo, Bilder generiert sie mit scheinbar grenzenloser Fantasie, Stimmen imitiert sie in erschreckender Perfektion: Längst hat sich die Künstliche Intelligenz einen prominenten Platz in der Digitalmoderne erobert. Als Phänomen nur schwer greifbar, ist sie doch aus unserem Leben nicht mehr wegzudenken. Dabei war sie gefühlt gestern noch Zukunftsmusik. Immerhin: Bei Logikfragen gehen KI-Chatbots oft genug in die Knie und produzieren Fehler am laufenden Band. Auch ihr Humor lässt zu wünschen übrig. Und präzise, differenzierte Antworten auf Fragen innerhalb eines sehr spezifischen Themenfelds sind auch nicht unbedingt zu erwarten. Noch nicht.

Umso mehr drängt sich zum jetzigen Zeitpunkt ein bestimmter Gedanke auf: Wenn Logik und Sachinformation bei der KI-Nutzung nicht an erster Stelle stehen, wie steht es dann um einen Bereich, in dem die Frage nach Richtig oder Falsch eher selten gestellt wird – den Bereich von Kunst und Kreativität? Kann KI womöglich auch komponieren? Und wenn ja, kann sie es besser als wir Menschen?

KI-Version von Beethovens 10. Sinfonie

Wer jetzt ins Grübeln kommt, muss hinnehmen, dass diese Frage schon beantwortet wurde, unter anderem von einem chinesischen Smartphone- Hersteller: 2019 wurde Franz Schuberts h-Moll-Sinfonie, die »Unvollendete«, in einer »vollendeten« Fassung aufgeführt, ergänzt um zwei neue Sätze, die eine Künstliche Intelligenz komponiert hat. Das hierfür entwickelte KI-Modell hat auf der Basis von Schuberts Musik gleichsam die Handschrift des Komponisten erlernt und schließlich selbstständig zur Anwendung gebracht. Was die einen schon damals als Wunderwerk modernster Technik bejubelten, betrachteten die anderen skeptisch – vor allem angesichts des eher nichtssagenden Resultats: einer sterilen Pseudo-Schubert-Musik, die dem ursprünglichen Werk nicht gerecht wird.

Ein ähnlich ernüchterndes Projekt war die Komposition von Ludwig van Beethovens nie realisierter »10. Sinfonie« mittels Künstlicher Intelligenz. Für das, was das Beethoven-Orchester Bonn im Oktober 2021 zur Uraufführung brachte, hatte sich ein Computer zwei Jahre lang mit Partituren und Skizzen des Komponisten beschäftigt. Aber auch hier klingt das Ergebnis fantasielos und nicht wirklich nach Beethoven – zumal die vermeintliche Leistung der KI beargwöhnt werden darf. Denn immer wieder griff bei der Fertigstellung der Partitur ein Arrangeur ein, suchte einzelne Passagen aus den Computer-Ergebnissen heraus und erledigte sogar die Orchestrierung von Hand. Ein Mensch wurde also doch noch gebraucht.

KI-Wochenende 2025

Keine Technologie sorgt derzeit für so viel Gesprächsstoff wie die Künstliche Intelligenz – auch in der Musik. Konzerte mit EEG-Haube und 3D-Sound werden an einem Wochenende begleitet von Gesprächen mit den Künstler:innen.

GLÄTTE UND GEFÄLLIGKEIT

Man kann enttäuscht sein, vielleicht aber auch beruhigt. Denn klar ist: Trotz aller Möglichkeiten, die Künstliche Intelligenz heute liefert, ist gerade im künstlerischen Bereich nach wie vor viel menschliche Gestaltung notwendig. Die KI – auch die der milliardenschweren Firmen – ist immer nur so intelligent oder kreativ wie ihr Nutzer oder Erfinder. Sie hat keinen anderen und erst recht keinen besseren Musikgeschmack. Die einen Modelle produzieren nichtssagende, austauschbare Hollywood- Soundtracks; die anderen bieten zwar eine breitere Palette an Musikgenres, aber auch da sind die Grenzen schnell erreicht und die Langeweile vorprogrammiert.

»Ich finde es für künstlerische Prozesse nicht wirklich interessant, die großen KI-Softwares wie Suno oder Udio zu verwenden«, sagt die Komponistin Brigitta Muntendorf, die in ihrer Arbeit zunehmend Künstliche Intelligenz einsetzt. »Vieles ist vorgefertigt, sodass man kaum gestalterischen Spielraum hat. Spannender ist es, wenn man mit Softwares arbeitet, bei denen man in die Algorithmen selbst eingreifen kann. Aber das erlauben die Standardtools nicht.«

Alexander Schubert Alexander Schubert © privat
Brigitta Muntendorf Brigitta Muntendorf © unbezeichnet

Ähnlich sieht es Alexander Schubert, in dessen Kompositionen KI schon lange zur Selbstverständlichkeit geworden ist: »Es ist deutlich wahrzunehmen, dass die KI-Modelle der großen Firmen auf Mainstream- Datensätze trainiert sind. Das bedeutet, dass ihr Output – egal, wer damit arbeitet – in der Regel auch eine Mainstream-Ästhetik bedient. Ob es Bilder, Klänge oder Geschichten sind: Man stößt oft auf etwas sehr Slickes, Crispes, eine glamouröse, digitale Hyperrealität – was letztlich zu einer Selbstverstärkung des Mainstreams führt. Und das wird natürlich schnell uninteressant.«

Das Phänomen, das Alexander Schubert beschreibt, ist tatsächlich in vielen KI-generierten Bildern oder Songs zu finden: entfesselter Kitsch, werbetaugliche Glätte und Gefälligkeit, dass es einen gruselt. »Und genau dieser Ästhetik wird man irgendwann überdrüssig«, meint der 46-Jährige. »Deshalb interessiert mich, welche neuen Bedürfnisse dadurch bei den Menschen hervorgerufen werden. Möglicherweise entsteht wieder eine Sehnsucht nach etwas Rauem, Gebrochenem, das nicht einfach nur schick ist.«

UNVERMUTET HIN UND HER

Den Rahmen der Konvention zu sprengen, alternative Wirklichkeitsmodelle zu ersinnen und auch dem Nicht-Intakten einen Raum zu geben – das sind von jeher Anliegen der Neuen Musik. Dass die KI-Assistenten der Tech-Giganten für derartige Bedürfnisse nicht ausgelegt sind, überrascht kaum. Insofern wundert es auch nicht, dass Komponistinnen und Komponisten zeitgenössischer Musik – wenn Sie denn neugierig auf die Arbeit mit KI sind – gerne mit kleineren Modellen operieren, bei denen sie Zugriff auf alle Lernschritte der Maschine vor dem Endergebnis haben.

So gründete etwa der Komponist Genoël von Lilienstern mit einigen Kollegen die Gruppe Ktonal. Diese Gruppe entwickelt selbst neuronale Netze, die mit Audiodaten trainiert werden. Hier wird versucht, die KI auf eine kreative Weise für Musikkomposition zu nutzen – auch wenn der programmierte Code sich gar nicht übermäßig von dem unterscheidet, was wir ohnehin von Computern kennen. »Wir sehen das ziemlich nüchtern«, sagt der 46-Jährige. »KI ist eigentlich nur Addition und Subtraktion mit einem besonders hohen Komplexitätsgrad. Man kann sich das wie ein Gitter aus etlichen Zahlen vorstellen. Darin entstehen dann Wahrscheinlichkeiten für die Zusammenhänge der Zahlen. Und auf Basis dieser Wahrscheinlichkeitsdaten kommt am Ende etwas neu Generiertes heraus – etwas, das sich den Input-Daten annähert.«

Die Maschine lernt etwa wie wir Menschen: Sie liest Daten, erkennt in ihnen besondere Merkmale oder Muster und wiederholt den Lernvorgang etliche Male. Diese iterativen Vorgänge, diese aufeinander aufbauenden Lernstufen nennt man auch »Epochen«. Und gerade die Zwischenstufen auf dem Weg zum optimalen Ergebnis scheinen für künstlerisches Arbeiten reizvoll zu sein. »Mich interessiert das unfertig Gelernte«, sagt von Lilienstern. »Denn da entsteht oft eine besondere Fehler-Ästhetik – ganz ähnlich, wie wenn ich es süß finde, dass meine kleine Tochter noch nicht richtig spricht. Man kann sich aber auch Strategien überlegen, wie durch KI etwas sonderbares Drittes entstehen kann, indem man unterschiedliche Daten einspeist, die erst einmal nichts miteinander zu tun haben. Und plötzlich baut die KI zum Beispiel ein Hybrid aus Saxofon- und menschlichen Stimmklängen oder aus demRaucherhusten und dem schrillen Lachen zweier verschiedener Personen. Da kann es dann passieren, dass die Maschine virtuos zwischen den Materialien hin und her springt, Übergänge baut, wo man sie nie vermutet hätte.«

ktonal: »Le Mystère des Voix Neuronales«

DIGITALER DADAISMUS

Die Art, wie Künstliche Intelligenz Zusammenhänge erkennt und erlernt, ist dem Träumen oder auch dem freien, fantasievollen Assoziieren des Menschen nicht unähnlich. Wie ein Computer auf Drogen bildet die KI neue Synapsen aus. Für Genoël von Lilienstern ist das eine besondere Inspirationsquelle: »Ich sehe da durchaus Parallelen zum Dadaismus oder Surrealismus. Man muss Wege finden, durch die man bestenfalls an einem ästhetischen Ort landet, den man sich nicht hätte vorstellen können.«

So wie von Lilienstern sieht es auch die irische Komponistin und Stimmkünstlerin Jennifer Walshe. Die 51-Jährige interessiert sich für das Unvollkommene am maschinellen Lernen – so wie etwa Sprach-Übersetzungsprogramme nach wie vor Fehler machen und dabei oft versehentlich wunderbar aparte Poesie entstehen lassen. »Ich finde es spannend, wenn Entscheidungen fallen, die ich nicht vorhersehen kann«, sagt Walshe. »Denn als improvisierende Stimmperformerin arbeite ich ja auch gerne mit anderen Intelligenzen zusammen, die ihre künstlerischen Entscheidungen selbst treffen – ob es Menschen sind oder Maschinen. Natürlich reagieren maschinelle Lernsysteme immer etwa so, wie wir es uns wünschen. Man kann zum Beispiel ein neuronales Netz bitten, einen hübschen Popsong zu schreiben, und genau das wird passieren. Aber aktuell gibt es immer noch verrückte Fehler in den Systemen, und man bekommt vielleicht eine Opernarie ausgespuckt, in deren Mitte plötzlich jemand jodelt.«

Für sie als am Zufall interessierte Künstlerin sei deshalb gerade die Frühphase der maschinellen Lernsysteme spannend. »Denn sie bietet eine neue Möglichkeit, auf sonderbare Dinge zu stoßen. Grob gesagt: Um einen Klang zu kreieren, nehmen sich die neuronalen Netze einen Block weißes Rauschen. Aus diesem Block ritzen sie alles heraus, was nicht der Klang ist, den sie erzielen wollen. Aber da sie noch nicht perfekt sind, bleiben immer kleine Teilchen irgendwo übrig. Deshalb sind die KI-Klänge oft etwas harsch – mit sogenannten Glitches, kleinen Artefakten oder hochfrequenten Störsounds. Genau diese Fehler sind für das künstlerische Arbeiten reizvoll, aber leider werden sie immer seltener.«

Jennifer Walshe: »ULTRACHUNK«

INSPIRIEREND RÄTSELHAFT

Auch wenn sich die Technologie schneller verbessert, als man Texte zu der Thematik schreiben kann, scheint die typische KI-Glitch-Ästhetik weiterhin charakteristisch zu sein. Zum Beispiel klingen die seit 2020 veröffentlichten Popsongs der Firma Open-AI teils wie rätselhafte Zerrbilder bestimmter Musikgenres. Ein KI-generierter Song im Stil von Frank Sinatra wirkt zwar erschreckend echt, auf der anderen Seite aber zeitigt er digitale Artefakte, Rauschen und sonderbare Übergänge, die versehentlich eine Art experimentelle Musik hervorbringen. Wie genau derartige Ergebnisse zustande kommen, bleibt ein Rätsel – verborgen in der Black Box des KI-Systems.

Eben diese Rätselhaftigkeit inspiriert auch die Komponistin Eva Reiter: »Es ist undurchsichtig, nach welchen Prinzipien der Algorithmus arbeitet, was genau im latent space passiert«, sagt die 49-jährige Wienerin. »Der Reiz liegt darin, dass in manchen Fällen – vor allem, wenn das System nicht ›perfekt‹ funktioniert –, unverbundene Elemente neu kombiniert werden und mich überraschen. Gewohnte Assoziationsketten funktionieren dann nicht mehr. Und diese Unausgereiftheit, das ›Fehlverhalten‹ als Unerwartbares ist inspirierend und erinnert uns daran, dass das Leben grundsätzlich der Kontingenz unterliegt, dass alles auch ganz anders sein könnte. Es ist also die ›fantastische Genauigkeit‹, wie Robert Musil es bezeichnet hat, und nicht die ›pedantische‹, die mich interessiert.«

 

Eva Reiter
Eva Reiter © Daniel Dittus

Reiter sieht die Einbeziehung von KI und interaktiven Musiktechnologien in erster Linie als Möglichkeit der Erweiterung an. »Sie gibt uns die Chance, in einen erweiterten kreativen Diskurs mit einem digitalen Begleiter zu treten, einer Art Spiegel, in dem wir uns in leicht verzerrter Form wiedererkennen. Wir erhalten Einblicke in uns selbst, die befremdlich, belustigend und unerwartet sind.«

Ähnlich betrachtet auch Jennifer Walshe die Maschine als kreatives Gegenüber, mit dem ihre eigene Kreativität resonieren kann. So ist eines ihrer Projekte, »A Late Anthology of Early Music«, aus einer KI-generierten Kreuzung des Klangs ihrer eigenen Stimme mit Aufnahmen von Alter Musik hervorgegangen: Kompositionen von Guillaume de Machaut, Carlo Gesualdo und anderen wurden hier eingespeist. Herausgekommen ist eine denkbar enigmatische Musik, die sich kaum einem Genre zuordnen lässt. Für dieses Projekt hat Walshe mit dem US-amerikanischen Programmierer-Duo dadabots zusammengearbeitet.

»Elbphilharmonie Session« mit Eva Reiter und dem Ictus Ensemble

NEUE FRAGEN, ALTE BEISPIELE

Ohnehin scheinen es oft Gemeinschaftsprojekte zu sein, aus denen zeitgenössische KI-Kompositionen hervorgehen; so auch im Fall von Brigitta Muntendorf. »Zusammen mit dem ukrainischen Kollektiv Respeecher arbeite ich schon länger mit Voice-Cloning-Verfahren«, sagt die 42-Jährige. »Ich zeichne beispielsweise Stimmklänge einer Sängerin auf und fertige davon ein Modell an, mit dem die KI trainiert wird. Theoretisch kann ich die Stimme der Sängerin dann alles Mögliche singen lassen.«

Ein solcher Ansatz berge natürlich auch die Gefahr des Missbrauchs: »Da stellen sich völlig neue Fragen in puncto Urheberschaft. Bereits das Grundmodell des ukrainischen Unternehmens besteht aus tausenden geklonten Stimmen – sowohl selbst aufgenommenen wie auch Netzfunden. Das ist notwendig, um die Stimm-KI überhaupt arbeitsfähig zu machen. Aber es ist natürlich nicht unumstritten. Deshalb hat das Kollektiv auch ein umfangreiches Ethikkompendium ausgearbeitet. Man muss sich zum Beispiel fragen: Wie kann die Stimme einer Sängerin geschützt werden? Wie wird die Person vergütet, wenn ihre geklonte Stimme irgendwo zum Einsatz kommt? Wie lässt sich verhindern, dass mit einer Stimme ohne Einverständnis ihres Besitzers neue Dinge generiert werden? Die Gefahr des digitalen Kolonialismus ist ein Teil dieser neuen Realität. Damit müssen wir uns auseinandersetzen.«

Brigitta Muntendorf
Brigitta Muntendorf © Friederike Wetzels

Der Blick auf die aktuelle Lage lässt uns schnell vergessen, dass das Musikmachen mit Künstlicher Intelligenz keine ganz neue Sache ist. Als wichtige historische Wegmarke wird oft die »Illiac Suite« des US-amerikanischen Komponisten Lejaren Hiller von 1957 angeführt – eine computergenerierte Streichquartettpartitur, die als die allererste ihrer Art gilt. Allerdings ist hier nicht ganz klar, wie viel zusätzliche Auswahl- und Strukturierungsarbeit doch noch vom Menschen geleistet wurde.

Generell aber hat die Idee, ein anderes, nicht-menschliches Medium oder Werkzeug in den Kompositionsprozess einzubeziehen, in den Jahrzehnten nach dem Zweiten Weltkrieg einen Aufschwung erlebt. So auch das algorithmische Komponieren – ein Verfahren, bei dem die Partitur durch einen automatisierten, mathematisch beschreibbaren Prozess erzeugt wird. Voraussetzung dafür ist, dass der Komponist im Vorfeld eine Reihe von Materialien und Regeln festlegt. Einer der Pioniere auf diesem Feld war Gottfried Michael Koenig, der nicht nur Komponist, sondern auch Experte für Tonstudio- und Computertechnik war.

Lejaren Hiller: »Illiac Suite«

VERFLÜSSIGT, NICHT VERÜBERFLÜSSIGT

Um heute als Musikschaffender mit Künstlicher Intelligenz arbeiten zu können, muss man zwar kein ausgewiesener IT-Experte sein, aber praktisch ist es trotzdem. Alexander Schubert etwa hat vor seiner Kompositionsausbildung Informatik studiert. Entsprechend lange ist er schon mit Künstlicher Intelligenz befasst. Zu seinen Vorlieben – vor allem in audiovisuellen Projekten – gehört das »Aufweichen« oder auch das Neu-Zusammensetzen von Identitäten: »Auf der klanglichen Ebene kann das bedeuten, dass zum Beispiel ein geräuschhafter Streicherklang direkt in den Schrei eines Menschen übergeht. Und auf der visuellen Ebene generiere ich gerne Hybride verschiedener Personen, etwa der Mitglieder eines Ensembles. Dabei kann etwas herauskommen, was sich zwar wie ein Mensch bewegt, aber nicht mehr eindeutig als Frau oder Mann identifizierbar ist.«

Auf diese Weise »verflüssigt« Schubert typische Merkmale verschiedener Personen oder Klänge und Klangfarben und lässt bizarre Mischungen entstehen. Unsere Wahrnehmung wird herausgefordert, denn mit den erlernten Kategorien, nach denen wir sinnliche Reize einordnen, kommen wir nicht mehr weiter. Derartige Ansätze scheinen gegenwärtig bei vielen Komponistinnen und Komponisten beliebt zu sein. Kein Wunder, denn schon lange wird in der zeitgenössischen Musik mit dem Über-Bord-Werfen alter Ordnungssysteme experimentiert – zugunsten einer vielleicht feineren, differenzierteren Wahrnehmung.

So haben Musikerinnen und Musiker allen besorgniserregenden Entwicklungen der Technologie zum Trotz Ansätze gefunden, Künstliche Intelligenz produktiv für sich nutzbar zu machen. Und der Angst vor der eigenen Verüberflüssigung begegnen die meisten mit Gelassenheit. Denn KI kann zwar Dinge sortieren, aber kreative Einfälle haben, Entscheidungskriterien entwickeln, ästhetische Urteile fällen und endgültige Entschlüsse fassen – das müssen die Künstler weiterhin selbst tun. Eva Reiter bringt es auf den Punkt: »KI macht gute Komponisten nicht schlechter und mittelmäßige nicht besser. Sie kann Zugänge schaffen, Hierarchien ausgleichen. Sie kann manche Arbeitsprozesse effizienter gestalten, aber sie ermöglicht es trotzdem nicht, Abkürzungen zu nehmen. Sie kann keine grundsätzliche Entscheidungsschwäche ausgleichen – und schon gar keine fehlende künstlerische Vision.«

 

Dieser Artikel erschien im Elbphilharmonie Magazin (Ausgabe 2/25).

Mediathek : Weitere Beiträge

Video abspielen

: Konzertfilm »World Builder, Creature«

Alex Paxtons Musik in einem kunstvollen Konzertfilm mit handgemalten Animationen.

Aurora Orchestra / Abel Selaocoe / Nicholas Collon
Video abspielen

Video on Demand vom 1.3.2025 : Aurora Orchestra / Abel Selaocoe / Nicholas Collon

Abel Selaocoes faszinierendes Cellokonzert »Four Spirits« und Beethovens Siebte Sinfonie im Großen Saal.

Elbphilharmonie Talk mit Kian Soltani

Der iranisch-österreichische Star-Cellist über seine kulturellen Wurzeln, seine Begeisterung für Filmmusik und die verpasste Chance einer besonderen Begegnung.