Durch den wachsenden Einfluss Künstlicher Intelligenz fürchten viele in der Branche um ihre Existenz - Ein Gespräch mit einem Musikwissenschaftler
Eine Branche bangt ums Überleben: Wie gefährlich ist Künstliche Intelligenz für die Musikindustrie?
Coronavirus – Eröffnung der Clubs in Bayern
Die Technik ist, wie hier am Mischpult, seit Jahrzehnten fester Bestandteil der Musikproduktion. Im zunehmenden Einfluss Künstlicher Intelligenz allerdings sehen viele Branchenvertreter nun eine Entwicklung zulasten der (menschlichen) Kreativität – und fürchten um ihre Jobs.
Matthias Balk. Matthias Balk/dpa

Die rasante Entwicklung von KI hinterlässt nicht nur, aber auch in der Musikindustrie Spuren. In der Branche geht derzeit die Angst um; in einer Umfrage der Forschungsgruppe Goldmedia unter den Mitgliedern der Verwertungsgesellschaften Gema und Sacem gaben jüngst 71 Prozent der Befragten an, dass sie fürchten, künftig nicht mehr von ihrer Arbeit leben zu können. Wir haben mit dem Musikwissenschaftler Markus Henrik darüber gesprochen, wie akut die Bedrohung wirklich ist.

Lesezeit 7 Minuten

Herr Henrik, weitreichende Innovationen in der Mediengeschichte gehen grundsätzlich einher mit einer (anfänglich) breiten Ablehnung, oft werden dann auch Untergangsszenarien entworfen – ob nun bei der Erfindung von Radio und Fernseher oder bei der von Auto und Internet. Ist KI also nur ein weiterer Punkt auf dieser Liste? Oder liegt das Gefahrenpotenzial hier doch höher?

Diese Bedenken gab es tatsächlich schon immer, beim Umbruch vom Stumm- zum Tonfilm etwa, auch bei der Erfindung der Schallplatte, als man um die Relevanz des Radios fürchtete. Bei der KI hat es natürlich noch mal eine andere Qualität, weil sich hier Menschen sorgen, dass die Technik kreative Prozesse irgendwann in Gänze ablösen könnte. Wobei die Entwicklung, die wir gerade sehen, eigentlich nicht neu ist, ihre Anfänge bereits im Jahr 1982 liegen. Erste Versuche, mit Computern zu arbeiten, gab es sogar noch früher, 1975 beispielsweise ist der erste digitale Sampler der Musikgeschichte entstanden, aber ab 1982 nimmt der technologische Einfluss auf die Musik dann massiv zu mit der Einführung von Midi, einem System, das den Computer mit dem Keyboard verknüpft.

Das war insofern revolutionär, weil man fortan etwas aufnehmen und es nachträglich am Computer verändern konnte. Die Noten wurden dadurch verbessert, quantisiert, wie man sagt, indem sie von der Technik ganz sauber auf eine Zählzeit gesetzt wurden. Ironisch hierbei ist, dass man dem Computer dann irgendwann auch sagen konnte: „Mach das Ganze bitte wieder ein bisschen menschlicher“, die Funktion hieß „Humanize“, wodurch der Technik also quasi schon in den 1980ern aufgetragen wurde zu entscheiden, wie das musikalische Ergebnis am Ende möglichst menschlich klingt. Das war natürlich noch weit weg von KI, wie wir sie heute kennen, aber im Grunde liegen dort ihre Ursprünge im kreativen Bereich.

Der Musikwissenschaftler Markus Henrik
Eugenia Hanganu

Die Musikbranche tritt der Künstlichen Intelligenz dennoch überwiegend kritisch gegenüber, warnt etwa davor, dass der Kunstform durch KI-Stücke per Mausklick das Individuelle und Emotionale verloren gehen. Wie bewerten Sie diese Befürchtungen?

Ich kann sie absolut nachvollziehen, würde allerdings auch hier wieder zu bedenken geben, dass in der Musikindustrie nicht erst seit heute mit künstlichen Artefakten gearbeitet wird und man eben auch früher schon die Möglichkeit hatte, dem Computer etwa zu sagen: „Hau auf diese Melodie mal ein Arpeggio drauf, also einen vom Keyboard automatisch erzeugten Akkord, bei dem die einzelnen Töne in kurzen Abständen nacheinander einsetzen. Bei „Smooth Operator“ beispielsweise drücken sie auf dem Keyboard vier Knöpfe und das Instrument spielt die berühmte Melodie fast schon von allein. Autotune wäre ein weiteres Beispiel für ein technisches Hilfsmittel, mit dem sich in diesem Fall seit 1997 die Tonhöhe automatisch korrigieren lässt.

Nun hat die aktuelle Entwicklung allerdings insofern ein Alleinstellungsmerkmal, dass sich viele KI-generierten Werke zwar zurzeit noch recht holprig anhören, es aber vermutlich nur eine Frage der Zeit sein dürfte, bis der Hörer nicht mehr unterscheiden kann, ob hinter einem Lied noch ein Mensch steckt oder die reine Technik.

Klar, die Programme werden natürlich immer besser, und in zwei, drei Jahren könnten sie tatsächlich schon so weit sein, dass man zwischen Mensch und KI keinen Unterschied mehr hört. Was die Technik aber auch heute schon kann, hat man etwa 2023 bei der Veröffentlichung des Beatles-Songs „Now and Then“ gesehen: nämlich aus einem total verrauschten Demo aus den 1970er-Jahren, auf dem unter anderem noch der brummende Kühlschrank von Yoko Ono zu hören war, die Stimme von John Lennon zu isolieren. Das ist eine technische Innovation, die zuvor nicht denkbar war. Die Beatles haben es in den 1990ern ja auch selbst versucht und es dann letztlich aufgegeben.

Wir werden in Zukunft immer wieder vor der Frage stehen, wem welche Sounds gehören und hinter welchen Ergebnissen eine kreative Leistung steckt.

Markus Henrik

KI ist also heute bereits in der Lage, Fehler auszubessern und Stimmen auf einer Aufnahme sauber zu extrahieren. Wodurch sich quasi jede Art von Gesang freistellen und sampeln lässt – ohne wie früher auf einer Schallplatte oder CD erst eine klare Stelle suchen zu müssen. Das ist eine neue Realität, die sich auch nicht mehr aufhalten lässt, und wer weiß: Vielleicht stellt in Zukunft jemand was frei von einer Schallplatte aus den 1960er- oder 1970er-Jahren, bei der das bislang einfach nicht möglich war, und es berührt ganz viele Menschen. Ich bin in dieser Frage selbst sehr konservativ, aber es wird sicher auch Sachen geben, bei denen uns die Technik hilft.

Sorge besteht bei vielen Künstlern allerdings auch hinsichtlich der Verwertungsrechte, weil Programme wie Suno beispielsweise mit den Werken menschlicher Autoren trainiert und gefüttert werden, ohne dass die Urheber dafür, Stand jetzt, auch nur einen Cent gesehen haben.

Wir werden in Zukunft immer wieder vor der Frage stehen, wem welche Sounds gehören und hinter welchen Ergebnissen eine kreative Leistung steckt. Damit wird man sich auch urheberrechtlich auseinandersetzen und neue Regeln finden müssen. Die entscheidende Frage ist, wie man künftig mit Vergütungssystemen umgeht, wobei es vermutlich noch einige Jahre dauern wird, bis man Lösungen für diese Probleme gefunden hat.

In einem offenen Brief haben vor Kurzem mehr als 200 US-Künstler dazu aufgerufen, die Entwicklung von KI strenger zu kontrollieren – vor allem auch mit Blick auf die betrügerische Verwendung der Technologie, mit der man nicht nur Stimmen und Sounds, sondern auch das Aussehen von Künstlern kopieren kann. Welche Rolle spielt denn die Regulierung der KI durch den Menschen? Und von wem kann sie gewährleistet werden?

Ich verstehe zunächst einmal beide Seiten, kann also auch nachvollziehen, wenn etwa Produktionsstudios sagen: „Hier war ein kleiner Tonfehler, den synchronisieren wir jetzt mithilfe von KI nach.“ Zugleich ist es aber natürlich gerade auch für kleinere Künstler hart, wenn ihre Stimme irgendwo gespeichert und mithilfe der Technik beliebig generiert werden kann.

Natürlich wird es wie bei jeder technischen Revolution auch hier Menschen geben, die ihren Job verlieren.

Markus Henrik

Heißt: Wir müssen Regeln finden für eine faire Vergütung – und für die Musiker wird das ein Kampf. Daher ist es gut und wichtig, dass sich in besagtem Brief prominente Menschen dafür einsetzen, auch im Namen unbekannterer Künstler. Grundsätzlich stehen wir allerdings noch ganz am Anfang dieser Entwicklung, man wird sich nun also zunächst einmal einige Einzelfälle anschauen und darüber diskutieren müssen, aber am Ende kann es natürlich nicht sein, dass man sagt: „Wir müssen diese Entwicklung einfach so hinnehmen.“

In letzter Konsequenz wird das Thema also vermutlich auch die Politik beschäftigen.

Zweifellos. Wenn man sich die Geschichte der Verwertungsgesellschaften anschaut, dann gab es hierzu im 19. Jahrhundert in Frankreich erste gesetzliche Regelungen, die sich von dort aus dann in Europa und der Welt ausgebreitet haben. Im Fall von KI könnte ich mir gut vorstellen, dass es in den USA irgendwann einen ersten Gesetzesentwurf gibt, und dann muss das europäische Recht natürlich nachziehen.

Jetzt haben wir bislang vor allem über das potenziell Negative gesprochen. Kann man aber nicht ebenso gut auch positiv argumentieren, dass KI den Musikmarkt liberalisiert, weil nun grundsätzlich jeder als Solokünstler ganze Alben produzieren kann – ohne teure Instrumente, ohne Bands oder Vorgaben der Studios?

Diese Demokratisierung des Musikmarkts hat ja bereits eingesetzt. Nehmen Sie etwa Billie Eilish, die ihr erstes, sehr erfolgreiches Album komplett im Kinderzimmer am Laptop produziert hat – und mittlerweile ein Weltstar ist. Auch Charlie Puth hat relativ früh damit begonnen, eigene Musik auf professionellem Niveau zu veröffentlichen. Es ist also nicht mehr so wie in den 90ern, als man noch zwingend eine Produktionsfirma brauchte. Heute sind viele Musiker selbst in der Lage, Songs einzuspielen und Geschichten zu produzieren, das ist keine neue Entwicklung infolge von KI.

Ich persönlich glaube vielmehr, dass diese Technik ein hervorragendes Restaurationstool sein kann – Stichwort Beatles –, mit dem man aus qualitativ schlechten Aufnahmen noch etwas rauskitzelt. Man weiß zum Beispiel, dass Michael Jackson alle seine Ideen eingesungen hat, es gibt Tausende Kassetten von ihm, darunter auch ein wundervolles Demo von „Beat It“. Und ich wäre, ehrlich gesagt, schon sehr gespannt, was die KI hier bei einer Restauration noch rausholen kann.

Wie wird KI die Musikbranche also künftig verändern? Ist die menschliche Kreativität tatsächlich bedroht?

Ich sehe die Entwicklung eigentlich nicht so dystopisch und glaube, dass KI eine sinnvolle Ergänzung sein kann. Natürlich wird es wie bei jeder technischen Revolution auch hier Menschen geben, die ihren Job verlieren und durch die Technik ersetzt werden, und andere, die sehr geschickt mit den Veränderungen umzugehen wissen und ihren Reibach damit machen.

Was ich so höre aus der Praxis, ist, dass es auch jetzt schon viele Menschen in der Kreativbranche gibt, die einfach was bei Chat GPT eingeben, schauen, was rauskommt, und sich davon dann inspirieren lassen. Denn selbst, wenn es Unsinn ist, kann es im Kopf etwas auslösen, manches kann auch übernommen werden und interessant sein für die weitere Arbeit. Und das Schöne ist doch, dass jede Bewegung immer auch eine Gegenbewegung hervorruft: Je artifizieller die Musik wird, desto größer wird auch das Bedürfnis, handgemachte Songs zu hören, zu echten Konzerten zu gehen. Wir sehnen uns immer nach Authentischem, daher bin ich eigentlich ganz optimistisch, dass KI die menschgemachte Musik nicht verdrängen wird.

Das Gespräch führte Stefan Schalles