Gefälschte Musik, täuschend echte Stimmen und ahnungslose Fans – immer mehr Musiker schlagen Alarm, weil künstliche Intelligenz für einen neuen, besonders perfiden Betrug genutzt wird. KI-generierte Songs tauchen auf Streaming-Plattformen direkt in den offiziellen Künstlerprofilen auf und werden dort als vermeintliche Originalwerke ausgegeben. Branchenvertreter sprechen inzwischen vom „einfachsten Betrug der Welt“.
Besonders eindrücklich ist der Fall der britischen Folk-Musikerin Emily Portman. Sie wurde stutzig, als ihr ein Fan zu einem neuen Album gratulierte – obwohl sie seit Jahren keine neue Musik veröffentlicht hatte. Tatsächlich war unter ihrem Namen ein Album mit dem Titel „Orca“ auf mehreren Plattformen erschienen. Portman erkannte schnell, dass die Songs nicht von ihr stammten. Stil, Instrumentierung und Textanmutung erinnerten zwar an ihre Arbeit, wirkten aber zugleich künstlich. Nach eigener Einschätzung wurde die KI mit ihren früheren Alben „trainiert“, um ihre musikalische Handschrift zu imitieren.
Ähnliches erlebte der australische Musiker Paul Bender. Auf den Profilen seiner Band tauchten plötzlich mehrere KI-generierte Songs auf, die er als „bizarr schlecht“ beschreibt. Für ihn liegt das Kernproblem in mangelhaften Sicherheitsmechanismen der Streaming-Branche. Während andere digitale Bereiche längst auf Identitätsprüfungen und Zwei-Faktor-Authentifizierung setzen, reiche bei Musikplattformen oft eine einfache Selbstauskunft, um Inhalte hochzuladen. Genau das mache den Betrug so leicht.
Die Dimension des Problems wird zunehmend sichtbar. Nach einer öffentlichen Diskussion meldeten sich bei Bender Hunderte Künstler, die ähnliche Erfahrungen gemacht hatten. Besonders häufig betroffen seien die Kataloge verstorbener Musiker, deren Werke nicht mehr aktiv überwacht werden. Eine von Bender gestartete Petition zur besseren Absicherung der Plattformen wurde von zehntausenden Menschen unterschrieben, darunter auch international bekannte Künstler.
Technisch begünstigt wird diese Entwicklung durch immer leistungsfähigere Musikgeneratoren. Studien zeigen, dass viele Hörer KI-generierte Songs kaum noch von echten Produktionen unterscheiden können. Das eröffnet nicht nur Raum für kreative Experimente, sondern auch für systematischen Betrug. Ziel der Täter ist es laut Branchenvertretern vor allem, über Downloads und künstlich aufgeblähte Abrufzahlen Tantiemen zu kassieren. Einzelne Einnahmen seien zwar gering, summierten sich aber durch automatisierte Abrufe schnell.
Für betroffene Musiker ist der Schaden dennoch erheblich. Neben finanziellen Einbußen geht es um Vertrauen, Reputation und die Kontrolle über das eigene künstlerische Werk. Das Entfernen der gefälschten Inhalte gestaltet sich oft mühsam und dauert je nach Plattform Tage oder sogar Wochen. Rechtliche Mittel sind begrenzt: Während einige Regionen bereits spezielle Schutzgesetze gegen digitale Nachahmung kennen, gelten in anderen Ländern weiterhin enge urheberrechtliche Grenzen.
Streaming-Anbieter wie Spotify und Apple Music haben angekündigt, enger mit Vertriebsfirmen zusammenzuarbeiten und betrügerische Inhalte schneller zu erkennen. Kritiker bemängeln jedoch fehlende Transparenz und zu langsame Reaktionen. In der Branche wächst die Sorge, dass KI bestehende Probleme wie Spam und Betrug nicht nur verstärkt, sondern auf ein neues Qualitätsniveau hebt.
Trotz aller Unsicherheit arbeiten viele Künstler weiter an neuer Musik. Für sie steht fest: Menschliche Kreativität, Zusammenarbeit und echte Emotionen lassen sich zwar imitieren, aber nicht ersetzen. Doch ohne wirksame Schutzmechanismen droht genau dieser Kern der Musikbranche zunehmend unter Druck zu geraten.
Kommentar hinterlassen