Berichten zufolge erlebt die beliebte Musik-Streaming-Plattform Spotify einen Anstieg an KI-generierten Musik-Covern, was bei Hörern und Branchenexperten Besorgnis auslöst.

Diese KI-„Bands“ sollen Playlists infiltrieren und Millionen von Zuhörern anziehen, oft indem sie sich unter Coverversionen echter Künstler mischen. Im Gegensatz zu echten Künstlern haben diese KI-Bands keine digitale Präsenz in den sozialen Medien, was Zweifel an der Authentizität ihrer Arbeit aufkommen lässt.

KI-Bänder und ihre verdächtige Präsenz

Aufmerksame Spotify-Nutzer bemerkten diesen Trend als Erste, als eine Gruppe von Reddit-Nutzern das Problem ans Licht brachte. Die Untersuchung begann mit KI-Bands, die klassische Country-Songs coverten, weitete sich aber bald auf verschiedene Genres und Jahrzehnte aus. Laut den Reddit-Nutzern haben diese Bands keine eigene Musik, was den Verdacht noch verstärkt.

Ein Reddit-Benutzer, der unter seinem Namen Culibuildr bekannt ist, betonte, dass diese Praxis bereits seit mehreren Jahren praktiziert wird, insbesondere in Genres wie Ambient, elektronischer Musik und Jazz. Die jüngste Verbreitung von für Verbraucher zugänglichen KI-Tools hat es für jedermann einfacher gemacht, Musik mit Gesang zu erstellen, was die Identifizierung von KI-generierten Inhalten erschwert.

Etiketten und rechtliche Auswirkungen

Die Kontroverse verschärfte sich, als ein Anwalt von 11A, einem Label, das mit einigen dieser KI-Cover in Verbindung gebracht wird, behauptete, dass menschliche Musiker am Produktionsprozess beteiligt waren. Der Anwalt konnte jedoch keine weiteren Einzelheiten oder gültigen Kontaktinformationen des Labels liefern, was weitere Zweifel an seiner Legitimität aufkommen ließ. Eine abgelaufene Domain und ein inaktives Facebook-Profil mit minimalen Followern waren die einzigen Spuren der Online-Präsenz des Labels, was für ein Unternehmen im Bereich der digitalen Musik ungewöhnlich ist.

Die umfassenderen Auswirkungen auf die Musikindustrie

Die Situation unterstreicht die wachsende Besorgnis über ausbeuterische Praktiken in der Streaming-Branche. Ein Spotify-Sprecher betonte, dass die Plattform zwar die Verwendung von Autotune oder KI-Tools nicht verbiete, die Inhalte jedoch ihrer Richtlinie zu irreführenden Inhalten entsprechen müssten, die ein Verbot der Identitätsdiebstahls beinhaltet. Der Sprecher deutete an, dass Inhaltsanbieter, darunter die KI-Bands, ihr Management oder ihre Labels, für das Problem verantwortlich sein könnten. Nachdem diese Covers gemeldet wurden, wurden sie Berichten zufolge von der Plattform entfernt.

Cole Henderson, ein Anwalt für Unterhaltungs- und Musikrecht, wies darauf hin, dass hinter diesen KI-generierten Covers möglicherweise Drittvermittler stecken, die von Künstlern häufig zur Verwaltung ihrer Musik auf Streaming-Plattformen eingesetzt werden. Henderson merkte an, dass diese Praxis zwar nicht illegal, aber ausbeuterisch sei, insbesondere für die ursprünglichen Songwriter, die geringere Lizenzgebühren erhalten als die KI-Künstler und ihre Labels. Diese Situation unterstreicht die Notwendigkeit für die Musikindustrie, sich mit den ethischen und finanziellen Auswirkungen von KI-generierten Inhalten auseinanderzusetzen, während sie sich weiterentwickelt.

Die anhaltende Debatte über KI in der Musik zeigt, vor welchen Herausforderungen Streaming-Plattformen wie Spotify stehen, wenn es darum geht, Innovation mit dem Schutz der Rechte der Künstler in Einklang zu bringen. Da KI-Technologie immer zugänglicher wird, muss sich die Branche anpassen, um eine faire Vergütung aller beteiligten Urheber sicherzustellen.

Der Beitrag „Spotify wird angeblich mit KI-generierten Musikcovern überschwemmt“ erschien zuerst auf Coinfea.