Im April 2023 sagte Oana Ruxandra, Chief Digital Officer und Executive Vice President of Business Development der Warner Music Group, gegenüber The Hash von CoinDesk, dass sie erwarte, dass von künstlicher Intelligenz (KI) angetriebene Musiktools „die Welt wie nie zuvor öffnen“ und „neue Formen der Kreativität und Subgenres“ in der gesamten Musik- und Unterhaltungsbranche inspirieren werden.
Ruxandras Ausblick ist zwar optimistisch, sie erkennt jedoch auch die Bedenken vieler Musiker an: „Wir müssen sehr wachsam sein“, sagte sie und betonte, wie wichtig es sei, die Kreativität und Rechte der Künstler zu schützen. Nur wenige Tage vor Ruxandras Auftritt bei The Hash gewann ein von KI generierter Deep-Fake-Musiktitel mit dem Titel Heart On My Sleeve an Popularität, indem er die Stimmen der Songwriter Drake und The Weeknd nachahmte – obwohl keiner der beiden Künstler an seiner Entstehung beteiligt war. Stattdessen trainierten die Schöpfer des Songs den künstlichen Intelligenz-Bot mit Musik der Künstler, was den Labelbesitzer Universal Music Group verärgerte.
Andere Musiker sind der neuen Technologie gegenüber aufgeschlossener eingestellt. Weniger als eine Woche später lud die Elektropop-Musikerin Grimes ihre Fans ein, mit ihrer Stimme ihre eigenen KI-synchronisierten Songs zu kreieren, und bot zudem an, die Tantiemen 50/50 aufzuteilen. Damit demonstrierte sie eine kreative Lösung für das KI-Deepfake-Dilemma.
Ich erhalte 50 % der Tantiemen für jeden erfolgreichen, KI-generierten Song, in dem meine Stimme verwendet wird. Das ist derselbe Deal, den ich mit jedem Künstler mache, mit dem ich zusammenarbeite. Sie können meine Stimme ohne Strafe verwenden. Ich habe kein Label und keine rechtlichen Bindungen.
— 𝔊𝔯𝔦𝔪𝔢𝔰 (@Grimezsz) 24. April 2023
Angesichts der Herausforderungen im Bereich des geistigen Eigentums besteht kein Zweifel daran, dass KI-Musiktools Künstlern neue Ausdrucksformen eröffnen können. Manchmal kann KI sogar zur Verbesserung der Musikproduktion eingesetzt werden, indem sie technische oder intellektuelle Lücken in den Fähigkeiten eines Künstlers schließt und ihm hilft, ehrgeizige Konzepte mit nur wenigen Klicks zum Leben zu erwecken. Diese Tools können auch Tontechnikaufgaben effizienter erledigen, wodurch Hürden verringert und die Zeit bis zur Veröffentlichung von Musik verkürzt wird.
Mit Blick auf Web3 entwickeln Unternehmen und Künstler die KI noch weiter, indem sie Musik mit immersiven, interaktiven und benutzergenerierten Erlebnissen im Metaversum und darüber hinaus kombinieren.
KI-Musiktools in Web3
Eine Reihe von Krypto-Native-Musikern und -Plattformen haben bereits kreative Wege gefunden, KI-Tools in ihre Praxis zu integrieren.
Nehmen wir zum Beispiel VNCCII, das Metaverse-erste Alter Ego der in Sydney lebenden Produzentin Samantha Tauber. Mithilfe des branchenführenden Echtzeit-3D-Erstellungstools Unreal Engine legt Tauber ihren Avatar an, um Live-Interviews aus dem Metaverse zu streamen und außerdem bei virtuellen Konzerten und Shows aufzutreten. Wie bei jedem Bühnen- oder Kostümwechsel erweitert die digitale Komponente der künstlerischen Identität von VNCCII die Grenzen ihres künstlerischen Schaffens.
Das Web3-Musikunternehmen Pixelnyx kombiniert Augmented Reality (AR)-Erlebnisse mit Metaverse-Gaming und konzentriert sich darauf, Künstlern dabei zu helfen, unvergessliche Erlebnisse für Fans zu schaffen. Mitbegründer ist der Elektromusikproduzent Deadmau5, der dafür bekannt ist, Fans auf Missionen durch The Sandbox zu schicken und Shows in Decentraland zu veranstalten. Ziel von PIXELYNX ist es, unsere traditionellen Vorstellungen von Fandom durch den Einsatz von KI, Web3 und benutzergenerierten Inhalten (UGC) weiterzuentwickeln.
Im April veröffentlichte Pixelnyx Korus, ein Tool, mit dem Benutzer KI-gestützte Musikbegleiter mit offiziell lizenzierten Künstlerinhalten erstellen können.
Lernen Sie KORUS kennen – musikalische KI-Begleiter und die Zukunft der Musik von unserer Tochtergesellschaft @pixelynx_io 🎶🤖 KORUS-KI-Begleiter werden die Erstellung von#Musikrevolutionieren, indem sie sich basierend auf Ihren Entscheidungen weiterentwickeln und anpassen, Kreativität entfesseln und es Urhebern ermöglichen, mit einer unterhaltsamen und einfachen Benutzeroberfläche mit Musik Geld zu verdienen.
Erfahren Sie mehr über KORUS:
— Animoca Brands (@animocabrands) 28. April 2023
Wenn sie in diesem Sinne eingesetzt werden, können KI-Musiktools den kreativen Stil eines Künstlers unterstützen, erweitern oder verbessern. Obwohl die Tools noch nicht gut genug sind, um Künstler zu ersetzen, sind sie beeindruckend und „lernen“ durch kontinuierliche menschliche Interaktion ständig dazu. Musiker durch KI zu ersetzen, war noch nie eine beliebte Idee, wie der Widerstand beweist, den Spotify nach dem Test seiner eigenen Version der künstlichen Musikkuratierung erhielt. Doch trotz der Kontroverse um KI können heutige Musiker möglicherweise von einer KI-gestützten Musikproduktion profitieren, die das Handwerk respektiert.
Ideenfindung und Zusammenarbeit
WarpSound, eine adaptive KI-Musikplattform, hat mehrere Möglichkeiten gefunden, Blockchain-basierte Sammlerstücke und digitale Avatare in seine Geschäftsangebote zu integrieren. Das Unternehmen, das Musikinhalte, nicht fungible Token (NFTs) und soziale Erlebnisse produziert, wird bald eine Software-API veröffentlichen, die Originalmusik Note für Note in verschiedenen Stilen komponiert.
Gründer und CEO Chris McGarry, ein Unternehmer und Medienmanager, der zuvor als Musikleiter bei Facebooks Virtual-Reality-Abteilung Oculus tätig war, sagt, dass die Tools von WarpSound Künstlern helfen, neue Inspiration und Ausgangsmaterial zu finden, das ihre kreativen Prozesse belebt. Das Unternehmen ist Empfänger des Game Maker Fund von The Sandbox, der Spieledesigner im Metaversum von The Sandbox unterstützt, und plant, innerhalb der Plattform einen Heimatort zu schaffen, an dem Künstler mit generativer Musik experimentieren können.
In Zusammenarbeit mit dem globalen Zahlungsanbieter Mastercard wurde außerdem ein AI Music Studio Artist Accelerator eingeführt, bei dem McGarry nach eigenen Angaben neue Vorteile für den kreativen Prozess beobachtet hat.
„Letzte Woche war ich in einer Reihe virtueller Studiositzungen mit Künstlern, die am Programm teilnehmen“, sagte McGarry. „Wir arbeiteten mit unserer generativen KI-Musikschnittstelle, um eine Reihe musikalischer Ideen vorzustellen, die der Künstler dann ausgestaltete und wiederholte, bis er auf etwas stieß, dessen Essenz ihn ansprach und mit dem er motiviert arbeiten wollte.“
WarpSound arbeitet außerdem mit dem Tribeca Film Festival und YouTube zusammen, um interaktive und spielerische Musikerlebnisse zwischen Künstlern und Publikum zu schaffen.
Komposition und Arrangement
Wenn es bei Ihrem Musikprojekt weniger um Live-Auftritte als vielmehr um das fertige Produkt geht – vielleicht komponieren Sie Originalmusik für einen Podcast, ein Metaverse-Event, einen YouTube-Kanal, ein Web3-Videospiel oder Bildungsinhalte – können Sie KI nutzen, um den Kompositions- und Arrangementprozess zu beschleunigen. Natürlich können die talentiertesten Virtuosen der Welt wahrscheinlich im Schlaf Tonleitern spielen, aber bei so vielen Elementen der Ton- und Videoproduktion wird es zur Standardpraxis, KI zu nutzen, um schnelle Tonleitern, Arpeggios, Läufe und Harmonien in Originalmusik einzufügen.
Tools wie Riffusion ermöglichen es Benutzern, Textansagen bereitzustellen, die in Musik umgewandelt werden. Soundful ist eine weitere KI-Plattform, mit der Benutzer lizenzfreie Titel erstellen und herunterladen können.
Wenn Sie noch einen Schritt weitergehen und Texte hinzufügen möchten, können Sie mit dem beliebten Allround-Tool ChatGPT in knapp 30 Sekunden und mit minimaler Eingabeaufforderung einen Song mit zwei Strophen, einem Pre-Chorus, einem Refrain, einer Bridge und einem Outro schreiben. Natürlich können die Texte etwas simpel oder kitschig sein – aber sind das nicht einige der besten Songs?
In den meisten Fällen sind von KI generierte Songs reproduzierbar, ohne dass Lizenzgebühren gezahlt werden müssen, da sie von Maschinen erstellt wurden und daher nicht durch das US-amerikanische Urheberrecht geschützt sind. Die meisten Plattformen erheben jedoch eine Abonnementgebühr.
Diese Sounds können dann als NFTs geprägt und auf Marktplätzen wie OpenSea verkauft werden. Plattformen wie Royal.io ermöglichen es Künstlern auch, der Site beizutreten und ihre Songs als fraktionierte NFTs anzubieten, die den Fans Lizenzgebühren auszahlen.
Weiterlesen: Was sind Musik-NFTs?
Die Grenzen der KI-Musikproduktion
Sie haben vielleicht schon gehört, dass KI-Tools für die Musik noch nicht so ausgereift sind, insbesondere im Vergleich zu den neuesten KI-Text-zu-Bild-Generatoren (die bereits zur Erstellung ganzer Comic-Sammlungen verwendet wurden) und dem Chatbot von Open AI, Chat GPT (der Berichten zufolge die Anwaltsprüfung bestanden hat).
Laut Experten auf diesem Gebiet erfordert die Audioproduktion tatsächlich mehr Rechenleistung als die Ausgabe von statischen Texten und Bildern und hinkt daher hinterher. Alexander Flores, Leiter für Technik und Strategie beim Musikforschungsnetzwerk Water & Music, sagt, dass technische Innovationen im Allgemeinen von den am wenigsten datenintensiven Formaten zu den datenreichsten gelangen. Im Fall von KI ist es verständlich, warum Chatbots möglicherweise schneller entwickelt werden als KI-basierte Audio- und Videowiedergabe.
In einem Online-Diskussionsthread wies ein Reddit-Benutzer auf diese Einschränkungen hin und betonte, dass ein Autor die Ergebnisse eines KI-Chatbots zwar in Sekundenschnelle Korrektur lesen und bearbeiten kann, es jedoch mehrere Minuten dauert, ein Lied anzuhören, und manchmal sogar Stunden, es zu bearbeiten. Maschinen lernen auch langsamer aus KI-Datensätzen, da die Audiodateien, mit denen sie gefüttert werden, selten umfassende Textbeschreibungen enthalten, um der KI die Eigenschaften der Datei (Genre, Tempo, Tonart, Instrumentierung usw.) beizubringen. Text- und bildbasierte KIs können dagegen Tausende von Wörtern und Bildern schnell durchforsten.
„Es ist sehr wichtig, wie lange es dauert, den Inhalt zu konsumieren“, sagte Flores. „Bei einem Song ist man drei Minuten lang gefangen. Man kann es nicht beschleunigen, weil man dann den eigentlichen Song nicht so erlebt, wie er geschrieben wurde.“
Außerdem sind Bilder statisch, während Lieder dynamischer sind: „Audio ist einfach viel höherdimensional“, sagte Stefan Lattner, leitender Forscher bei Sony CSL, einem Labor für kreative Technologie, in einem Panel beim ersten Wavelengths Summit von Water & Music. „Während Bilder eine feste Anzahl von Pixeln haben, hat man bei Audio eine variable Anzahl von Sekunden, die man generieren möchte.“
Dennoch bezeichnet Water & Music die kreative KI als die bahnbrechendste Technologie für das Musikgeschäft seit Napster, der Peer-to-Peer-Filesharing-Anwendung, die die Verbreitung von Musik praktisch kostenlos sowie grenzen- und genehmigungsfrei machte – ein Konzept, das Krypto-Natives vertraut ist.