W kwietniu 2023 r. dyrektor cyfrowa Warner Music Group i wiceprezes wykonawczy ds. rozwoju biznesu, Oana Ruxandra, powiedziała The Hash z CoinDesk, że spodziewa się, że narzędzia muzyczne napędzane sztuczną inteligencją (AI) „otwierą świat jak nigdy dotąd”, inspirując „nowe formy kreatywności i podgatunki” w przemyśle muzycznym i rozrywkowym.
Choć Ruxandra patrzy optymistycznie, uwzględniła również obawy wielu muzyków: „Musimy zachować szczególną czujność” – stwierdziła, zwracając uwagę na znaczenie ochrony kreatywności i praw artystów. Zaledwie kilka dni przed pojawieniem się Ruxandry w The Hash, wygenerowany przez sztuczną inteligencję utwór muzyczny zatytułowany Heart On My Sleeve zyskał popularność, naśladując głosy autorów piosenek Drake’a i the Weeknda – mimo że żaden z artystów nie brał udziału w jego tworzeniu. Zamiast tego twórcy piosenki przeszkolili bota sztucznej inteligencji, korzystając z muzyki artystów, co rozgniewało właściciela wytwórni Universal Music Group.
Inni muzycy byli bardziej przychylni nowej technologii. Niecały tydzień później Grimes, muzyk elektropopowy, zaprosiła swoich fanów do tworzenia własnych piosenek z dubbingiem AI, używając jej głosu i rozszerzyła ofertę, dzieląc tantiemy w proporcji 50/50, demonstrując kreatywne rozwiązanie zagadki związanej z sztuczną inteligencją.
Podzielę się 50% tantiem za każdy udany utwór wygenerowany przez sztuczną inteligencję, w którym wykorzystano mój głos. Taka sama umowa, jak w przypadku każdego artysty, z którym współpracuję. Możesz używać mojego głosu bez kary. Nie mam etykiety ani żadnych zobowiązań prawnych.
— 𝔊𝔯𝔦𝔪𝔢𝔰 (@Grimezsz) 24 kwietnia 2023
Mając na uwadze wyzwania związane z własnością intelektualną, nadal nie ma wątpliwości, że narzędzia muzyczne oparte na sztucznej inteligencji mogą udostępnić artyście nowe formy ekspresji. Czasami sztuczną inteligencję można nawet wykorzystać do usprawnienia produkcji muzycznej poprzez wypełnienie technicznych lub intelektualnych luk w umiejętnościach artysty, pomagając mu wcielić ambitne koncepcje w życie za pomocą kilku kliknięć. Narzędzia te mogą również efektywniej wykonywać zadania związane z inżynierią dźwięku, obniżając bariery i skracając czas potrzebny na wydawanie muzyki.
Patrząc w stronę Web3, firmy i artyści idą jeszcze dalej ze sztuczną inteligencją, łącząc muzykę z wciągającymi, interaktywnymi i tworzonymi przez użytkowników doświadczeniami w metaświecie i poza nim.
Narzędzia muzyczne AI w Web3
Wielu muzyków i platform zajmujących się kryptowalutami znalazło już kreatywne sposoby na integrację narzędzi AI w swojej praktyce.
Weźmy na przykład VNCCII, pierwsze alter ego mieszkającej w Sydney producentki Samanthy Tauber. Wykorzystując wiodące w branży narzędzie do tworzenia 3D w czasie rzeczywistym, Unreal Engine, Tauber przywdziewa swój awatar, aby transmitować na żywo wywiady z metaświata, a także występować na wirtualnych koncertach i pokazach. Jak każda zmiana scenografii lub kostiumu, cyfrowy element tożsamości artystycznej VNCCII poszerza granice jej artyzmu.
Firma muzyczna Web3 Pixelnyx łączy rzeczywistość rozszerzoną (AR) z grami Metaverse i koncentruje się na pomaganiu artystom w tworzeniu niezapomnianych wrażeń dla fanów. Założona przez producenta muzyki elektronicznej Deadmau5, znanego z wysyłania fanów na wyprawy po piaskownicy i organizowania występów w Decentralandzie, firma PIXELYNX ma na celu ewolucję naszego tradycyjnego pojęcia fandomu poprzez wykorzystanie sztucznej inteligencji, Web3 i treści generowanych przez użytkowników ( UGC).
W kwietniu firma Pixelnyx wypuściła Korus, narzędzie umożliwiające użytkownikom tworzenie utworów muzycznych opartych na sztucznej inteligencji, korzystając z oficjalnie licencjonowanych treści artystów.
Poznaj KORUS – muzycznych towarzyszy AI i przyszłość muzyki od naszej spółki zależnej @pixelynx_io 🎶🤖 Towarzysze KORUS AI zrewolucjonizują tworzenie #muzyki, ewoluując i dostosowując się do Twoich wyborów, wyzwalając kreatywność i umożliwiając twórcom zarabianie na muzyce w zabawny sposób i łatwy interfejs.
Dowiedz się więcej o KORUSIE:
— Animoca Brands (@animocabrands) 28 kwietnia 2023 r
Używane w tym duchu narzędzia muzyczne AI mogą wspomóc, udoskonalić lub ulepszyć styl twórczy artysty. Chociaż narzędzia te nie są jeszcze wystarczająco dobre, aby zastąpić artystów, są imponujące i stale „uczą się” poprzez ciągłą interakcję międzyludzką. Zastępowanie muzyków sztuczną inteligencją nigdy nie było popularnym podejściem, o czym świadczą opinie, jakie Spotify otrzymało po przetestowaniu własnej wersji sztucznej muzyki. Jednak pomimo kontrowersji wokół sztucznej inteligencji dzisiejsi artyści muzyczni mogą odnieść korzyści z wykorzystania produkcji muzycznej wspomaganej sztuczną inteligencją w sposób zgodny z rzemiosłem.
Ideał i współpraca
WarpSound, adaptacyjna platforma muzyczna oparta na sztucznej inteligencji, znalazła kilka sposobów na zintegrowanie przedmiotów kolekcjonerskich opartych na blockchain i cyfrowych awatarów ze swoją ofertą biznesową. Firma produkująca treści muzyczne, niewymienne tokeny (NFT) i doświadczenia społecznościowe wkrótce wypuści oprogramowanie API, które będzie komponować oryginalną muzykę nuta po nucie w różnych stylach.
Założyciel i dyrektor generalny Chris McGarry, przedsiębiorca i dyrektor ds. mediów, który wcześniej zrezygnował ze stanowiska dyrektora muzycznego w dziale rzeczywistości wirtualnej Oculus na Facebooku, twierdzi, że narzędzia WarpSound pomagają artystom znajdować nowe inspiracje i materiały źródłowe, które ożywiają ich procesy twórcze. Firma jest beneficjentem funduszu The Sandbox’s Game Maker Fund, który wspiera projektantów gier w metaświecie The Sandbox i planuje zbudować na platformie domowe miejsce, w którym artyści będą mogli eksperymentować z muzyką generatywną.
Uruchomiła także akcelerator artystów AI Music Studio we współpracy z globalnym dostawcą usług płatniczych Mastercard, w ramach którego McGarry twierdzi, że zaobserwował nowe korzyści w procesie twórczym.
„W zeszłym tygodniu uczestniczyłem w serii wirtualnych sesji studyjnych z artystami biorącymi udział w programie” – powiedział McGarry. „Pracowaliśmy z naszym generatywnym interfejsem muzycznym AI, aby zaprezentować zestaw pomysłów muzycznych, a następnie poprosiliśmy artystę o kształtowanie ich i powtarzanie, aż wylądowali na czymś, czego esencja do nich pasowała i zmotywowała ich do pracy”.
WarpSound nawiązał także współpracę z Tribeca Film Festival i YouTube, aby stworzyć interaktywne i zabawne doświadczenia muzyczne pomiędzy artystami i publicznością.
Komponowanie i aranżacja
Jeśli Twój projekt muzyczny w mniejszym stopniu dotyczy występów na żywo, a bardziej gotowego produktu — być może komponujesz oryginalną muzykę na potrzeby podcastu, wydarzenia metaverse, kanału YouTube, gry wideo Web3 lub treści edukacyjnych — możesz użyć sztucznej inteligencji, aby przyspieszyć proces kompozycja i aranżacja. Oczywiście najbardziej utalentowani wirtuozi na świecie prawdopodobnie potrafią wykonywać gamy muzyczne we śnie, ale przy tak wielu elementach produkcji dźwiękowej i wideo standardową praktyką staje się używanie sztucznej inteligencji do wstawiania szybkich gam, arpeggio, przebiegów i harmonii do oryginalnej muzyki.
Narzędzia takie jak Riffusion umożliwiają użytkownikom wyświetlanie podpowiedzi tekstowych przekształcanych w muzykę. Soundful to kolejna platforma oparta na sztucznej inteligencji, która umożliwia generowanie i pobieranie utworów bez tantiem.
Jeśli chcesz pójść o krok dalej i dodać tekst, popularne, wszechstronne narzędzie ChatGPT może napisać dwuwersową piosenkę z refrenem, refrenem, przejściem i zakończeniem w niecałe 30 sekund przy minimalnym wsparciu. Oczywiście teksty mogą być nieco uproszczone lub tandetne – ale czy nie są to jedne z najlepszych piosenek?
W większości przypadków utwory wygenerowane przez sztuczną inteligencję można odtworzyć bez konieczności uiszczania opłat licencyjnych, ponieważ zostały utworzone maszynowo i w związku z tym nie są chronione amerykańskim prawem własności intelektualnej. Większość platform pobiera jednak opłatę abonamentową.
Dźwięki te można następnie wybić jako NFT i sprzedać na platformach handlowych takich jak OpenSea. Platformy takie jak Royal.io umożliwiają także artystom dołączenie do witryny i oferowanie swoich utworów w formie ułamkowych NFT, które oferują fanom wypłaty tantiem.
Przeczytaj więcej: Czym są muzyczne NFT?
Granice produkcji muzycznej AI
Być może słyszałeś już, że muzyczne narzędzia sztucznej inteligencji nie są jeszcze aż tak wyrafinowane, szczególnie w porównaniu z najnowszymi generatorami sztucznej inteligencji przetwarzającymi tekst na obraz (które były już używane do tworzenia całych kolekcji komiksów) i chatbotem Open AI, Chat GPT (która podobno zdała egzamin adwokacki).
Zdaniem ekspertów w tej dziedzinie produkcja dźwięku rzeczywiście wymaga większej mocy obliczeniowej niż statyczny tekst i obraz, dlatego pozostaje w tyle. Alexander Flores, dyrektor ds. technologii i strategii w sieci badań muzycznych Water & Music, twierdzi, że innowacje technologiczne zazwyczaj przenoszą się z formatów przetwarzających najmniej danych do najbogatszych. W przypadku sztucznej inteligencji logiczne jest, że chatboty są być może tworzone szybciej niż renderowanie dźwięku i wideo przez sztuczną inteligencję.
W jednym z wątków dyskusji online użytkownik Reddita zwrócił uwagę na te ograniczenia, podkreślając, że chociaż autor może sprawdzić i edytować dane wyjściowe chatbota AI w ciągu kilku sekund, wysłuchanie utworu zajmuje kilka minut, a czasem nawet godziny, aby go edytować. Maszyny również wolniej uczą się na podstawie zbiorów danych AI, ponieważ pliki audio, które je zasilają, rzadko zawierają kompleksowe opisy tekstowe, które uczą sztuczną inteligencję o atrybutach pliku (gatunek, tempo, tonacja, instrumentacja itp.). Tymczasem sztuczna inteligencja oparta na tekście i obrazach może szybko przeszukiwać tysiące słów i elementów wizualnych.
„To, ile czasu potrzeba na skonsumowanie treści, ma ogromne znaczenie” – powiedział Flores. „W przypadku piosenki jesteś zamknięty na trzy minuty. Nie można tego przyspieszyć, bo wtedy nie doświadcza się utworu tak, jak został napisany.”
Ponadto obrazy są statyczne, a utwory bardziej dynamiczne: „Dźwięk ma po prostu znacznie większy wymiar” – powiedział Stefan Lattner, badacz zarządzający w Sony CSL, laboratorium technologii kreatywnych, podczas panelu podczas inauguracyjnego szczytu Wavelengths Summit firmy Water & Music. „Podczas gdy obrazy mają stałą liczbę pikseli, w przypadku dźwięku masz zmienną liczbę sekund, które chcesz wygenerować”.
Niemniej jednak Water & Music nazywa kreatywną sztuczną inteligencję najbardziej przełomową technologią dla branży muzycznej od czasów Napstera, aplikacji do udostępniania plików peer-to-peer, dzięki której dystrybucja muzyki jest praktycznie bezpłatna, a także pozbawiona granic i zezwoleń – koncepcja znana krypto-nabywcom .