2023年4月、ワーナーミュージックグループの最高デジタル責任者兼事業開発担当執行副社長のオアナ・ルクサンドラ氏は、CoinDeskのThe Hashに対し、人工知能(AI)を搭載した音楽ツールが「これまでにないほど世界を切り開き」、音楽・エンターテインメント業界全体に「新しい形の創造性とサブジャンル」を生み出すと期待していると語った。

ルクサンドラの見通しは楽観的だが、多くのミュージシャンの懸念も認めている。「私たちは非常に警戒しなければなりません」と彼女は述べ、アーティストの創造性と権利を保護することの重要性を指摘した。ルクサンドラがハッシュに出演する数日前、AIが生成したディープフェイク音楽トラック「Heart On My Sleeve」が、ソングライターのドレイクとザ・ウィークエンドの声を真似て注目を集めた。どちらのアーティストもこの曲の制作には関わっていないのに。曲の制作者は、アーティストの音楽を使って人工知能ボットをトレーニングしたため、レーベルのオーナーであるユニバーサルミュージックグループが激怒した。

他のミュージシャンたちは、この新しい技術をより歓迎している。それから1週間も経たないうちに、エレクトロポップミュージシャンのグライムスはファンに、彼女の声を使ってAIで吹き替えた曲を自分で作ろうと呼びかけ、著作権使用料を50/50で分けるという提案を広げ、AIディープフェイクの難問に対する独創的な解決策の一つを示した。

  

私の声を使ったAI生成曲が成功した場合、その著作権使用料を50%分け合います。コラボするアーティストと同じ条件です。罰則なしで私の声を自由に使ってください。私にはレーベルも法的拘束もありません。

— 𝔊𝔯𝔦𝔪𝔢𝔰 (@Grimezsz) 2023年4月24日

知的財産の課題を念頭に置いても、AI 音楽ツールがアーティストの指先に新しい表現方法をもたらすことは間違いありません。AI は、アーティストの能力における技術的または知的ギャップを埋め、野心的なコンセプトを数回のクリックで実現できるようにすることで、音楽制作を強化するために使用することもできます。これらのツールは、サウンド エンジニアリング タスクをより効率的に実行できるため、音楽をリリースするまでの障壁と時間を削減できます。

Web3 に向けて、企業やアーティストは、メタバースやそれ以降の没入型、インタラクティブ、ユーザー生成の体験と音楽を組み合わせることで、AI をさらに進化させています。

Web3のAI音楽ツール

すでに多くの暗号通貨ネイティブのミュージシャンやプラットフォームが、AI ツールを自分たちの活動に統合する独創的な方法を見つけています。

たとえば、シドニーを拠点とする女性プロデューサー、サマンサ・タウバーのメタバース初の別人格である VNCCII を見てみましょう。業界をリードするリアルタイム 3D 作成ツールである Unreal Engine を利用して、タウバーは自分のアバターを身に着け、メタバースからライブ放送インタビューをストリーミング配信するほか、バーチャル コンサートやショーに出演します。セットや衣装の変更と同様に、VNCCII の芸術的アイデンティティのデジタル要素は、彼女の芸術性の境界を広げています。

Web3 音楽会社 Pixelnyx は、拡張現実 (AR) 体験とメタバース ゲームを組み合わせ、アーティストがファンにとって思い出に残る体験を構築できるよう支援することに重点を置いています。The Sandbox でファンをクエストに送り、Decentraland でショーを主催することで知られるエレクトロニック ミュージック プロデューサーの Deadmau5 が共同設立した PIXELYNX は、AI、Web3、ユーザー生成コンテンツ (UGC) の使用を通じて、ファンダムの伝統的な概念を進化させることを目指しています。

Pixelnyx は 4 月に、ユーザーが公式ライセンスを受けたアーティスト コンテンツを使用して AI 搭載の音楽コンパニオンを作成できるツール、Korus をリリースしました。

  

KORUS をご紹介します - 当社の子会社 @pixelynx_io の音楽 AI コンパニオンと音楽の未来 🎶🤖 KORUS AI コンパニオンは、ユーザーの選択に基づいて進化および適応し、創造性を解き放ち、クリエイターが楽しく簡単なインターフェースで音楽から収益を得ることができるようにすることで#musicの作成に革命をもたらします。

KORUS について詳しくは:

— アニモカ ブランド (@animocabrands) 2023 年 4 月 28 日

この精神で使用すれば、AI 音楽ツールはアーティストの創作スタイルを支援、増強、または強化することができます。ツールはまだアーティストに取って代わるほど優れてはいませんが、素晴らしいものであり、継続的な人間とのやり取りを通じて常に「学習」しています。ミュージシャンを AI に置き換えることは、Spotify が独自の人工音楽キュレーションをテストした後に受けた反発からもわかるように、決して人気のない考え方です。しかし、AI をめぐる論争にもかかわらず、今日のミュージシャンは、技術を尊重する方法で AI 支援による音楽制作を使用することで恩恵を受けることができるかもしれません。

アイデア創出とコラボレーション

適応型 AI 音楽プラットフォームの WarpSound は、ブロックチェーン ベースの収集品やデジタル アバターを自社のビジネス製品に統合するいくつかの方法を見つけました。音楽コンテンツ、非代替トークン (NFT)、ソーシャル エクスペリエンスを制作する同社は、さまざまなスタイルでオリジナルの音楽を音符ごとに作曲するソフトウェア API を近々リリースする予定です。

創業者兼 CEO のクリス・マクギャリー氏は起業家でメディア幹部であり、以前は Facebook の仮想現実部門 Oculus の音楽リーダーを務めていたが、同氏は WarpSound のツールはアーティストが創作プロセスを活性化させる新しいインスピレーションや素材を見つけるのに役立つと語る。同社は The Sandbox のゲーム メーカー ファンドの支援を受けており、同ファンドは The Sandbox メタバースのゲーム デザイナーを支援しており、アーティストがジェネレーティブ ミュージックを実験できるプラットフォーム内にホーム会場を構築する予定だ。

また、同社は世界的な決済プロバイダーであるマスターカードと提携してAIミュージックスタジオアーティストアクセラレーターを立ち上げ、マッカーリー氏は創作プロセスに新たなメリットが生まれたと語る。

「先週、私はプログラムに参加しているアーティストたちと一連のバーチャルスタジオセッションに参加しました」とマクギャリー氏は語った。「私たちは、生成AI音楽インターフェースを使って一連の音楽アイデアを提示し、アーティストにそれを形にしてもらい、その本質がアーティストの心に響き、アーティストが取り組みたいと思うものになるまで繰り返し作業してもらいました。」

WarpSound は、トライベッカ映画祭や YouTube とも提携し、アーティストと観客の間でインタラクティブで遊び心のある音楽体験を生み出しています。

作曲・編曲

ライブパフォーマンスよりも完成品に重点を置いた音楽プロジェクトの場合、たとえばポッドキャスト、メタバースイベント、YouTube チャンネル、Web3 ビデオゲーム、教育コンテンツ用にオリジナル音楽を作曲している場合、AI を使用して作曲と編曲のプロセスをスピードアップできます。もちろん、世界で最も才能のある名手は、おそらく寝ている間に音階を演奏できるでしょうが、サウンドとビデオの制作には非常に多くの要素があるため、AI を使用してオリジナルの音楽に素早い音階、アルペジオ、ラン、ハーモニーを挿入することが標準的な方法になりつつあります。

Riffusion のようなツールを使用すると、ユーザーはテキストプロンプトを提供して音楽に変換できます。Soundful は、ロイヤリティフリーのトラックを生成してダウンロードできる別の AI プラットフォームです。

さらに一歩進んで歌詞を追加したい場合は、人気の万能ツール ChatGPT を使えば、最小限の指示で、プレコーラス、コーラス、ブリッジ、アウトロを含む 2 節の曲を 30 秒未満で作成できます。もちろん、歌詞は少し単純すぎたり、安っぽすぎたりするかもしれませんが、最高の曲の中にはそうではないでしょうか。

ほとんどの場合、AI によって生成された曲は、機械によって作成されたため米国の知的財産法で保護されていないため、ライセンス料を支払うことなく複製できます。ただし、ほとんどのプラットフォームではサブスクリプション料金がかかります。

これらのサウンドは NFT として作成され、OpenSea などのマーケットプレイスで販売できます。Royal.io などのプラットフォームでは、アーティストがサイトに参加して、ファンにロイヤリティの支払いを提供する断片化された NFT として曲を提供することもできます。

詳細を読む: 音楽 NFT とは何ですか?

AIによる音楽制作の限界

音楽 AI ツールはまだそれほど洗練されていない、とすでに聞いたことがあるかもしれません。特に、最新の AI テキスト画像ジェネレーター (すでに漫画本コレクション全体を作成するために使用されています) や Open AI のチャットボット Chat GPT (司法試験に合格したと報告されています) と比較すると、その傾向が顕著です。

オーディオ制作は、静的なテキストや画像の出力よりも多くの計算能力を必要とするため、遅れをとっていると、この分野の専門家は述べています。音楽研究ネットワーク「Water & Music」の技術および戦略責任者である Alexander Flores 氏は、技術革新は一般的に、データ集約度の最も低い形式から最もデータ集約度の高い形式へと進むと述べています。AI の場合、チャットボットの開発が AI オーディオおよびビデオ レンダリングよりも速いのは当然のことです。

あるオンラインディスカッションスレッドで、Reddit のユーザーがこれらの限界を指摘し、ライターが AI チャットボットの出力を数秒で校正および編集できる一方で、曲を聴くには数分、編集には場合によっては数時間かかることを強調しました。また、機械が AI データセットから学習する速度も遅くなります。これは、機械に入力されるオーディオファイルには、ファイルの属性 (ジャンル、テンポ、キー、楽器など) を AI に教えるための包括的なテキスト説明がほとんど含まれていないためです。一方、テキストと画像ベースの AI は、何千もの単語と画像をすばやく処理できます。

「コンテンツを消費するのにどれくらいの時間がかかるかは非常に重要です」とフローレス氏は言う。「歌の場合、3分間は拘束されます。スピードを上げることはできません。そうすると、曲が書かれたとおりに実際に体験できなくなってしまうからです。」

さらに、画像は静的ですが、曲はより動的です。「オーディオははるかに高次元です」と、クリエイティブ テクノロジー ラボである Sony CSL のマネージング リサーチャーである Stefan Lattner 氏は、Water & Music の初開催 Wavelengths Summit のパネルで述べました。「画像のピクセル数は固定ですが、オーディオでは生成したい秒数が可変です。」

それでも、ウォーター&ミュージックは、クリエイティブ AI を、音楽配信を事実上無料、国境も許可も不要にしたピアツーピアのファイル共有アプリケーションである Napster 以来、音楽業界にとって最も破壊的なテクノロジーと呼んでいます。これは、暗号通貨ネイティブにはおなじみのコンセプトです。