著者: Ed Roman、Hack VC マネージング パートナー

編集: 1912212.eth 、フォーサイトニュース

 

AI + 暗号は、分散型 AI トレーニング、GPU DePIN、検閲耐性 AI モデルなど、最近暗号通貨市場で大きな注目を集めているフロンティア領域の 1 つです。

これらの目覚ましい進歩の背後にあるのは、「これは本当の技術的進歩なのか、それとも単に話題になっているだけなのか?」と尋ねずにはいられません。この記事では、あなたの霧を晴らし、暗号化 x AI のビジョンを分析し、本当の課題と機会について議論し、どれが空約束でどれが実際に実現可能であるかを明らかにします。

ビジョン #1: 分散型 AI トレーニング

オンチェーン AI トレーニングの問題は、トレーニング時にニューラル ネットワークがバックプロパゲーションを必要とするため、GPU 間の高速通信と調整が必要になることです。 Nvidia は、これに対して 2 つのイノベーション (NVLink と InfiniBand) を備えています。これらのテクノロジは GPU 通信を超高速にしますが、単一のデータ センター内にある GPU クラスタ (50 ギガビット以上の速度) でのみ動作するローカル専用テクノロジです。

分散型ネットワークを導入すると、ネットワークの遅延と帯域幅が増加するため、速度が突然数桁低下します。データセンター内の Nvidia の高速相互接続から得られるスループットと比較すると、この速度は AI トレーニングのユースケースではまったく不可能です。

将来に希望をもたらす可能性のある以下のイノベーションもあることに注意してください。

  • NVIDIA 自体が NVIDIA Collective Communications Library を通じて InfiniBand での非ネイティブ分散トレーニングをサポートしているため、InfiniBand での分散トレーニングは大規模に行われています。ただし、まだ初期段階にあるため、採用指標はまだ決定されていません。遠距離における物理法則のボトルネックは依然として存在するため、InfiniBand でのローカル トレーニングは依然としてはるかに高速です。

  • 通信同期時間が短縮される分散型トレーニングに関する新しい研究がいくつか発表されており、将来的には分散型トレーニングがより実用的になる可能性があります。

  • モデルトレーニングのインテリジェントなシャーディングとスケジューリングは、パフォーマンスの向上に役立ちます。 同様に、新しいモデル アーキテクチャは、将来の分散インフラストラクチャ向けに特別に設計される可能性があります (Gensyn はこれらの分野で研究を行っています)。

トレーニングのデータ部分も課題です。 AI トレーニング プロセスには、大量のデータの処理が含まれます。通常、モデルは、高いスケーラビリティとパフォーマンスを備えた集中型の安全なデータ ストレージ システムでトレーニングされます。これにはテラバイト規模のデータの転送と処理が必要ですが、これは 1 回限りのサイクルではありません。データにはノイズが多くエラーが含まれることが多いため、モデルをトレーニングする前にデータをクリーンアップして使用可能な形式に変換する必要があります。この段階には、標準化、フィルタリング、欠損値の処理という繰り返しのタスクが含まれます。これらはすべて、分散環境では厳しい課題に直面しています。

トレーニング データ部分も反復的であるため、Web3 と互換性がありません。オープン AI は、その結果を達成するために何千回もの反復を経ました。 AI チームのデータ サイエンティストの最も基本的なタスク シナリオには、目標の定義、データの準備、重要な洞察を抽出するためのデータの分析とキュレーション、モデリングに適したデータの作成が含まれます。次に、定義された問題を解決するための機械学習モデルを開発し、テスト データセットを使用してそのパフォーマンスを検証します。このプロセスは反復的です。現在のモデルが期待どおりに動作していない場合、専門家はデータ収集またはモデルのトレーニング段階に戻り、結果を改善します。このプロセスが分散環境で実行された場合、最先端の既存のフレームワークやツールを Web3 に適応させるのは簡単ではないことを想像してください。

AI モデルをオンチェーンでトレーニングする場合のもう 1 つの問題は、この市場が推論よりもはるかに興味深いものではないことです。現在、大規模な AI 言語モデルのトレーニングには大量の GPU コンピューティング リソースが必要です。長期的には、推論が GPU の主な使用例になるでしょう。世界的な需要を満たすためにトレーニングする必要がある大規模な AI 言語モデルの数は、これらのモデルを使用している顧客の数と比べてどちらが多いでしょうか?

仮定 #2: 合意に達するために過度に冗長な AI 推論計算を使用する

暗号化と AI に関するもう 1 つの課題は、AI 推論の精度を検証することです。推論操作を実行する単一の集中パーティを完全に信頼することはできず、ノードが不適切に動作する可能性がある潜在的なリスクがあるためです。 Web2 AI には分散型コンセンサス システムがないため、この課題は存在しません。

この解決策は冗長コンピューティングであり、複数のノードが同じ AI 推論操作を繰り返すことを可能にし、トラストレス環境で実行して単一障害点を回避できます。

ただし、このアプローチの問題は、ハイエンド AI チップが極度に不足していることです。ハイエンドの NVIDIA チップは 1 年間の待ち時間があり、価格が高騰しています。 AI 推論を複数のノードで複数回再実行する必要がある場合、コストが飛躍的に高くなり、多くのプロジェクトでは実行不可能になります。

仮定 #3: 短期的な Web3 固有の AI ユースケース

Web3 には、特に Web3 の顧客を対象とした独自の AI ユースケースが必要であることが示唆されています。これは、(たとえば)AI を使用して DeFi プールのリスクスコアを付ける Web3 プロトコル、ウォレット履歴に基づいてユーザーに新しいプロトコルを提案する Web3 ウォレット、AI を使用してノンプレイヤーキャラクター(NPC)を制御する Web3 ゲームなどです。

今のところ、これは(短期的には)初期の市場であり、ユースケースはまだ模索中です。いくつかの課題には次のようなものがあります。

  • 市場の需要はまだ初期段階にあるため、Web3 ネイティブのユースケースに必要な潜在的な AI 取引は少なくなります。

  • 顧客の数は少なく、Web2 の顧客に比べて Web3 の顧客は桁違いに少ないため、市場は分散化が進んでいません。

  • クライアントは資金が少ないスタートアップであるため、クライアント自体の安定性が低く、時間の経過とともに消滅するスタートアップもあるかもしれません。また、Web3 の顧客に対応する Web3 AI サービス プロバイダーは、消滅した顧客ベースを置き換えるために顧客ベースの一部を取り戻す必要がある可能性があり、ビジネスの拡大が非常に困難になります。

長期的には、特に AI エージェントの普及が進むにつれて、Web3 ネイティブ AI のユースケースについては非常に強気です。将来的には、あらゆる Web3 ユーザーがタスクの完了を支援する多数の AI エージェントを持つようになるだろうと私たちは想像しています。

ビジョン #4: コンシューマ GPU DePIN

データセンターではなく消費者向け GPU に依存する分散型 AI コンピューティング ネットワークが数多くあります。コンシューマ GPU は、レイテンシ、スループット、信頼性が柔軟なローエンド AI 推論タスクやコンシューマ ユース ケースに最適です。しかし、本格的なエンタープライズ ユースケース (重要な市場の大部分) の場合、顧客は家庭用マシンと比較して信頼性の高いネットワークを必要とし、より複雑な推論タスクを実行する場合には、多くの場合ハイエンド GPU を必要とします。データセンターは、このような価値の高い顧客のユースケースに適しています。

消費者向けの GPU は、信頼性の低下を許容できる個人や新興企業だけでなく、デモにも適していると考えられることに注意してください。しかし、これらの顧客の価値はそれほど高くないため、Web2 企業向けに特別にカスタマイズされた DePIN は長期的にはより価値があると考えています。その結果、GPU DePIN プロジェクトは、初期の主にコンシューマー グレードのハードウェアから、A100/H100 およびクラスター レベルの可用性を備えたものへと進化しました。

現実 – 仮想通貨×AIの実践事例

ここでは、実際のメリットをもたらすユースケースについて説明します。これらが本当の勝利であり、暗号通貨 x AI は明確な価値を追加できます。

本当のメリット #1: Web2 顧客へのサービス提供

マッキンゼーは、分析した 63 のユースケース全体で、英国の 2021 年の合計 GDP が 3.1 兆ドルと比較して、生成 AI によって年間 2.6 兆ドルから 4.4 兆ドル相当の収益が追加される可能性があると推定しています。これにより、AI の影響は 15% ~ 40% 増加します。現在、ユースケース以外のタスクに使用されているソフトウェアに生成 AI が組み込まれている場合の影響を考慮すると、推定される影響は約 2 倍になります。

上記の推定に基づいて計算すると、AI (生成 AI を超えた) の世界市場価値の合計が数十兆ドルに達する可能性があることを意味します。比較すると、今日のすべての暗号通貨 (ビットコインとすべてのアルトコインを含む) の総額はわずか約 2 兆 7,000 億ドルです。現実を直視しましょう。短期的に AI を必要とする顧客の大多数は Web2 の顧客になるでしょう。なぜなら、本当に AI を必要とする Web3 の顧客は、この 2 兆 7000 億ドルのほんの一部に過ぎないからです (BTC が市場であること、ビットコイン自体が市場であることを考慮すると) AI を必要とせず、使用しません)。

Web3 AI のユースケースは始まったばかりで、市場がどの程度の規模になるかは不明です。しかし、1 つ確かなことは、予見可能な将来においては Web2 市場のほんの一部を占めるだけだということです。私たちは Web3 AI にはまだ明るい未来があると信じていますが、それは、現時点で Web3 AI の最も強力なアプリケーションが Web2 の顧客にサービスを提供していることを意味しているだけです。

Web3 AI から恩恵を受ける可能性がある Web2 顧客の仮説的な例は次のとおりです。

  • AI 中心の垂直特化型ソフトウェア会社をゼロから構築します (Cedar.ai や Observe.ai など)

  • 独自の目的に合わせてモデルを微調整する大企業 (例: Netflix)

  • 急成長している AI プロバイダー (例: Anthropic )

  • AIを既存の製品に統合するソフトウェア会社(Canvaなど)

通常、顧客は規模が大きく価値があるため、これは比較的安定した顧客の役割です。彼らはすぐに廃業する可能性は低く、AI サービスにとっては巨大な潜在顧客となっています。 Web2 の顧客にサービスを提供する Web3 AI サービスは、この安定した顧客ベースの恩恵を受けることになります。

しかし、Web2 の顧客はなぜ Web3 スタックを使用したいのでしょうか?この記事の残りの部分では、この状況について説明します。

本当のメリット #2: GPU DePIN による GPU 使用コストの削減

GPU DePIN は、十分に活用されていない GPU コンピューティング能力を集約し、その中で最も信頼性の高いものはデータセンターから提供され、AI 推論に利用できるようにします。この問題を簡単に例えると、「GPU での Airbnb」です。

私たちが GPU DePIN に注目している理由は、前述したように、NVIDIA チップが不足しており、AI 推論に使用できる無駄な GPU サイクルが現在存在しているためです。これらのハードウェア所有者は埋没費用を抱えており、現在十分に活用されていない機器を抱えているため、これらの部分的な GPU を現状よりもはるかに低いコストで利用できるようにすることができます。これは、ハードウェア所有者にとって実際に「お金が見つかる」からです。

例としては次のものが挙げられます。

  • AWSマシン。現在 AWS から H100 をリースする場合は、市場の供給が限られているため、1 年間のリースを契約する必要があります。おそらく GPU を 1 年 365 日週 7 日使用するわけではないため、無駄が生じます。

  • ファイルコイン マイニング ハードウェア。ファイルコインには補助金付きの大量の供給がありますが、実際の需要はそれほど多くありません。 Filecoin は真の製品市場適合性を見つけることができなかったため、Filecoin マイナーは廃業の危険にさらされていました。これらのマシンには、ローエンド AI 推論タスクに再利用できる GPU が搭載されています。

  • ETHマイニングハードウェア。イーサリアムが PoW から PoS に移行すると、多くのハードウェアがすぐに解放され、AI 推論に再利用できます。

すべての GPU ハードウェアが AI 推論に適しているわけではないことに注意してください。この明白な理由の 1 つは、古い GPU には LLM に必要な量の GPU メモリがないことが挙げられますが、この点で役立つ興味深い革新がすでにいくつかあります。たとえば、Exabits のテクノロジーは、アクティブなニューロンを GPU メモリにロードし、非アクティブなニューロンを CPU メモリにロードできます。どのニューロンが活動的/非活動的である必要があるかを予測します。これにより、GPU メモリが限られている場合でも、ローエンド GPU で AI ワークロードを処理できるようになります。これにより、ローエンド GPU が AI 推論に効果的に役立ちます。

Web3 AI DePINs は、時間の経過とともに製品を進化させ、シングル サインオン、SOC 2 準拠、サービス レベル アグリーメント (SLA) などのエンタープライズ グレードのサービスを提供する必要があります。これは、現在のクラウド サービス プロバイダーが Web2 顧客に提供しているものと似ています。

本当の利点 #3: OpenAI の自己検閲を回避する検閲耐性モデル

AI 検閲については多くの議論が行われています。たとえば、トルコは一時的に Open AI を禁止しました (その後、Open AI によってコンプライアンスが改善されたため、トルコはアプローチを変更しました)。各国は競争力を維持するために AI を導入する必要があるため、国家レベルの検閲は面白くないと考えています。

オープンAIは自己検閲も行います。たとえば、Open AI は NSFW コンテンツを処理しません。オープン AI は次の大統領選挙を予測することもできません。私たちは、AI のユースケースは興味深いだけでなく、巨大な市場でもあると考えていますが、政治的理由により Open AI が手を出さない市場でもあります。

Github リポジトリは株主や取締役会の影響を受けないため、オープンソースは優れたソリューションです。一例として、プライバシーを約束し、検閲に耐えられる方法で動作する Venice.ai があります。 Web3 AI は、低コストの GPU クラスター上でこれらのオープン ソース ソフトウェア (OSS) モデルを動作させて推論を実行することで、効果的に次のレベルに引き上げることができます。こうした理由から、OSS + Web3 は検閲に強い AI への道を開く理想的な組み合わせであると私たちは考えています。

本当のメリット #4: 個人を特定できる情報を OpenAI に送信しないようにする

大企業は、内部データに関するプライバシーの懸念を抱えています。こうした顧客にとって、OpenAI サードパーティがこのデータを所有していると信頼することは難しい場合があります。

Web3 では、これらの企業にとって、内部データが分散型 Web 上に突然現れることが (表面的には) さらに心配になるかもしれません。ただし、AI のプライバシー強化テクノロジーには革新があります。

スーパー プロトコルなどの信頼できる実行環境 (TEE)

Fhenix.io (Hack VC が管理するファンドのポートフォリオ会社) や Inco Network (どちらも Zama.ai を利用) などの完全準同型暗号化 (FHE)、および Bagel の PPML

これらのテクノロジーは依然として進化しており、今後の Zero Knowledge (ZK) および FHE ASIC によってパフォーマンスが向上し続けています。しかし、長期的な目標は、モデルを微調整しながら企業データを保護することです。これらのプロトコルが登場すると、Web3 はプライバシーを保護する AI コンピューティングのより魅力的な場になる可能性があります。

本当のメリット #5: オープンソース モデルの最新イノベーションを活用する

オープンソース ソフトウェアは、過去数十年にわたってプロプライエタリ ソフトウェアの市場シェアを侵食してきました。私たちは LLM を、OSS を破壊できる何らかの形式の独自ソフトウェアであると考えています。挑戦者の注目すべき例には、Llama、RWKV、Mistral.ai などがあります。このリストは間違いなく時間の経過とともに増加します (より包括的なリストは Openrouter.ai にあります)。 Web3 AI (OSS モデルを活用) を活用することで、人々はこれらの新しいイノベーションでイノベーションを起こすことができます。

私たちは、オープンソースの世界的な開発人材と暗号通貨のインセンティブを組み合わせることで、時間の経過とともに、オープンソース モデルとその上に構築されたエージェントとフレームワークの急速なイノベーションを推進できると信じています。 AI エージェント プロトコルの例としては、Theoriq があります。 Theoriq は、OSS モデルを活用して、より高レベルの AI ソリューションを作成するために組み立てることができる、構成可能な AI エージェントの相互接続されたネットワークを作成します。

私たちがこれに自信を持っている理由は、過去には、ほとんどの「開発者向けソフトウェア」のイノベーションが時間の経過とともにゆっくりと OSS に追い越されてきたからです。 Microsoft はかつてプロプライエタリなソフトウェア会社でしたが、現在では Github に貢献している最大の企業です。それには理由があります。Databricks、PostGresSQL、MongoDB などがプロプライエタリなデータベースをどのように破壊しているかを見ると、これは OSS が業界全体を破壊している例であるため、ここでの先例は非常に説得力があります。

ただし、問題があります。オープンソース大規模言語モデル (OSS LLM) に関して注意が必要な点の 1 つは、OpenAI が Reddit や New York Times などの一部の組織と有料データ ライセンス契約を結び始めていることです。この傾向が続くと、データ取得の経済的障壁により、オープンソースの大規模言語モデルとの競争がさらに困難になる可能性があります。 Nvidia は、安全なデータ共有を支援するために、機密コンピューティングへの投資をさらに増やす可能性があります。これがどのように展開するかは時間が経てば明らかになるだろう。

本当のメリット #6: コスト削減のランダムサンプリングまたは ZK 証明によるコンセンサス

Web3 AI 推論の課題の 1 つは検証です。検証者は結果を不正行為して手数料を稼ぐ機会があると想定されているため、推論の検証は重要な手段となります。 AI 推論は初期段階にあるため、この不正行為はまだ実際には起こっていないことに注意してください。ただし、この行為を抑制するための措置を講じない限り、不正行為は避けられません。

標準的な Web3 アプローチでは、複数のバリデーターに同じ操作を繰り返して結果を比較させます。前述したように、この問題の明らかな課題は、現在ハイエンド Nvidia チップが不足しているため、AI 推論が非常に高価であることです。 Web3 が十分に活用されていない GPU DePIN を介して低コストの推論を提供できることを考えると、冗長な計算は Web3 の価値提案を大幅に弱めることになります。

より有望な解決策は、オフチェーン AI 推論計算に対して ZK 証明を実行することです。この場合、簡潔な ZK 証明を検証して、モデルが正しくトレーニングされたかどうか、または推論 (zkML と呼ばれます) が正しく実行されたかどうかを判断できます。例としては、Modulus Labs や ZK onduit などがあります。 ZK 操作は計算量が多いため、これらのソリューションのパフォーマンスはまだ初期段階にあります。ただし、近い将来、ZK ハードウェア ASIC がリリースされることで状況は改善されると予想されます。

さらに有望なのは、やや「楽観的な」サンプリングベースの AI 推論方法のアイデアです。このモデルでは、バリデーターによって生成された結果のごく一部のみが検証されますが、スラッシュの経済的コストは十分に高く設定されているため、もし見つかった場合、バリデーターが不正行為を行う強力な経済的阻害要因となります。こうすることで、冗長な計算を節約できます。

もう 1 つの有望なアイデアは、Bagel Network によって提案されたもののような、透かしおよびフィンガープリンティングのソリューションです。これは、Amazon Alexa が数百万台のデバイスにわたってデバイス内 AI モデルの品質保証を提供するメカニズムに似ています。

本当のメリット #7: OSS による節約 (OpenAI の利益)

Web3 が AI にもたらす次の機会は、コストの民主化です。これまで、DePIN による GPU コストの削減について説明してきました。しかし、Web3 は、集中型 Web2 AI サービス (この記事の執筆時点で年間収益が 10 億ドルを超える Open AI など) のマージンを節約する機会も提供します。これらのコスト削減は、モデルの作成者が利益を得ようとしていないため、独自のモデルではなく OSS モデルを使用することでさらなるコスト削減が達成されるという事実から生まれています。

多くの OSS モデルは完全に無料のままであり、その結果、顧客にとって最高の経済性が得られます。ただし、これらの収益化方法を試している OSS モデルもあるかもしれません。 Hugging Face の全モデルのうち、モデルに補助金を出す予算を持つ企業によってトレーニングを受けたのはわずか 4% であることを考えてください。残りの 96% のモデルはコミュニティによってトレーニングされています。このグループ (Hugging Faces の 96%) には、基本的な実質コスト (コンピューティング コストとデータ コストを含む) がかかります。したがって、これらのモデルは何らかの方法で収益化する必要があります。

オープンソース ソフトウェア モデルを収益化するための提案がいくつかあります。最も興味深いものの 1 つは、「初期モデル発行」の概念です。これは、モデル自体をトークン化し、チーム用のトークンの一部を保持し、モデルからの将来の収益の一部をトークン所有者に注ぎ込むことです。法的および規制上の障壁。

他の OSS モデルは、使用量の収益化を試みます。これが現実になった場合、OSS モデルはますます Web2 収益化モデルに似てくる可能性があることに注意してください。しかし実際には、市場は 2 つの部分に分割され、一部のモデルは完全に無料のままになります。

本当のメリット #8: 分散型データソース

AI が直面する最大の課題の 1 つは、モデルをトレーニングするための適切なデータを見つけることです。分散型 AI トレーニングには課題があると前述しました。しかし、分散型ネットワークを使用してデータを取得する場合はどうなるでしょうか (データは、従来の Web2 会場など、他の場所でのトレーニングに使用できます)。

Grassのようなスタートアップ企業がやっているのはまさにそれだ。 Grass は、マシンのアイドル処理能力をデータ ソースに提供して AI モデルのトレーニング用の情報を提供する「データ スクレーパー」で構成される分散型ネットワークです。仮に、大規模な場合、このデータ ソースは、インセンティブ付きノードの大規模ネットワークの力により、1 つの企業の内部データ ソースの取り組みを上回るパフォーマンスを発揮する可能性があります。これには、より多くのデータを取得するだけでなく、より頻繁にデータを取得して、データの関連性を高め、最新のものにすることも含まれます。実際、分散型データ スクレイピングの大群を止めることも不可能です。なぜなら、それらは本質的に分散型であり、単一の IP アドレス内に存在しないからです。また、データをクリーンアップして正規化するネットワークも備えているため、一度スクレイピングすると役立ちます。

データを取得したら、それをオンチェーン上に保存する場所と、そのデータを使用して生成された LLM も必要になります。

Web3 AI におけるデータの役割は将来変更される可能性があることに注意してください。現在、LLM の現状は、データを使用してモデルを事前トレーニングし、より多くのデータを使用して時間をかけてモデルを改良することです。 ただし、インターネット上のデータはリアルタイムで変化するため、これらのモデルは常に少し古くなっています。 したがって、LLM によって推定される応答はわずかに不正確になります。

将来の方向性は、「リアルタイム」データという新しいパラダイムになる可能性があります。この概念は、大規模言語モデル (LLM) に推論の質問がされると、LLM がヒントをスルーして、インターネットからリアルタイムで再収集されたデータを挿入できるというものです。これにより、LLM は最新のデータを使用できるようになります。この部分は草が取り組んでいます。

この記事に対するフィードバックと協力をしてくれた次の方々に特別に感謝します: Albert Castellana、Jasper Zhang、Vassilis Tziokas、Bidhan Roy、Rezo、Vincent Weisser、Shashank Yadav、Ali Husain、Nukri Basharili、Emad Mostaque、David Minarsch、Tommy Shaughnessy、マイケル・ハインリッヒ、ケチャック・ウォン、マーク・ワインスタイン、フィリップ・ボネロ、ジェフ・アミコ、エジャーズ・アハマディーン、エヴァン・フェン、JW・ワン。