原作者 | @cebillhsu

コンパイル | ゴーレム

GPT-4、Gemini 1.5、Microsoft AI PC などの AI テクノロジーの進歩は目覚ましいものですが、現在の AI 開発は依然としていくつかの問題に直面しています。AppWorks の Web3 研究者である Bill 氏は、その問題を詳しく調査し、Crypto がどのようにできるかを議論しました。 AI エンパワーメントの 7 つの方向を支援します。

データのトークン化

従来の AI トレーニングは、主にインターネット上で利用可能な公開データ、より正確にはパブリック ドメインのトラフィック データに依存しています。オープン API を提供する少数の企業を除いて、ほとんどのデータは未活用のままです。プライバシーを確​​実に保護しながら、より多くのデータ所有者が AI トレーニング用のデータを提供または承認できるようにする方法が重要な方向性です。

ただし、この分野が直面している最大の課題は、データの標準化がコンピューティング能力と同様に難しいことです。分散コンピューティング能力は GPU の種類によって定量化できますが、プライベート データの量、質、使用状況を測定するのは困難です。分散コンピューティング能力が ERC 20 のような場合、データセットのトークン化は ERC 721 のようなものとなり、流動性と市場形成が ERC 20 よりも困難になります。

Ocean Protocol の Compute-to-Data 機能を使用すると、データ所有者はプライバシーを保護しながらプライベート データを販売できます。 Vana は、Reddit ユーザーにデータを集約し、大規模な AI モデルをトレーニングする企業に販売する方法を提供します。

資源の配分

現在、GPU コンピューティング能力の需要と供給の間には大きなギャップがあり、大企業が GPU リソースのほとんどを独占しているため、中小企業のモデルのトレーニングにかかる​​コストが非常に高くなっています。多くのチームは、分散型ネットワークを通じて小規模で使用率の高い GPU リソースを集中させることでコストを削減しようと懸命に取り組んでいますが、安定したコンピューティング能力と十分な帯域幅を確保するという点で依然として大きな課題に直面しています。

モチベーションを高めるRLHF

RLHF (人間のフィードバックに基づく強化学習) は大規模なモデルを改善するために重要ですが、専門家のトレーニングが必要です。市場での競争が激化するにつれて、これらの専門家を雇用するコストも増加します。高品質のアノテーションを維持しながらコストを削減するには、ステーキングおよびスラッシュ システムを使用できます。データ アノテーションにかかる最大の費用の 1 つは、監督者が品質をチェックする必要があることです。しかし、長年にわたり、ブロックチェーンは経済的インセンティブメカニズムを利用して仕事の質(PoW、PoS)を確保することに成功しており、優れたトークンエコノミーシステムを構築することでRLHFのコストを効果的に削減できると考えられています。

たとえば、Sapien AI は Tag 2 Earn を導入し、複数の Gamefi ギルドと協力しています。Hivemapper はトークン インセンティブ メカニズムを通じて 200 万キロメートルの道路トレーニング データを保有しており、すべての監査人が共同でトレーニングできるようにするオープンソースのスマート コントラクト監査エージェントを立ち上げる予定です。エージェントになって報酬を受け取ります。

検証可能性

コンピューティングパワープロバイダーが特定の要件またはモデルに従って推論タスクを実行しているかどうかを確認するにはどうすればよいですか?ユーザーは、AI モデルとその出力の信頼性と正確性を検証できません。この検証可能性の欠如は、金融、医療、法律などの分野で不信感、誤り、さらには損害を引き起こす可能性があります。

ZKP、OP、TEE などの暗号検証システムを使用することで、推論サービス プロバイダーは、出力が特定のモデルによって実行されたことを証明できます。暗号検証を使用する利点には、モデルプロバイダーがモデルの機密性を維持できること、ユーザーがモデルの実行が正しいことを検証できること、証明暗号をスマートコントラクトに統合することでブロックチェーンの計算能力の制限を回避できることが含まれます。同時に、パフォーマンスの問題を解決するためにデバイス側で AI を直接実行することも検討できますが、これまでのところ、この分野で構築されているプロジェクトには満足のいく答えがありません。Ritual、ORA、Aizel Network などがあります。

ディープフェイク

プロダクション AI の出現により、人々の注目はディープフェイク (DeepFake) の問題にますます高まっています。しかし、ディープフェイク技術は検出技術よりも速く進歩しているため、ディープフェイクを検出することはますます困難になっています。電子透かし技術 (C 2 PA など) はディープフェイクの識別に役立ちますが、処理された画像が変更されており、公衆が元の画像の署名を検証できないため、処理された画像だけでは検証が不可能になるという限界もあります。とても難しかったです。

ブロックチェーン技術は、さまざまな方法でディープフェイクの問題を解決できます。ハードウェア認証では、改ざん防止チップ カメラを使用して、各元の写真に暗号化証拠を埋め込み、画像の信頼性を検証できます。ブロックチェーンは不変であり、メタデータを含む画像をタイムスタンプ付きのブロックに追加できるため、改ざんを防止し、元のソースを検証できます。さらに、ウォレットを使用して、公開された投稿に暗号署名を添付して、公開されたコンテンツの作成者を検証することができ、zk テクノロジーに基づく KYC インフラストラクチャにより、ユーザーのプライバシーを保護しながら、ウォレットを検証済みの ID に結び付けることができます。経済的インセンティブの観点から、虚偽の情報を公開した著者は処罰されるべきであり、虚偽の情報を特定したユーザーには報酬が与えられるべきである。

Numbers Protocol はこの分野で長年取り組んできました。Fox News の検証ツールは Polygon ブロックチェーンに基づいており、ユーザーは記事を検索し、ブロックチェーンから関連データを取得できます。

プライバシー

金融、医療、法律などの分野で機密情報が AI モデルに入力される場合、データの使用中にデータのプライバシーを保護することが非常に重要です。準同型暗号化 (FHE) は、データを復号化せずに処理できるため、LLM モデルを使用する際のプライバシーを保護できます。

  1. ユーザーはローカル デバイスで推論プロセスを開始し、最初のレイヤーが完了した後に停止します。この最初の層は、サーバーと共有されるモデルには含まれません。

  2. クライアントは中間操作を暗号化してサーバーに転送します。

  3. サーバーは、この暗号化されたデータに対して部分的なアテンション メカニズム処理を実行し、結果をクライアントに送り返します。

  4. クライアントは結果を復号化し、ローカルで推論を続行します。 このように、FHE は、処理プロセス全体を通じてユーザー データのプライバシーが確実に保護されるようにします。

座間市は完全準同型暗号化 (FHE) ソリューションを構築しており、最近開発をサポートするために 7,300 万ドルの資金を調達しました。

AIエージェント

AI エージェントのアイデアは非常に未来的です。AI エージェントが資産を所有し、取引を実行できるようになったら、未来はどうなるでしょうか。意思決定を支援するために汎用の大規模モデルを使用することから、専門のエージェントにタスクを割り当てる方向に移行する可能性があります。

これらのエージェントは相互に連携し、健全な経済関係が人間のコラボレーションを向上させるのと同じように、AI エージェントに経済関係を追加することで効率も向上します。 ブロックチェーンは、この概念の実験場となり得ます。たとえば、Colony はゲームを通じてこのアイデアを実験しており、特定の目標を達成するために AI エージェントが他のエージェントや実際のプレイヤーと取引するためのウォレットを提供しています。

結論

実際、質問のほとんどはオープンソース AI に関連しています。このような重要なテクノロジーが今後 10 年間に少数の企業によって独占されないようにするために、トークンエコノミー システムは分散型コンピューティング リソースとトレーニング データ セットを迅速に利用して、オープン ソース AI とクローズド ソース AI の間のリソース ギャップを狭めることができます。ブロックチェーンは AI のトレーニングと推論を追跡してデータ ガバナンスを向上させることができ、暗号化はポスト AI 時代の信頼を確保し、ディープフェイクやプライバシー保護の問題に対処できます。

関連書籍

AI を活用した暗号化の実装の方向性とプロトコルをまとめた 1 つの記事