rounded

撰文:Hack VC

編譯:TinTinLand

 

AI 是最近加密市場中最熱門和最有前途的賽道之一:

 

  • 去中心化 AI 訓練

  • GPU DePINs

  • 非審查的 AI 模型

 

這些是突破還是僅僅是炒作?Hack VC 剖析了頂級的 Crypto✖️AI 結合想法,一起來探討下真正的挑戰和機遇吧!

 

具有潛力和挑戰的想法

 

首先,讓我們從 「Web3 AI 的前景」 開始 —— 這些想法有相當大的炒作成分,但現實可能沒有那麼理想。

 


Idea#1:去中心化 AI 訓練

 

在鏈上進行 AI 訓練的問題在於訓練需要 GPU 之間的高速通信和協調,因爲神經網絡在訓練時需要反向傳播。Nvidia 爲此提供了兩項創新(NVLink 和 InfiniBand)。這些技術有效地使 GPU 通信更快,但它們僅限於單個數據中心內的 GPU 集羣(50+ Gbps 速度)。

 

如果引入去中心化網絡,由於增加了網絡延遲和帶寬,速度會突然下降幾個數量級。這對於與 Nvidia 在數據中心內的高速互連相比的 AI 訓練用例來說是一個不可行的方案。

 

需要注意的是,這裏有一些創新可能爲未來提供新的可能性:

 

通過 InfiniBand 進行分佈式訓練正在大規模進行,因爲 NVIDIA 本身通過 NVIDIA 集體通信庫支持分佈式、非本地訓練。然而,這仍處於初期階段,因此採用指標尚待確定。物理距離帶來的瓶頸仍然存在,因此通過 InfiniBand 進行本地訓練仍然明顯更快。

 

近期有一些新穎的研究發表出來,顯示出通過依賴於更少的通信同步,可能在未來使去中心化訓練更加實際。

 

智能分片和模型訓練調度同樣可以幫助提高性能。同樣,新的模型架構將來可能會專門爲去中心化基礎設施設計(Gensyn 正在研究這些領域)。

 

訓練的數據部分也是一個挑戰。任何 AI 訓練過程都涉及處理大量數據。通常,模型在具有高可擴展性和性能的中心化和安全的數據存儲系統上進行訓練。這需要傳輸和處理數 TB 的數據,並且這不是一次性的循環。數據通常是噪聲和包含錯誤的,因此在訓練模型之前必須進行清洗和轉換成可用格式。這個階段涉及歸一化、過濾和處理缺失值的重複任務。這些都在去中心化環境中構成嚴重挑戰。

 

訓練的數據部分也是迭代的,這不太適合 Web3。OpenAI 花了成千上萬次迭代才取得其成果。AI 團隊中數據科學專家的最基本任務場景包括定義目標、準備數據、分析和結構化數據以提取重要見解並使其適合建模。然後,開發機器學習模型來解決定義的問題,並使用測試數據集驗證其性能。這個過程是迭代的:如果當前模型表現不如預期,專家將返回數據收集或模型訓練階段以改進結果。現在,想象一下這個過程在去中心化環境中的情況,Web3 中現有的最佳框架和工具並不容易獲得。

 

在鏈上訓練 AI 模型的另一個問題是,與推理相比,這是一個不太有趣的市場。目前,有大量 GPU 計算資源用於 AI LLM 訓練。但從長遠來看,推理將成爲 GPU 的更普遍的用例。考慮一下:需要訓練多少個 AI LLM 才能讓全世界的用戶滿意,而使用這些模型的客戶數量有多少?

 

一個在各個方面取得進展的解決方案是 0g.ai,他們提供鏈上數據存儲和數據可用性基礎設施。他們的超快架構和在鏈上存儲大量數據的能力允許進行快速、迭代的鏈上 AI 模型訓練。

 

Idea#2:使用過度冗餘的 AI 推理計算來達成共識

 

CryptoxAI 的挑戰之一是驗證 AI 推理的準確性,因爲你不能完全信任一個單一的中心化方來進行推理,可能會有節點行爲不端的風險。在 Web2 AI 中,這種挑戰不存在,因爲沒有去中心化的共識系統。

 

解決這個問題的一個建議是冗餘計算,其中多個節點重複相同的 AI 推理操作,以便可以以無需信任的方式操作,沒有單點故障。

 

這種方法的問題在於,我們生活在一個高端 AI 芯片嚴重短缺的世界裏。高端 NVIDIA 芯片有多年的等待期,這導致價格上漲。如果你還需要讓你的 AI 推理在多個節點上重新執行多次,你現在就將這些昂貴的成本成倍增加。這對許多項目來說是不可行的。

 

Idea#3:短期內 Web3 特定的 AI 用例

 

有人建議 Web3 應該有其獨特的 AI 用例,專門爲 Web3 用戶提供。這可以是例如一個使用 AI 對 DeFi 池進行風險評分的 Web3 協議,一個根據你的錢包歷史建議新協議的 Web3 錢包,或者一個使用 AI 控制非玩家角色(NPCs)的 Web3 遊戲。

 

目前,這是一個處於起步階段的市場,仍有很多用例待發現。一些挑戰包括:

 

  • Web3 原生用例所需的 AI 交易量較少,因爲市場需求仍在起步階段。

 

  • 客戶較少,因爲與 Web2 客戶相比,Web3 客戶少了幾個數量級,因此市場不太分散。

 

  • 客戶本身也不穩定,因爲他們是資金較少的初創企業,所以一些初創企業可能會隨着時間的推移倒閉。爲 Web3 客戶提供服務的 Web3 AI 服務提供商可能需要隨着時間的推移重新獲取一部分客戶羣,以替換那些倒閉的客戶,使其成爲一個更具挑戰性的業務擴展。

 

從長遠來看,Hack VC 對 Web3 原生 AI 用例非常看好,特別是隨着 AI 代理的普及。我們設想一個未來,每個 Web3 用戶都有大量 AI 代理來協助他們。這個早期的類別領導者是 Theoriq,它支持可組合和自主的鏈上 AI 代理。

 

Idea#4:消費級 GPU DePINs

 

有許多去中心化 AI 計算網絡依賴消費級 GPU 而不是數據中心。消費級 GPU 適用於低端 AI 推理任務或消費者用例,在這些用例中,延遲、吞吐量和可靠性是靈活的。但對於專業的企業用例(這是大多數重要市場),客戶需要比個人家庭機器更高可靠性的網絡,並且如果他們有更復雜的推理任務,通常需要更高端的 GPU。數據中心更適合這些更有價值的客戶應用。

 

需要注意的是,我們認爲消費級 GPU 適用於演示用途或可以容忍較低可靠性的個人和初創企業。但這些客戶從根本上來說價值較低,因此我們認爲迎合 Web2 企業的 DePINs 將從長遠來看更有價值。因此,衆所周知的 GPU DePIN 項目通常已經從主要是消費級硬件的早期階段演變爲擁有 A100/H100 和集羣級可用性。

 

Crypto x AI 的實際和現實用例

 

現在,讓我們討論提供 「真正收益」 的用例,也就是 Crypto x AI 可以顯著增加價值的地方。

 


用例 #1:服務 Web2 客戶

 

麥肯錫估計,生成式 AI 每年可以在他們分析的 63 個用例中增加相當於 2.6 萬億美元到 4.4 萬億美元的價值 —— 相比之下,2021 年英國的 GDP 總額爲 3.1 萬億美元。這將使所有人工智能的影響增加 15% 到 40%。如果我們包括將生成式 AI 嵌入目前用於其他任務的軟件的影響,這一估計將大致翻倍。

 

如果你計算上述估計,這意味着全球 AI 市場(不包括生成式 AI)可能價值數萬億美元。相比之下,所有加密貨幣的總價值,包括比特幣和所有山寨幣,目前僅約爲 2.7 萬億美元。所以我們要現實一點:短期內需要 AI 的客戶絕大多數是 Web2 客戶,因爲真正需要 AI 的 Web3 客戶只佔這 2.7 萬億的一小部分(考慮到 BTC 佔了這個市場的一半,而 BTC 本身不需要 / 使用 AI)。

 

Web3 AI 的用例纔剛剛起步,目前還不清楚這個市場的規模會有多大。但有一件事是直觀確定的 —— 在可預見的未來,它將是 Web2 市場的一小部分。我們相信 Web3 AI 仍然有光明的未來,但這只是意味着,Web3 AI 目前最強大的應用是爲 Web2 客戶服務。

 

一些可能從 Web3 AI 中受益的 Web2 客戶包括:

 

  • 從一開始就以 AI 爲中心構建的垂直領域軟件公司(例如 Cedar.ai 或 Observe.ai)

  • 爲自身目的微調模型的大型企業(例如 Netflix)

  • 快速增長的 AI 提供商(例如 Anthropic)

  • 在現有產品中加入 AI 的軟件公司(例如 Canva)

 

這是一個相對穩定的客戶羣體,因爲這些客戶通常規模大且價值高。他們不太可能很快倒閉,並且代表了 AI 服務的巨大潛在客戶羣。服務 Web2 客戶的 Web3 AI 服務將受益於這個穩定的客戶基礎。

 

但爲什麼一個 Web2 客戶會想要使用 Web3 技術棧呢?本文餘下部分將闡述這個理由。

 

用例 #2:通過 GPU DePIN 降低 GPU 使用成本

 

GPU DePINs 聚合了未充分利用的 GPU 計算能力(其中最可靠的來自數據中心),並將其用於 AI 推理(例如 io.net)。一個簡單的思路是將其視爲 「GPU 的 Airbnb」(有效地是對未充分利用資產的協作消費)。

 

 

我們對 GPU DePINs 感到興奮的原因如上所述,目前 NVIDIA 芯片短缺,且目前有浪費的 GPU 週期可用於 AI 推理。這些硬件所有者已經有了沉沒成本,今天並沒有充分利用他們的設備,因此可以以遠低於現狀的成本提供這些部分 GPU 週期,因爲對硬件所有者來說這實際上是 「意外之財」。

 

例如:

 

  • AWS 機器:如果你今天從 AWS 租用 H100,你需要承諾租用一年,因爲市場供給有限。這會產生浪費,因爲你不太可能一年 365 天、每週 7 天都使用你的 GPU。

 

  • Filecoin 挖礦硬件:Filecoin 是一個具有大量補貼供應但沒有顯著實際需求的網絡。不幸的是,Filecoin 從未找到真正的產品市場匹配,因此 Filecoin 礦工面臨倒閉的風險。這些機器上有 GPU,可以重新用於低端 AI 推理任務。

 

  • ETH 挖礦硬件:當 ETH 從 PoW 過渡到 PoS 時,立即釋放了大量硬件,這些硬件可以重新用於 AI 推理。

 

需要注意的是,並非所有 GPU 硬件都適合 AI 推理。一個顯而易見的原因是,舊的 GPU 沒有足夠的 GPU 內存來處理 LLMs,儘管在這方面有一些有趣的創新。例如,Exabits 擁有一項技術,可以將活躍神經元加載到 GPU 內存中,而將不活躍神經元加載到 CPU 內存中。他們預測哪些神經元需要活躍 / 不活躍。這使得即使 GPU 內存有限的低端 GPU 也能處理 AI 工作負載,從而有效地使低端 GPU 在 AI 推理中更加有用。

 

還需注意的是,Web3 AI DePINs 需要隨着時間的推移鞏固其服務,並提供企業級服務,例如單點登錄、SOC 2 合規性、服務級別協議(SLAs)等。這將類似於當前雲服務中 Web2 客戶享受的服務。

 

用例 #3:通過不受審查的模型避免 OpenAI 自我審查

 

關於 AI 審查的討論很多。例如,土耳其曾暫時禁止 OpenAI(後來在 OpenAI 改善合規後取消了禁令)。我們認爲這種審查本質上並不有益,因爲各國都需要擁抱 AI 以保持競爭力。

 

更有趣的是 OpenAI 自我審查。例如,OpenAI 不會處理 NSFW 內容,也不會預測下一次總統選舉。我們認爲,有一個有趣且巨大的市場存在於那些因某些原因 OpenAI 不願觸碰的 AI 用例。

 

開源是一個很好的解決方案,因爲 Github 倉庫不受制於股東或董事會的約束。例如,Venice.ai 承諾保護你的隱私並且以不受審查的方式運行。關鍵當然是開源,這推動了這一點。Web3 AI 可以有效地將這些開源軟件(OSS)模型提升到一個新的水平,即在低成本的 GPU 集羣上運行這些推理。這就是我們認爲 OSS+Web3 是開創不受審查 AI 的理想組合的原因。

 

用例 #4:避免將個人身份信息發送到 OpenAI

 

許多大型企業對其內部企業數據的隱私問題非常擔憂。對於這些客戶來說,要信任一個像 OpenAI 這樣的中心化第三方處理他們的數據非常困難。

 

對於 Web3,表面上看起來可能更讓這些企業擔憂,因爲他們的內部數據突然出現在一個去中心化的網絡上。然而,AI 隱私增強技術領域有一些創新:

 

  • 可信執行環境(TEE),例如 Super 協議

  • 全同態加密(FHE),例如 Fhenix.io 或 Inco Network,以及 Bagel 的 PPML

 

這些技術仍在發展中,並且性能正在通過即將到來的零知識(ZK)和 FHE ASICs 不斷提高。但長期目標是在微調模型時保護企業數據。隨着這些協議的出現,Web3 可能成爲一個更有吸引力的隱私保護 AI 計算平臺。

 


用例 #5:利用開源模型的最新創新

 

OSS(開源軟件)在過去幾十年中一直在侵蝕專有軟件的市場份額。我們將 LLM 視爲一種複雜的專有軟件形式,正是時候由 OSS 來顛覆。一些值得注意的挑戰者包括 Llama、RWKV 和 Mistral.ai。隨着時間的推移,這個列表無疑會增長(更多的綜合列表可以在 Openrouter.ai 上找到)。通過利用 Web3 AI(由 OSS 模型驅動),可以利用這些新的創新。

 

我們相信,隨着時間的推移,一個結合了加密激勵的全球開源開發工作隊可以推動開源模型以及在其基礎上構建的代理和框架的快速創新。一個例子是 AI 代理協議 Theoriq。Theoriq 利用 OSS 模型創建一個可組合的互聯 AI 代理網絡,可以組裝成更高級的 AI 解決方案。

 

我們有信心是因爲過去的經驗:大多數 「開發者軟件」 隨着時間的推移慢慢被 OSS 超越。微軟曾經是一家專有軟件公司,現在他們是 Github 上貢獻最多的公司,這是有原因的。如果你看看 Databricks、PostGresSQL、MongoDB 等如何顛覆專有數據庫,這是一個整個行業被 OSS 顛覆的例子,所以這裏的先例相當多。

 

然而,這確實有一個問題。OSS LLMs 的一個棘手之處在於 OpenAI 已經開始與組織(如 Reddit 和紐約時報)簽訂付費數據許可協議。如果這一趨勢繼續下去,由於獲取數據的財務障礙,OSS LLMs 可能難以競爭。Nvidia 可能會加倍投資於保密計算,作爲安全數據共享的推動者。時間將告訴我們這一趨勢如何發展。

 

用例 #6:通過高懲罰成本的隨機抽樣或 ZK 證明實現共識

 

Web3 AI 推理的一個挑戰是驗證。驗證者有機會通過欺騙結果來賺取費用,因此驗證推理是一個重要措施。需要注意的是,這種欺騙實際上還沒有發生,因爲 AI 推理還處於起步階段,但這是不可避免的,除非採取措施來防止這種行爲。

 

標準的 Web3 方法是讓多個驗證者重複相同的操作並比較結果。顯而易見的挑戰是,如上所述,由於當前高端 Nvidia 芯片的短缺,AI 推理成本昂貴。考慮到 Web3 可以通過未充分利用的 GPU DePINs 提供更低成本的推理,重複計算將嚴重削弱 Web3 的價值主張。

 

一個更有潛力的解決方案是爲鏈下 AI 推理計算執行 ZK 證明。在這種情況下,可以通過驗證簡潔的 ZK 證明來確定模型是否訓練正確,或者推理是否正確運行(稱爲 zkML)。例如 Modulus Labs 和 ZKonduit。這些解決方案的性能還處於初級階段,因爲 ZK 操作非常計算密集。然而,我們預計隨着 ZK 硬件 ASIC 的發佈,這種情況會有所改善。

 

更有潛力的是一種 「optimistic」 的基於抽樣的 AI 推理方法。在這種模型中,你只驗證由驗證者生成的結果的一小部分,但將懲罰經濟成本設定得足夠高,這樣如果被抓住,將對驗證者產生強烈的經濟制約,從而防止他們作弊。通過這種方式,可以節省冗餘計算(例如參見 Hyperbolic 的抽樣證明論文)。

 

另一個有潛力的想法是水印和指紋解決方案,例如 Bagel Network 提出的方案。這類似於 Amazon Alexa 用於其數百萬設備的設備內 AI 模型質量保證機制。

 

用例 #7:通過 OSS 節省費用(OpenAI 的利潤率)

 

Web3 爲 AI 帶來的下一個機會是成本平民化。到目前爲止,我們已經討論了通過 DePINs 節省 GPU 成本。但 Web3 還提供了機會來節省中心化 Web2 AI 服務(例如 OpenAI,目前每年收入超過 10 億美元)的利潤率。這些成本節省來自於使用開源模型而非專有模型,因爲模型創建者不試圖從中獲利。

 

許多 OSS 模型將保持完全免費,這爲客戶提供了最好的經濟效益。但是,某些 OSS 模型也可能嘗試這些貨幣化方法。考慮到在 Hugging Face 上的所有模型中,只有 4% 是由有預算的公司訓練的,以幫助補貼這些模型(見此處)。剩下的 96% 的模型是由社區訓練的。這些模型 ——Hugging Face 的 96%—— 有基本的實際成本(包括計算成本和數據成本)。所以這些模型需要某種方式來貨幣化。

 

有許多提議來實現這些 OSS 模型的貨幣化。其中一個最有趣的是 「初始模型發行」(IMO)的概念,即將模型本身代幣化,保留一部分代幣給團隊,並將未來從該模型中獲得的一部分收入分配給代幣持有者,儘管這裏顯然存在一些法律和監管障礙。

 

其他 OSS 模型將嘗試基於使用情況進行貨幣化。請注意,如果這實現了,OSS 模型可能會越來越像它們的 Web2 盈利對手。但實際上,市場將分化,一些模型將保持完全免費。

 

用例 #8:去中心化的數據來源

 

AI 面臨的最大挑戰之一是獲取正確的數據來訓練模型。我們前面提到去中心化 AI 訓練存在挑戰。那麼使用去中心化網絡來獲取數據(然後在其他地方訓練,即使是傳統的 Web2 平臺)又如何呢?

 

這正是像 Grass 這樣的初創公司正在做的事情。Grass 是一個去中心化的 「數據抓取」 網絡,個人貢獻他們的機器閒置處理能力來獲取數據,以便爲 AI 模型的訓練提供信息。假設在大規模情況下,這種數據來源可以優於任何一家公司內部獲取數據的努力,因爲有一個龐大的激勵節點網絡的強大力量。這不僅包括獲取更多數據,還包括更頻繁地獲取數據,使數據更加相關和最新。由於數據抓取者分散且不駐留在單個 IP 地址上,幾乎不可能阻止這種去中心化的抓取大軍。他們還有一個人類網絡,可以清理和規範數據,使其在被抓取後有用。

 

一旦你有了數據,你還需要一個地方在鏈上存儲它,以及用這些數據生成的 LLMs。0g.AI 是該類別中的早期領導者。它是一個 AI 優化的高性能 Web3 存儲解決方案,比 AWS 便宜得多(另一個 Web3 AI 的經濟優勢),同時也爲 Layer 2s、AI 等提供數據可用性基礎設施。

 

需要注意的是,數據在 Web3 AI 中的角色可能會在未來發生變化。今天,LLMs 的現狀是用數據預訓練模型,並隨着時間的推移用更多數據進行細化。然而,這些模型總是略微過時,因爲互聯網上的數據是實時變化的。因此,LLM 推理的響應略有不準確。

 

未來的方向可能是一個新的範式 ——「實時」 數據。這個概念是,當 LLM 被問到推理問題時,該 LLM 可以使用從互聯網實時收集的數據進行提示注入。這樣,LLM 可以使用最最新的數據,這也是 Grass 正在研究的方向。

 

結論

 

 

總之,雖然 Web3 AI 的潛力巨大,但當前的挑戰和市場需求表明,最實際和現實的應用是爲 Web2 客戶提供服務。Web3 AI 的未來光明,但它的全面應用和市場擴展仍需時間。通過識別和解決這些挑戰,我們可以更好地爲 Web3 AI 的發展和成功奠定基礎。