撰文:Jane Doe、Chen Li
1 AI 與 Crypto 的交點
5 月 23 日,芯片巨頭英偉達發佈了 2025 財年第一季度財報。財報顯示,英偉達第一季度營收爲 260 億美元。其中,數據中心營收較去年增長 427%,達到驚人的 226 億美元。英偉達能夠憑藉一己之力拯救美股大盤的財務表現背後,反映的是全球科技公司爲了角逐 AI 賽道而爆發的算力需求。越是頂尖的科技公司在 AI 賽道佈局的野心越大,相應的,這些公司對於算力的需求也呈指數級增長。根據 TrendForce 的預測,2024 年美國四大主要雲服務提供商:微軟、谷歌、AWS 和 Meta 的對於高端 AI 服務器的需求預計分別將佔全球需求的 20.2%、16.6%、16% 和 10.8%,總計超 60%。
圖片來源: https://investor.nvidia.com/financial-info/financial-reports/default.aspx
「芯片緊缺」連續成爲近幾年的年度熱詞。一方面,大語言模型 (LLM) 的 training 和 inference 需要大量算力支撐;並且隨着模型的迭代,算力成本和需求呈指數級增加。另一方面,像 Meta 這樣的大公司會採購巨量的芯片,全球的算力資源都向這些科技巨頭傾斜,使得小型企業越來越難以獲得所需的算力資源。小型企業面臨的困境不僅來自於激增的需求導致的芯片供給不足,還來自於供給的結構性矛盾。目前,在供給端仍存在着大量閒置的 GPU,比如,一些數據中心存在大量閒置的算力(使用率僅在 12% – 18%),加密挖礦中由於利潤的減少也閒置出來大量的算力資源。雖然這些算力並非都適合 AI 訓練等專業的應用場景,但消費級硬件在其他領域,如 AI inference、雲遊戲渲染、雲手機等領域仍然可以發揮巨大作用。整合並利用這部分算力資源的機會是巨大的。
把視線從 AI 轉到 crypto,在加密市場沉寂了三年之後,終於又迎來了又一輪牛市,比特幣價格屢創新高,各種 memecoin 層出不窮。雖然 AI 和 Crypto 作爲 buzzword 火了這些年,但人工智能和區塊鏈作爲兩項重要技術彷彿兩條平行線,遲遲沒有找到一個「交點」。今年年初,Vitalik 發表了一篇名爲「The promise and challenges of crypto + AI applications」的文章,討論了未來 AI 和 crypto 相結合的場景。Vitalik 在文中提到了很多的暢想,包括利用區塊鏈和 MPC 等加密技術對 AI 進行去中心化的 training 和 inference,可以將 machine learning 的黑箱打開,從而讓 AI model 更加 trustless 等等。這些願景若要實現還有很長一段路要走。但其中 Vitalik 提到的其中一個用例——利用 crypto 的經濟激勵來賦能 AI,也是一個重要且在短時間內可以實現的一個方向。去中心化算力網絡便是現階段 AI + crypto 最合適的場景之一。
2 去中心化算力網絡
目前,已經有不少項目在去中心化算力網絡的賽道上發展。這些項目的底層邏輯是相似的,可以概括爲: 利用 token 激勵算力持有者參與網絡提供算力服務,這些零散的算力資源可以彙集成有一定規模的去中心化算力網絡。這樣既能提高閒置算力的利用率,又能以更低的成本滿足客戶的算力需求,實現買方賣方雙方的共贏。
爲了使讀者在短時間內獲得對此賽道的整體把握,本文將從微觀—宏觀兩個視角對具體的項目和整個賽道進行解構,旨在爲讀者提供分析視角去理解每個項目的核心競爭優勢以及去中心化算力賽道整體的發展情況。筆者將介紹並分析五個項目: Aethir、io.net、Render Network、Akash Network、Gensyn,並對項目情況和賽道發展進行總結和評價。
從分析框架而言,如果聚焦於一個具體的去中心化算力網絡,我們可以將其拆解成四個核心的構成部分:
硬件網絡:將分散的算力資源整合在一起,通過分佈在全球各地的節點來實現算力資源的共享和負載均衡,是去中心化算力網絡的基礎層。
雙邊市場:通過合理的定價機制和發現機制將算力提供者與需求者進行匹配,提供安全的交易平臺,確保供需雙方的交易透明、公平和可信。
共識機制:用於確保網絡內節點正確運行並完成工作。共識機制主要用於監測兩個層面:1)監測節點是否在線運行,處於可以隨時接受任務的活躍狀態;2)節點工作證明:該節點接到任務後有效正確地完成了任務,算力沒有被用於其他目的而佔用了進程和線程。
代幣激勵:代幣模型用於激勵更多的參與方提供 / 使用服務,並且用 token 捕獲這種網絡效應,實現社區收益共享。
如果鳥瞰整個去中心化算力賽道,Blockworks Research 的研報提供了一個很好的分析框架,我們可以將此賽道的項目 position 分爲三個不同的 layer。
Bare metal layer: 構成去中心化計算棧的基礎層,主要的任務是收集原始算力資源並且讓它們能夠被 API 調用。
Orchestration layer: 構成去中心化計算棧的中間層,主要的任務是協調和抽象,負責算力的調度、擴展、操作、負載均衡和容錯等。主要作用是「抽象」底層硬件管理的複雜性,爲終端用戶提供一個更加高級的用戶界面,服務特定的客羣。
Aggregation layer: 構成去中心化計算棧的頂層,主要的任務是整合,負責提供一個統一的界面讓用戶可以在一處實現多種計算任務,比如 AI 訓練、渲染、zkML 等等。相當於多個去中心化計算服務的編排和分發層。
圖片來源: Youbi Capital
根據以上兩個分析框架,我們將對選取的五個項目做一個橫向的對比,並從四個層面——核心業務、市場定位、硬件設施和財務表現對其進行評價。
2.1 核心業務
從底層邏輯來講,去中心化算力網絡是高度同質化的,即利用 token 激勵閒置算力持有者提供算力服務。圍繞這個底層邏輯,我們可以從三個方面的差異來理解項目核心業務的不同:
閒置算力的來源:
市面上閒置算力有兩種主要的來源:1)data centers, 礦商等企業手裏閒置算力;2)散戶手裏的閒置算力。數據中心的算力通常是專業級別的硬件,而散戶通常會購買消費級別的芯片。
Aethir、Akash Network 和 Gensyn 的算力主要是從企業收集的。從企業收集算力的好處在於:1)企業和數據中心通常擁有更高質量的硬件和專業維護團隊,算力資源的性能和可靠性更高;2)企業和數據中心的算力資源往往更同質化,並且集中的管理和監控使得資源的調度和維護更加高效。但相應的,這種方式對於項目方的要求較高,需要項目方有與掌握算力的企業有商業聯繫。同時,可擴展性和去中心化程度會受到一定程度的影響。
Render Network 和 io.net 主要是激勵散戶提供手中的閒置算力。從散戶手中收集算力的好處在於:1)散戶的閒置算力顯性成本較低,能提供更加經濟的算力資源;2)網絡的可擴展性和去中心化程度更高,增強了系統的彈性和穩健性。而缺點在於,散戶資源分佈廣泛且不統一,管理和調度變得複雜,增加了運維難度。並且依靠散戶算力去形成初步的網絡效應會更加困難 ( 更難 kickstart)。最後,散戶的設備可能存在更多的安全隱患,會帶來數據泄露和算力被濫用的風險。
算力消費者
從算力消費者來講,Aethir、io.net、Gensyn 的目標客戶主要是企業。對於 B 端客戶來說,AI 和遊戲實時渲染需要高性能計算需求。這類工作負載對算力資源的要求極高,通常需要高端 GPU 或專業級硬件。此外,B 端客戶對算力資源的穩定性和可靠性要求很高,因此必須提供高質量的服務級別協議,確保項目正常運行並提供及時的技術支持。同時,B 端客戶的遷移成本很高,如果去中心化網絡沒有成熟的 SDK 能夠讓項目方快速 deploy( 比如 Akash Network 需要用戶自己基於遠程端口進行開發 ),那麼很難讓客戶進行遷移。如果不是及其顯著的價格優勢,客戶遷移的意願是非常低的。
Render Network 和 Akash Network 主要爲散戶提供算力服務。爲 C 端用戶提供服務,項目需要設計簡單易用的界面和工具,爲消費者提供良好的消費體驗。並且消費者對於對價格很敏感,因此項目需要提供有競爭力的定價。
硬件類型
常見的計算硬件資源包括 CPU、FPGA、GPU、ASIC 和 SoC 等。這些硬件在設計目標、性能特性和應用領域上有顯著區別。總結來說,CPU 更擅長通用計算任務,FPGA 的優勢在於高並行處理和可編程性,GPU 在並行計算中表現出色,ASIC 在特定任務中效率最高,而 SoC 則集成多種功能於一體,適用於高度集成的應用。選擇哪種硬件取決於具體應用的需求、性能要求和成本考慮。我們討論的去中心化算力項目多爲收集 GPU 算力,這是由項目業務類型和 GPU 的特點決定的。因爲 GPU 在 AI 訓練、並行計算、多媒體渲染等方面有着獨特優勢。
雖然這些項目大多涉及到 GPU 的集成,但是不同的應用對硬件規格的要求不同,因此這些硬件有異質化的優化核心和參數。這些參數包括 parallelism/serial dependencies,內存,延遲等等。例如渲染工作負載實際上更適合於消費級 GPU,而不適合性能更強的 data center GPU,因爲渲染對於光線追蹤等要求高,消費級芯片如 4090s 等強化了 RT cores,專門爲光線追蹤任務做了計算類優化。AI training 和 inference 則需要專業級別的 GPU。因此 Render Network 可從散戶那裏彙集 RTX 3090s 和 4090s 等消費級 GPU,而 IO.NET 需要更多的 H100s、 A100s 等專業級別 GPU,以滿足 AI 初創公司的需求。
2.2 市場定位
對於項目的定位來講,bare metal layer、orchestration layer 和 aggregation layer 需要解決的核心問題、優化重點和價值捕獲的能力不同。
Bare metal layer 關注的是物理資源的收集和利用,Orchestration layer 關注算力的調度和優化,將物理硬件按照客戶羣體的需求進行最佳優化設計。Aggregation layer 是 general purpose 的,關注不同資源的整合和抽象。從價值鏈來講,各個項目應該從 bare metal 層起,努力向上進行攀升。
從價值捕獲的角度來講,從 bare metal layer、orchestration layer 到 aggregation layer,價值捕獲的能力是逐層遞增的。Aggregation layer 能夠捕獲最多的價值,原因在於 aggregation platform 能夠獲得最大的網絡效應,還能直接觸及最多的用戶,相當於去中心化網絡的流量入口,從而在整個算力資源管理棧中佔據最高的價值捕獲位置。
相應的,想要構建一個 aggregation platform 的難度也是最大的,項目需要綜合解決技術複雜性、異構資源管理、系統可靠性和可擴展性、網絡效應實現、安全性和隱私保護以及複雜的運維管理等多方面的問題。這些挑戰不利於項目的冷啓動,並且取決於賽道的發展情況和時機。在 orchestration layer 還未發展成熟喫下一定市場份額時,做 aggregation layer 是不太現實的。
目前,Aethir、Render Network、Akash Network 和 Gensyn 都屬於 Orchestration layer,他們旨在爲特定的目標和客戶羣體提供服務。Aethir 目前的主營業務是爲雲遊戲做實時渲染,併爲 B 端客戶提供一定的開發和部署環境和工具; Render Network 主營業務是視頻渲染,Akash Network 的任務是提供一個類似於淘寶的交易平臺,而 Gensyn 深耕於 AI training 領域。io.net 的定位是 Aggregation layer,但目前 io 實現的功能還離 aggregation layer 的完整功能還有一段距離,雖然已經收集了 Render Network 和 Filecoin 的硬件,但對於硬件資源的抽象和整合還未完成。
2.3 硬件設施
目前,不是所有項目都公佈了網絡的詳細數據,相對來說,io.net explorer 的 UI 做的是最好的,上面可以看到 GPU/CPU 數量、種類、價格、分佈、網絡用量、節點收入等等參數。但是 4 月末時 io.net 的前端遭到了攻擊,由於 io 沒有對 PUT/POST 的接口做 Auth,黑客篡改了前端數據。這爲其他項目的隱私、網絡數據可靠性也敲響了警鐘。
從 GPU 的數量和 model 來說,作爲聚合層的 io.net 收集的硬件數量理應是最多的。Aethir 緊隨其後,其他項目的硬件情況沒有那麼透明。從 GPU model 上可以看到,io 既有 A100 這樣的專業級 GPU,也有 4090 這樣的消費級 GPU,種類繁多,這符合 io.net aggregation 的定位。io 可以根據具體任務需求選擇最合適的 GPU。但不同型號和品牌的 GPU 可能需要不同的驅動和配置,軟件也需要進行復雜的優化,這增加了管理和維護的複雜性。目前 io 各類任務分配主要是靠用戶自主選擇。
Aethir 發佈了自己的礦機,五月時,高通支持研發的 Aethir Edge 正式推出。它將打破遠離用戶的單一集中化的 GPU 集羣部署方式,將算力部署到邊緣。Aethir Edge 將結合 H100 的集羣算力,共同爲 AI 場景服務,它可以部署訓練好的模型,以最優的成本爲用戶提供推理計算服務。這種方案離用戶更近,服務更快速,性價比也更高。
從供給和需求來看,以 Akash Network 爲例,其統計數據顯示,CPU 總量約爲 16k,GPU 數量爲 378 個,按照網絡租賃需求,CPU 和 GPU 的利用率分別是 11.1% 和 19.3%。其中只有專業級 GPU H100 的租用率是比較高的,其他的 model 大多處於閒置狀態。其他網絡面臨的情況大體與 Akash 一致,網絡總體需求量不高,除了如 A100、H100 等熱門芯片,其他算力大多處於閒置的狀態。
從價格優勢來看,與除雲計算市場巨頭而言,與其他傳統服務商相比成本優勢並不突出。
2.4 財務表現
不管 token model 如何設計,一個健康的 tokenomics 都需要滿足以下幾個基本條件:1)用戶對於網絡的需求需要體現在幣價上,也就是說代幣是可以實現價值捕獲的;2)各個參與者,不管是開發者、節點、用戶都需要得到長期的公平的激勵;3)保證去中心化的治理,避免內部人士過度持有;4)合理的通脹和通縮機制和代幣釋放週期,避免大幅波動的幣價影響網絡的穩健型和持續性。
如果把代幣模型籠統地分爲 BME(burn and mint equilibrium) 和 SFA(stake for access),這兩種模式的代幣通縮壓力來源不同:BME 模型在用戶購買服務後會燃燒代幣,因此係統的通縮壓力是由需求決定的。而 SFA 要求服務提供者 / 節點質押代幣以獲得提供服務的資格,因此通縮壓力是由供給帶來的。BME 的好處在於更加適合用於非標準化商品。但如果網絡的需求不足,可能面臨着持續通脹的壓力。各項目的代幣模型在細節上有差異,但總體來說,Aethir 更偏向於 SFA,而 io.net,Render Network 和 Akash Network 更偏向於 BME,Gensyn 尚未可知。
從收入來看,網絡的需求量會直接反映在網絡整體收入上(這裏不討論礦工的收入,因爲礦工除了完成任務所獲的報酬還有來自於項目的補貼。)從公開的數據上來看 io.net 的數值是最高的。Aethir 的收入雖然還未公佈,但從公開信息來看,他們宣佈已經與很多 B 端客戶簽下了訂單。
從幣價來說,目前只有 Render Network 和 Akash Network 進行了 ICO。Aethir 和 io.net 也在近期發幣,價格表現需要再觀察,在這不做過多討論。Gensyn 的計劃還不清楚。從發幣的兩個項目以及同一個賽道但沒有包含在本文討論範圍內的已經發幣的項目,綜合來講,去中心化算力網絡都有非常亮眼的價格表現,一定程度體現了巨大的市場潛力和社區的高期望。
2.5 總結
去中心化算力網絡賽道總體發展很快,已經有很多項目可以依靠產品服務客戶,併產生一定收入。賽道已經脫離了純敘事,進入可以提供初步服務的發展階段。
需求疲軟是去中心化算力網絡所面臨的共性問題,長期的客戶需求沒有被很好地驗證和挖掘。但需求側並沒有過多影響幣價,已經發幣的幾個項目表現亮眼。
AI 是去中心化算力網絡的主要敘事,但並不是唯一的業務。除了應用於 AI training 和 inference 之外,算力還可被用於雲遊戲實時渲染,雲手機服務等等。
算力網絡的硬件異質化程度較高,算力網絡的質量和規模需要進一步提升。
對於 C 端用戶來說,成本優勢不是十分明顯。而對於 B 端用戶來說,除了節約成本之外,還需考慮服務的穩定性、可靠性、技術支持、合規和法律支持等等方面,而 Web3 的項目普遍在這些方面做得不夠好。
3 Closing thoughts
AI 的爆發式增長帶來的對於算力的巨量需求是毋庸置疑的。自 2012 年以來,人工智能訓練任務中使用的算力正呈指數級增長,其目前速度爲每 3.5 個月翻一倍(相比之下,摩爾定律是每 18 個月翻倍)。自 2012 年以來,人們對於算力的需求增長了超過 300,000 倍,遠超摩爾定律的 12 倍增長。據預測,GPU 市場預計將在未來五年內以 32% 的年複合增長率增長至超過 2000 億美元。AMD 的估計更高,公司預計到 2027 年 GPU 芯片市場將達到 4000 億美元。
圖片來源: https://www.stateof.ai/
因爲人工智能和其他計算密集型工作負載(如 AR/VR 渲染)的爆發性增長暴露了傳統雲計算和領先計算市場中的結構性低效問題。理論上去中心化算力網絡能夠通過利用分佈式閒置計算資源,提供更靈活、低成本和高效的解決方案,從而滿足市場對計算資源的巨大需求。因此,crypto 與 AI 的結合有着巨大的市場潛力,但同時也面臨與傳統企業激烈的競爭、高進入門檻和複雜的市場環境。總的來說,縱觀所有 crypto 賽道,去中心化算力網絡是加密領域中最有希望獲得真實需求的的垂直領域之一。
圖片來源: https://vitalik.eth.limo/general/2024/01/30/cryptoai.html
前途是光明的,道路是曲折的。想要達到上述的願景,我們還需要解決衆多的問題與挑戰,總結來說:現階段如果單純提供傳統的雲服務,項目的 profit margin 很小。從需求側來分析,大型企業一般會自建算力,純 C 端開發者大多會選擇雲服務,真正使用去中心化算力網絡資源的中小型企業是否會有穩定需求還需要進一步挖掘和驗證。另一方面,AI 是一個擁有極高上限和想象空間的廣闊市場,爲了更廣闊的市場,未來去中心化算力服務商也需要向模型 /AI 服務進行轉型,探索更多的 crypto + AI 的使用場景,擴大項目能夠創造的價值。但目前來說,想要進一步發展到 AI 領域還存在很多問題和挑戰:
價格優勢並不突出:通過之前的數據對比可以看出,去中心化算力網絡的成本優勢並沒有得到體現。可能的原因在於對於需求大的專業芯片 H100、A100 等,市場機制決定了這部分硬件的價格不會便宜。另外,去中心化網絡雖然能收集閒置的算力資源,但去中心化帶來的規模經濟效應的缺乏、高網絡和帶寬成本以及極大的管理和運維的複雜性等隱形成本會進一步增加算力成本。
AI training 的特殊性:利用去中心化的方式進行 AI trainning 在現階段有着巨大的技術瓶頸。這種瓶頸從 GPU 的工作流程當中可以直觀體現,在大語言模型訓練中,GPU 首先接收預處理後的數據批次,進行前向傳播和反向傳播計算以生成梯度。接下來,各 GPU 會聚合梯度並更新模型參數,確保所有 GPU 同步。這個過程將不斷重複,直到訓練完成所有批次或達到預定輪數。這個過程中涉及到大量的數據傳輸和同步。使用什麼樣的並行和同步策略,如何優化網絡帶寬和延遲,降低通訊成本等等問題,目前都還未得到很好的解答。現階段利用去中心化算力網絡對 AI 進行訓練還不太現實。
數據安全和隱私:大語言模型的訓練過程中,各個涉及數據處理和傳輸的環節,比如數據分配、模型訓練、參數和梯度聚合都有可能影響數據安全和隱私。並且數據隱私幣模型隱私更加重要。如果無法解決數據隱私的問題,就無法在需求端真正規模化。
從最現實的角度考慮,一個去中心化算力網絡需要同時兼顧當下的需求發掘和未來的市場空間。找準產品定位和目標客羣,比如先瞄準非 AI 或者 Web3 原生項目,從比較邊緣的需求入手,建立起早期的用戶基礎。同時,不斷探索 AI 與 crypto 結合的各種場景,探索技術前沿,實現服務的轉型升級。