作者:Iris Chen, Dr. Nick

一、需求与挑战并存

《2022-2023全球计算力指数评估报告》指出,在全球GDP增速放缓的背景下,数字经济仍然保持强劲的增长态势,全球主要国家数字经济占GDP比重正逐年上升,预计样本国家整体比重将从2022年的50.2%提高到2026年的54.0%,算力已逐渐成为推动经济增长的主要力量。计算力指数每提高1点,国家的数字经济和GDP将分别增长3.6‰和1.7‰。更为关键的是,当计算力指数超过40分时,每提升1点对GDP增长的推动力将高出40分以下的1.3倍,超过60分时甚至达到3倍。算力先发地区的优势会随着算力投资比重的增加获得强化,进一步拉开与后发地区的差距,可见发展算力的重要性。

1、AIGC浪潮来袭,算力行业需求巨大

随着人工智能、区块链、物联网及AR/VR等关键技术的应用和发展,未来的算力需求将增加。预计到到2030年:

  • 人工智能:深入渗透到所有行业,将需要16000 EFLOPS的算力(相当于在智能手机中嵌入1600亿个高通骁龙855 NPU2)

  • 区块链:支持加密数字货币等领域,将需要5500 EFLOPS的算力(相当于13亿个AntMiner V9)

  • 物联网:连接工厂和家庭的所有设备,将需要8500 EFLOPS的算力(相当于在高端物联网边缘设备中使用79亿个芯片)

  • Space computing/AR/VR/Metaverse:在充分发挥潜力的情况下,将需要3900 EFLOPS的算力(相当于21亿个SONY PS4控制台)

与此同时,2022年ChatGPT爆火引发AIGC浪潮来袭,算力需求进一步增加。Open AI发布的GPT系列中,GPT3是由1750亿参数组成的语言模型,GPT4的参数更是达万亿级别,随着大模型参数量的日益增大,训练一个AI模型所需的算力将每两年增长275倍。这将全球AI计算市场规模增速推至新高度,IDC预测,2026年全球AI计算市场规模将达346.6亿美元,其中生成式AI计算市场将从2022年的8.2亿美元增长到2026年的109.9亿美元,占AI计算市场份额从4.2%增长到31.7%。在此发展趋势下,未来对算力的需求巨大。

2、安全威胁成本难减,算力行业面临挑战

(1)    安全:算力网络灵活接入,分布式资源节点多

  • 算力网络由算网服务层、算网调度层、算力中心、边缘算力/用户中心、算力承载网络五个主要部分组成。然而,这一架构在提供高效、灵活的计算服务的同时,也带来了一系列安全挑战:

  • 算力网络具有算力泛在、灵活接入等特点,频繁的资源链接将导致资源的攻击暴露面增加

  • 算力网络中流通着海量且涉及机密隐私的数据,在传输过程中被篡改或泄露将造成严重后果

  • 算力服务是端到端服务,用户群体庞大,分布式资源节点数量较多,数据信息管理较繁杂,存证溯源困难

  • 算网新型架构新增算网感知单元、算网控制单元等网元,管控复杂度提升

(2)    成本:GPU供不应求,算力闲置严重

随着Al的繁荣,对GPU的需求激增。目前大部分GPU市场由英伟达占据,然而英伟达芯片供货量紧张,价格也水涨船高,以A100 GPU为例,其市场单价已达15万元,两个月内涨幅超50%。同时,大模型的应用将更大地提高算力成本。经测算,1万枚英伟达A100芯片是做好AI大模型的算力门槛,像GPT3的单次训练成本已高于1200万美元。

同时,GPU存在算力闲置问题。GPT3训练1750亿个参数的模型需要在内存中保存超过1TB的数据,这超过了当今现有的任何GPU,受限于内存,需要更多的GPU进行并行计算和存储,导致GPU利用率低和算力闲置。而同样因为受限于内存,模型复杂度与所需要的GPU数量并不是线性增长关系,这将加重GPU利用率低的问题,GPT4在大约25000个A100 GPU上进行90到100天的训练,其算力利用率仅为32%至36%。还有很多算力存在于独立数据中心、加密矿工和MacBook、游戏PC等用户的消费设备中,这些资源很难聚合和利用。

随着算力的蓬勃发展,电力需求也将快速增长。预计2023-2027年全球数据中心电力需求为430-748太瓦时,相当于2024-2027年全球电力需求的2-4%,这给电力基础设施带来挑战。摩根士丹利预测,在GPU利用率从60%提高到70%的基准情境下,全球数据中心在2023-2027年的总电力容量将达70-122吉瓦,复合年增长率为20%,具体而言:

  • 牛市情景下(90%的芯片利用率):预计2023-2027年全球数据中心的电力需求为446-820太瓦时

  • 熊市情景下(50%的芯片利用率):预计2023-2027年全球数据中心的电力需求为415-677太瓦时

因此,能够满足算力快速增长的电力需求的公司将从这一趋势中收益,特别是那些能够减少数据中心供电延迟的电力解决方案提供商。

二、发展趋势及项目介绍

1、去中心化计算为Web 3提供安全低成本的算力解决方案

Web 1的本质是联合,网页是“只读的”,用户只能搜索信息,浏览信息;Web 2的本质是互动,网站是“可写可读的”,用户不仅仅是内容的接收方,还可以参与创作内容。而Web 3是万物互联的时代,网站是“可读可写可持有的”,用户所创数字内容的所有权和控制权都归属于自己,可以自主选择与他人签订协议进行分配。Web 3作为下一代互联网的代表,强调去中心化、开放性和用户主权,而去中心化计算区别于传统云计算,有效满足了现代技术驱动的计算需求,成为Web 3基础设施的核心。随着互联网新技术的发展和数据量的进一步扩大,去中心化应用市场发展前景广阔,智研咨询预测,预计2025年全球去中心化应用市场规模将达11855.4亿美元。

面对算力行业的安全、成本及电力挑战,建设去中心化的分布式算力网络是AI基础设施发展的重要方向。去中心化计算通过算力的租赁、共享、调度等综合利用现有计算资源,为Web 3生态系统中的各种应用提供了一个安全、低成本、无停机服务的算力解决方案。与传统的中心化系统相比,去中心化计算的具体优势如下:

》安全

  • 参与者都具有处理能力。如果一个参与者受到威胁,其他参与者可以做出反应。

  • 允许分布式控制和决策。有助于确保没有任何单个实体能够对互联网或其用户实施完全控制,用户不太可能受到监控或审查,在线隐私和言论自由更大。

》低成本:去中心化计算将成本和责任分散到多个实体,在长期内更加可负担和可持续,目前市场上的Web 3去中心化算力平台能够提供比中心化算力平台普遍低80-90%的价格。

  • 更便宜的计算能力。在传统数据中心中,成本构成为服务器(30%)、住房(12%)、网络(15%)、AC(21%)、电源(17%)和人工(5%),而去中心化计算依赖于用户以互利的方式共享资源和贡献计算能力,理论上可以节省70%的成本。

  • 更便宜的训练成本。去中心化计算允许借助数千个无服务器技术的并行线程,可以将GNN训练扩展到十亿个边缘模型。据UCLA的研究,对于大模型,去中心化计算每美元可以提供比传统系统高2.75倍的性能,对于稀疏性大模型,去中心化计算快1.22倍,便宜4.83倍。

  • 更便宜的部署成本。传统的AI解决方案需要在软件开发、基础设施和人才方面进行大量投资。而去中心化计算可以让开发者利用现有的资源和基础设施,使构建和部署AI应用程序变得更容易。同时能使AI开发民主化,用户可以共享计算资源并合作开发AI解决方案。

  • 更加适合AI的基础设施。通过降低训练和计算的成本,去中心化计算有潜力使更多的组织和个人使用AI,并推动众多行业的增长和创新。

》无停机服务:去中心化网络节点分散,理论上永不宕机,不存在单点故障。

项目介绍

Akash Network:去中心化云计算市场,可让用户安全高效地买卖计算资源。区别于其他去中心化平台,用户可以在Akash托管容器上运行任何云原生应用程序,没有必要用新的专有语言重写整个互联网,也没有供应商锁定来阻止切换云提供商。

io.net:去中心化计算网络,允许机器学习工程师以低于中心化服务的成本访问分布式云集群。有IO工人、IO云、IO浏览器等特色产品,在Solana上估值超10亿美元。

2、AI推动高性能计算,高性能计算赋能AI

高性能计算是指使用超级计算机和并行计算机集群解决高级计算问题的计算系统。该类系统通常比最快的桌面电脑、笔记本电脑或服务器系统快100万倍以上,在自动驾驶汽车、物联网和精准农业等已建立和新兴领域都有广泛的应用。

高性能计算在数据中心总可用市场中仅占5%左右的份额,但随着AI的快速发展和大模型的运用,AI和高性能数据分析工作负载的增加推动着HPC系统设计的变化,HPC也对AI进行赋能,两者互相推动发展。全球HPC支出在2022年约为370亿美元,Hyperion预测,将在2026年达到520亿美元,同时HPC赋能的AI市场在2020-2026年复合增长率将达到22.7%。

项目介绍

Arweave:最新提出的AO协议,用非以太坊模块化方案的架构,可在存储公链上实现超高性能运算甚至达成准Web2的体验,给了Web3 x AI一个很好的新基建。

iExec:提供高性能计算服务的去中心化云计算平台,允许用户租用计算资源以执行计算密集型任务,例如数据分析、模拟和渲染等。

CETI:由crypto.com前CEO创办,瞄准企业级的高性能计算中心。

3、人机交互转折点:空间计算

空间计算是指通过使用AR/VR技术,将用户的图形界面融入真实物理世界,从而改变人机交互的计算机。2015年Microsoft发布MR头显Hololens是现代空间计算的一个里程碑,尽管并未普及,但它证明了空间计算的潜力,而今年Apple发布的Vision Pro带来了更精准的空间感知技术和更深入的用户交互体验,将空间计算推向热点。

实际上,我们正在到达人机交互的一个转折点:从传统的键盘和鼠标配置转向触摸手势、对话式AI和增强视觉计算交互的边缘。据IDC的预测,2023年全球VR设备的出货量将达917万台,同比增长7%,而AR设备的出货量为44万台,同比增长57%,预计未来四年,VR市场将以每年20%以上的速度增长,而AR市场将达70%以上,AR/VR技术的发展将大大提高空间计算的重要性。继PC和智能手机之后,空间计算有潜力推动下一波颠覆性变革——使技术成为我们日常行为的一部分,用实时数据和通信连接我们的物理和数字生活。

项目介绍

Clore.ai:连接租户和需要GPU的用户的平台,旨在让用户能够以具有竞争力的价格和灵活的条款访问强大的计算资源。其强大的GPU允许用户以专业水平渲染电影,显着下降所需的时间,并且与各种渲染引擎兼容,也可用于AI训练、挖矿。

Render Network:去中心化的GPU渲染平台,旨在推进下一代渲染与AI技术,用户能够按需将GPU渲染工作扩展到世界各地的高性能GPU节点。

4、边缘计算成为云计算的重要补充

边缘计算是指在物理位置上更靠近终端设备的位置处理数据,其中“边缘”在与最终用户的往返时间最多为20毫秒的位置,边缘计算将算力资源部署在离终端设备更近的位置,使得数据可以在本地进行处理,从而减少了数据传输到云端进行处理的延迟和网络带宽的压力,因此在延迟、带宽、自主性和隐私方面更具优势。

Facebook、亚马逊、微软、谷歌和苹果等科技巨头都在投资边缘计算和边缘位置(从内部IT和OT到外部、远程站点),以更接近最终用户和数据生成的地方。美银预测,预计到2025年,75%的企业生成数据将在边缘创建和处理,到2028年,边缘计算的市场规模将达到4040亿美元,2022-28年复合年增长率为15%。

项目介绍

Aethir:云计算基础设施平台,2024年4月推出Aethir Edge,作为Aethir唯一授权的挖矿设备,Aethir Edge正在引领去中心化边缘计算的发展,带领边缘计算的未来迈向民主化。

Theta Network:去中心化视频传输服务平台,旨在解决现有视频传输系统中高成本和低效率等瓶颈问题。计划于2024年第二季度推出基于完全跨越边缘架构的混合云计算平台Theta EdgeCloud。

5、AI训练有望全面转向AI推理

在去中心化的趋势下,AI训练并不是目前DePIN最好的落地场景。AI生产对算力的要求主要围绕AI推理和AI训练两方面。AI训练指通过投喂大量的数据,训练出一个复杂的神经网络模型,AI推理指利用训练好的模型,使用大量数据推理出各种结论,因此,去中心化与算力结合,难度系数从训练到微调训练再到推理是逐层递减的。若在以太坊上构建一个去中心化算力应用供GPT使用,仅单个矩阵乘法运算将消耗Gas费高达100亿美元并且需要1个月之久,每个token(1000 token约等于750个单词)的训练成本通常约为6N(N是大语言模型的参数数量),而推理成本仅约为2N,也就是说推理成本大约相当于训练成本的三分之一。

同时,相较于AI训练,AI推理与消费电子等大规模应用终端的需求联系更为紧密。Counterpoint Research预测,全球PC市场的出货量将在2024年回到疫情前的水平,预计从2020年起,AI PC将以50%的复合增速增长,并在2026年后主导PC市场。随着2024年AI PC、AI智能手机等全新融合AI的消费电子产品的涌现,端侧AI大模型及AI软件大规模应用趋势将日益显现,这也意味着AI推理的重要性日益凸显,成为高效运行端侧大模型及AI软件背后的核心技术,AI行业的发展重心有望从训练全面转向推理。

项目介绍

Nosana:基于区块链的分布式GPU资源共享平台,旨在解决市场上GPU短缺的问题。2023年转向AI推理,率先推出了用于AI推理的大规模GPU计算网格,这是一个有目的地将区块链技术集成到AI中的举措,使其成为处理AI苛刻计算要求的理想工具。

Exabits:去中心化AI和高性能计算服务平台,旨在构建公平、易用、包容的AI生态系统,为AI模型训练和推理提供负担得起的加速计算。