撰文:Hack VC
编译:TinTinLand
AI 是最近加密市场中最热门和最有前途的赛道之一:
去中心化 AI 训练
GPU DePINs
非审查的 AI 模型
这些是突破还是仅仅是炒作?Hack VC 剖析了顶级的 Crypto✖️AI 结合想法,一起来探讨下真正的挑战和机遇吧!
具有潜力和挑战的想法
首先,让我们从 「Web3 AI 的前景」 开始 —— 这些想法有相当大的炒作成分,但现实可能没有那么理想。
Idea#1:去中心化 AI 训练
在链上进行 AI 训练的问题在于训练需要 GPU 之间的高速通信和协调,因为神经网络在训练时需要反向传播。Nvidia 为此提供了两项创新(NVLink 和 InfiniBand)。这些技术有效地使 GPU 通信更快,但它们仅限于单个数据中心内的 GPU 集群(50+ Gbps 速度)。
如果引入去中心化网络,由于增加了网络延迟和带宽,速度会突然下降几个数量级。这对于与 Nvidia 在数据中心内的高速互连相比的 AI 训练用例来说是一个不可行的方案。
需要注意的是,这里有一些创新可能为未来提供新的可能性:
通过 InfiniBand 进行分布式训练正在大规模进行,因为 NVIDIA 本身通过 NVIDIA 集体通信库支持分布式、非本地训练。然而,这仍处于初期阶段,因此采用指标尚待确定。物理距离带来的瓶颈仍然存在,因此通过 InfiniBand 进行本地训练仍然明显更快。
近期有一些新颖的研究发表出来,显示出通过依赖于更少的通信同步,可能在未来使去中心化训练更加实际。
智能分片和模型训练调度同样可以帮助提高性能。同样,新的模型架构将来可能会专门为去中心化基础设施设计(Gensyn 正在研究这些领域)。
训练的数据部分也是一个挑战。任何 AI 训练过程都涉及处理大量数据。通常,模型在具有高可扩展性和性能的中心化和安全的数据存储系统上进行训练。这需要传输和处理数 TB 的数据,并且这不是一次性的循环。数据通常是噪声和包含错误的,因此在训练模型之前必须进行清洗和转换成可用格式。这个阶段涉及归一化、过滤和处理缺失值的重复任务。这些都在去中心化环境中构成严重挑战。
训练的数据部分也是迭代的,这不太适合 Web3。OpenAI 花了成千上万次迭代才取得其成果。AI 团队中数据科学专家的最基本任务场景包括定义目标、准备数据、分析和结构化数据以提取重要见解并使其适合建模。然后,开发机器学习模型来解决定义的问题,并使用测试数据集验证其性能。这个过程是迭代的:如果当前模型表现不如预期,专家将返回数据收集或模型训练阶段以改进结果。现在,想象一下这个过程在去中心化环境中的情况,Web3 中现有的最佳框架和工具并不容易获得。
在链上训练 AI 模型的另一个问题是,与推理相比,这是一个不太有趣的市场。目前,有大量 GPU 计算资源用于 AI LLM 训练。但从长远来看,推理将成为 GPU 的更普遍的用例。考虑一下:需要训练多少个 AI LLM 才能让全世界的用户满意,而使用这些模型的客户数量有多少?
一个在各个方面取得进展的解决方案是 0g.ai,他们提供链上数据存储和数据可用性基础设施。他们的超快架构和在链上存储大量数据的能力允许进行快速、迭代的链上 AI 模型训练。
Idea#2:使用过度冗余的 AI 推理计算来达成共识
CryptoxAI 的挑战之一是验证 AI 推理的准确性,因为你不能完全信任一个单一的中心化方来进行推理,可能会有节点行为不端的风险。在 Web2 AI 中,这种挑战不存在,因为没有去中心化的共识系统。
解决这个问题的一个建议是冗余计算,其中多个节点重复相同的 AI 推理操作,以便可以以无需信任的方式操作,没有单点故障。
这种方法的问题在于,我们生活在一个高端 AI 芯片严重短缺的世界里。高端 NVIDIA 芯片有多年的等待期,这导致价格上涨。如果你还需要让你的 AI 推理在多个节点上重新执行多次,你现在就将这些昂贵的成本成倍增加。这对许多项目来说是不可行的。
Idea#3:短期内 Web3 特定的 AI 用例
有人建议 Web3 应该有其独特的 AI 用例,专门为 Web3 用户提供。这可以是例如一个使用 AI 对 DeFi 池进行风险评分的 Web3 协议,一个根据你的钱包历史建议新协议的 Web3 钱包,或者一个使用 AI 控制非玩家角色(NPCs)的 Web3 游戏。
目前,这是一个处于起步阶段的市场,仍有很多用例待发现。一些挑战包括:
Web3 原生用例所需的 AI 交易量较少,因为市场需求仍在起步阶段。
客户较少,因为与 Web2 客户相比,Web3 客户少了几个数量级,因此市场不太分散。
客户本身也不稳定,因为他们是资金较少的初创企业,所以一些初创企业可能会随着时间的推移倒闭。为 Web3 客户提供服务的 Web3 AI 服务提供商可能需要随着时间的推移重新获取一部分客户群,以替换那些倒闭的客户,使其成为一个更具挑战性的业务扩展。
从长远来看,Hack VC 对 Web3 原生 AI 用例非常看好,特别是随着 AI 代理的普及。我们设想一个未来,每个 Web3 用户都有大量 AI 代理来协助他们。这个早期的类别领导者是 Theoriq,它支持可组合和自主的链上 AI 代理。
Idea#4:消费级 GPU DePINs
有许多去中心化 AI 计算网络依赖消费级 GPU 而不是数据中心。消费级 GPU 适用于低端 AI 推理任务或消费者用例,在这些用例中,延迟、吞吐量和可靠性是灵活的。但对于专业的企业用例(这是大多数重要市场),客户需要比个人家庭机器更高可靠性的网络,并且如果他们有更复杂的推理任务,通常需要更高端的 GPU。数据中心更适合这些更有价值的客户应用。
需要注意的是,我们认为消费级 GPU 适用于演示用途或可以容忍较低可靠性的个人和初创企业。但这些客户从根本上来说价值较低,因此我们认为迎合 Web2 企业的 DePINs 将从长远来看更有价值。因此,众所周知的 GPU DePIN 项目通常已经从主要是消费级硬件的早期阶段演变为拥有 A100/H100 和集群级可用性。
Crypto x AI 的实际和现实用例
现在,让我们讨论提供 「真正收益」 的用例,也就是 Crypto x AI 可以显著增加价值的地方。
用例 #1:服务 Web2 客户
麦肯锡估计,生成式 AI 每年可以在他们分析的 63 个用例中增加相当于 2.6 万亿美元到 4.4 万亿美元的价值 —— 相比之下,2021 年英国的 GDP 总额为 3.1 万亿美元。这将使所有人工智能的影响增加 15% 到 40%。如果我们包括将生成式 AI 嵌入目前用于其他任务的软件的影响,这一估计将大致翻倍。
如果你计算上述估计,这意味着全球 AI 市场(不包括生成式 AI)可能价值数万亿美元。相比之下,所有加密货币的总价值,包括比特币和所有山寨币,目前仅约为 2.7 万亿美元。所以我们要现实一点:短期内需要 AI 的客户绝大多数是 Web2 客户,因为真正需要 AI 的 Web3 客户只占这 2.7 万亿的一小部分(考虑到 BTC 占了这个市场的一半,而 BTC 本身不需要 / 使用 AI)。
Web3 AI 的用例才刚刚起步,目前还不清楚这个市场的规模会有多大。但有一件事是直观确定的 —— 在可预见的未来,它将是 Web2 市场的一小部分。我们相信 Web3 AI 仍然有光明的未来,但这只是意味着,Web3 AI 目前最强大的应用是为 Web2 客户服务。
一些可能从 Web3 AI 中受益的 Web2 客户包括:
从一开始就以 AI 为中心构建的垂直领域软件公司(例如 Cedar.ai 或 Observe.ai)
为自身目的微调模型的大型企业(例如 Netflix)
快速增长的 AI 提供商(例如 Anthropic)
在现有产品中加入 AI 的软件公司(例如 Canva)
这是一个相对稳定的客户群体,因为这些客户通常规模大且价值高。他们不太可能很快倒闭,并且代表了 AI 服务的巨大潜在客户群。服务 Web2 客户的 Web3 AI 服务将受益于这个稳定的客户基础。
但为什么一个 Web2 客户会想要使用 Web3 技术栈呢?本文余下部分将阐述这个理由。
用例 #2:通过 GPU DePIN 降低 GPU 使用成本
GPU DePINs 聚合了未充分利用的 GPU 计算能力(其中最可靠的来自数据中心),并将其用于 AI 推理(例如 io.net)。一个简单的思路是将其视为 「GPU 的 Airbnb」(有效地是对未充分利用资产的协作消费)。
我们对 GPU DePINs 感到兴奋的原因如上所述,目前 NVIDIA 芯片短缺,且目前有浪费的 GPU 周期可用于 AI 推理。这些硬件所有者已经有了沉没成本,今天并没有充分利用他们的设备,因此可以以远低于现状的成本提供这些部分 GPU 周期,因为对硬件所有者来说这实际上是 「意外之财」。
例如:
AWS 机器:如果你今天从 AWS 租用 H100,你需要承诺租用一年,因为市场供给有限。这会产生浪费,因为你不太可能一年 365 天、每周 7 天都使用你的 GPU。
Filecoin 挖矿硬件:Filecoin 是一个具有大量补贴供应但没有显著实际需求的网络。不幸的是,Filecoin 从未找到真正的产品市场匹配,因此 Filecoin 矿工面临倒闭的风险。这些机器上有 GPU,可以重新用于低端 AI 推理任务。
ETH 挖矿硬件:当 ETH 从 PoW 过渡到 PoS 时,立即释放了大量硬件,这些硬件可以重新用于 AI 推理。
需要注意的是,并非所有 GPU 硬件都适合 AI 推理。一个显而易见的原因是,旧的 GPU 没有足够的 GPU 内存来处理 LLMs,尽管在这方面有一些有趣的创新。例如,Exabits 拥有一项技术,可以将活跃神经元加载到 GPU 内存中,而将不活跃神经元加载到 CPU 内存中。他们预测哪些神经元需要活跃 / 不活跃。这使得即使 GPU 内存有限的低端 GPU 也能处理 AI 工作负载,从而有效地使低端 GPU 在 AI 推理中更加有用。
还需注意的是,Web3 AI DePINs 需要随着时间的推移巩固其服务,并提供企业级服务,例如单点登录、SOC 2 合规性、服务级别协议(SLAs)等。这将类似于当前云服务中 Web2 客户享受的服务。
用例 #3:通过不受审查的模型避免 OpenAI 自我审查
关于 AI 审查的讨论很多。例如,土耳其曾暂时禁止 OpenAI(后来在 OpenAI 改善合规后取消了禁令)。我们认为这种审查本质上并不有益,因为各国都需要拥抱 AI 以保持竞争力。
更有趣的是 OpenAI 自我审查。例如,OpenAI 不会处理 NSFW 内容,也不会预测下一次总统选举。我们认为,有一个有趣且巨大的市场存在于那些因某些原因 OpenAI 不愿触碰的 AI 用例。
开源是一个很好的解决方案,因为 Github 仓库不受制于股东或董事会的约束。例如,Venice.ai 承诺保护你的隐私并且以不受审查的方式运行。关键当然是开源,这推动了这一点。Web3 AI 可以有效地将这些开源软件(OSS)模型提升到一个新的水平,即在低成本的 GPU 集群上运行这些推理。这就是我们认为 OSS+Web3 是开创不受审查 AI 的理想组合的原因。
用例 #4:避免将个人身份信息发送到 OpenAI
许多大型企业对其内部企业数据的隐私问题非常担忧。对于这些客户来说,要信任一个像 OpenAI 这样的中心化第三方处理他们的数据非常困难。
对于 Web3,表面上看起来可能更让这些企业担忧,因为他们的内部数据突然出现在一个去中心化的网络上。然而,AI 隐私增强技术领域有一些创新:
可信执行环境(TEE),例如 Super 协议
全同态加密(FHE),例如 Fhenix.io 或 Inco Network,以及 Bagel 的 PPML
这些技术仍在发展中,并且性能正在通过即将到来的零知识(ZK)和 FHE ASICs 不断提高。但长期目标是在微调模型时保护企业数据。随着这些协议的出现,Web3 可能成为一个更有吸引力的隐私保护 AI 计算平台。
用例 #5:利用开源模型的最新创新
OSS(开源软件)在过去几十年中一直在侵蚀专有软件的市场份额。我们将 LLM 视为一种复杂的专有软件形式,正是时候由 OSS 来颠覆。一些值得注意的挑战者包括 Llama、RWKV 和 Mistral.ai。随着时间的推移,这个列表无疑会增长(更多的综合列表可以在 Openrouter.ai 上找到)。通过利用 Web3 AI(由 OSS 模型驱动),可以利用这些新的创新。
我们相信,随着时间的推移,一个结合了加密激励的全球开源开发工作队可以推动开源模型以及在其基础上构建的代理和框架的快速创新。一个例子是 AI 代理协议 Theoriq。Theoriq 利用 OSS 模型创建一个可组合的互联 AI 代理网络,可以组装成更高级的 AI 解决方案。
我们有信心是因为过去的经验:大多数 「开发者软件」 随着时间的推移慢慢被 OSS 超越。微软曾经是一家专有软件公司,现在他们是 Github 上贡献最多的公司,这是有原因的。如果你看看 Databricks、PostGresSQL、MongoDB 等如何颠覆专有数据库,这是一个整个行业被 OSS 颠覆的例子,所以这里的先例相当多。
然而,这确实有一个问题。OSS LLMs 的一个棘手之处在于 OpenAI 已经开始与组织(如 Reddit 和纽约时报)签订付费数据许可协议。如果这一趋势继续下去,由于获取数据的财务障碍,OSS LLMs 可能难以竞争。Nvidia 可能会加倍投资于保密计算,作为安全数据共享的推动者。时间将告诉我们这一趋势如何发展。
用例 #6:通过高惩罚成本的随机抽样或 ZK 证明实现共识
Web3 AI 推理的一个挑战是验证。验证者有机会通过欺骗结果来赚取费用,因此验证推理是一个重要措施。需要注意的是,这种欺骗实际上还没有发生,因为 AI 推理还处于起步阶段,但这是不可避免的,除非采取措施来防止这种行为。
标准的 Web3 方法是让多个验证者重复相同的操作并比较结果。显而易见的挑战是,如上所述,由于当前高端 Nvidia 芯片的短缺,AI 推理成本昂贵。考虑到 Web3 可以通过未充分利用的 GPU DePINs 提供更低成本的推理,重复计算将严重削弱 Web3 的价值主张。
一个更有潜力的解决方案是为链下 AI 推理计算执行 ZK 证明。在这种情况下,可以通过验证简洁的 ZK 证明来确定模型是否训练正确,或者推理是否正确运行(称为 zkML)。例如 Modulus Labs 和 ZKonduit。这些解决方案的性能还处于初级阶段,因为 ZK 操作非常计算密集。然而,我们预计随着 ZK 硬件 ASIC 的发布,这种情况会有所改善。
更有潜力的是一种 「optimistic」 的基于抽样的 AI 推理方法。在这种模型中,你只验证由验证者生成的结果的一小部分,但将惩罚经济成本设定得足够高,这样如果被抓住,将对验证者产生强烈的经济制约,从而防止他们作弊。通过这种方式,可以节省冗余计算(例如参见 Hyperbolic 的抽样证明论文)。
另一个有潜力的想法是水印和指纹解决方案,例如 Bagel Network 提出的方案。这类似于 Amazon Alexa 用于其数百万设备的设备内 AI 模型质量保证机制。
用例 #7:通过 OSS 节省费用(OpenAI 的利润率)
Web3 为 AI 带来的下一个机会是成本平民化。到目前为止,我们已经讨论了通过 DePINs 节省 GPU 成本。但 Web3 还提供了机会来节省中心化 Web2 AI 服务(例如 OpenAI,目前每年收入超过 10 亿美元)的利润率。这些成本节省来自于使用开源模型而非专有模型,因为模型创建者不试图从中获利。
许多 OSS 模型将保持完全免费,这为客户提供了最好的经济效益。但是,某些 OSS 模型也可能尝试这些货币化方法。考虑到在 Hugging Face 上的所有模型中,只有 4% 是由有预算的公司训练的,以帮助补贴这些模型(见此处)。剩下的 96% 的模型是由社区训练的。这些模型 ——Hugging Face 的 96%—— 有基本的实际成本(包括计算成本和数据成本)。所以这些模型需要某种方式来货币化。
有许多提议来实现这些 OSS 模型的货币化。其中一个最有趣的是 「初始模型发行」(IMO)的概念,即将模型本身代币化,保留一部分代币给团队,并将未来从该模型中获得的一部分收入分配给代币持有者,尽管这里显然存在一些法律和监管障碍。
其他 OSS 模型将尝试基于使用情况进行货币化。请注意,如果这实现了,OSS 模型可能会越来越像它们的 Web2 盈利对手。但实际上,市场将分化,一些模型将保持完全免费。
用例 #8:去中心化的数据来源
AI 面临的最大挑战之一是获取正确的数据来训练模型。我们前面提到去中心化 AI 训练存在挑战。那么使用去中心化网络来获取数据(然后在其他地方训练,即使是传统的 Web2 平台)又如何呢?
这正是像 Grass 这样的初创公司正在做的事情。Grass 是一个去中心化的 「数据抓取」 网络,个人贡献他们的机器闲置处理能力来获取数据,以便为 AI 模型的训练提供信息。假设在大规模情况下,这种数据来源可以优于任何一家公司内部获取数据的努力,因为有一个庞大的激励节点网络的强大力量。这不仅包括获取更多数据,还包括更频繁地获取数据,使数据更加相关和最新。由于数据抓取者分散且不驻留在单个 IP 地址上,几乎不可能阻止这种去中心化的抓取大军。他们还有一个人类网络,可以清理和规范数据,使其在被抓取后有用。
一旦你有了数据,你还需要一个地方在链上存储它,以及用这些数据生成的 LLMs。0g.AI 是该类别中的早期领导者。它是一个 AI 优化的高性能 Web3 存储解决方案,比 AWS 便宜得多(另一个 Web3 AI 的经济优势),同时也为 Layer 2s、AI 等提供数据可用性基础设施。
需要注意的是,数据在 Web3 AI 中的角色可能会在未来发生变化。今天,LLMs 的现状是用数据预训练模型,并随着时间的推移用更多数据进行细化。然而,这些模型总是略微过时,因为互联网上的数据是实时变化的。因此,LLM 推理的响应略有不准确。
未来的方向可能是一个新的范式 ——「实时」 数据。这个概念是,当 LLM 被问到推理问题时,该 LLM 可以使用从互联网实时收集的数据进行提示注入。这样,LLM 可以使用最最新的数据,这也是 Grass 正在研究的方向。
结论
总之,虽然 Web3 AI 的潜力巨大,但当前的挑战和市场需求表明,最实际和现实的应用是为 Web2 客户提供服务。Web3 AI 的未来光明,但它的全面应用和市场扩展仍需时间。通过识别和解决这些挑战,我们可以更好地为 Web3 AI 的发展和成功奠定基础。