近几年,随着GPT系列产品的陆续发布,人工智能正在改变各行各业,我们亲眼目睹了各种人工智能应用进入到我们的日常工作生活中,它提升了人们的工作效率,改变了生活习惯,降低了企业的运行成本,我们不得不承认AI正在成为下一次技术革命的起点。

AI技术革命的核心在于充足的算力储备、算法模型以及大量的训练数据,目前高性能的GPU算力十分短缺并且价格昂贵,算法趋于同质化,对于模型训练数据还存在数据合规和隐私保护问题。区块链技术具有去中心化、分布式存储等特点,这些特点都可以让区块链技术很好的应用在AI模型的开发、部署、运行。

一、利用区块链特点解决AI算力问题


对于AI开发过程中GPU算力短缺,使用成本高的问题,一些区块链项目正在尝试通过区块链的模式去解决。

Render Network是一个高性能分布式渲染平台,它利用行业领先的otoy软件为GPU算力的需求方与拥有闲置GPU资源提供方搭建了一个桥梁,使得闲置的GPU算力资源以较低的成本供应给人工智能、虚拟现实等高需求计算领域。

在整个生态运行中,闲置GPU的提供方将自己的设备接入Render Network去完成各种渲染任务,需求方则通过支付代币奖励GPU的提供方,这种去中心化的方式最大程度地提升资源利用效率,为参与方创造了价值,降低了人工智能的开发运行成本。去年12月,Render 实现了重大的技术跨越,将其基础架构从以太坊链迁移至高TPS的Solana,借助Solana高性能以及更高的可拓展性的特点为Render带来了包括实时流媒体、状态压缩等处理能力。

Render Network上的渲染图

Akash 是一个去中心化计算平台,该平台将全世界闲置的CPU、GPU、存储、带宽、专用 IP 地址等网络资源通过平台进行聚合后出租给投身人工智能或其他对于计算能力要求较高的企业和个人,使其充分发挥价值,提供GPU出租资源的用户可以获得AKT代币,需求方通过低成本获得计算能力。平台代币AKT除了用于支付结算租用的网络资源,还作为激励去鼓励验证者参与到生态治理和网络安全维护中,平台在网络资源的支付结算中将收取一定的交易手续费,通过这种模式就可以让整个平台生态的参与者都获得收益,推动平台的商业模式长期存续以及持续增长。

Akash Network的网络资源实时统计图

Livepeer 是一个用于直播和点播流媒体的视频基础设施网络平台,用户可以通过运行平台软件加入网络,使用自己的计算机GPU、带宽等资源对视频进行转码和分发。通过这种模式可以提高视频流的可靠性,同时将视频转码和分发等相关成本降低多达50倍。在此基础上,Livepeer项目方正在将 AI 视频计算任务引入 Livepeer 网络,使用其编排器运行的 GPU 网络来生成高质量的 AI 视频,从而降低视频内容的创作成本。

从上述介绍的区块链项目来看,区块链可以利用其去中心化、分布式的特点,充分利用闲置的网络资源去解决目前AI算力不足,成本高的问题,一旦这种模式在未来更多现实场景以及AI初创企业中得到验证和认可,将会大大缓解算力问题。

二、AI与区块链数据的结合

数据是AI模型的基础,训练模型使用的数据决定了各种AI模型的差异。区块链数据相对于其他数据源质量较高,并且链上数据公开,将AI与区块链数据结合可以对用户进行链上识别。

Arkham是一个利用AI技术提供链上数据和情报分析而获得奖励的平台,其专有的人工智能引擎ULTRA可将链上地址与现实世界的用户进行标签化,去中心化的链上匿名地址就会被识别出现实中的实际控制人。通过AI模型获取大量的链上匿名地址的标签数据后,用户就可以通过Arkham挖掘实体的链上交易信息。众所周知,调查虚拟货币犯罪最大的痛点就是识别资金转移匿名地址,监管部门可以通过Arkham提供的标签数据,去溯源调查通过虚拟货币洗钱、诈骗等犯罪活动。

Arkham平台的链上数据可视化图谱

除此之外,Arkham还拥有链上情报信息交易功能,Arkham的inter exchange功能让链上地址与链下的真实信息具有可交换性,用户可在平台通过赏金奖励征集链上信息情报,一些有价值的链上信息也可在平台中拍卖(具体产品解析可点击之前写的文章Arkham能否成为链上监管利器?)。Arkham的人工智能引擎ULTRA在开发时得到了给美国政府提供人工智能服务的大数据分析和情报服务公司Palantir以及OpenAI创始人的支持,正因为有如此强大的AI模型训练数据源和技术支持,使得Arkham拥有业内最强大链上数据标签库。

对于AI模型训练的大量数据存储成本较高问题,Arweave 、Filecoin、Storj等区块链存储项目也给出了解决方案。不管是Arweave的一次付费后永久存储还是Filecoin高效的即付即用,都大大降低了数据存储成本,并且对于一些传统数据存储方式,去中心化存储还能解决自然灾害导致的单点存储数据损坏丢失问题。

使用ChatGPT虽然可以提升工作效率,但为了优化模型提高AI对话的准确性,需要大量的用户使用数据去训练调优,所以会存在敏感数据以及个人隐私数据泄露的风险。Zama 是一家开源密码学公司,为区块链和人工智能构建最先进的全同态加密 (FHE) 解决方案。Zama Concrete ML 能够以安全的方式处理敏感数据,实现不同机构之间的数据协作,同时相互保密,提高效率和数据安全性,对于个人就医记录等隐私数据训练时进行加密处理,确保每个使用者只能看到最终结果,而不是其他人的敏感数据。

三、AI Agent与区块链项目的结合

OpenAI对于AI Agent的定义是以大语言模型(LLM)为大脑驱动具有自主理解、感知、规划、记忆和使用工具的能力能自动化执行复杂任务的系统。随着OpenAI的GPTS陆续发布,目前有越来越多的AI Agent应用落地。

Fetch.ai是一个自主学习的区块链网络,该平台主要促进离线AI代理商之间的经济活动。Fetch.ai 由AI Agents、Agentverse、AI Engine和Fetch network四部分组成。用户可以在Agentverse上利用平台提供的AI代理用例创建、开发、部署自己的 AI 代理,还可将自己的AI代理发布在平台中推广给其他的用户。DeltaV 是Fetch.ai中基于人工智能的聊天界面,用户通过该聊天界面输入请求,AI Engine则读取用户输入,将其转换为可操作的任务,并在Agentverse中选择最合适的AI Agent来执行任务。目前德国博世公司与Fetch.ai也在合作研究将AI Agent技术与移动出行、智能家居相结合,共同打开 Web3 时代物联网经济的大门。

Fetch.ai生态系统的组成

除此之外,AI Agent应用QnA3.AI将加密行业AI问答机器人、技术分析机器人以及资产交易能力引入了Web3世界,通过QnA3 Bot将用户在交易加密资产时的信息收集、信息分析以及执行实际交易行为通过“问答”、“技术分析”和“实时交易”的产品功能实现,最大程度地避免用户在交易决策时受到主观情绪的干扰。

四、可能存在的法律风险

1、数据出境风险

在上述介绍中提到一些去中心化存储项目在以更加低廉的成本去解决AI模型训练的数据存储问题,这样对于一些致力于AI创业的个人以及初创企业可降低其门槛,但这种去中心化的存储方式可能会存在数据出境的风险。

国家互联网信息办公室发布《数据出境安全评估申报指南(第一版)》中明确规定数据出境行为包括:

(一)数据处理者将在境内运营中收集和产生的数据传输、存储至境外;

(二)数据处理者收集和产生的数据存储在境内,境外的机构、组织或者个人可以查询、调取、下载、导出;

(三)国家网信办规定的其他数据出境行为。

那么出境的定义是什么呢?《中华人民共和国出境入境管理法》第八十九条明确规定,出境是指由中国内地前往其他国家或者地区,由中国内地前往香港特别行政区、澳门特别行政区,由中国大陆前往台湾地区。由此可以看出判断是否出境是以司法辖区为依据。

对于去中心化的存储项目,用户将数据存储在例如IPFS的去中心化分布式网络中,存储在网络中的文件被切分成若干份小块数据,并加密分散存储在各个节点中,而存储的节点遍布全世界。试想如果国内的AI初创企业将AI模型训练的数据存储在这种去中心化项目节点中,就会存在数据出境的风险。

2、敏感隐私数据泄露风险

在QnA3.AI这种AI Agnet应用中,用户通过与AI对话得到加密资产的交易信息从而执行交易,这种个人的问答对话产生的私密数据如果被项目方用于模型训练调优,就会有隐私数据泄露的风险。这种交易数据的泄露被有心人利用后,可能会导致投资失败产生更大的损失。

原文可搜索微信公众号:初焱