Binance Square
LIVE
链上观CryptoInsight
@haotian
Haotian | Researcher | Crypto-savvy | 以科技和商业视角解读区块链前沿科技| Security、DaTa、Zero-Knowledge,etc| 硬核科普 | Previously:@peckshield | DMs for Collab.
关注
粉丝
点赞
分享
全部内容
LIVE
--
剥离layer2消极影响:如何Make Ethereum Great Again?就在我思考接下来以太坊layer2何去何从的时候,不少海外社区已经发出了“Make Ethereum L1 Great Again”的声音。确实,过去Rollup-Centric为重心的发展策略,市场把以太坊命脉过多寄托在layer2上了。倘若剥离开L1和L2,从以太坊自身性能优化视角来看又如何? 1)@VitalikButerin 之前称以太坊是Rollup-Centric的整体Roadmap路线图,先用坎昆升级EIP-4844来降低费率来激励layer2,又提出增加layer2之间的可交互操作能力,甚至都削弱甚至改变了原有的Sharding分片策略来支持layer2。 以Rollup layer2为战略重心可以承载更高的TPS,让更多高频交易应用场景比如:游戏等能够在以太坊大生态内落地。这个发展策略其实是让出了以太坊Execution执行层角色,只提供安全、共识、结算等重要功能。毕竟,碍于EVM的数据存储结构、节点客户端硬件性能、区块大小出快速率等种种局限性,发展layer2为执行层重心肯定要优于以太坊L1自身。 但当L1的gas费降到1Gwei下,L2发展暂时又不及预期的时候,就会有人思考,重新把以太坊主网作为执行层重心,仅让layer2提供锦上添花的价值如何?(潜台词:layer2自身的币价不行但不能连累到以太坊本尊。) 2)不无道理,事实上除了坎昆升级直接利好layer2之外,以太坊接下来包括Verge和Purge等在内的路线图发力重心都是以太坊本身。 比如:Verge升级中集成Verkle树采用“无状态客户端”来优化节点存储成本,而Fully SNARKed以太坊和ASIC硬件加速计划的引入都是为了优化存储成本,提升执行性能,进而增加以太坊L1的扩展能力。 SNARKs可以大幅减少存储和传输的数据量提升验证和复杂计算的执行效率,ASIC则通过硬件性能提升来降低SNARK执行的损耗并提升执行效率。应该讲,在给layer2提供一系列的基础设施保障后,以太坊接下来的升级更多都是围绕自身链的组件性能在优化。 3)然而,以太坊L1 Execution执行层能承载更多的交易和大举发展Layer2战略并不冲突。准确来说,layer2和layer1是在并行赛跑。l Layer2方面, @arbitrum 、@Starknet  、@MetisL2 、 @megaeth_labs 等都基于各自领先优势和发展侧重点在持续耕耘生态,在此不多赘述了,不过还远不到唱衰的地步,请大家多给一点耐心; layer1方面,除了以太坊接下来的几次重大围绕自身性能的升级,ZK底层框架协议和ZK硬件加速两个关键领域的技术突破也会直接助力Make L1 Great Again: 比如: @ProjectZKM 基于zkMIPs微处理器指令架构做ZK通用协议,除了之前所说给比特币生态带来Bridgeless的Native资产跨链方案之外,ZK通用协议可以让以太坊作为“结算层”来接入更多同构或异构链的liquidity。这意味着,其他链都可以通过ZK协议来和以太坊链进行交互,继而给以太坊主网输入更多的关键结算交易和流动性,这自然也是强化以太坊做“Execution”的表现; 又比如: @cysic_xyz 通过FPGA、GPU及ASIC等芯片级的硬件加速方案来致力ZK技术的大规模采用。作为ZK新锐和硬件加速赛道的标杆项目,Cysic目标所指正是未来以太坊的全面ZK底层化。当以太坊Fully SNARKed之后,以太坊相应节点也会强化硬件性能,硬件加速则是逃不开的选择。 以上。 总而言之,无论是侧重发力推进L2中心策略还是进一步优化L1性能,都不是此消彼长的对立关系,更是一种长期并存的竞合关系。 短期看,layer2依然是以太坊扩展的主旋律,而长期视角看,以太坊基于ZK底层和硬件加速,作为安全共识结算层,能承载和实现的扩展能力也同样充满想象空间。以太坊不需要Great Again,以太坊一直保持Great。

剥离layer2消极影响:如何Make Ethereum Great Again?

就在我思考接下来以太坊layer2何去何从的时候,不少海外社区已经发出了“Make Ethereum L1 Great Again”的声音。确实,过去Rollup-Centric为重心的发展策略,市场把以太坊命脉过多寄托在layer2上了。倘若剥离开L1和L2,从以太坊自身性能优化视角来看又如何?
1)@VitalikButerin 之前称以太坊是Rollup-Centric的整体Roadmap路线图,先用坎昆升级EIP-4844来降低费率来激励layer2,又提出增加layer2之间的可交互操作能力,甚至都削弱甚至改变了原有的Sharding分片策略来支持layer2。
以Rollup layer2为战略重心可以承载更高的TPS,让更多高频交易应用场景比如:游戏等能够在以太坊大生态内落地。这个发展策略其实是让出了以太坊Execution执行层角色,只提供安全、共识、结算等重要功能。毕竟,碍于EVM的数据存储结构、节点客户端硬件性能、区块大小出快速率等种种局限性,发展layer2为执行层重心肯定要优于以太坊L1自身。
但当L1的gas费降到1Gwei下,L2发展暂时又不及预期的时候,就会有人思考,重新把以太坊主网作为执行层重心,仅让layer2提供锦上添花的价值如何?(潜台词:layer2自身的币价不行但不能连累到以太坊本尊。)
2)不无道理,事实上除了坎昆升级直接利好layer2之外,以太坊接下来包括Verge和Purge等在内的路线图发力重心都是以太坊本身。
比如:Verge升级中集成Verkle树采用“无状态客户端”来优化节点存储成本,而Fully SNARKed以太坊和ASIC硬件加速计划的引入都是为了优化存储成本,提升执行性能,进而增加以太坊L1的扩展能力。
SNARKs可以大幅减少存储和传输的数据量提升验证和复杂计算的执行效率,ASIC则通过硬件性能提升来降低SNARK执行的损耗并提升执行效率。应该讲,在给layer2提供一系列的基础设施保障后,以太坊接下来的升级更多都是围绕自身链的组件性能在优化。
3)然而,以太坊L1 Execution执行层能承载更多的交易和大举发展Layer2战略并不冲突。准确来说,layer2和layer1是在并行赛跑。l
Layer2方面, @arbitrum 、@Starknet  、@MetisL2 、 @megaeth_labs 等都基于各自领先优势和发展侧重点在持续耕耘生态,在此不多赘述了,不过还远不到唱衰的地步,请大家多给一点耐心;
layer1方面,除了以太坊接下来的几次重大围绕自身性能的升级,ZK底层框架协议和ZK硬件加速两个关键领域的技术突破也会直接助力Make L1 Great Again:
比如: @ProjectZKM 基于zkMIPs微处理器指令架构做ZK通用协议,除了之前所说给比特币生态带来Bridgeless的Native资产跨链方案之外,ZK通用协议可以让以太坊作为“结算层”来接入更多同构或异构链的liquidity。这意味着,其他链都可以通过ZK协议来和以太坊链进行交互,继而给以太坊主网输入更多的关键结算交易和流动性,这自然也是强化以太坊做“Execution”的表现;
又比如: @cysic_xyz 通过FPGA、GPU及ASIC等芯片级的硬件加速方案来致力ZK技术的大规模采用。作为ZK新锐和硬件加速赛道的标杆项目,Cysic目标所指正是未来以太坊的全面ZK底层化。当以太坊Fully SNARKed之后,以太坊相应节点也会强化硬件性能,硬件加速则是逃不开的选择。
以上。
总而言之,无论是侧重发力推进L2中心策略还是进一步优化L1性能,都不是此消彼长的对立关系,更是一种长期并存的竞合关系。
短期看,layer2依然是以太坊扩展的主旋律,而长期视角看,以太坊基于ZK底层和硬件加速,作为安全共识结算层,能承载和实现的扩展能力也同样充满想象空间。以太坊不需要Great Again,以太坊一直保持Great。
如何看待Optimism欺诈证明因安全问题被调整为受许可?最近,@Optimism 由于Fault Proof System出现安全审计问题遭到了海外社区的质疑。原本无许可的欺诈证明的机制,在被发现重大安全问题后,OP Foundation竟然提出要硬分叉修复问题,并将其转为受许可证明?具体怎么回事呢? 1)简单而言:Fault Proof System是一种用于验证Layer2网络状态正确性的机制,任何人可以无许可向L1上的纠纷虚拟机提交L2状态,并接受他人的挑战,如果挑战成功则会触发奖惩机制。 这就是OP-Rollup机制确保安全性而必须存在的欺诈证明机制。6月份Fault Proof System的上线算是弥补了一直以来市场对OP Stack缺乏有效挑战机制的诟病问题。 2)不过,最近一次社区驱动的审计发现了该欺诈证明系统的多个漏洞,Optimism基金会的反应却让人大跌眼镜: 1、将欺诈证明VM opcode级别的漏洞视为小安全漏洞; 2、把欺诈证明系统排除在了外部审计范围之内; 3、暂时将欺诈证明的无许可调整为许可机制,并提出一项名为Granite的硬分叉计划来解决安全问题; 如此这般,让人不得不怀疑所谓Fault Proof System存在意义和有效性, 3)如何看待这件事呢?在我看来: 1、Optimism推出Fault Proof System完全是为了进一步扩大OP Stack阵营所进行的必要的安全挑战机制,市场对Optimism本身是否存在这样的挑战机制已经“乐观化”了; 2、Fault Proof System确实构造精密复杂,大部分状态可在L2本地进行校验,只把一些关键部分推送给L1的故障虚拟机来裁夺,没错是开发了特定op code的虚拟机,这样做既可以确保L1验证的低成本同时又能确保安全性; 3、Fault Proof System从无许可调成许可,并被紧急禁用也暴露了OP基金会和多签安全委员会的过多权利,欺诈证明即使无许可也在安全委员会的控制之下; 4、Optimism实现Stage1的安全和去中心化目标至少相比同阵营的Arbitrum掉队了,ZK-Rollup在技术上的领先优势会进一步得到重视。

如何看待Optimism欺诈证明因安全问题被调整为受许可?

最近,@Optimism 由于Fault Proof System出现安全审计问题遭到了海外社区的质疑。原本无许可的欺诈证明的机制,在被发现重大安全问题后,OP Foundation竟然提出要硬分叉修复问题,并将其转为受许可证明?具体怎么回事呢?

1)简单而言:Fault Proof System是一种用于验证Layer2网络状态正确性的机制,任何人可以无许可向L1上的纠纷虚拟机提交L2状态,并接受他人的挑战,如果挑战成功则会触发奖惩机制。

这就是OP-Rollup机制确保安全性而必须存在的欺诈证明机制。6月份Fault Proof System的上线算是弥补了一直以来市场对OP Stack缺乏有效挑战机制的诟病问题。

2)不过,最近一次社区驱动的审计发现了该欺诈证明系统的多个漏洞,Optimism基金会的反应却让人大跌眼镜:

1、将欺诈证明VM opcode级别的漏洞视为小安全漏洞;

2、把欺诈证明系统排除在了外部审计范围之内;

3、暂时将欺诈证明的无许可调整为许可机制,并提出一项名为Granite的硬分叉计划来解决安全问题;

如此这般,让人不得不怀疑所谓Fault Proof System存在意义和有效性,

3)如何看待这件事呢?在我看来:

1、Optimism推出Fault Proof System完全是为了进一步扩大OP Stack阵营所进行的必要的安全挑战机制,市场对Optimism本身是否存在这样的挑战机制已经“乐观化”了;

2、Fault Proof System确实构造精密复杂,大部分状态可在L2本地进行校验,只把一些关键部分推送给L1的故障虚拟机来裁夺,没错是开发了特定op code的虚拟机,这样做既可以确保L1验证的低成本同时又能确保安全性;

3、Fault Proof System从无许可调成许可,并被紧急禁用也暴露了OP基金会和多签安全委员会的过多权利,欺诈证明即使无许可也在安全委员会的控制之下;

4、Optimism实现Stage1的安全和去中心化目标至少相比同阵营的Arbitrum掉队了,ZK-Rollup在技术上的领先优势会进一步得到重视。
如何看待新晋融资43M的Sahara AI?AI+Crypto领域 @SaharaLabsAI 获得巨额4,300万美元融资的消息刷屏了。确实,Binance labs + Polychain+ Pantera三大机构Buff足以让大家对AI叙事的想象空间再次爆棚。该如何看待呢?接下来,我简单分享下看法: 1) 巨额融资在AI+Crypto叙事方向会常态化,因为AI并非纯叙事更是这类公司的内核基业,一家有AI基因的公司基于Crypto框架做平台才足够Make Sense,而并非随便找一个AI方向往上套Crypto的模式。 Sahara称其已经有超过35家包括Microsoft、Amazon、MIT等在内的主要企业客户。创始人Sean Ren为南加州大学AI教授,担任多家AI平台顾问并参与早期投资,纯AI背景出身。此外团队还包含斯坦福大学、微软、谷歌、币安等背景的团队也都精英范十足。这些都无非传递一个信号:Sahara AI是一家立足web2互联网经验的AI公司,Crypto平台框架只是其中的产品组成部分。 2)互联网寡头垄断框架下会扼杀中小AI企业创新力。最近,听一群互联网老OG播客中吐槽现在的AI创业远没有当初移动互联网的大环境,其症结点在于:AI业界缺乏真正的产业交流和合作,大企业垄断大模型,小企业的微创新大企业直接自己做了,大多数小微创新都缺乏生存土壤。 听闻一些互联网大模型动辄上亿美元的融资大多都来自科技巨头的GPU算力额度而并非现金,大厂用GPU算力换来股权,然后在用大模型渗透已有产品线和用户数据,来提高多模态性能及收入,整个过程中小企业很难找到立足点。 我不清楚这是否为Sahara这群web2背景的精英立足区块链做AI的原因,不过,区块链云算力服务平台,区块链分布式推理平台,区块链AI协处理平台,区块链AI Agent服务平台等等,AI+Crypto组合拳的创业施展空间比想象中要大很多。 虽然不乏浑水摸鱼的项目,Crypto对AI产业的价值并不会因为一些行业乱序而停止进步。Crypto需要AI大叙事,AI则需要Crypto注入发展动能,依托AI+Crypto,把传统行业大规模AI开发者和用户等增量用户Drive进区块链行业的可能性一直在。 试想若区块链能溯源AI参与者(数据、算力、模型)等全过程的资源,创业者可用股权众筹或置换资源,这样的互惠协助平台会对创业者产生价值可想而知。Sahara做AI区块链协作平台,聚拢AI资源来助力AI创新的意义或许正在于此。 3)初步翻阅了Sahara AI要构建的AI区块链协作平台文档,有不少关键问题点: 比如,用Sahara ID和Decentralized storage提供基础的数据记录溯源和权限管理,这是Crypto解决AI用户隐私性和资源协调问题的基础; 又比如,用Proof of stake以及Data layer来给链上和链下数据用加密技术构建一个可验证计算网络,也这是Crypto能改善AI模型协作动用奖惩机制的根本; 另外执行层对AI性能进行了大幅度优化,其中包括一些对AI 多模态和AI 代理的协议运行协议等等也都有所涉及。 看得出来AI+Crypto的挑战性非常艰巨,现在一些云算力、底层协处理等平台都还在筑底阶段,也不能操之过急。(详细技术分析文等Sahara进一步的技术文档披露) 虽然,传统互联网方向AI目前还没能复刻移动互联网的创业浪潮,也许有大经济环境差,寡头垄断、创新乏力、落地场景不成熟等种种原因,但真切希望Crypto框架和行业Builder们提供的解决方案能成为其中一个破局的变量。

如何看待新晋融资43M的Sahara AI?

AI+Crypto领域 @SaharaLabsAI 获得巨额4,300万美元融资的消息刷屏了。确实,Binance labs + Polychain+ Pantera三大机构Buff足以让大家对AI叙事的想象空间再次爆棚。该如何看待呢?接下来,我简单分享下看法:

1) 巨额融资在AI+Crypto叙事方向会常态化,因为AI并非纯叙事更是这类公司的内核基业,一家有AI基因的公司基于Crypto框架做平台才足够Make Sense,而并非随便找一个AI方向往上套Crypto的模式。

Sahara称其已经有超过35家包括Microsoft、Amazon、MIT等在内的主要企业客户。创始人Sean Ren为南加州大学AI教授,担任多家AI平台顾问并参与早期投资,纯AI背景出身。此外团队还包含斯坦福大学、微软、谷歌、币安等背景的团队也都精英范十足。这些都无非传递一个信号:Sahara AI是一家立足web2互联网经验的AI公司,Crypto平台框架只是其中的产品组成部分。

2)互联网寡头垄断框架下会扼杀中小AI企业创新力。最近,听一群互联网老OG播客中吐槽现在的AI创业远没有当初移动互联网的大环境,其症结点在于:AI业界缺乏真正的产业交流和合作,大企业垄断大模型,小企业的微创新大企业直接自己做了,大多数小微创新都缺乏生存土壤。

听闻一些互联网大模型动辄上亿美元的融资大多都来自科技巨头的GPU算力额度而并非现金,大厂用GPU算力换来股权,然后在用大模型渗透已有产品线和用户数据,来提高多模态性能及收入,整个过程中小企业很难找到立足点。

我不清楚这是否为Sahara这群web2背景的精英立足区块链做AI的原因,不过,区块链云算力服务平台,区块链分布式推理平台,区块链AI协处理平台,区块链AI Agent服务平台等等,AI+Crypto组合拳的创业施展空间比想象中要大很多。

虽然不乏浑水摸鱼的项目,Crypto对AI产业的价值并不会因为一些行业乱序而停止进步。Crypto需要AI大叙事,AI则需要Crypto注入发展动能,依托AI+Crypto,把传统行业大规模AI开发者和用户等增量用户Drive进区块链行业的可能性一直在。

试想若区块链能溯源AI参与者(数据、算力、模型)等全过程的资源,创业者可用股权众筹或置换资源,这样的互惠协助平台会对创业者产生价值可想而知。Sahara做AI区块链协作平台,聚拢AI资源来助力AI创新的意义或许正在于此。

3)初步翻阅了Sahara AI要构建的AI区块链协作平台文档,有不少关键问题点:

比如,用Sahara ID和Decentralized storage提供基础的数据记录溯源和权限管理,这是Crypto解决AI用户隐私性和资源协调问题的基础;

又比如,用Proof of stake以及Data layer来给链上和链下数据用加密技术构建一个可验证计算网络,也这是Crypto能改善AI模型协作动用奖惩机制的根本;

另外执行层对AI性能进行了大幅度优化,其中包括一些对AI 多模态和AI 代理的协议运行协议等等也都有所涉及。

看得出来AI+Crypto的挑战性非常艰巨,现在一些云算力、底层协处理等平台都还在筑底阶段,也不能操之过急。(详细技术分析文等Sahara进一步的技术文档披露)

虽然,传统互联网方向AI目前还没能复刻移动互联网的创业浪潮,也许有大经济环境差,寡头垄断、创新乏力、落地场景不成熟等种种原因,但真切希望Crypto框架和行业Builder们提供的解决方案能成为其中一个破局的变量。
如何看待耶鲁大学新论文提出的ServerFi?如何看待耶鲁大学新论文提出的ServerFi概念?它会成为web3创新匮乏下的新转机赛道吗?在系统翻阅了这篇论文后,我提炼了一些关键点,并附加若干思考和大家讨论下: 1)传统GameFi都打着Play to Earn的玩赚旗号,通常还会采用内外两个经济体来维系平衡(双币模型):内部币构建消耗并制造稀缺性系统,通过增值权益带动存量用户消耗手中权益代币,并降低潜在对外抛压;外部币则通过持续引入外部用户、资金等带动币种的价格增长,进而促成外部代币增长带动内部游戏活跃度提升,最终吸引更多外部用户参与的增长正螺旋。 但双币模型本质上是一种短期内靠外部新用户来供养早期玩家获利的Ponzi结构,其代币经济模型会吸引大量Speculators进入,而真正的游戏爱好者可能会碍于高门槛儿被排挤在外。一旦场内玩家某一天发现消耗投入不再有更高收益预期的时候,游戏的衰退熵就会形成,大量老玩家急速流动性退出,新玩家也没有信心继续进入,从而形成“死亡螺旋”。Axie infinity、Stepn、甚至CryptoKitties等都逃不开这类运行框架和结局。 2)这篇新论文中提出了SeverFi的概念,简单而言:允许玩家将游戏内资产进行组合最终获得未来服务器主权。这种新运行框架有三个特性: 1、侧重长期参与和价值创造,玩家所获得的服务器所有权是一种依赖长期游戏产生实际性收益之后才能兑现的权限,吸引到的会是一批注重长期收益大于短期收益的玩家。因此更多高留存、高忠诚度的玩家的产生会是游戏增长的根本; 2、降低Ponzi结构性风险并减少投机行为,ServerFi框架下,引导玩家更看重服务器长期的实际价值和运营收益,减少了对新玩家资金投入的依赖。因此可以降低新用户参与的门槛,继而从大量新用户中转化出真正对游戏长期增长有贡献的服务器“股东”用户,这种模式天然会做大游戏池子,同时也会产生用户分层,投机用户会逐步被边缘化,而长期忠诚玩家会成为主流,这和传统游戏模式靠忠实氪金玩家经营的理念趋于一致; 3、由web3的去中心化社区精神驱动,不难理解,既然服务器所有权被分割,那游戏的所有权会从平台开发者转嫁到玩家和社区身上,因此这类游戏需要保持足够的透明度,避免开发者跳过用户对游戏进行恶意操纵,同时这类游戏注定短期不会有Ponzi一样的增长爆发力,但长时间的陪伴成长和持续运营会让忠实玩家有意想不到的收获。 总的来说,#ServerFi 论文从理念上探索了一种把GameFi带出Ponzi泥潭的可能性,算是一种有益的探索和进步,期待后续能有相应的现象级游戏能跑出来。

如何看待耶鲁大学新论文提出的ServerFi?

如何看待耶鲁大学新论文提出的ServerFi概念?它会成为web3创新匮乏下的新转机赛道吗?在系统翻阅了这篇论文后,我提炼了一些关键点,并附加若干思考和大家讨论下:

1)传统GameFi都打着Play to Earn的玩赚旗号,通常还会采用内外两个经济体来维系平衡(双币模型):内部币构建消耗并制造稀缺性系统,通过增值权益带动存量用户消耗手中权益代币,并降低潜在对外抛压;外部币则通过持续引入外部用户、资金等带动币种的价格增长,进而促成外部代币增长带动内部游戏活跃度提升,最终吸引更多外部用户参与的增长正螺旋。

但双币模型本质上是一种短期内靠外部新用户来供养早期玩家获利的Ponzi结构,其代币经济模型会吸引大量Speculators进入,而真正的游戏爱好者可能会碍于高门槛儿被排挤在外。一旦场内玩家某一天发现消耗投入不再有更高收益预期的时候,游戏的衰退熵就会形成,大量老玩家急速流动性退出,新玩家也没有信心继续进入,从而形成“死亡螺旋”。Axie infinity、Stepn、甚至CryptoKitties等都逃不开这类运行框架和结局。

2)这篇新论文中提出了SeverFi的概念,简单而言:允许玩家将游戏内资产进行组合最终获得未来服务器主权。这种新运行框架有三个特性:

1、侧重长期参与和价值创造,玩家所获得的服务器所有权是一种依赖长期游戏产生实际性收益之后才能兑现的权限,吸引到的会是一批注重长期收益大于短期收益的玩家。因此更多高留存、高忠诚度的玩家的产生会是游戏增长的根本;

2、降低Ponzi结构性风险并减少投机行为,ServerFi框架下,引导玩家更看重服务器长期的实际价值和运营收益,减少了对新玩家资金投入的依赖。因此可以降低新用户参与的门槛,继而从大量新用户中转化出真正对游戏长期增长有贡献的服务器“股东”用户,这种模式天然会做大游戏池子,同时也会产生用户分层,投机用户会逐步被边缘化,而长期忠诚玩家会成为主流,这和传统游戏模式靠忠实氪金玩家经营的理念趋于一致;

3、由web3的去中心化社区精神驱动,不难理解,既然服务器所有权被分割,那游戏的所有权会从平台开发者转嫁到玩家和社区身上,因此这类游戏需要保持足够的透明度,避免开发者跳过用户对游戏进行恶意操纵,同时这类游戏注定短期不会有Ponzi一样的增长爆发力,但长时间的陪伴成长和持续运营会让忠实玩家有意想不到的收获。

总的来说,#ServerFi 论文从理念上探索了一种把GameFi带出Ponzi泥潭的可能性,算是一种有益的探索和进步,期待后续能有相应的现象级游戏能跑出来。
反思以太坊困境:创新乏力和竞争压力下的至难时刻?为什么市场唱衰以太坊的声音总是此起彼伏?简单来说:以太坊生态系统确实面对内忧外患的焦灼处境,内有layer2等扩展方案一直挺不起脊梁,外有Solana等杀手始终亡我坊之心不死,创新乏力和竞争压力下的以太坊迎来了至难时刻。接下来,简单谈谈我的看法: 1)以太坊Rollups的大小生态系统已经成型,坎昆升级EIP-4844之后,以太坊短期技术层面的利好已然落定。更长期的分片链在Rollup冲击下已不再预期,而降低节点成本、简化协议以及底层ZK-SNARKs化等升级又仅是锦上添花。整个区块链行业都在等龙二以太坊交出一份满意的layer2答卷,然而截止目前,layer2并没有承载以太坊的“增长”预期。 2)实在讲,Rollups能从Plasma、Validium甚至平行链等多种扩展方案中脱颖而出,全在于Rollups采纳了一种执行和状态、结算等分层处理的主次链组合交互范式。正常逻辑下,layer2在确立一种和主网交互的安全共识之后,接下来就该强化并放大执行层上的性能处理优势,给以太坊主网输入增量用户和生态才对。 然而事实是,大部分layer2却选择了进行商业叙事级别的叠杠杆套娃,走Stack战略拉同盟,共享组件牵入layer3应用链,还有Rollup as a Service、DA as a Service、甚至AVS as a Service等等。这些乍一看能无限放大layer2商业和叙事想象空间的策略,都只能更长期叠加市场的预期杠杆,在扩大应用生态和赋能币价等方面并不能立竿见影。 3)很长一段时间,总有人嘲笑以太坊Gas费 1Gwei,以此来讥讽以太坊layer2战略方向的失败,但换个角度看,这何尝不是以太坊靠layer2解决拥堵、Gas费高等问题的阶段性成功?只不过,糟糕的是layer2不仅没有以太坊带来预期的巨大生态和交易量,甚至还分流了一部分流量出走了。 实际上,layer2在解决以太坊性能不足能力上算成功的,OP-Rollup和ZK-Rollup阵营的竞争内卷也到达的白热化的程度,但选阵营搞infra而非纯应用创新暴露了以太坊开发者社区一个很尴尬的现状:过度依赖VC融资驱动发币而并非真正的价值创新。 尽管这是web3行业流入开发者人才越多,以及VC的资金流入趋多,进而竞争内卷加剧的直接结果。虽然创业门槛变高本来可以是市场趋于成熟的表现,在Crypto早期阶段,过度的内卷则成了项目高FDV扼杀创新的始作俑者。试想一个项目顶着巨大的FDV,一切努力只为快速Go to Market,怎么会有时间来沉淀价值创新。而to VC最有效的就是堆叠B端的商业叙事,C端应用这类紧迫但却不性感的方向则一直不温不火。所以,才让市场感知到infra> application的失衡吧。 4)尽管,以太坊杀手的性感叙事已经在上一轮牛市中被证伪了,但这一轮Solana、Sui、Aptos、Sei等高性能公链都直戳以太坊EVM的“低性能”软肋。虽然都不再喊着杀死以太坊,但不可否认它们在性能上的高并发和特殊Move语言安全机制等层面确实能冲击到以太坊,尤其是可能成为新一代web3应用生态滋生的沃土,比如:DePIN、大型游戏、intent 交易、AI Agent等等。 这是我认为新一代高性能公链最大的机会,不再堆叠infra预期,直接凭应用崛起来向以太坊宣战。 或者说根本就无需宣战,用模块化思想把以太坊归置到“结算层”的单薄叙事上,用新模块化执行层,DA层、Unified 流动性层等对对以太坊过去建立的话语权体系进行重构,不也是一种竞合成功?对其他链是,对以太坊又何尝不是,然而,这是我在其他高性能链或模块化、链抽象链上看到的趋向,但似乎以太坊还只是“被动挨打”的姿态,即使在ETF这等超前性利好的前提下,也没能放下架子来应对。 5)很多人还在对另一次DeFi Summer抱有期待,但反思以太坊layer2的不及预期,我很无奈的接受了,DeFi Summer或许永不复来的事实。 @VitalikButerin 自己也很清楚,以太坊最大的困局可能就是过度的金融属性,DeFi这种承载金融属性的完美载体,既往成功经验和DeFi组合的无限套娃属性都让它天然契合人的投机偏好。以太坊生态此刻要考虑的不是重塑DeFi Summer,而恰恰是走出纯DeFi文化阴霾。 上一轮牛市横空出世的NFT,OpenSea由盛转衰也都未曾完全嵌套进DeFi框架内,但这并不影响NFT带领上一轮以太坊走出超强牛市,这一轮PolyMarket去中心化预测市场被重视,虽然并非新玩法,也不知道能不能掀起新生机,但好在,它也并非纯DeFi、或者说已经扩展重构了DeFi。如何把以太坊最大可能向web2世界融合,脱虚向实,才是大家应该真正预期的新Summer所在。 以上。

反思以太坊困境:创新乏力和竞争压力下的至难时刻?

为什么市场唱衰以太坊的声音总是此起彼伏?简单来说:以太坊生态系统确实面对内忧外患的焦灼处境,内有layer2等扩展方案一直挺不起脊梁,外有Solana等杀手始终亡我坊之心不死,创新乏力和竞争压力下的以太坊迎来了至难时刻。接下来,简单谈谈我的看法:

1)以太坊Rollups的大小生态系统已经成型,坎昆升级EIP-4844之后,以太坊短期技术层面的利好已然落定。更长期的分片链在Rollup冲击下已不再预期,而降低节点成本、简化协议以及底层ZK-SNARKs化等升级又仅是锦上添花。整个区块链行业都在等龙二以太坊交出一份满意的layer2答卷,然而截止目前,layer2并没有承载以太坊的“增长”预期。
2)实在讲,Rollups能从Plasma、Validium甚至平行链等多种扩展方案中脱颖而出,全在于Rollups采纳了一种执行和状态、结算等分层处理的主次链组合交互范式。正常逻辑下,layer2在确立一种和主网交互的安全共识之后,接下来就该强化并放大执行层上的性能处理优势,给以太坊主网输入增量用户和生态才对。
然而事实是,大部分layer2却选择了进行商业叙事级别的叠杠杆套娃,走Stack战略拉同盟,共享组件牵入layer3应用链,还有Rollup as a Service、DA as a Service、甚至AVS as a Service等等。这些乍一看能无限放大layer2商业和叙事想象空间的策略,都只能更长期叠加市场的预期杠杆,在扩大应用生态和赋能币价等方面并不能立竿见影。
3)很长一段时间,总有人嘲笑以太坊Gas费 1Gwei,以此来讥讽以太坊layer2战略方向的失败,但换个角度看,这何尝不是以太坊靠layer2解决拥堵、Gas费高等问题的阶段性成功?只不过,糟糕的是layer2不仅没有以太坊带来预期的巨大生态和交易量,甚至还分流了一部分流量出走了。
实际上,layer2在解决以太坊性能不足能力上算成功的,OP-Rollup和ZK-Rollup阵营的竞争内卷也到达的白热化的程度,但选阵营搞infra而非纯应用创新暴露了以太坊开发者社区一个很尴尬的现状:过度依赖VC融资驱动发币而并非真正的价值创新。
尽管这是web3行业流入开发者人才越多,以及VC的资金流入趋多,进而竞争内卷加剧的直接结果。虽然创业门槛变高本来可以是市场趋于成熟的表现,在Crypto早期阶段,过度的内卷则成了项目高FDV扼杀创新的始作俑者。试想一个项目顶着巨大的FDV,一切努力只为快速Go to Market,怎么会有时间来沉淀价值创新。而to VC最有效的就是堆叠B端的商业叙事,C端应用这类紧迫但却不性感的方向则一直不温不火。所以,才让市场感知到infra> application的失衡吧。
4)尽管,以太坊杀手的性感叙事已经在上一轮牛市中被证伪了,但这一轮Solana、Sui、Aptos、Sei等高性能公链都直戳以太坊EVM的“低性能”软肋。虽然都不再喊着杀死以太坊,但不可否认它们在性能上的高并发和特殊Move语言安全机制等层面确实能冲击到以太坊,尤其是可能成为新一代web3应用生态滋生的沃土,比如:DePIN、大型游戏、intent 交易、AI Agent等等。
这是我认为新一代高性能公链最大的机会,不再堆叠infra预期,直接凭应用崛起来向以太坊宣战。
或者说根本就无需宣战,用模块化思想把以太坊归置到“结算层”的单薄叙事上,用新模块化执行层,DA层、Unified 流动性层等对对以太坊过去建立的话语权体系进行重构,不也是一种竞合成功?对其他链是,对以太坊又何尝不是,然而,这是我在其他高性能链或模块化、链抽象链上看到的趋向,但似乎以太坊还只是“被动挨打”的姿态,即使在ETF这等超前性利好的前提下,也没能放下架子来应对。

5)很多人还在对另一次DeFi Summer抱有期待,但反思以太坊layer2的不及预期,我很无奈的接受了,DeFi Summer或许永不复来的事实。 @VitalikButerin 自己也很清楚,以太坊最大的困局可能就是过度的金融属性,DeFi这种承载金融属性的完美载体,既往成功经验和DeFi组合的无限套娃属性都让它天然契合人的投机偏好。以太坊生态此刻要考虑的不是重塑DeFi Summer,而恰恰是走出纯DeFi文化阴霾。
上一轮牛市横空出世的NFT,OpenSea由盛转衰也都未曾完全嵌套进DeFi框架内,但这并不影响NFT带领上一轮以太坊走出超强牛市,这一轮PolyMarket去中心化预测市场被重视,虽然并非新玩法,也不知道能不能掀起新生机,但好在,它也并非纯DeFi、或者说已经扩展重构了DeFi。如何把以太坊最大可能向web2世界融合,脱虚向实,才是大家应该真正预期的新Summer所在。

以上。
一文汇总各类Cross—L2可交互操作性解决方案最近 ,@VitalikButerin 称Cross-L2可交互操作方案不再是问题,虽然没明说具体所指项目,但结合评论区的精彩讨论,我总结了一些可解决Cross-layer2可交互操作性的Solutions,具体如下: 1)Based-Rollup 以太坊layer2阵营中,有一些追求Compatible等效性的项目,通过让layer2和layer1尽可能共享组件的方式,实现最大程度兼容EVM,使得layer2可以把排序器功能直接交给主网来完成。 具体而言,主网的Proposer在检索Mempool交易的过程中,可以利用类似MEV-Boost的特殊Route来抓取其中的Rollup Batch交易,进而直接在主网完成排序上链。代表项目 @taikoxyz 2)CrossChain-Rollup 强大的ZK技术提供了一种可以复杂环境同/异构链建立免信任机制的可能性,包括EVM- Compatible这类同构链间的可交互操作性,Cross-L2就属于此范畴,除此之外,ZK技术还能连接起EVM和Non-EVM等复杂无智能合约基础的可交互操作性。 具体而言,ZK技术框架会成为一种底层通信协议,通过Proof证明让同/异构链能够不查看对方具体数据仅验证Proof证明就能完成绝对安全和可信的消息传递。ZK-Rollup本质上就是链下layer2把大量数据计算成Proofs证明,然后让主网Rollup合约直接验证并Finality的过程。代表项目: @ProjectZKM  的Entangled Rollup Network统一流动性层。 3)Intent-Rollup 意图intent交易一直以来都被视为Crypto市场拥抱Mass Adoption的关键,它能容纳账户抽象、链抽象、AI Agent、Pre-Confirmation等诸多相关方向。意图交易本质上是把用户的需求“抽象化”实现可编程特性,继而通过一个去中心化Solver求解器平台来代理执行用户的需求,达到用户端交易体验的优化。 intent意图会是理想交易的最终归宿,可以降低用户Onboard进Crypto市场的门槛,为行业吸引增量用户。intent赛道理解起来并不难,但要把用户的模糊且复杂的需求编程化后由代理程序完美执行挑战会巨大,需要一个庞大的Solver求解器处理网络。代表项目: @dappOS_com 4)Layer2 Based-layer3 都知道头部layer2项目Arbitrum、Starknet、Optimism等都先后推出了layer3应用链战略,layer3应用链具备可定制特性,有各自独立的Tokenomics,还能自定义Gas,但是要依赖layer2的基础组件提供服务,最典型就是可交互操作性。 layer2链可基于自己的共享Sequencer、共享Prover等为layer3应用链提供跨应用链通信基础。代表项目: @arbitrum Orbit 5)Cosmos IBC Based -Rollup Cosmos的IBC通信框架为所有接入Cosmos Hub的链提供了一种基础的可交互操作性能力,若将Cosmos IBC的能力专注到以太坊layer2生态中,就实现了一种基于Cosmos IBC可交互操作性达成的layer2可交互操作层。 这种方案会直接保留Cosmos SDK核心代码,在降低开发成本的同时,同时又能针对以太坊生态进行针对性的附加开发,继而让Cosmos通用可交互操作性能够完美落地到以太坊生态。代表项目: @Polymer_Labs 6)AVS Based -Rollup Eigenlayer的中间件服务协议实现了一种可以让以太坊主网Validators将自身共识商品化输送到其他Rollup layer2或其他同/异构链的能力。 这种解决方案本质上是通过允许以太坊验证者重复质押LST代币,基于一套奖惩经济机制约束Validators来扩展到链外来向他链构造安全共识。若layer2都采用AVS来构造共识,相当于另一种经济驱动的Based-Rollup,主网组件就可以参与到layer2的跨链可交互过程中。代表项目: @alt_layer 7)Modular-Rollups 当模块化到一定程度后,Rollup as a Service范式会带动layer2一键发链的市场繁荣。届时一条layer2网络可能会共享Celestia的DA数据可用性层,还有Solana的VM或以太坊EVM等共享执行层,以及把以太坊当成这些Rollups的共享结算层。而要达到绝对的模块化协作,不同模块或者不同链间的跨链协作通信都是基础前提。代表项目: @AvailProject ……其他 Note:以让例举仅为我熟悉的几个方向,可能还不完整。同一方向同时在做且有差异化的项目也会有很多,大家可以在评论区补充。(都是以消灭中心化跨链桥和CEX资产中转站为目的)

一文汇总各类Cross—L2可交互操作性解决方案

最近 ,@VitalikButerin 称Cross-L2可交互操作方案不再是问题,虽然没明说具体所指项目,但结合评论区的精彩讨论,我总结了一些可解决Cross-layer2可交互操作性的Solutions,具体如下:
1)Based-Rollup
以太坊layer2阵营中,有一些追求Compatible等效性的项目,通过让layer2和layer1尽可能共享组件的方式,实现最大程度兼容EVM,使得layer2可以把排序器功能直接交给主网来完成。
具体而言,主网的Proposer在检索Mempool交易的过程中,可以利用类似MEV-Boost的特殊Route来抓取其中的Rollup Batch交易,进而直接在主网完成排序上链。代表项目 @taikoxyz
2)CrossChain-Rollup
强大的ZK技术提供了一种可以复杂环境同/异构链建立免信任机制的可能性,包括EVM- Compatible这类同构链间的可交互操作性,Cross-L2就属于此范畴,除此之外,ZK技术还能连接起EVM和Non-EVM等复杂无智能合约基础的可交互操作性。
具体而言,ZK技术框架会成为一种底层通信协议,通过Proof证明让同/异构链能够不查看对方具体数据仅验证Proof证明就能完成绝对安全和可信的消息传递。ZK-Rollup本质上就是链下layer2把大量数据计算成Proofs证明,然后让主网Rollup合约直接验证并Finality的过程。代表项目: @ProjectZKM  的Entangled Rollup Network统一流动性层。
3)Intent-Rollup
意图intent交易一直以来都被视为Crypto市场拥抱Mass Adoption的关键,它能容纳账户抽象、链抽象、AI Agent、Pre-Confirmation等诸多相关方向。意图交易本质上是把用户的需求“抽象化”实现可编程特性,继而通过一个去中心化Solver求解器平台来代理执行用户的需求,达到用户端交易体验的优化。
intent意图会是理想交易的最终归宿,可以降低用户Onboard进Crypto市场的门槛,为行业吸引增量用户。intent赛道理解起来并不难,但要把用户的模糊且复杂的需求编程化后由代理程序完美执行挑战会巨大,需要一个庞大的Solver求解器处理网络。代表项目: @dappOS_com
4)Layer2 Based-layer3
都知道头部layer2项目Arbitrum、Starknet、Optimism等都先后推出了layer3应用链战略,layer3应用链具备可定制特性,有各自独立的Tokenomics,还能自定义Gas,但是要依赖layer2的基础组件提供服务,最典型就是可交互操作性。
layer2链可基于自己的共享Sequencer、共享Prover等为layer3应用链提供跨应用链通信基础。代表项目: @arbitrum Orbit
5)Cosmos IBC Based -Rollup
Cosmos的IBC通信框架为所有接入Cosmos Hub的链提供了一种基础的可交互操作性能力,若将Cosmos IBC的能力专注到以太坊layer2生态中,就实现了一种基于Cosmos IBC可交互操作性达成的layer2可交互操作层。
这种方案会直接保留Cosmos SDK核心代码,在降低开发成本的同时,同时又能针对以太坊生态进行针对性的附加开发,继而让Cosmos通用可交互操作性能够完美落地到以太坊生态。代表项目: @Polymer_Labs
6)AVS Based -Rollup
Eigenlayer的中间件服务协议实现了一种可以让以太坊主网Validators将自身共识商品化输送到其他Rollup layer2或其他同/异构链的能力。
这种解决方案本质上是通过允许以太坊验证者重复质押LST代币,基于一套奖惩经济机制约束Validators来扩展到链外来向他链构造安全共识。若layer2都采用AVS来构造共识,相当于另一种经济驱动的Based-Rollup,主网组件就可以参与到layer2的跨链可交互过程中。代表项目: @alt_layer

7)Modular-Rollups
当模块化到一定程度后,Rollup as a Service范式会带动layer2一键发链的市场繁荣。届时一条layer2网络可能会共享Celestia的DA数据可用性层,还有Solana的VM或以太坊EVM等共享执行层,以及把以太坊当成这些Rollups的共享结算层。而要达到绝对的模块化协作,不同模块或者不同链间的跨链协作通信都是基础前提。代表项目: @AvailProject

……其他

Note:以让例举仅为我熟悉的几个方向,可能还不完整。同一方向同时在做且有差异化的项目也会有很多,大家可以在评论区补充。(都是以消灭中心化跨链桥和CEX资产中转站为目的)
为什么说链抽象会是模块化之后的大热门?昨天, @ParticleNtwrk 获得Binance labs投资的消息引发了市场热议。我想再次强化输出下观点:“链抽象”会成为“模块化”之后的大热门,VC、交易所热捧之外,整个赛道上下游配套已经耕耘许久了。 1)虽然链抽象和模块化同宗同脉,但模块化目标提高开发组合效率,能促进市场基建面的繁荣,链抽象的目标则是增强用户体验为快速扩大增量用户进场铺路。因此,二者本质上都是向Crypto注入生产力效能,“链抽象”更接地气一些,是“模块化”的下一站。 2)“链抽象”乍一看也是空泛的叙事,但链抽象走向前台说明市场开发资源已经很充分,竞争环境已然很严峻了。道理很简单,模块化只需选中DA层、Execution层、interoperability层等任意一个层,打一个差异化的点就可以勾勒出一番宏大盛景,链抽象显然不能够了。 “链抽象”需要在市场运营面、资源触达面、资金累积面、用户体验口碑面等都要出彩才行。Particle Network就是其中一个佼佼者。 3)“链抽象”背后有很强的web2“成熟”产品力输入。都在诟病过往web3世界的钱包、链、协议等还是“草台班子”,但随着web主流资本、人才的卷入,web2的产品、运营、商业体系也都逐步向web3渗透。很长一段时间,大家感知不到这类的产品的存在,只因为它们做的事情看起来并不那么web3 Native。然而,“链抽象”叙事给了一次让这类产品上位的机会。 4)除了Particle之外,我随便再例举上下游几个项目:1) @ProjectZKM  基于ZK技术做统一流动性聚合调动中心,抽象了EVM和BTC等Non-EVM的链的流动性;2) @dappOS_com  推出了Solver执行网络,从应用服务端切入带动intent交易范式的转移;3) @ApertureFinance  和 @bentobatch 等面向用户构建丰富流畅交易体验的dApps,还有很多做前端体验优化甚至集成AI Agent的应用和服务平台等等。 从ERC4337等标准上游到做统一流动性调度层的服务协议,再到已经直面消费市场在B端和C端都有用户受众累积的应用,整个链抽象赛道相较之下偏成熟一些,有更切实际的应用场景和完善的商业预期想象空间。(二级市场的估值标准也会有所不同。 整体而言,链抽象短期内还会让人有长时间infra > application的叙事为主阶段,但其背后反衬出来的行业演化方向和成熟产品力的推动进步意义不容小觑,值得长期关注挖宝。

为什么说链抽象会是模块化之后的大热门?

昨天, @ParticleNtwrk 获得Binance labs投资的消息引发了市场热议。我想再次强化输出下观点:“链抽象”会成为“模块化”之后的大热门,VC、交易所热捧之外,整个赛道上下游配套已经耕耘许久了。
1)虽然链抽象和模块化同宗同脉,但模块化目标提高开发组合效率,能促进市场基建面的繁荣,链抽象的目标则是增强用户体验为快速扩大增量用户进场铺路。因此,二者本质上都是向Crypto注入生产力效能,“链抽象”更接地气一些,是“模块化”的下一站。
2)“链抽象”乍一看也是空泛的叙事,但链抽象走向前台说明市场开发资源已经很充分,竞争环境已然很严峻了。道理很简单,模块化只需选中DA层、Execution层、interoperability层等任意一个层,打一个差异化的点就可以勾勒出一番宏大盛景,链抽象显然不能够了。
“链抽象”需要在市场运营面、资源触达面、资金累积面、用户体验口碑面等都要出彩才行。Particle Network就是其中一个佼佼者。
3)“链抽象”背后有很强的web2“成熟”产品力输入。都在诟病过往web3世界的钱包、链、协议等还是“草台班子”,但随着web主流资本、人才的卷入,web2的产品、运营、商业体系也都逐步向web3渗透。很长一段时间,大家感知不到这类的产品的存在,只因为它们做的事情看起来并不那么web3 Native。然而,“链抽象”叙事给了一次让这类产品上位的机会。
4)除了Particle之外,我随便再例举上下游几个项目:1) @ProjectZKM  基于ZK技术做统一流动性聚合调动中心,抽象了EVM和BTC等Non-EVM的链的流动性;2) @dappOS_com  推出了Solver执行网络,从应用服务端切入带动intent交易范式的转移;3) @ApertureFinance  和 @bentobatch 等面向用户构建丰富流畅交易体验的dApps,还有很多做前端体验优化甚至集成AI Agent的应用和服务平台等等。

从ERC4337等标准上游到做统一流动性调度层的服务协议,再到已经直面消费市场在B端和C端都有用户受众累积的应用,整个链抽象赛道相较之下偏成熟一些,有更切实际的应用场景和完善的商业预期想象空间。(二级市场的估值标准也会有所不同。

整体而言,链抽象短期内还会让人有长时间infra > application的叙事为主阶段,但其背后反衬出来的行业演化方向和成熟产品力的推动进步意义不容小觑,值得长期关注挖宝。
百链竞发下半场,BTC layer2市场该何去何从?最近,整个一二级市场都承受着黑云压城般的压抑,有很多声音发问,BTC layer2的下一步到底该如何走? 答案显然不是东西方资本互不接盘那么简单,在深入调研多个代表性项目之后我有了深刻理解。 在我看来,破局点主要有三:1)资产发行“新”叙事;2)layer2 “标准”收窄;3)BTCFi生息大幕开启。接下来,系统说下我的看法: 资产发行“新”叙事 BTC生态随着Ordinals、BRC20、BitVM、Runes、Layer2的衍生发展至今,陷入了技术越来越趋于明朗,造富效应却越来越弱的困局当中。Why?根本原因在于,造富仅来源于存量资金信息博弈差,而技术迭代还无法吸引增量资金入场。 以漏洞百出的BRC20和含着金汤匙出生的Runes协议为例,BRC20尽管被百般诟病,但确实制造了财富效应把一大部分注意力吸引到了BTC 衍生市场,而后续在数据存储、索引逻辑甚至玩法都趋于成熟的Runes协议上,并没有预期的市场反响。 难道说,技术迭代发展方向错了吗?OP_Return剔除UTXO垃圾交易的导向错了吗?Premine预留机制的设计思路错了吗?显然不是,我更觉得 BRC20铭文掀起造富效应是特殊大环境背景下,纯信息差带来的偶然性现象,BTC 资产发行的叙事能不能跑的通,一定不是“first is first”,而是项目方的持续价值赋能。 因此,之前BTC主链绑定UTXO发行新资产的方式,只能让享有信息差的early birds获利,要让BTC 衍生资产的发行故事持续性感,需要从短期和长期分别解决两个困局: 1)短期资产流通性难题:发行BTC衍生资产,让一部分早鸟mint到一堆资产不是目的,要让这些资产流通起来通过换手产生价值才是。显然,仅凭BTC主网来承接铭文资产的流通行不通了,可以把资产跨链到二层在相应的应用生态市场内寻求激活流通的可能性。 @NervosNetwork CKB通过RGB++协议,实现了让BTC主网铭文资产Leap到CKB layer2链进行流通的思路,这种方案能解决资产的流通问题,尤其是一些有持续增长力的优秀资产。 2)长期项目赋能难题:虽然Runes协议在资产发行上足够有主流共识,项目方也可以通过Premine的方式控筹,但如果从主网发行资产制造热度,再去二层流通的思路,会导致项目方运维初期有庞大的运维成本。在市场Fomo情绪下Premine代币的成本,发放空投的高手续费成本,社区营销和运维成本等等,顶着这些成本压力,跟项目方谈“赋能”问题会很无力。 @RoochNetwork,一个基于MoveVM驱动的BTC Native layer2项目,通过Parallel的BTC全局状态同步,可以实现让一个BTC铭文资产先在layer2环境下低成本发行并做初期流通,然后在铭文资产具备一定市场规模和共识之后,再迁移到BTC主网,进行共识升级。这种围绕Assets资产流通目标为导向的叙事设计,目标就为解决BTC生态项目方赋能难的困局; 总之,BTC发展layer2生态,资产发行叙事只是个开始,变局点就在于这些纯社区驱动的资产,能否在1层或者2层找到一个强大项目的赋能,并在layer2市场生态内表现出不错的流通价值。 layer2“标准”收窄 过去一年内,BTC生态经历了野蛮生长的混序发展阶段,“无方向、无标准、无门槛”让BTC layer2赛道快速挤满了Builder:EVM- Compatible、UTXO Stack同构绑定、UTXO平行堆叠、BitVM链下图灵完备、RGB原生、AVM虚拟机等等,筹备中的BTC layer2据说已有上百条之多。但哪个方向能跑出来,目前尚无定论。 不过,BTC layer2市场的大乱斗并没有真正给BTC生态带来显著的增量,在市场陷入沉寂时,又时不时听到BTC layer2是否伪命题的争议。尽管“无标准”给了BTC layer2更多“拿来主义”的可能性,但把已经成熟的扩展方案直接缝合到本就局限很大的BTC主网上,未必能把二层的扩展增益回馈给主网,反倒会因安全和稳定性问题,给BTC主网用户群体带来伤害。 在我看来,BTC layer2无标准阶段的繁荣景象即将过去,BTC layer2接下来会趋向技术门槛更高的方向进阶: 1) UTXO Stack结构框架:Nervos CKB团队基于RGB++技术协议扩展出来的一套可标准化的BTC layer2构建方案,被视为融合BTC主链扩展起来最Native解决方案。因为UTXO Stack结构继承了原生BTC的简洁性和安全性,短期内可以视为一种相对主流的BTC layer2方向。最近RGB++ layer的协议升级和UTXO Swap的工程实现,都为BTC生态开发者基于UTXO结构扩展比特币生态提供了基础基建; 2)zkVM通用协议框架:@ProjectZKM基于zkMIPS微处理指令架构构建了一整套ZK Bridgeless跨链、以及Entangled rollup Network可交互操作性层等,通过ZK技术在跨链可信验证的绝对权威性为BTC生态引入了一种Native的通用“跨链”方案。 其技术原理类似于RGB的Peg-in和Peg-Out的Commitment校验和解锁机制,同时采用了BitVM2的挑战机制。相较之下,zkVM的协议框架可以给Non-UTXO结构类型的公链Native接入BTC生态的可能性,会成为一种范围面更广的ZK技术加持的layer2扩展方案; 3)RGB客户端验证框架:Native的RGB协议方向,通过P2P的链下客户端infra的系统构建,基于one single seal一次性密封+状态通道等技术实现原生的BTC二层扩展方案,可支持智能合约等复杂应用,同时还能接轨闪电网络,扩大支付场景的应用扩展。比如:@BitlightLabs 正致力于为RGB协议配套一系列钱包、DEX等基础设施; 4)AVM虚拟机框架:通过模拟比特币虚拟机,让原本无状态的比特币主网可通过嵌入一套特殊编码实现搭载智能合约的能力。这是一种既不依赖链外扩展,也遵循当前比特币核心OP Codes的“原生”拓展方法。比如:@atomicalsxyz 一直在尝试做的事情。 总之,选择高技术门槛,收窄layer2标准势必能够清退市场上一些“追风作乱者”,让更多有实力的开发者能够在资本支持下,进一步拓展出适合比特币所需的扩展生态。尽管,这个探索周期会比较漫长,好比以太坊layer从Plasma、Validium再到Rollup主流也经历了长时间的探索。 BTCFi生息大幕开启 不知何时,BTCFi悄然成为BTC生态的叙事和话题焦点。起初我也很费解BTCFi和DeFi的区别,莫非是过去DeFI以“去中心化”为中心,现在BTCFi以“BTC公链”为中心?不过,要让拥有庞大社区共识的孤链资产成为盘活全链流动性的催化剂,那些更领先的高性能技术也势必都得向BTC老祖宗妥协让步。 鉴于BTC链特殊的脚本语言和无状态存储的Programmable受限性,这么说很make sense。因此在我看来,BTCFi概念范围内应该包含三个主要特性: 1)Inclusive资产包容性,除了BTC Native资产之外,BTCFi舞台的主角一定包含Runes、ARC20、BRC20等各类BTC公链上的衍生资产,如果BTCFi不以盘活BTC生态的更多衍生资产为目标,仅仅是BTC资产的流出和Wrapped BTC的已有DeFi生态很难区分开。 2)Native免跨链特性,也可以成为Bridgeless无跨链桥或免信任机制。基于原生跨链特性才能确保BTC和衍生资产的流进流出不会存在“中心化”信任环节,这会为BTC相关资产的生息提供绝对技术前提。唯有此再在layer2上做POS的Staking和Restaking等生息行为,才能保持一个绝对的链上可追溯和公平性,为一系列丰富的BTCFi生息玩法奠定基础。 3)Programmable复杂可编程特性,无论UTXO Stack架构还是zkVM协议底层架构,它们可接入的链下扩展环境一定具备复杂的可编程特性。短期内,UTXO有结构化同源优势,更容易产生落地应用,长期看,ZK技术可以成为BTC链入EVM或MoveVM等高性能公链环境的有力接口,届时BTCFi能发展出什么样的生态,长出什么样的花,想象空间就无限大了。 比如:@GOATRollup 基于zkVM技术框架构建“Native安全跨链”和“统一流动性层”特性,并以GOAT Stack的堆栈方式来为BTC layer2市场提供一种技术基底扎实的扩展方案; 另外前边提到的Rooch Network,其Native技术方案目标为BTC提供应用场景(Utility)的同时再给BTC资产提供生息收益(Yield)可能性;UTXO结构的RGB++ layer更是如此。它们提供的解决方案都在最大限度靠近这三个技术特性。 不过,BTCFi在跑出来之前我更倾向于视其为一种生态开拓方向,现在沉闷的市场环境远无法支撑BTCFi从DeFi之中脱颖而出。因此,技术标准不是判断一个项目是不是BTCFi的硬性条件,只要有一定市场共识都可以加入BTCFi的范畴,毕竟除了技术方法论之外,最关键得向市场交答卷。好比,Blast到现在都不被主流人群视为layer2,但不妨碍它给layer2行业带来的影响。 以上。 Note:BTC layer2市场虽然资产发行、layer2标准、生息方案等目前还是杂而乱,但我其实看得到“Keep Optimism”的信号。至于铭文市场热潮会不会卷土再来,layer2能不能出现以太坊一样的盛景,BTC生息能否打破虚拟货币和现实世界的鸿沟,答案都在你我的乐观情绪当中。

百链竞发下半场,BTC layer2市场该何去何从?

最近,整个一二级市场都承受着黑云压城般的压抑,有很多声音发问,BTC layer2的下一步到底该如何走? 答案显然不是东西方资本互不接盘那么简单,在深入调研多个代表性项目之后我有了深刻理解。
在我看来,破局点主要有三:1)资产发行“新”叙事;2)layer2 “标准”收窄;3)BTCFi生息大幕开启。接下来,系统说下我的看法:
资产发行“新”叙事
BTC生态随着Ordinals、BRC20、BitVM、Runes、Layer2的衍生发展至今,陷入了技术越来越趋于明朗,造富效应却越来越弱的困局当中。Why?根本原因在于,造富仅来源于存量资金信息博弈差,而技术迭代还无法吸引增量资金入场。
以漏洞百出的BRC20和含着金汤匙出生的Runes协议为例,BRC20尽管被百般诟病,但确实制造了财富效应把一大部分注意力吸引到了BTC 衍生市场,而后续在数据存储、索引逻辑甚至玩法都趋于成熟的Runes协议上,并没有预期的市场反响。
难道说,技术迭代发展方向错了吗?OP_Return剔除UTXO垃圾交易的导向错了吗?Premine预留机制的设计思路错了吗?显然不是,我更觉得 BRC20铭文掀起造富效应是特殊大环境背景下,纯信息差带来的偶然性现象,BTC 资产发行的叙事能不能跑的通,一定不是“first is first”,而是项目方的持续价值赋能。
因此,之前BTC主链绑定UTXO发行新资产的方式,只能让享有信息差的early birds获利,要让BTC 衍生资产的发行故事持续性感,需要从短期和长期分别解决两个困局:
1)短期资产流通性难题:发行BTC衍生资产,让一部分早鸟mint到一堆资产不是目的,要让这些资产流通起来通过换手产生价值才是。显然,仅凭BTC主网来承接铭文资产的流通行不通了,可以把资产跨链到二层在相应的应用生态市场内寻求激活流通的可能性。
@NervosNetwork CKB通过RGB++协议,实现了让BTC主网铭文资产Leap到CKB layer2链进行流通的思路,这种方案能解决资产的流通问题,尤其是一些有持续增长力的优秀资产。
2)长期项目赋能难题:虽然Runes协议在资产发行上足够有主流共识,项目方也可以通过Premine的方式控筹,但如果从主网发行资产制造热度,再去二层流通的思路,会导致项目方运维初期有庞大的运维成本。在市场Fomo情绪下Premine代币的成本,发放空投的高手续费成本,社区营销和运维成本等等,顶着这些成本压力,跟项目方谈“赋能”问题会很无力。
@RoochNetwork,一个基于MoveVM驱动的BTC Native layer2项目,通过Parallel的BTC全局状态同步,可以实现让一个BTC铭文资产先在layer2环境下低成本发行并做初期流通,然后在铭文资产具备一定市场规模和共识之后,再迁移到BTC主网,进行共识升级。这种围绕Assets资产流通目标为导向的叙事设计,目标就为解决BTC生态项目方赋能难的困局;
总之,BTC发展layer2生态,资产发行叙事只是个开始,变局点就在于这些纯社区驱动的资产,能否在1层或者2层找到一个强大项目的赋能,并在layer2市场生态内表现出不错的流通价值。
layer2“标准”收窄
过去一年内,BTC生态经历了野蛮生长的混序发展阶段,“无方向、无标准、无门槛”让BTC layer2赛道快速挤满了Builder:EVM- Compatible、UTXO Stack同构绑定、UTXO平行堆叠、BitVM链下图灵完备、RGB原生、AVM虚拟机等等,筹备中的BTC layer2据说已有上百条之多。但哪个方向能跑出来,目前尚无定论。
不过,BTC layer2市场的大乱斗并没有真正给BTC生态带来显著的增量,在市场陷入沉寂时,又时不时听到BTC layer2是否伪命题的争议。尽管“无标准”给了BTC layer2更多“拿来主义”的可能性,但把已经成熟的扩展方案直接缝合到本就局限很大的BTC主网上,未必能把二层的扩展增益回馈给主网,反倒会因安全和稳定性问题,给BTC主网用户群体带来伤害。
在我看来,BTC layer2无标准阶段的繁荣景象即将过去,BTC layer2接下来会趋向技术门槛更高的方向进阶:
1) UTXO Stack结构框架:Nervos CKB团队基于RGB++技术协议扩展出来的一套可标准化的BTC layer2构建方案,被视为融合BTC主链扩展起来最Native解决方案。因为UTXO Stack结构继承了原生BTC的简洁性和安全性,短期内可以视为一种相对主流的BTC layer2方向。最近RGB++ layer的协议升级和UTXO Swap的工程实现,都为BTC生态开发者基于UTXO结构扩展比特币生态提供了基础基建;
2)zkVM通用协议框架:@ProjectZKM基于zkMIPS微处理指令架构构建了一整套ZK Bridgeless跨链、以及Entangled rollup Network可交互操作性层等,通过ZK技术在跨链可信验证的绝对权威性为BTC生态引入了一种Native的通用“跨链”方案。
其技术原理类似于RGB的Peg-in和Peg-Out的Commitment校验和解锁机制,同时采用了BitVM2的挑战机制。相较之下,zkVM的协议框架可以给Non-UTXO结构类型的公链Native接入BTC生态的可能性,会成为一种范围面更广的ZK技术加持的layer2扩展方案;
3)RGB客户端验证框架:Native的RGB协议方向,通过P2P的链下客户端infra的系统构建,基于one single seal一次性密封+状态通道等技术实现原生的BTC二层扩展方案,可支持智能合约等复杂应用,同时还能接轨闪电网络,扩大支付场景的应用扩展。比如:@BitlightLabs 正致力于为RGB协议配套一系列钱包、DEX等基础设施;
4)AVM虚拟机框架:通过模拟比特币虚拟机,让原本无状态的比特币主网可通过嵌入一套特殊编码实现搭载智能合约的能力。这是一种既不依赖链外扩展,也遵循当前比特币核心OP Codes的“原生”拓展方法。比如:@atomicalsxyz 一直在尝试做的事情。
总之,选择高技术门槛,收窄layer2标准势必能够清退市场上一些“追风作乱者”,让更多有实力的开发者能够在资本支持下,进一步拓展出适合比特币所需的扩展生态。尽管,这个探索周期会比较漫长,好比以太坊layer从Plasma、Validium再到Rollup主流也经历了长时间的探索。
BTCFi生息大幕开启
不知何时,BTCFi悄然成为BTC生态的叙事和话题焦点。起初我也很费解BTCFi和DeFi的区别,莫非是过去DeFI以“去中心化”为中心,现在BTCFi以“BTC公链”为中心?不过,要让拥有庞大社区共识的孤链资产成为盘活全链流动性的催化剂,那些更领先的高性能技术也势必都得向BTC老祖宗妥协让步。
鉴于BTC链特殊的脚本语言和无状态存储的Programmable受限性,这么说很make sense。因此在我看来,BTCFi概念范围内应该包含三个主要特性:
1)Inclusive资产包容性,除了BTC Native资产之外,BTCFi舞台的主角一定包含Runes、ARC20、BRC20等各类BTC公链上的衍生资产,如果BTCFi不以盘活BTC生态的更多衍生资产为目标,仅仅是BTC资产的流出和Wrapped BTC的已有DeFi生态很难区分开。
2)Native免跨链特性,也可以成为Bridgeless无跨链桥或免信任机制。基于原生跨链特性才能确保BTC和衍生资产的流进流出不会存在“中心化”信任环节,这会为BTC相关资产的生息提供绝对技术前提。唯有此再在layer2上做POS的Staking和Restaking等生息行为,才能保持一个绝对的链上可追溯和公平性,为一系列丰富的BTCFi生息玩法奠定基础。
3)Programmable复杂可编程特性,无论UTXO Stack架构还是zkVM协议底层架构,它们可接入的链下扩展环境一定具备复杂的可编程特性。短期内,UTXO有结构化同源优势,更容易产生落地应用,长期看,ZK技术可以成为BTC链入EVM或MoveVM等高性能公链环境的有力接口,届时BTCFi能发展出什么样的生态,长出什么样的花,想象空间就无限大了。
比如:@GOATRollup 基于zkVM技术框架构建“Native安全跨链”和“统一流动性层”特性,并以GOAT Stack的堆栈方式来为BTC layer2市场提供一种技术基底扎实的扩展方案;
另外前边提到的Rooch Network,其Native技术方案目标为BTC提供应用场景(Utility)的同时再给BTC资产提供生息收益(Yield)可能性;UTXO结构的RGB++ layer更是如此。它们提供的解决方案都在最大限度靠近这三个技术特性。
不过,BTCFi在跑出来之前我更倾向于视其为一种生态开拓方向,现在沉闷的市场环境远无法支撑BTCFi从DeFi之中脱颖而出。因此,技术标准不是判断一个项目是不是BTCFi的硬性条件,只要有一定市场共识都可以加入BTCFi的范畴,毕竟除了技术方法论之外,最关键得向市场交答卷。好比,Blast到现在都不被主流人群视为layer2,但不妨碍它给layer2行业带来的影响。
以上。
Note:BTC layer2市场虽然资产发行、layer2标准、生息方案等目前还是杂而乱,但我其实看得到“Keep Optimism”的信号。至于铭文市场热潮会不会卷土再来,layer2能不能出现以太坊一样的盛景,BTC生息能否打破虚拟货币和现实世界的鸿沟,答案都在你我的乐观情绪当中。
为什么链抽象会成为模块化之后的热门叙事?为什么“链抽象”会成为“模块化”之后又一个主流热门叙事?除了Mass Adoption这种看似“假大空”的目标之外,真正的内核原因我认为如下: 1)链抽象是模块化到一定阶段之后的必然,因为区块链技术架构就大致包括共识层、执行层、DA层、可交互操作性、结算层等等。传统意义上monolithic单一链要协调好各个分层综合强化,而模块化打破了这一局面。 DA层、可交互操作性层甚至执行层等部分都可以被单拎出来进行性能优化并以可组合性的协作方式发挥作用。因此,“模块化”成了开发者寻求链构建差异化的主流范式,这种成本低且叙事性强关键是还不用过于忧心生态运营等长期问题的创业方法论逐渐成了主流。 然而,模块化本质上是以infra基建为主要目标,当过量开发力量过于聚集在模块化方向,就会造成infra和应用之间的失衡,导致基建多于应用的尴尬局面出现。 显然,“链抽象”的出现正是为了为此尴尬局面破局,将被模块化撕裂的区块链组件重新整合起来,提升体验级,降低用户Onboard的门槛,进而推动应用的增长。某种意义上,链抽象会补足模块化带来的生态和应用失衡,成为下一阶段必不可少的叙事。 2)链抽象本身也只是一种泛泛的概念,其大致可分为三个具体落地方向: 1、做工具服务促进异构链的兼容,目标可以无缝集成不同的区块链环境,增加服务本身的应用占比。比如, @chainlink 的CCIP; 2、做中间链统一流动性成为聚合调度中心,主要汇聚不同链上的分散资产,用更安全、透明化的跨链信息传递来构建一个统一流动性层(资产跨链、消息传递)。比如, @0xPolygon 的agglayer,@ProjectZKM 的Entangled Rollup Network等; 3、做适配各个异构链并推出统一的用户交互体验层,在一系列工具或服务兼容适配的基础上,构建统一的合约调度中心,去中心化Solver服务协调中心,以及其他统一Gas代付、社交登陆、社交恢复等用户体验,以此降低用户的参与门槛,引流更多用户入圈。比如, @NEARProtocol 发起的BOS操作系统,@dappOS_com 面向GMX等热门应用推出的意图Solver执行网络,@ParticleNtwrk 的全链账户抽象和intent fusion解决方案等等; 应该讲,这些有的偏技术后端服务,有的偏用户前端体验升级,都是为了统一分散的区块链单链环境,用全链无缝交互和体验升级来给区块链应用市场扩充增量用户。 3)“链抽象”赛道更易受VC青睐,成为web2和web3融合的关键。最早,以太坊ERC4337带火了一批账户抽象钱包开发热潮,主要原因在于,一批web2的互联网高管人才携融资进场。这是他们初入web3最容易看懂且能发挥专长的领域。链抽象在账户抽象基础上进一步丰富了业务范围,但依旧是一些web2丰富经验和背景的人的主要发力方向。 相比模块化方向的纯概念导向,链抽象技术更偏底层,团队需要用实在的行业资源聚合和资产TVL沉淀以及用户数据增长累积。 相比动不动以“xxxx as a service”来勾勒商业空间的模块化方向,VC更容易给出相对客观的估值,用户也能透过客观数据看到链本身的价值增长,从而在二级市场有更好的投资估值参考。

为什么链抽象会成为模块化之后的热门叙事?

为什么“链抽象”会成为“模块化”之后又一个主流热门叙事?除了Mass Adoption这种看似“假大空”的目标之外,真正的内核原因我认为如下:
1)链抽象是模块化到一定阶段之后的必然,因为区块链技术架构就大致包括共识层、执行层、DA层、可交互操作性、结算层等等。传统意义上monolithic单一链要协调好各个分层综合强化,而模块化打破了这一局面。
DA层、可交互操作性层甚至执行层等部分都可以被单拎出来进行性能优化并以可组合性的协作方式发挥作用。因此,“模块化”成了开发者寻求链构建差异化的主流范式,这种成本低且叙事性强关键是还不用过于忧心生态运营等长期问题的创业方法论逐渐成了主流。
然而,模块化本质上是以infra基建为主要目标,当过量开发力量过于聚集在模块化方向,就会造成infra和应用之间的失衡,导致基建多于应用的尴尬局面出现。
显然,“链抽象”的出现正是为了为此尴尬局面破局,将被模块化撕裂的区块链组件重新整合起来,提升体验级,降低用户Onboard的门槛,进而推动应用的增长。某种意义上,链抽象会补足模块化带来的生态和应用失衡,成为下一阶段必不可少的叙事。

2)链抽象本身也只是一种泛泛的概念,其大致可分为三个具体落地方向:
1、做工具服务促进异构链的兼容,目标可以无缝集成不同的区块链环境,增加服务本身的应用占比。比如, @chainlink 的CCIP;
2、做中间链统一流动性成为聚合调度中心,主要汇聚不同链上的分散资产,用更安全、透明化的跨链信息传递来构建一个统一流动性层(资产跨链、消息传递)。比如, @0xPolygon 的agglayer,@ProjectZKM 的Entangled Rollup Network等;
3、做适配各个异构链并推出统一的用户交互体验层,在一系列工具或服务兼容适配的基础上,构建统一的合约调度中心,去中心化Solver服务协调中心,以及其他统一Gas代付、社交登陆、社交恢复等用户体验,以此降低用户的参与门槛,引流更多用户入圈。比如, @NEARProtocol 发起的BOS操作系统,@dappOS_com 面向GMX等热门应用推出的意图Solver执行网络,@ParticleNtwrk 的全链账户抽象和intent fusion解决方案等等;

应该讲,这些有的偏技术后端服务,有的偏用户前端体验升级,都是为了统一分散的区块链单链环境,用全链无缝交互和体验升级来给区块链应用市场扩充增量用户。
3)“链抽象”赛道更易受VC青睐,成为web2和web3融合的关键。最早,以太坊ERC4337带火了一批账户抽象钱包开发热潮,主要原因在于,一批web2的互联网高管人才携融资进场。这是他们初入web3最容易看懂且能发挥专长的领域。链抽象在账户抽象基础上进一步丰富了业务范围,但依旧是一些web2丰富经验和背景的人的主要发力方向。
相比模块化方向的纯概念导向,链抽象技术更偏底层,团队需要用实在的行业资源聚合和资产TVL沉淀以及用户数据增长累积。
相比动不动以“xxxx as a service”来勾勒商业空间的模块化方向,VC更容易给出相对客观的估值,用户也能透过客观数据看到链本身的价值增长,从而在二级市场有更好的投资估值参考。
如何看待layer3:要靠独特Tokenomics破局的赏金平台?如何看待去中心化注意力商品化加密货币协议 @layer3xyz  ?具体而言:layer3目标通过Staking+Burn的独特Tokenomics,打造成一个可定义全链用户活跃度(注意力)和项目方任务激励代币分发机制(商品化)的Web3赏金撮合平台。和Galaxy、RabbitHole等同属Web3流量积聚和分发赛道。接下来,谈谈我的看法: 1)大部分人会困惑为啥一Web3流量分发平台会命名为Layer3,这和Layer2 Stack上层的多链应用赛道Layer3撞车了,会让人产生歧义。 而且去中心化注意力的商品化协议也会让人产生理解困惑,但如果把layer层视为一个更上层的“入口”存在,注意力等价于“流量”,Layer3要做海量L1+L2之上的流量聚集和分发中心的目标透过名字就能清晰感知到了。 2)最近一段时间,空投市场颇为敏感,一些Web3赏金平台被诟病为项目方PUA用户的帮手,但完全让赏金平台背上项目方对抗女巫的罪责或许并不合适。 理由是,Web3赏金撮合平台目标是要引进优质的项目并匹配一批早期活跃的用户群体。一方面为优秀项目方找到最适合的早期受众,避免被过度女巫;另一方面则让一部分活跃用户能够得到早期应有的预期回报。 之所以会陷入争议漩涡,根本原因在于撮合的项目方的“让利”和参与用户群体的“索求”产生了错位,要如何改善呢?针对此,Layer3从用户端做了基础、公平、高效的链上行为追踪和资产分发机制: 具体而言,Layer3构建了用户全链身份和分发协议,主要通过汇总单个用户在多个跨链环境和复杂dApps应用中的activities,形成一个统一的链上身份视图。 基于此全链身份视图,从更长周期看,Layer3能够很容易产生一份精细的用户画像图,让项目方能找到真正有价值的“早期用户”。有了这份全链身份视图,Layer3可根据链上活动、CUBE凭证、社交图谱和任务参与等标准,更加系统性的将代币分发给合适的用户。 3)不过,仅凭此还没办法把Layer3和众多任务赏金平台作出差异化辨识。为此,Layer3设计了一套质押+通缩的Tokenomics代币经济模型,如何做呢? 1、4年锁定期:核心贡献者、投资者、顾问的代币都有4年的锁定期且第一年不解锁; 2、分层质押机制:用户需要被动质押才能获得基础的reward和治理权,但同时通过做任务也能主动赚取更多的代币,相当于做了保底收益和动态提成的保障,更大程度避免做任务被PUA的情绪反噬,同时也满足多劳多得的整体激励准则。质押和activity深度会作为与Layer3生态系统的可衡量指标,解锁奖励、额外福利和其他特权等等; 3、燃烧机制:Layer3整体33.3亿保持恒定,同时鼓励用户端和项目方端都积极燃烧,用户燃烧L3代币可以获得合作生态更大的特权,项目方则需要购买并燃烧L3代币以获得更大的流量分配权力; 长此以来,用户要获得更大特权空投——>赚钱效应吸引更多的用户加入——>更大的流量吸引更多的项目方参与——>用户和项目方会持续Burn代币获取特权——>L3代币价值得到持续上升的基础——>吸引更多的用户和项目方参与。理想的话,一个具备正向flywheel飞轮效应的Token激励模型就产生了。 综上,区别于一些Web3赏金平台明确不发Token甚至不保证用户任务回报率的调性,Layer3很明显要用Web3的方式解决Web3的争议,既然围绕代币分发公平性产生的纠纷最大,不妨就设计一套参与门槛高(需要Staking),但却具备Burn机能的动态平衡经济模型。 在我看来,Web3赏金任务平台本质上就是在做流量生意,如何最大限度扩大流量池才是一切正向飞轮转动的基础。要践行这一点,需要团队具有更长周期的项目增长策略,同时用自生态Staking+Burn机制来推动代币的价值增长,长此以往才能看到成效。 整个过程,数据增长会是一面镜子,直接反衬整个Tokenomics的落实情况,同时价值评估也会有线性的客观标准。

如何看待layer3:要靠独特Tokenomics破局的赏金平台?

如何看待去中心化注意力商品化加密货币协议 @layer3xyz  ?具体而言:layer3目标通过Staking+Burn的独特Tokenomics,打造成一个可定义全链用户活跃度(注意力)和项目方任务激励代币分发机制(商品化)的Web3赏金撮合平台。和Galaxy、RabbitHole等同属Web3流量积聚和分发赛道。接下来,谈谈我的看法:
1)大部分人会困惑为啥一Web3流量分发平台会命名为Layer3,这和Layer2 Stack上层的多链应用赛道Layer3撞车了,会让人产生歧义。
而且去中心化注意力的商品化协议也会让人产生理解困惑,但如果把layer层视为一个更上层的“入口”存在,注意力等价于“流量”,Layer3要做海量L1+L2之上的流量聚集和分发中心的目标透过名字就能清晰感知到了。
2)最近一段时间,空投市场颇为敏感,一些Web3赏金平台被诟病为项目方PUA用户的帮手,但完全让赏金平台背上项目方对抗女巫的罪责或许并不合适。
理由是,Web3赏金撮合平台目标是要引进优质的项目并匹配一批早期活跃的用户群体。一方面为优秀项目方找到最适合的早期受众,避免被过度女巫;另一方面则让一部分活跃用户能够得到早期应有的预期回报。
之所以会陷入争议漩涡,根本原因在于撮合的项目方的“让利”和参与用户群体的“索求”产生了错位,要如何改善呢?针对此,Layer3从用户端做了基础、公平、高效的链上行为追踪和资产分发机制:
具体而言,Layer3构建了用户全链身份和分发协议,主要通过汇总单个用户在多个跨链环境和复杂dApps应用中的activities,形成一个统一的链上身份视图。
基于此全链身份视图,从更长周期看,Layer3能够很容易产生一份精细的用户画像图,让项目方能找到真正有价值的“早期用户”。有了这份全链身份视图,Layer3可根据链上活动、CUBE凭证、社交图谱和任务参与等标准,更加系统性的将代币分发给合适的用户。
3)不过,仅凭此还没办法把Layer3和众多任务赏金平台作出差异化辨识。为此,Layer3设计了一套质押+通缩的Tokenomics代币经济模型,如何做呢?
1、4年锁定期:核心贡献者、投资者、顾问的代币都有4年的锁定期且第一年不解锁;
2、分层质押机制:用户需要被动质押才能获得基础的reward和治理权,但同时通过做任务也能主动赚取更多的代币,相当于做了保底收益和动态提成的保障,更大程度避免做任务被PUA的情绪反噬,同时也满足多劳多得的整体激励准则。质押和activity深度会作为与Layer3生态系统的可衡量指标,解锁奖励、额外福利和其他特权等等;
3、燃烧机制:Layer3整体33.3亿保持恒定,同时鼓励用户端和项目方端都积极燃烧,用户燃烧L3代币可以获得合作生态更大的特权,项目方则需要购买并燃烧L3代币以获得更大的流量分配权力;
长此以来,用户要获得更大特权空投——>赚钱效应吸引更多的用户加入——>更大的流量吸引更多的项目方参与——>用户和项目方会持续Burn代币获取特权——>L3代币价值得到持续上升的基础——>吸引更多的用户和项目方参与。理想的话,一个具备正向flywheel飞轮效应的Token激励模型就产生了。
综上,区别于一些Web3赏金平台明确不发Token甚至不保证用户任务回报率的调性,Layer3很明显要用Web3的方式解决Web3的争议,既然围绕代币分发公平性产生的纠纷最大,不妨就设计一套参与门槛高(需要Staking),但却具备Burn机能的动态平衡经济模型。

在我看来,Web3赏金任务平台本质上就是在做流量生意,如何最大限度扩大流量池才是一切正向飞轮转动的基础。要践行这一点,需要团队具有更长周期的项目增长策略,同时用自生态Staking+Burn机制来推动代币的价值增长,长此以往才能看到成效。

整个过程,数据增长会是一面镜子,直接反衬整个Tokenomics的落实情况,同时价值评估也会有线性的客观标准。
情理之中,看到 @SolvProtocol 有了去中心化比特币储备中心的新定位,乍一看有一种宏大史诗感,如果不明所以然可以从以下三个角度来理解: 1)它要构建一个面向各种链、dApps和TradFI的统一流动性共识网络,基于精细化的智能合约管控技术提供一套具备跨链互操作性、透明度和安全性的BTC资产调度中心。 这是当下BTC资产在多样异构链中过于分散化的现状,以至于BTC Yield生息一直没办法汇聚能量,Solv Protocol目标要成为这个统一资产调度层,来进一步释放BTCFi的潜能。 2)Solv Protocol过去几个月资金储备量取得了快速增长,SolvBTC已经超过1,9000个BTC,已经超过Arbitrum、Avalanche等公链以及若干BTC ETF持仓量。其中仅BNBChain上的BTC就超过了1万枚,增势迅猛,整体Solv协议储备资金量还在持续增长中。 为何增长如此之快,我此前发文探讨过,相比传统的web2资管平台,Solv是一个最接近web3原生环境数字资产管理平台,而相比纯web3的流动性资产聚合平台,Solv又是一个在合规、RWA等方向更友好的平台。因此在BTC、ETH等资产相继被纳入ETF的背景下,Solv Protocol会得到极大的增长Buff加成。 3)Solv Protocol目前包括SolvBTC、SolvBTC.BBN、SolvBTC.ENA等已经在BTC、ETH、BNBChain、Arbitrum、Linea等头部生态内被广泛应用和流通,成为Solv未来进一步扩张的强劲壁垒。 比如,SolvBTV.BBN是目标为Babylon主网上线筹备的流动性资产,Babylon作为比特币生态共享安全层的定位已经尽人皆知,若类比Eigenlayer资产锁仓量在以太坊生态的权重和占比(超13B),深度绑定Babylon的SolvBTV.BBN未来市场潜力同样也值得期许。
情理之中,看到 @SolvProtocol 有了去中心化比特币储备中心的新定位,乍一看有一种宏大史诗感,如果不明所以然可以从以下三个角度来理解:

1)它要构建一个面向各种链、dApps和TradFI的统一流动性共识网络,基于精细化的智能合约管控技术提供一套具备跨链互操作性、透明度和安全性的BTC资产调度中心。

这是当下BTC资产在多样异构链中过于分散化的现状,以至于BTC Yield生息一直没办法汇聚能量,Solv Protocol目标要成为这个统一资产调度层,来进一步释放BTCFi的潜能。

2)Solv Protocol过去几个月资金储备量取得了快速增长,SolvBTC已经超过1,9000个BTC,已经超过Arbitrum、Avalanche等公链以及若干BTC ETF持仓量。其中仅BNBChain上的BTC就超过了1万枚,增势迅猛,整体Solv协议储备资金量还在持续增长中。

为何增长如此之快,我此前发文探讨过,相比传统的web2资管平台,Solv是一个最接近web3原生环境数字资产管理平台,而相比纯web3的流动性资产聚合平台,Solv又是一个在合规、RWA等方向更友好的平台。因此在BTC、ETH等资产相继被纳入ETF的背景下,Solv Protocol会得到极大的增长Buff加成。

3)Solv Protocol目前包括SolvBTC、SolvBTC.BBN、SolvBTC.ENA等已经在BTC、ETH、BNBChain、Arbitrum、Linea等头部生态内被广泛应用和流通,成为Solv未来进一步扩张的强劲壁垒。

比如,SolvBTV.BBN是目标为Babylon主网上线筹备的流动性资产,Babylon作为比特币生态共享安全层的定位已经尽人皆知,若类比Eigenlayer资产锁仓量在以太坊生态的权重和占比(超13B),深度绑定Babylon的SolvBTV.BBN未来市场潜力同样也值得期许。
昨晚,首个基于VM执行层做抽象架构的项目 @lumioFDN 宣布正式接入Solana,成了继Eclipse之后又一个架于Solana之上的项目。如何看待呢?简单快评一二: 1)Solana需不需要layer2的争议话题算是有了答案。理论上,无论Solana链愿不愿意,能基于SVM做执行层,同时又能为Solana带来生态项目和用户Transactions的项目,都可以被定义为Solana的layer2。 只不过,layer2的说法终究会成为过去,有能力直接在单一链执行层之上做抽象链的项目,并不会局限于要做XXX的layer2。因为它可以接入SVM、还能衔接MoveVM、同时又能直接具备并行EVM能力,这类统一抽象链会作为其他monolithic链的入口层,说它是谁得layer2似乎都可以。 2)Lumio算是新型统一抽象layer层新叙事方向的构建者之一,通过集成MoveVM、SolanaVM、并行EVM等执行层等等,要把高性能链的执行层优势给模块化共享出来。这么做一定会给一些高性能链力推的执行层优势带来压力。 但其实,单一高性能链在模块化和链抽象的叙事牵动下,叙事性势必会降弱,一些能更好解决跨链可交互操作性和入口层统一体验升级的抽象链会登上历史舞台。 3)事实上,被 @0xPolygon 呼吁了许久的aggragation layer,还有基于ZK底层技术成为Cross-Chain统一流动性层的 @ProjectZKM ,以及业内在不遗余力倡导链抽象叙事的 @ParticleNtwrk ,都在引导一种叙事风向: 总体来看,单一链一家独大将逐渐淡化,甚至围绕单一链的扩展layer2、layer3也正在式微,一种可统一全链应用环境,提供更优体验、更便捷入口的抽象layer会成为接下来的叙事主打方向。
昨晚,首个基于VM执行层做抽象架构的项目 @lumioFDN 宣布正式接入Solana,成了继Eclipse之后又一个架于Solana之上的项目。如何看待呢?简单快评一二:

1)Solana需不需要layer2的争议话题算是有了答案。理论上,无论Solana链愿不愿意,能基于SVM做执行层,同时又能为Solana带来生态项目和用户Transactions的项目,都可以被定义为Solana的layer2。

只不过,layer2的说法终究会成为过去,有能力直接在单一链执行层之上做抽象链的项目,并不会局限于要做XXX的layer2。因为它可以接入SVM、还能衔接MoveVM、同时又能直接具备并行EVM能力,这类统一抽象链会作为其他monolithic链的入口层,说它是谁得layer2似乎都可以。

2)Lumio算是新型统一抽象layer层新叙事方向的构建者之一,通过集成MoveVM、SolanaVM、并行EVM等执行层等等,要把高性能链的执行层优势给模块化共享出来。这么做一定会给一些高性能链力推的执行层优势带来压力。

但其实,单一高性能链在模块化和链抽象的叙事牵动下,叙事性势必会降弱,一些能更好解决跨链可交互操作性和入口层统一体验升级的抽象链会登上历史舞台。

3)事实上,被 @0xPolygon 呼吁了许久的aggragation layer,还有基于ZK底层技术成为Cross-Chain统一流动性层的 @ProjectZKM ,以及业内在不遗余力倡导链抽象叙事的 @ParticleNtwrk ,都在引导一种叙事风向:

总体来看,单一链一家独大将逐渐淡化,甚至围绕单一链的扩展layer2、layer3也正在式微,一种可统一全链应用环境,提供更优体验、更便捷入口的抽象layer会成为接下来的叙事主打方向。
如何理解ioTex2.0:为DePIN构建模块化统一层可行吗?如何理解七年物联网概念老链 @iotex_io 发布的2.0白皮书?简单而言:IoTeX从过去主打链上数字支付结算层的叙事,要升级成为致力于服务AI+DePIN的模块化通用层,其多年来在支付、账本、硬件设备连接之上的经验终于在DePIN新趋势下形成合力了? 接下来,谈谈我的理解: 熟悉IoTeX发展历史的话会发现,IoTex1.0从一开始的全球支付层再到之后硬件设备数据所有权和隐私权的解决方案,虽然主打叙事在变,但始终在围绕硬件设备和数据主权在发力。 当下AI+DePIN赛道趋势火热。AI本身就是针对大模型的数据训练,分布式算力涉及硬件设备的工作量证明问题,分布式推理则直接关联数据来源的可验证性问题等。而DePIN本身主要解决的就是分布式硬件设备如何协作的网络框架问题等等。显然,这些都是IoTeX过去多年一直在致力发展的方向,因此IoTeX2.0做品牌升级定位于模块化DePIN网络通用架构层并不会让人感到意外。 具体而言,IoTeX2.0定义了一种面向DePIN全行业的通用模块化网络架构,主要包含: 1)模块化安全池层(MSP),基于Token质押模型,为参与进IoTeX DePIN网络Stack的项目提供了一种“安全共识机制”; 2)模块化DePIN架构层(DIMs),作为一个通用DePIN技术Stack层,该层提供RPC、Data Availability、Hardware SDK、identity、Sequencer、Storage等诸多基础功能层,可以供相关开发者直接全功能享有DePIN网络架构,相当于OP Stack一样的DePIN Stack便捷开发堆栈层; 3)DePIN应用层,在DePIN Stack的最上层会呈现一个丰富的DePIN落地应用层,项目方可直接构建DePIN应用外,还能在基于IoTeX L1直接创建DePIN L2主权链。 应该讲,IoTeX2.0设想了一个很完整且复杂的DePIN通用层服务解决方案,颇有种“DePIN as a Service”的味道,而IoTex链给出的统一共识层、统一Stack堆栈层、统一DID身份层、统一DA层等都是该方案的一部分。 问题来了,IoTex2.0为何有信心能够重新定义DePIN全行业?白皮书的内容比较复杂,涉及的面也比较广,我主要筛选三个关键技术细节来举例说明下。 1)W3bstream多Prover系统验证方案:我们把链上和链下世界分别定义为虚拟世界和物理世界,链上虚拟世界的数据都必须是确定性且可验证的,而链下物理世界的数据源却充满复杂性和未知性,如何让链下硬件设备有效证明自己的工作量且检测筛查掉欺骗性女巫设备呢? W3bstream架构目标要解决“Proof of real-world activity”问题,要让链下硬件设备通过ZKPs、TEEs、SMPCs、BYOP等四种Prover方式,向链上的Verifier证明自己的工作量有效性。 简单而言:ZKP零知识证明是一种常见的基于zk-SNARKs建立的端到端的可信验证方式;TEE则是直接在硬件端构建Enclave飞地隔离环境来建立可信连接等。W3bstream如同一个数据收发调度中心按照统一的标准验证、清洗、处理、存储数据,相当于把复杂的链下数据转变成可验证的链上确定性数据。 2)ioID统一身份标识方案:通常纯链上环境可以用唯一性的地址和哈希值以及NFTs、SBTs等形式来做可溯性来源保证,但DePIN应用环境下,人和机器以及机器和机器之间的通信交互,如何精准匹配和溯源是个大挑战,为了解决此问题,ioTex2.0构建了一个DID身份层。 ioTex主要通过SSI自主身份识别和VCs可验证凭证等来完成一套身份注册和验证识别系统,为参与DePIN分布式协作的硬件设备都构建一个唯一的DID身份,进而可基于数据管理系统来追溯、验证并激励硬件设备提供方的贡献。 3)ioConnect统一硬件设备抽象SDK方案:由于DePIN硬件设备存在非常大的多样性,需要有一套统一的标准来衡量不同硬件的工作量,因此IoTex2.0抽象出来一个硬件SDK统一解决方案。 比如:ESP32控制芯片、Arduino开源电子原型平台、STM32半导体控制器、Raspberry PI单板计算机等不同的硬件设备和平台通过一套统一的SDK方案可以很直接且无争议地将其链入DePIN贡献网络。 以上。 总的来说,ioTeX2.0升级后就是要成为一个统一的DePIN网络架构infrastructure,能不能成功暂时还充满未知,DePIN赛道能不能如大家所愿成为牛市主升浪也还在酝酿,但让一个围绕硬件设备可信通信和隐私数据解决方案耕耘了七年的老链来牵头做这件事,至少值得期待一二。

如何理解ioTex2.0:为DePIN构建模块化统一层可行吗?

如何理解七年物联网概念老链 @iotex_io 发布的2.0白皮书?简单而言:IoTeX从过去主打链上数字支付结算层的叙事,要升级成为致力于服务AI+DePIN的模块化通用层,其多年来在支付、账本、硬件设备连接之上的经验终于在DePIN新趋势下形成合力了? 接下来,谈谈我的理解:
熟悉IoTeX发展历史的话会发现,IoTex1.0从一开始的全球支付层再到之后硬件设备数据所有权和隐私权的解决方案,虽然主打叙事在变,但始终在围绕硬件设备和数据主权在发力。
当下AI+DePIN赛道趋势火热。AI本身就是针对大模型的数据训练,分布式算力涉及硬件设备的工作量证明问题,分布式推理则直接关联数据来源的可验证性问题等。而DePIN本身主要解决的就是分布式硬件设备如何协作的网络框架问题等等。显然,这些都是IoTeX过去多年一直在致力发展的方向,因此IoTeX2.0做品牌升级定位于模块化DePIN网络通用架构层并不会让人感到意外。
具体而言,IoTeX2.0定义了一种面向DePIN全行业的通用模块化网络架构,主要包含:
1)模块化安全池层(MSP),基于Token质押模型,为参与进IoTeX DePIN网络Stack的项目提供了一种“安全共识机制”;
2)模块化DePIN架构层(DIMs),作为一个通用DePIN技术Stack层,该层提供RPC、Data Availability、Hardware SDK、identity、Sequencer、Storage等诸多基础功能层,可以供相关开发者直接全功能享有DePIN网络架构,相当于OP Stack一样的DePIN Stack便捷开发堆栈层;
3)DePIN应用层,在DePIN Stack的最上层会呈现一个丰富的DePIN落地应用层,项目方可直接构建DePIN应用外,还能在基于IoTeX L1直接创建DePIN L2主权链。
应该讲,IoTeX2.0设想了一个很完整且复杂的DePIN通用层服务解决方案,颇有种“DePIN as a Service”的味道,而IoTex链给出的统一共识层、统一Stack堆栈层、统一DID身份层、统一DA层等都是该方案的一部分。
问题来了,IoTex2.0为何有信心能够重新定义DePIN全行业?白皮书的内容比较复杂,涉及的面也比较广,我主要筛选三个关键技术细节来举例说明下。
1)W3bstream多Prover系统验证方案:我们把链上和链下世界分别定义为虚拟世界和物理世界,链上虚拟世界的数据都必须是确定性且可验证的,而链下物理世界的数据源却充满复杂性和未知性,如何让链下硬件设备有效证明自己的工作量且检测筛查掉欺骗性女巫设备呢?
W3bstream架构目标要解决“Proof of real-world activity”问题,要让链下硬件设备通过ZKPs、TEEs、SMPCs、BYOP等四种Prover方式,向链上的Verifier证明自己的工作量有效性。
简单而言:ZKP零知识证明是一种常见的基于zk-SNARKs建立的端到端的可信验证方式;TEE则是直接在硬件端构建Enclave飞地隔离环境来建立可信连接等。W3bstream如同一个数据收发调度中心按照统一的标准验证、清洗、处理、存储数据,相当于把复杂的链下数据转变成可验证的链上确定性数据。
2)ioID统一身份标识方案:通常纯链上环境可以用唯一性的地址和哈希值以及NFTs、SBTs等形式来做可溯性来源保证,但DePIN应用环境下,人和机器以及机器和机器之间的通信交互,如何精准匹配和溯源是个大挑战,为了解决此问题,ioTex2.0构建了一个DID身份层。
ioTex主要通过SSI自主身份识别和VCs可验证凭证等来完成一套身份注册和验证识别系统,为参与DePIN分布式协作的硬件设备都构建一个唯一的DID身份,进而可基于数据管理系统来追溯、验证并激励硬件设备提供方的贡献。
3)ioConnect统一硬件设备抽象SDK方案:由于DePIN硬件设备存在非常大的多样性,需要有一套统一的标准来衡量不同硬件的工作量,因此IoTex2.0抽象出来一个硬件SDK统一解决方案。
比如:ESP32控制芯片、Arduino开源电子原型平台、STM32半导体控制器、Raspberry PI单板计算机等不同的硬件设备和平台通过一套统一的SDK方案可以很直接且无争议地将其链入DePIN贡献网络。
以上。

总的来说,ioTeX2.0升级后就是要成为一个统一的DePIN网络架构infrastructure,能不能成功暂时还充满未知,DePIN赛道能不能如大家所愿成为牛市主升浪也还在酝酿,但让一个围绕硬件设备可信通信和隐私数据解决方案耕耘了七年的老链来牵头做这件事,至少值得期待一二。
如何看待Solana Blinks:算是一次技术性创新吗?如何看待最近被热议的 @solana Actions和Blinks?尽管听到了很多“创新性进步”、“大规模应用催化剂”等之类声音,但在我看来,Blinks并没有太大的技术创新,谈Mass Adoption也为时过早,它的出现倒是强化了Solana新一代消费级应用区块链的市场印象,是一次有益的探索。接下来,谈谈我的看法: 1)就技术视角来看,Solana Actions和Blinks就是一组便于开发者集成应用的开发工具。 Actions可视为一种开发适配标准,该标准是一种后端框架,定义了用户在App环境下如何通过一个统一的URL接口来触发链上交易,包括资产转移、NFT交互、投票、质押、打赏等操作; Blinks则可被认为是一种前端集成技术,允许将一组包含交易意图的复杂的执行参数集成到一个URL中,并且能衔接其他web3 wallet,帮助开发者快捷将Actions交互方法以可视化的流程和体验展现在用户眼前。 具体而言:Actions会把用户触发交易所需的关键信息(比如接收地址、交易指令等基础参数元数据)集成到一个标准化的URL中,用户可以在其他App环境下直接和URL交互,进而触发一个流程来构建、签名并提交一个链上交易。 2)乍一听,这只是一种普通的将URL链接转化成可签名交易的开发工具和服务。这和之前, @SuiNetwork 上的zkSend让用户像发电子邮件一样接收加密货币 ;以及@ton_blockchain 上的mini app让用户在聊天界面内就可以直接发起交互指令等等都属于一类交互体验优化。 其重心并非技术本身,而是有多少开发者基于该交互方式推出了应用,有多少用户接受了此种交互方式等等,可以归类到“交互抽象”范畴,目标为提升用户onboard区块链环境的参与门槛和体验。 不过,理想是美好的,现实却挑战重重。比如:直接在推特植入可交互的链接进行交互支付是能带来一定的体验升级,但是移动端和桌面端的适配问题,用户点击链接存在的认知差信任问题,链接背后潜在的安全风险障碍问题等等都是影响该交互方式被短期内深度应用的根本。 因此,个人认为,Blinks能给Solana带来什么可以等同于Solana Pay的应用场景能被多少平台和用户接受,尚且缺乏一个“刚性”的驱动因素。试想,用户在Telegram用Bot是为了更快的抢筹,而用户用Blinks的动力会是什么呢?投票、小游戏、打赏等显然都不是有力的驱动场景。 3)虽然仅把Blinks拎出来并不值得过度宣扬,但结合最近Solana宣称的2.0升级,Firedancer多样化客户端的探索,以及Solana结合Paypal推进的Pay应用落地等等因素。可以看出,Solana和Ton的战略定位有所趋同,无非是更趋向助力区块链的大规模落地应用,更趋向web2市场和web3技术框架的融合。 Firedancer作为一种新客户端,目标要解决Solana区块链存在的不可靠(宕机)问题,用创新性的多进程软硬件调配方式,让Solana成为性能更高、并行性更好、资源消耗更低的新一代消费级区块链。 总之,愿景能不能实现还有待观察,但Solana在被诟病的土狗链之外,也总能在某个时间节点交出一些进展性的答卷。今天的Blinks,明天的xxxx,Solana生态始终在进展,这才是Blinks等传递给市场的真正信号吧。

如何看待Solana Blinks:算是一次技术性创新吗?

如何看待最近被热议的 @solana Actions和Blinks?尽管听到了很多“创新性进步”、“大规模应用催化剂”等之类声音,但在我看来,Blinks并没有太大的技术创新,谈Mass Adoption也为时过早,它的出现倒是强化了Solana新一代消费级应用区块链的市场印象,是一次有益的探索。接下来,谈谈我的看法:

1)就技术视角来看,Solana Actions和Blinks就是一组便于开发者集成应用的开发工具。

Actions可视为一种开发适配标准,该标准是一种后端框架,定义了用户在App环境下如何通过一个统一的URL接口来触发链上交易,包括资产转移、NFT交互、投票、质押、打赏等操作;

Blinks则可被认为是一种前端集成技术,允许将一组包含交易意图的复杂的执行参数集成到一个URL中,并且能衔接其他web3 wallet,帮助开发者快捷将Actions交互方法以可视化的流程和体验展现在用户眼前。

具体而言:Actions会把用户触发交易所需的关键信息(比如接收地址、交易指令等基础参数元数据)集成到一个标准化的URL中,用户可以在其他App环境下直接和URL交互,进而触发一个流程来构建、签名并提交一个链上交易。

2)乍一听,这只是一种普通的将URL链接转化成可签名交易的开发工具和服务。这和之前, @SuiNetwork 上的zkSend让用户像发电子邮件一样接收加密货币 ;以及@ton_blockchain 上的mini app让用户在聊天界面内就可以直接发起交互指令等等都属于一类交互体验优化。

其重心并非技术本身,而是有多少开发者基于该交互方式推出了应用,有多少用户接受了此种交互方式等等,可以归类到“交互抽象”范畴,目标为提升用户onboard区块链环境的参与门槛和体验。

不过,理想是美好的,现实却挑战重重。比如:直接在推特植入可交互的链接进行交互支付是能带来一定的体验升级,但是移动端和桌面端的适配问题,用户点击链接存在的认知差信任问题,链接背后潜在的安全风险障碍问题等等都是影响该交互方式被短期内深度应用的根本。

因此,个人认为,Blinks能给Solana带来什么可以等同于Solana Pay的应用场景能被多少平台和用户接受,尚且缺乏一个“刚性”的驱动因素。试想,用户在Telegram用Bot是为了更快的抢筹,而用户用Blinks的动力会是什么呢?投票、小游戏、打赏等显然都不是有力的驱动场景。

3)虽然仅把Blinks拎出来并不值得过度宣扬,但结合最近Solana宣称的2.0升级,Firedancer多样化客户端的探索,以及Solana结合Paypal推进的Pay应用落地等等因素。可以看出,Solana和Ton的战略定位有所趋同,无非是更趋向助力区块链的大规模落地应用,更趋向web2市场和web3技术框架的融合。

Firedancer作为一种新客户端,目标要解决Solana区块链存在的不可靠(宕机)问题,用创新性的多进程软硬件调配方式,让Solana成为性能更高、并行性更好、资源消耗更低的新一代消费级区块链。

总之,愿景能不能实现还有待观察,但Solana在被诟病的土狗链之外,也总能在某个时间节点交出一些进展性的答卷。今天的Blinks,明天的xxxx,Solana生态始终在进展,这才是Blinks等传递给市场的真正信号吧。
如何看待AI+web3融合赛道存在的问题?都在盼望AI+Web3会成为这一轮牛市的催化剂,从VC给的高估值和重注就可见一斑。问题来了,AI+Web3融合赛道目前存在哪些问题?我来谈谈我的看法: 1)AI训练需要大规模的数据,而Web3的用武之地恰恰是做数据追踪以及由此衍生的激励功效。长期看,AI势必需要web3的助力,但需要厘清web3只能解决AI的有限问题。 比如,传统大规模的数据训练、算法持续优化、计算机视觉、语音识别技术、游戏AI等核心领域主要推动力还得靠大规模集中算力和芯片、算法等软硬件适配优化等,诸如深度学习卷积神经网络、强化学习、类脑计算模型等拓展AI能力边界的方向,短期都没有web3立足的可能性; 2)生成式AI只占AI大板块的一个小分支,但却加速了AI和web3的融合。因为生成式AI是一种更偏向应用端的AI普惠技术。理想情况下,基础大模型一般会由大公司利用集中算力搞定并采取开源政策,对其上层的应用市场进行驱动。整体AI市场会逐渐长尾化,模型微调和推理的重要性被凸显。 然而,一旦掌握核心算力和模型资源的公司改变开源政策对整体AI市场都会产生直接影响,为避免此种危机产生,一种更依赖分布式算力架构和分布式推理协作架构的infra就会成为必须。 3)web3可以在AI分布式框架的构建过程中发挥关键作用,比如:在模型训练时,区块链可以为数据源创建唯一标识,做数据去重提高训练效率;在算力不足时,区块链可以利用Tokenomics激励机制构建分布式的AI算力网络;在参数微调环节,区块链可以记录模型的不同版本,追踪模型演变历程同时做精细化控制; 在模型推理环节,可以应用ZK、TEE等技术构建去中心化的推理网络,增进模型间的通信互信;在边缘计算和DePIN集成环节,web3可以帮助构建去中心化的边缘AI网络,带动AI+DePIN物联网的结合。 4)Vitalik此前谈及AI+Web3的结合点时声明了AI可以作为Web3世界的参与者循序渐进融合,因此AI和web3的融合一定会非常缓慢。 一方面,主流web2世界的注意力尚在AI展现功效层面而对AI幕后协作框架并没有太多倚重,存在和web3脱节的问题;另一方面,web3在AI结合领域也还停留在分布式算力网络、分布式推理架构网络、分布式Tokenomics应用网络、分布式AI Agent工具协作网络等基础infra的构建阶段,并没有得到web2主流刚需群体的充分验证和应用。 总之,一句话,AI+Web3方向大势所趋没错,但实际落地发展并没那么快,可能要持续一个周期甚至跨周期才能看到显著进展,需要多一点耐心。

如何看待AI+web3融合赛道存在的问题?

都在盼望AI+Web3会成为这一轮牛市的催化剂,从VC给的高估值和重注就可见一斑。问题来了,AI+Web3融合赛道目前存在哪些问题?我来谈谈我的看法:

1)AI训练需要大规模的数据,而Web3的用武之地恰恰是做数据追踪以及由此衍生的激励功效。长期看,AI势必需要web3的助力,但需要厘清web3只能解决AI的有限问题。

比如,传统大规模的数据训练、算法持续优化、计算机视觉、语音识别技术、游戏AI等核心领域主要推动力还得靠大规模集中算力和芯片、算法等软硬件适配优化等,诸如深度学习卷积神经网络、强化学习、类脑计算模型等拓展AI能力边界的方向,短期都没有web3立足的可能性;

2)生成式AI只占AI大板块的一个小分支,但却加速了AI和web3的融合。因为生成式AI是一种更偏向应用端的AI普惠技术。理想情况下,基础大模型一般会由大公司利用集中算力搞定并采取开源政策,对其上层的应用市场进行驱动。整体AI市场会逐渐长尾化,模型微调和推理的重要性被凸显。

然而,一旦掌握核心算力和模型资源的公司改变开源政策对整体AI市场都会产生直接影响,为避免此种危机产生,一种更依赖分布式算力架构和分布式推理协作架构的infra就会成为必须。

3)web3可以在AI分布式框架的构建过程中发挥关键作用,比如:在模型训练时,区块链可以为数据源创建唯一标识,做数据去重提高训练效率;在算力不足时,区块链可以利用Tokenomics激励机制构建分布式的AI算力网络;在参数微调环节,区块链可以记录模型的不同版本,追踪模型演变历程同时做精细化控制;

在模型推理环节,可以应用ZK、TEE等技术构建去中心化的推理网络,增进模型间的通信互信;在边缘计算和DePIN集成环节,web3可以帮助构建去中心化的边缘AI网络,带动AI+DePIN物联网的结合。

4)Vitalik此前谈及AI+Web3的结合点时声明了AI可以作为Web3世界的参与者循序渐进融合,因此AI和web3的融合一定会非常缓慢。

一方面,主流web2世界的注意力尚在AI展现功效层面而对AI幕后协作框架并没有太多倚重,存在和web3脱节的问题;另一方面,web3在AI结合领域也还停留在分布式算力网络、分布式推理架构网络、分布式Tokenomics应用网络、分布式AI Agent工具协作网络等基础infra的构建阶段,并没有得到web2主流刚需群体的充分验证和应用。

总之,一句话,AI+Web3方向大势所趋没错,但实际落地发展并没那么快,可能要持续一个周期甚至跨周期才能看到显著进展,需要多一点耐心。
如何理解Goat Network推出的比特币原生扩展白皮书?如何理解@GOATRollup 最新发布的比特币Native扩展白皮书?简单而言,GOAT网络将基于乐观挑战证明(OCP)提供的BTC脚本锁定原生安全机制和 @ProjectZKM Entangled Rollup提供的可交互操作统一流动性结算层,提出了一种去中心化且安全的比特币layer2解决方案。具体如何做呢? 由于BTC主网脚本语言存在天然限制,无法通过常规ZK Proof of Validity来保证资产跨链存提的交易即时最终性确认,这使得常见的比特币二层扩展方案都需要一个“第三方可信主体”。 针对此问题 @babylon_chain  提供了一种组合时间锁、一次性签名(EOTS)、多签共识等多种技术构建的独特跨链安全模型。 不过,Babylon的设计依赖主网提供安全性,更像是一个共享安全层。和传统意义上把交易放在二层执行的layer2扩展方案相比,这类安全共识缺乏二层账本以及二层账本在一层的验证机制,若Layer2过度依赖Babylon的方案相当于会失去对自身链的安全控制,因此Babylon更偏好一些资产管理类的扩展方案,而并非常见通用型的安全解决方案。 而Goat Network就定位为一种具有Native安全跨链特性的,更通用的去中心化二层扩展方案。 它的Native原生跨链机制是基于BitVM2思路实现了一种乐观挑战协议(Optimistic Challenge Protocol),所有的计算和交互都在二层离线执行,当“挑战”出现时会在比特币主网执行链上协议,比特币layer1会充当仲裁者来确保安全性。 具体而言: 1)用户在layer2存入(Peg-in)的资产会先由GOAT网络资金池来管理,并锁定在一个n-of-n的比特币多重签名脚本中; 2)用户在layer2发起提现(Peg-out),GOAT网络节点Operator会立即将资产转移给用户,相当于“预支”; 3)完成代付后,Operator会向GOAT网络资金池发起一个包含挑战脚本和资产脚本的交易,要求将自己代付的资产以及相应奖励和手续费等划入节点账户; 4)为防止节点Operator作恶,在此引入了挑战机制,任何用户都可以支付一定BTC资产来调用挑战脚本,若挑战成功,节点Operator的行为被证实不诚实,节点的提款请求会失效,其质押的相应资产会划转到挑战者账户,若挑战不成功,则一定时间后,节点Operator会收到包含预支费用在内的全部资产; 通俗理解,GOAT Network相当于基于Entangled Rollup构建了中间件网络协议,用户每存取一份资产都由Entangled Rollup网络上的节点做“预支”,用户端得到了绝对的安全保障,而节点端则通过挑战者机制(OCP)来排除潜在作恶的可能性,比如,节点Operator构造一个虚假的提款用户,从真实用户的资金池里提取合法资金。 和BitVM2提供的挑战思路有所区别,BitVM2是基于NAND电路解决方案,并通过逻辑门Commitment追踪交易以及Bisection协议来进行挑战,这个过程受比特币主网脚本大小限制,若构造的交易比较复杂效率会较低。 而GOAT Network则基于ZKM实现了SNARK证明,且使用Winternitz签名来优化,因此可以达成最小的Taproot存储单位来达成比特币主网的脚本有效性验证。 有了OCP挑战者证明机制可以保证用户的资产池安全受到比特币主网的“仲裁”保护,但大多数情况下,用户在BTC layer2上执行交易,二层Sequencer负责验证和排序交易,依然存在MEV以及宕机等各种潜在安全隐患。因此GOAT网络同样基于BTC脚本锁定和一次性签名机制实现了Sequencer的去中心化,以此进一步巩固安全信任机制。 之前,我专门写文章分析过Entangled Rollup协议,它是一种统一的可交互操作性层,可以实现节点Operator之间的资产和消息传递,同时用一套去中心化的安全治理机制来保证安全性。 综上,GOAT Network通过OCP挑战者机制和Entangled Rollup统一可交互层为其作为通用型Native跨链比特币二层解决方案提供了基础。 Note:以上解读只为基本的技术逻辑和框架,更多细节内容请详细阅读白皮书内容,可进一步了解:1)OCP挑战者机制如何应用并优化BitVM2的实现效果;2)Entangled Rollup如何实现跨链统一流动性;3)ZKM在比特币脚本功能实现上性能优化细节等等。

如何理解Goat Network推出的比特币原生扩展白皮书?

如何理解@GOATRollup 最新发布的比特币Native扩展白皮书?简单而言,GOAT网络将基于乐观挑战证明(OCP)提供的BTC脚本锁定原生安全机制和 @ProjectZKM Entangled Rollup提供的可交互操作统一流动性结算层,提出了一种去中心化且安全的比特币layer2解决方案。具体如何做呢?

由于BTC主网脚本语言存在天然限制,无法通过常规ZK Proof of Validity来保证资产跨链存提的交易即时最终性确认,这使得常见的比特币二层扩展方案都需要一个“第三方可信主体”。
针对此问题 @babylon_chain  提供了一种组合时间锁、一次性签名(EOTS)、多签共识等多种技术构建的独特跨链安全模型。
不过,Babylon的设计依赖主网提供安全性,更像是一个共享安全层。和传统意义上把交易放在二层执行的layer2扩展方案相比,这类安全共识缺乏二层账本以及二层账本在一层的验证机制,若Layer2过度依赖Babylon的方案相当于会失去对自身链的安全控制,因此Babylon更偏好一些资产管理类的扩展方案,而并非常见通用型的安全解决方案。
而Goat Network就定位为一种具有Native安全跨链特性的,更通用的去中心化二层扩展方案。
它的Native原生跨链机制是基于BitVM2思路实现了一种乐观挑战协议(Optimistic Challenge Protocol),所有的计算和交互都在二层离线执行,当“挑战”出现时会在比特币主网执行链上协议,比特币layer1会充当仲裁者来确保安全性。
具体而言:
1)用户在layer2存入(Peg-in)的资产会先由GOAT网络资金池来管理,并锁定在一个n-of-n的比特币多重签名脚本中;
2)用户在layer2发起提现(Peg-out),GOAT网络节点Operator会立即将资产转移给用户,相当于“预支”;
3)完成代付后,Operator会向GOAT网络资金池发起一个包含挑战脚本和资产脚本的交易,要求将自己代付的资产以及相应奖励和手续费等划入节点账户;
4)为防止节点Operator作恶,在此引入了挑战机制,任何用户都可以支付一定BTC资产来调用挑战脚本,若挑战成功,节点Operator的行为被证实不诚实,节点的提款请求会失效,其质押的相应资产会划转到挑战者账户,若挑战不成功,则一定时间后,节点Operator会收到包含预支费用在内的全部资产;
通俗理解,GOAT Network相当于基于Entangled Rollup构建了中间件网络协议,用户每存取一份资产都由Entangled Rollup网络上的节点做“预支”,用户端得到了绝对的安全保障,而节点端则通过挑战者机制(OCP)来排除潜在作恶的可能性,比如,节点Operator构造一个虚假的提款用户,从真实用户的资金池里提取合法资金。
和BitVM2提供的挑战思路有所区别,BitVM2是基于NAND电路解决方案,并通过逻辑门Commitment追踪交易以及Bisection协议来进行挑战,这个过程受比特币主网脚本大小限制,若构造的交易比较复杂效率会较低。
而GOAT Network则基于ZKM实现了SNARK证明,且使用Winternitz签名来优化,因此可以达成最小的Taproot存储单位来达成比特币主网的脚本有效性验证。
有了OCP挑战者证明机制可以保证用户的资产池安全受到比特币主网的“仲裁”保护,但大多数情况下,用户在BTC layer2上执行交易,二层Sequencer负责验证和排序交易,依然存在MEV以及宕机等各种潜在安全隐患。因此GOAT网络同样基于BTC脚本锁定和一次性签名机制实现了Sequencer的去中心化,以此进一步巩固安全信任机制。
之前,我专门写文章分析过Entangled Rollup协议,它是一种统一的可交互操作性层,可以实现节点Operator之间的资产和消息传递,同时用一套去中心化的安全治理机制来保证安全性。
综上,GOAT Network通过OCP挑战者机制和Entangled Rollup统一可交互层为其作为通用型Native跨链比特币二层解决方案提供了基础。

Note:以上解读只为基本的技术逻辑和框架,更多细节内容请详细阅读白皮书内容,可进一步了解:1)OCP挑战者机制如何应用并优化BitVM2的实现效果;2)Entangled Rollup如何实现跨链统一流动性;3)ZKM在比特币脚本功能实现上性能优化细节等等。
如何看待io.net:AI+DePIN牛市主升浪的“币圈英伟达”?如何看待 @ionet 去中心化云算力网络的后续市场影响? 总的来说,io集AI+DePIN+Solana三大叙事方向为一身,事关Crypto行业能不能通过AI找寻到一个引爆牛市的主升浪出来。某种程度上,称之为“币圈英伟达”也不为过?接下来,简单说下我的看法: 1)io一诞生就被寄予厚望,无论是VC还是矿工以及散户,都亟待io能够在Crypto接轨AI的方向起一个好兆头,有AI方向龙头项目的大预期。io所提供的去中心化云算力解决方案,切中了AI大模型训练方向一个首要矛盾:中小型模型训练和微调、推理的巨量算力“需求”和集中式算力愈发增加的“成本”。 io分布式云算力平台的出现,旨在解决这个矛盾。通过调动IDC数据中心,加密货币矿场以及普通用户的闲置算力,积聚了大量闲置并且低成本的算力,并基于Crypto Tokenomics激励框架,和一系列新型合约标准以及硬件设备标准化等等,把原本几乎不可能产生“协作”的算力经过整合,进而产生应用效能。 因此,io这类分布式算力平台的出现,是Crypto治理框架和AI训练需求场景结合的首个刚需场景,是Crypto攻占AI领域的第一个山头。 2)OpenAI引领的LLM大语言模型在互联网市场语境下正逐渐“垄断化”。我们观察ChatGPT3.5-4.0到Sora再到4o的演化过程就会发现,这类大模型正愈发智能和多模态化。 这类大模型能集成图、文、视频,甚至结合机器人、物联网设备还能做到实时动态输出。但这一切前提都建立在算力集中和能耗大的基础上。这样下去,中心化AI服务会逐步趋向寡头垄断,少数科技公司会掌控AI技术的发展方向,势必会限制多样化的创新。 io等分布式算力平台的出现,可以给这些长尾需求提供一个低门槛、更灵活,更定制化,且还能发挥Tokenomics社区激励价值的平台,帮助它们在更垂直、细分的应用场景内(供应链金融、精准医疗、个性化教育等)发挥潜在价值。 何况,Tokenomics能将算力提供者、开发者、用户等利益相关多方绑定,本就适合在一些传统算力资源可能忽略的边缘领域发挥奇效。集中算力会优先被作用到大语言模型、机器学习等通用性强、适用范围广、商业变现前景更广阔的领域。 这是我一直认为AI+DePIN能成为牛市主升浪的核心原因,因为这个赛道的火爆不限于存量Crypto行业的内卷,可通过实实在在的需求供应,能为Crypto场内吸引来增量用户和项目方。 3)io基本业务直接对标亚马逊、阿里云等云服务,构建了IO Cloud集群,同时集成了 Render Network、Filecoin等供应端的GPU资源,这让其提供的GPU资源具有了极强的可扩展性。因此,一旦龙头地位形成,自然会通过聚合其他闲散算力平台的资源,而进一步降低其成本效益。 当然,若io能在分布式云算力市场站稳脚跟,也会直接对原本Crypto行业的云存储( @Filecoin ),分布式协处理器(Livepeer)、分布式计算(Golem)云知识产权IP确权( @StoryProtocol )等,以及DePIN基础设施、中间件、边缘AI、RWA等衍生方向都会产生明显的带动可能性。 也许会有人诟病,io的落地场景目前叙事性过强,但Crypto领域强情绪Drive的当下,若io能激活AI+DePIN上下游一系列关联项目热度,其本身叙事层的价值就足够有行业壁垒了。 加之DePIN表面上看还是硬件挖矿那一套,但背后的矿工链条、节点网络架构、软硬件一体化的催化效应,会引入更广泛的增量市场用户参与。(别低估了Pan圈的魔力) 以上 尽管现在称其为“币圈英伟达”恐怕还为时过早,但确实可以很形象地感知到,io接下来的表现对整个AI+DePIN赛道的提振作用。无论怎样,应该给予其相应的市场预期,这轮一波三折的牛市,太需要一个主升浪拉开帷幕了。

如何看待io.net:AI+DePIN牛市主升浪的“币圈英伟达”?

如何看待 @ionet 去中心化云算力网络的后续市场影响? 总的来说,io集AI+DePIN+Solana三大叙事方向为一身,事关Crypto行业能不能通过AI找寻到一个引爆牛市的主升浪出来。某种程度上,称之为“币圈英伟达”也不为过?接下来,简单说下我的看法:

1)io一诞生就被寄予厚望,无论是VC还是矿工以及散户,都亟待io能够在Crypto接轨AI的方向起一个好兆头,有AI方向龙头项目的大预期。io所提供的去中心化云算力解决方案,切中了AI大模型训练方向一个首要矛盾:中小型模型训练和微调、推理的巨量算力“需求”和集中式算力愈发增加的“成本”。

io分布式云算力平台的出现,旨在解决这个矛盾。通过调动IDC数据中心,加密货币矿场以及普通用户的闲置算力,积聚了大量闲置并且低成本的算力,并基于Crypto Tokenomics激励框架,和一系列新型合约标准以及硬件设备标准化等等,把原本几乎不可能产生“协作”的算力经过整合,进而产生应用效能。

因此,io这类分布式算力平台的出现,是Crypto治理框架和AI训练需求场景结合的首个刚需场景,是Crypto攻占AI领域的第一个山头。

2)OpenAI引领的LLM大语言模型在互联网市场语境下正逐渐“垄断化”。我们观察ChatGPT3.5-4.0到Sora再到4o的演化过程就会发现,这类大模型正愈发智能和多模态化。

这类大模型能集成图、文、视频,甚至结合机器人、物联网设备还能做到实时动态输出。但这一切前提都建立在算力集中和能耗大的基础上。这样下去,中心化AI服务会逐步趋向寡头垄断,少数科技公司会掌控AI技术的发展方向,势必会限制多样化的创新。

io等分布式算力平台的出现,可以给这些长尾需求提供一个低门槛、更灵活,更定制化,且还能发挥Tokenomics社区激励价值的平台,帮助它们在更垂直、细分的应用场景内(供应链金融、精准医疗、个性化教育等)发挥潜在价值。

何况,Tokenomics能将算力提供者、开发者、用户等利益相关多方绑定,本就适合在一些传统算力资源可能忽略的边缘领域发挥奇效。集中算力会优先被作用到大语言模型、机器学习等通用性强、适用范围广、商业变现前景更广阔的领域。

这是我一直认为AI+DePIN能成为牛市主升浪的核心原因,因为这个赛道的火爆不限于存量Crypto行业的内卷,可通过实实在在的需求供应,能为Crypto场内吸引来增量用户和项目方。

3)io基本业务直接对标亚马逊、阿里云等云服务,构建了IO Cloud集群,同时集成了 Render Network、Filecoin等供应端的GPU资源,这让其提供的GPU资源具有了极强的可扩展性。因此,一旦龙头地位形成,自然会通过聚合其他闲散算力平台的资源,而进一步降低其成本效益。

当然,若io能在分布式云算力市场站稳脚跟,也会直接对原本Crypto行业的云存储( @Filecoin ),分布式协处理器(Livepeer)、分布式计算(Golem)云知识产权IP确权( @StoryProtocol )等,以及DePIN基础设施、中间件、边缘AI、RWA等衍生方向都会产生明显的带动可能性。

也许会有人诟病,io的落地场景目前叙事性过强,但Crypto领域强情绪Drive的当下,若io能激活AI+DePIN上下游一系列关联项目热度,其本身叙事层的价值就足够有行业壁垒了。

加之DePIN表面上看还是硬件挖矿那一套,但背后的矿工链条、节点网络架构、软硬件一体化的催化效应,会引入更广泛的增量市场用户参与。(别低估了Pan圈的魔力)

以上

尽管现在称其为“币圈英伟达”恐怕还为时过早,但确实可以很形象地感知到,io接下来的表现对整个AI+DePIN赛道的提振作用。无论怎样,应该给予其相应的市场预期,这轮一波三折的牛市,太需要一个主升浪拉开帷幕了。
如何看待Paticle Network和Babylon携手合作:将双质押安全模型引入POS公链?如何看待 ParticleNetwork 和 babylon的携手合作? 简单而言:Particle基于链抽象框架构建的Omini统一入口,要协调处理大量跨链通信和交易,引入Babylon的Dual Staking双质押模型后,$PARTI +$BTC的双重安全保障可为Particle POS链的底层安全运转机制实现“双保险”。接下来,简单说说我的理解: 1)Particle Network提供的链抽象L1网络,基于Cosmos SDK模块化底层架构构建,使得其能同时打通EVM环境、BTC 无状态链环境、以及其他支持智能合约的POS链环境等。 之前我多篇文章分析过,本质上就是封装了一整套Interoperability“可交互操作性”能力,主要包含:底层语言编译、账户模型兼容、智能合约标准互通、以及方便统一用户UX体验的其他组件设计等等。 要成为链接多种异构链环境的统一Access入口链,Particle Chain要确保本身是一条很强大的POS链,继而可以实现统一的全链账户,由Particle链的总合约来调度各个异构链上的账户和状态信息同步和校验,跨链信息的路由和处理等等。对于BTC这类非智能合约链,Particle专门推出了BTC Connect实现了Unisat等BTC原生钱包和EVM Compatible POS链的通信互联,实现机制会比正常的POS链间通信更复杂一些。 熟悉Cosmos的IBC中继器处理机制逻辑的话,就会明白,Particle Chain要在其他异构链上部署子合约,同时要在主链上用总合约来监听各个链上的交易和状态更新,并且还要有条不紊响应和处理大量需求。 况且,Particle本着链抽象实现了很多交互体验升级,用户感知到的有限交互后边会有更复杂的合约交互逻辑,Particle通过去中心化Bundler服务来接受用户的复杂intent操作指令并进行了复杂Solver处理。这个过程中对于Relayer中继器的协调工作是否“安全”要求更高。 通常POS链框架底层需要通过质押原生代币Token来确保节点不作恶,但若早期代币价格波动比较大时,恶意节点就可能囤积大量Token来实现治理攻击可能,这会严重破坏链的稳定性。何况像Particle这样协调大量链间通信的重要枢纽链,就更容不得其共识治理层有半点差错。 2)最近,Babylon获得Paradigm领投的巨额融资,其Native的技术安全机制受到行业公允。作为最早一批上线Babylon Dual Staking双质押模型的公链。Particle和Babylon的合作目标就是为了“加固”底层POS链的安全机制。 由于双方都在BTC生态有很深地集成和应用,因此强强联合会把Particle链的安全底层架构直接提升一个Level。技术逻辑,如何实现呢? Babylon则通过时间锁、一次性签名EOTS、最终轮次多签共识等技术方案,可以实现用户向二层网络跨链的资产还停留在主网上,继而不必担心二层POS链作恶给用户资产造成的威胁。具体而言,Babylon通过组合多种技术,实现了“层级化”的资产安全模型: 第一层安全,用户资产通过时间锁锁在主网多签合约内,使得二层网络出现问题,用户资产不会立即受损,通过比特币主网的高安全性给用户提供基础保障; 第二层安全,用户在二层网络受到攻击的条件很难达成,受最终轮次多签共识的约束,攻击者不仅要在二层质押原生Token,还得在BTC主网上锁定一定的BTC。即使攻击者能通过二层低价Token获取了“治理”权,要真正得逞还得拥有相应的主网BTC资产,这个作恶“成本”大到一般节点根本不敢想。 第三层安全,Babylon巧妙地利用了BTC时间戳来防止“长程攻击”,即便攻击者试图分叉二层链还得对主网进行最长链分叉,考虑到比特币主链巨大的算力和安全性,这种攻击难度显然也会是个天文数字级别的; 以上 基于上述理解,再来看Particle+Babylon的同盟合作,价值意义就不言而喻了。

如何看待Paticle Network和Babylon携手合作:将双质押安全模型引入POS公链?

如何看待 ParticleNetwork 和 babylon的携手合作? 简单而言:Particle基于链抽象框架构建的Omini统一入口,要协调处理大量跨链通信和交易,引入Babylon的Dual Staking双质押模型后,$PARTI +$BTC的双重安全保障可为Particle POS链的底层安全运转机制实现“双保险”。接下来,简单说说我的理解:
1)Particle Network提供的链抽象L1网络,基于Cosmos SDK模块化底层架构构建,使得其能同时打通EVM环境、BTC 无状态链环境、以及其他支持智能合约的POS链环境等。
之前我多篇文章分析过,本质上就是封装了一整套Interoperability“可交互操作性”能力,主要包含:底层语言编译、账户模型兼容、智能合约标准互通、以及方便统一用户UX体验的其他组件设计等等。

要成为链接多种异构链环境的统一Access入口链,Particle Chain要确保本身是一条很强大的POS链,继而可以实现统一的全链账户,由Particle链的总合约来调度各个异构链上的账户和状态信息同步和校验,跨链信息的路由和处理等等。对于BTC这类非智能合约链,Particle专门推出了BTC Connect实现了Unisat等BTC原生钱包和EVM Compatible POS链的通信互联,实现机制会比正常的POS链间通信更复杂一些。

熟悉Cosmos的IBC中继器处理机制逻辑的话,就会明白,Particle Chain要在其他异构链上部署子合约,同时要在主链上用总合约来监听各个链上的交易和状态更新,并且还要有条不紊响应和处理大量需求。

况且,Particle本着链抽象实现了很多交互体验升级,用户感知到的有限交互后边会有更复杂的合约交互逻辑,Particle通过去中心化Bundler服务来接受用户的复杂intent操作指令并进行了复杂Solver处理。这个过程中对于Relayer中继器的协调工作是否“安全”要求更高。

通常POS链框架底层需要通过质押原生代币Token来确保节点不作恶,但若早期代币价格波动比较大时,恶意节点就可能囤积大量Token来实现治理攻击可能,这会严重破坏链的稳定性。何况像Particle这样协调大量链间通信的重要枢纽链,就更容不得其共识治理层有半点差错。

2)最近,Babylon获得Paradigm领投的巨额融资,其Native的技术安全机制受到行业公允。作为最早一批上线Babylon Dual Staking双质押模型的公链。Particle和Babylon的合作目标就是为了“加固”底层POS链的安全机制。

由于双方都在BTC生态有很深地集成和应用,因此强强联合会把Particle链的安全底层架构直接提升一个Level。技术逻辑,如何实现呢?

Babylon则通过时间锁、一次性签名EOTS、最终轮次多签共识等技术方案,可以实现用户向二层网络跨链的资产还停留在主网上,继而不必担心二层POS链作恶给用户资产造成的威胁。具体而言,Babylon通过组合多种技术,实现了“层级化”的资产安全模型:

第一层安全,用户资产通过时间锁锁在主网多签合约内,使得二层网络出现问题,用户资产不会立即受损,通过比特币主网的高安全性给用户提供基础保障;

第二层安全,用户在二层网络受到攻击的条件很难达成,受最终轮次多签共识的约束,攻击者不仅要在二层质押原生Token,还得在BTC主网上锁定一定的BTC。即使攻击者能通过二层低价Token获取了“治理”权,要真正得逞还得拥有相应的主网BTC资产,这个作恶“成本”大到一般节点根本不敢想。

第三层安全,Babylon巧妙地利用了BTC时间戳来防止“长程攻击”,即便攻击者试图分叉二层链还得对主网进行最长链分叉,考虑到比特币主链巨大的算力和安全性,这种攻击难度显然也会是个天文数字级别的;

以上

基于上述理解,再来看Particle+Babylon的同盟合作,价值意义就不言而喻了。
如何看待 Starknet 宣布进军BTC layer2领域?如何看待 @Starknet 宣布进军BTC layer2领域?简而言之:1)Starknet扩展比特币的先决条件是OP_CAT提案通过在先,存在不确定性;2)Starknet进军BTC layer2或可打破BTC生态东方亮西方不亮的尴尬局面;3)layer2趋向layer1化的发展趋势增强,高性能会成为Starknet的差异化优势?接下来,谈谈我的看法: 1)OP_CAT可以实现多个UTXO解锁Script字节串的组合链接处理,进而大大提升BTC主网的可编程特性。OP_CAT可以让脚本片段组合起来,STARK证明又是一种极简且高效的计算验证方式,有了OP_CAT的基础,Starknet自然具备了通过STARK证明向BTC主网Batch交易并进行ZK Validity有效性验证的能力。 然而,OP_CAT能否被通过目前尚不确定,即使OP_CAT通过距离其完美应对大批量layer2交易的组合验证处理也存在诸多未知挑战。因此,Starknet进军BTC layer2只能算一个叙事方向。 理论上,只要OP_CAT通过,不止Starknet,其他以太坊具备ZK-Rollup阵营的layer2也都可以列队切入,其他像BitVM、AVM、RGB、RGB++、闪电网络等BTC扩展方案也都会得到“增益Buff”,到时候Starknet的扩展方案能不能占优势还未知。 2)我反倒认为,Starknet无论叙事也好,还是野心勃勃扩大市场应用场景也好,它能选定BTC layer2方向对整体BTC生态都算一大利好,至少可以为BTC生态代入更多的西方资本关注,为BTC layer2存在的合理性提供更有力支撑。 而且Starknet这个level的项目能跳出来催生OP_CAT的落地,多少会增加一些通过可能性,这么高调背后或许会有一些资本运作。(虽然Bitcoin Core成员 PeterTodd 已经公开发难称,Starknet入局又给反对OP_CAT增加了新理由🤣,认为这会给比特币带来破坏性影响。 积极点看,带动Starknet背后的资本Bullish BTC layer2,接入Starknet所辐射的生态开发者,同时为接轨BTC生态Starknet在相应技术标准和新技术上的探索精进,对于Starknet链综合能力继续增强,对于BTC layer2方向吸引更多的资本和开发者等,都具有“旗帜性”号召性意义。 3)之前我写过文章称,随着模块化思想把DA层、执行层、甚至结算层的剥离再组合,layer2项目正逐渐layer1化。现在来看,连以太坊的最忠实layer2项目Starknet都宣布“倒戈”了,不是孩子大了不好管教了,而是往前一步海阔天空而已。 大家肯定能觉察到,随着OP-Rollup和ZK-Rollup都相继推出了Stack战略,“一键发链”和“Rollup as a Service”的轻量化部署服务带动,发layer2链的成本、效率等门槛降到了空前低点,问题来了,链多了,生态应用和用户增长跟不上怎么办? 只能进一步卷技术可拓展性叙事,Starknet前阵子发文称,Starknet已经是TPS最高的链,Fee费用也降到了$0.01,同时还支持并行交易处理,之后的Volition还会进一步降低DA成本等等,然而,Who Cares? 这些并不能给市场带来新增长预期,相比之下,如果Starknet 能脱离以太坊延伸到比特币应用场景就不一样了。 因为一旦打破以太坊主网束缚,Starknet的想象空间就不再局限于layer2了,它的ZK技术底层和并行交易、Cario语言等原先高性能的基础为成为其区别于其他layer2的核心优势。 因为,layer2要变得layer1化,必然要以超高性能技术底子做基础,而Starknet并不缺技术。显然,这个角度看,市场对于Starknet的市场预期很难不变大。天知道,哪天Starknet不会发个通知要成为一个ZK统一层,要成为全链环境的ZK基础设施。 Anyway,一旦突破layer2的叙事束缚,Starknet的想象空间会大为不同。

如何看待 Starknet 宣布进军BTC layer2领域?

如何看待 @Starknet 宣布进军BTC layer2领域?简而言之:1)Starknet扩展比特币的先决条件是OP_CAT提案通过在先,存在不确定性;2)Starknet进军BTC layer2或可打破BTC生态东方亮西方不亮的尴尬局面;3)layer2趋向layer1化的发展趋势增强,高性能会成为Starknet的差异化优势?接下来,谈谈我的看法:

1)OP_CAT可以实现多个UTXO解锁Script字节串的组合链接处理,进而大大提升BTC主网的可编程特性。OP_CAT可以让脚本片段组合起来,STARK证明又是一种极简且高效的计算验证方式,有了OP_CAT的基础,Starknet自然具备了通过STARK证明向BTC主网Batch交易并进行ZK Validity有效性验证的能力。

然而,OP_CAT能否被通过目前尚不确定,即使OP_CAT通过距离其完美应对大批量layer2交易的组合验证处理也存在诸多未知挑战。因此,Starknet进军BTC layer2只能算一个叙事方向。

理论上,只要OP_CAT通过,不止Starknet,其他以太坊具备ZK-Rollup阵营的layer2也都可以列队切入,其他像BitVM、AVM、RGB、RGB++、闪电网络等BTC扩展方案也都会得到“增益Buff”,到时候Starknet的扩展方案能不能占优势还未知。
2)我反倒认为,Starknet无论叙事也好,还是野心勃勃扩大市场应用场景也好,它能选定BTC layer2方向对整体BTC生态都算一大利好,至少可以为BTC生态代入更多的西方资本关注,为BTC layer2存在的合理性提供更有力支撑。

而且Starknet这个level的项目能跳出来催生OP_CAT的落地,多少会增加一些通过可能性,这么高调背后或许会有一些资本运作。(虽然Bitcoin Core成员 PeterTodd 已经公开发难称,Starknet入局又给反对OP_CAT增加了新理由🤣,认为这会给比特币带来破坏性影响。

积极点看,带动Starknet背后的资本Bullish BTC layer2,接入Starknet所辐射的生态开发者,同时为接轨BTC生态Starknet在相应技术标准和新技术上的探索精进,对于Starknet链综合能力继续增强,对于BTC layer2方向吸引更多的资本和开发者等,都具有“旗帜性”号召性意义。

3)之前我写过文章称,随着模块化思想把DA层、执行层、甚至结算层的剥离再组合,layer2项目正逐渐layer1化。现在来看,连以太坊的最忠实layer2项目Starknet都宣布“倒戈”了,不是孩子大了不好管教了,而是往前一步海阔天空而已。
大家肯定能觉察到,随着OP-Rollup和ZK-Rollup都相继推出了Stack战略,“一键发链”和“Rollup as a Service”的轻量化部署服务带动,发layer2链的成本、效率等门槛降到了空前低点,问题来了,链多了,生态应用和用户增长跟不上怎么办?

只能进一步卷技术可拓展性叙事,Starknet前阵子发文称,Starknet已经是TPS最高的链,Fee费用也降到了$0.01,同时还支持并行交易处理,之后的Volition还会进一步降低DA成本等等,然而,Who Cares? 这些并不能给市场带来新增长预期,相比之下,如果Starknet 能脱离以太坊延伸到比特币应用场景就不一样了。
因为一旦打破以太坊主网束缚,Starknet的想象空间就不再局限于layer2了,它的ZK技术底层和并行交易、Cario语言等原先高性能的基础为成为其区别于其他layer2的核心优势。
因为,layer2要变得layer1化,必然要以超高性能技术底子做基础,而Starknet并不缺技术。显然,这个角度看,市场对于Starknet的市场预期很难不变大。天知道,哪天Starknet不会发个通知要成为一个ZK统一层,要成为全链环境的ZK基础设施。

Anyway,一旦突破layer2的叙事束缚,Starknet的想象空间会大为不同。
如何看待预言机赛道黑马API3:开源协议+DAO治理有更广阔的商业空间?如何看待被誉为预言机赛道黑马的 @API3DAO ?最近,DWFlabs领投API3 400万美元的消息又引起了市场对于API3增长潜力的讨论。和Chainlink、Pyth等预言机服务商比,API3协议“轻量化”集成方式,以及API3 Market +OEV Network等DAO治理模型,让其展现出了更广阔的商业想象空间。接下来,说说我的看法: 1)简单来说,API3是一个由开源协议驱动、DAO经济体激励的直接连接API数据提供方和DApp智能合约数据需求方的Oracle连接器。区别于Chainlink的“中间件”节点服务第三方网络,API3的第一方预言机,免去了第三方网络的“信任”环节。 以开源协议集成的方式切入Oracle市场,意味着:更轻量化和定制化,API3的Airnode让满足基本运维能力的“节点”都能以轻量化的方式部署预言机服务,尤其是一些直接拥有数据源的API提供方可以通过Airnode直接将原始数据供给DApp智能合约需求方。 比如:一些新锐公链的主网、甚至测试网等都可以集成一些Price数据信息。若想成为Chainlink的数据源,API节点只能被动等待,而通过API3协议就可以主动甚至定制专属的Oracle价格服务。理论上,只要API3节点符合Airnode协议的集成框架且遵循API3 DAO的质押治理流程,就能快捷、低成本、高效地加入Oracle服务网络中。 如果说Chainlink等预言机随着品牌强化会逐渐偏好中、头部DApp应用项目提供预言机服务,API3切中的是一个更广阔的长尾DApp应用市场。 有人说,开源协议在当中不也要收集、聚合并适配数据,也应该被视为一个“中间件”,没错,问题在于,这个中间协议重在提供集成到Oracle服务中的集成方法和治理标准和规范,都是开源透明的标准,可由API数据提供方“主动”选择接入。而其他第三方Oracle中间服务网络,有自主的节点和治理机制,筛选什么数据,如何给合约喂价,如何处理潜在清算套利机会等完全由第三方网络控制。这种中间件网络的“高效率”和“可靠性”服务宗旨和开源协议追求的“透明性”和“免信任”存在本质差异。 2)API3基于Polygon CDK构建的API3 Market和OEV Network对改变Oracle预言机市场格局至关重要,相当于把预言机业务流程中潜在的“套利”蛋糕以更公开、透明且有序的治理规则摆上了明面。 API3 Market目标为开发者提供便捷、低成本的的数据集成服务,可以快速与新网络集成,相当于一个Oracle Stack堆栈服务,为开发者提供无缝且友好的工具服务。这会降低数据源成为API数据供应方以及数据需求方DApp的门槛,进一步扩大API3在长尾Oracle市场的规模效应。 OEV Network作为一条layer2预言机公链,目前还未正式落地上线,但其目标则是要通过一套公开透明的治理机制,把原本Oracle数据供应方可通过数据清算权获取“套利”机会的大蛋糕,以公开拍卖及利润分配的方式返还给用户。 在我看来,这是Oracle预言机市场必然要演变的趋势,也是改变MEV市场商业格局的关键。 要深刻理解OEV Network这类Oracle破局者的的意义,可以细品下Vitalik最新说的一句话:“DAO”意味着项目,“Official”则意味着骗局。去中心化治理机制存在的意义就是要把潜藏的利润以更公平的机制分配出去,而不能让其成为个别节点滋养腐败扰乱正常市场秩序的“动机”。试想,若Oracle节点给DApp喂价势必会存在清算机会,有清算资格的节点供应方和清算人可以串谋起来共同博取MEV利润,这就不可能存在公平。 而若把清算资格公开成“拍卖”机制,出价最高这可获得下一次预言机数据的Update权即MEV利润,然后OEV Network再把从中所得的利润分配给DApp用户,相当于从用户身上攫取的利润,又返还给了用户。这样一来,即不影响API节点做清算人的动力,也不会伤害用户,一举两得。 3)单纯从商业视角看,API3在预言机赛道的天花板会更高。因为它以开源协议+无缝集成工具的低门槛切入,只要有基础节点运维能力的“节点Operator”就可以选择加入API3提供的Oracle去中心化治理网络中参与“挖矿”。这意味着,以太坊生态AVS(主动验证服务)节点服务方,这类“增强型”节点,完全可以接入API3的预言机网络中,为其AVS网络拓展新的业务增长方向,进而巩固其底层的Restaking经济模型。 逻辑也不难理解,选择了开源协议的轻量化集成方式,其商业前景一定会更广阔。况且,Chainlink和Pyth等主要Oracle竞品都选择了偏向DeFi金融场景,对他们而言选择了占据绝大多数流动性的DeFi客户,也同时限制了在更广阔应用场景的商业触角延展能力,而这些都是API3可以展开联想的地方。除了DeFi之外,在RWA、外汇、股票、期货、智能交通、智能医疗、智能家居,甚至大模型数据的实时喂送和训练等方面都能发挥作用。 总之,做开源技术协议和DAO治理框架确实会更有商业想象空间,预言机、zkVM、ZK跨链桥等任何亟需“免信任”的领域都可以用此种方式破局。

如何看待预言机赛道黑马API3:开源协议+DAO治理有更广阔的商业空间?

如何看待被誉为预言机赛道黑马的 @API3DAO ?最近,DWFlabs领投API3 400万美元的消息又引起了市场对于API3增长潜力的讨论。和Chainlink、Pyth等预言机服务商比,API3协议“轻量化”集成方式,以及API3 Market +OEV Network等DAO治理模型,让其展现出了更广阔的商业想象空间。接下来,说说我的看法:
1)简单来说,API3是一个由开源协议驱动、DAO经济体激励的直接连接API数据提供方和DApp智能合约数据需求方的Oracle连接器。区别于Chainlink的“中间件”节点服务第三方网络,API3的第一方预言机,免去了第三方网络的“信任”环节。
以开源协议集成的方式切入Oracle市场,意味着:更轻量化和定制化,API3的Airnode让满足基本运维能力的“节点”都能以轻量化的方式部署预言机服务,尤其是一些直接拥有数据源的API提供方可以通过Airnode直接将原始数据供给DApp智能合约需求方。
比如:一些新锐公链的主网、甚至测试网等都可以集成一些Price数据信息。若想成为Chainlink的数据源,API节点只能被动等待,而通过API3协议就可以主动甚至定制专属的Oracle价格服务。理论上,只要API3节点符合Airnode协议的集成框架且遵循API3 DAO的质押治理流程,就能快捷、低成本、高效地加入Oracle服务网络中。
如果说Chainlink等预言机随着品牌强化会逐渐偏好中、头部DApp应用项目提供预言机服务,API3切中的是一个更广阔的长尾DApp应用市场。

有人说,开源协议在当中不也要收集、聚合并适配数据,也应该被视为一个“中间件”,没错,问题在于,这个中间协议重在提供集成到Oracle服务中的集成方法和治理标准和规范,都是开源透明的标准,可由API数据提供方“主动”选择接入。而其他第三方Oracle中间服务网络,有自主的节点和治理机制,筛选什么数据,如何给合约喂价,如何处理潜在清算套利机会等完全由第三方网络控制。这种中间件网络的“高效率”和“可靠性”服务宗旨和开源协议追求的“透明性”和“免信任”存在本质差异。
2)API3基于Polygon CDK构建的API3 Market和OEV Network对改变Oracle预言机市场格局至关重要,相当于把预言机业务流程中潜在的“套利”蛋糕以更公开、透明且有序的治理规则摆上了明面。

API3 Market目标为开发者提供便捷、低成本的的数据集成服务,可以快速与新网络集成,相当于一个Oracle Stack堆栈服务,为开发者提供无缝且友好的工具服务。这会降低数据源成为API数据供应方以及数据需求方DApp的门槛,进一步扩大API3在长尾Oracle市场的规模效应。

OEV Network作为一条layer2预言机公链,目前还未正式落地上线,但其目标则是要通过一套公开透明的治理机制,把原本Oracle数据供应方可通过数据清算权获取“套利”机会的大蛋糕,以公开拍卖及利润分配的方式返还给用户。
在我看来,这是Oracle预言机市场必然要演变的趋势,也是改变MEV市场商业格局的关键。
要深刻理解OEV Network这类Oracle破局者的的意义,可以细品下Vitalik最新说的一句话:“DAO”意味着项目,“Official”则意味着骗局。去中心化治理机制存在的意义就是要把潜藏的利润以更公平的机制分配出去,而不能让其成为个别节点滋养腐败扰乱正常市场秩序的“动机”。试想,若Oracle节点给DApp喂价势必会存在清算机会,有清算资格的节点供应方和清算人可以串谋起来共同博取MEV利润,这就不可能存在公平。

而若把清算资格公开成“拍卖”机制,出价最高这可获得下一次预言机数据的Update权即MEV利润,然后OEV Network再把从中所得的利润分配给DApp用户,相当于从用户身上攫取的利润,又返还给了用户。这样一来,即不影响API节点做清算人的动力,也不会伤害用户,一举两得。

3)单纯从商业视角看,API3在预言机赛道的天花板会更高。因为它以开源协议+无缝集成工具的低门槛切入,只要有基础节点运维能力的“节点Operator”就可以选择加入API3提供的Oracle去中心化治理网络中参与“挖矿”。这意味着,以太坊生态AVS(主动验证服务)节点服务方,这类“增强型”节点,完全可以接入API3的预言机网络中,为其AVS网络拓展新的业务增长方向,进而巩固其底层的Restaking经济模型。

逻辑也不难理解,选择了开源协议的轻量化集成方式,其商业前景一定会更广阔。况且,Chainlink和Pyth等主要Oracle竞品都选择了偏向DeFi金融场景,对他们而言选择了占据绝大多数流动性的DeFi客户,也同时限制了在更广阔应用场景的商业触角延展能力,而这些都是API3可以展开联想的地方。除了DeFi之外,在RWA、外汇、股票、期货、智能交通、智能医疗、智能家居,甚至大模型数据的实时喂送和训练等方面都能发挥作用。

总之,做开源技术协议和DAO治理框架确实会更有商业想象空间,预言机、zkVM、ZK跨链桥等任何亟需“免信任”的领域都可以用此种方式破局。
浏览最新的加密货币新闻
⚡️ 参与加密货币领域的最新讨论
💬 与喜爱的创作者互动
👍 查看感兴趣的内容
邮箱/手机号码

实时新闻

--
查看更多

热门文章

查看更多
网站地图
Cookie Preferences
平台条款和条件