作者:深潮 TechFlow
基建永不眠,链比应用多。
当市场被各种天王项目空投的PUA折磨的叫苦不迭时,一级市场还在"造天王"的路上狂奔。
昨天夜里,另一个阵容炸裂的L1横空出世 --- MegaETH,种子轮融资 2000 万美元,Dragonfly 领投,Figment Capital、Robot Ventures 和 Big Brain Holdings 等机构参投,天使投资人包括 Vitalik、Cobie、Joseph Lubin、Sreeram Kannan、Kartik Talwar 等。
顶级VC领投、Vitalik 等圈内大神们充当天使投资人、项目名字直接带上了ETH... 注意力有限的加密市场里,这些标签无不在给项目找“正统性”。
从官方项目描述来看,MegaETH 还是能用一个熟悉的字就能概括---快。
首个实时区块链(Real-Time Blockchain)、以闪电般的速度传输交易、亚毫秒级延迟和每秒超过 100,000 笔交易...
在市场所有参与者都对公链性能叙事审美疲劳的现在,MegaETH 靠什么突出重围?
我们扒了扒 MegaETH 的白皮书,试图找到答案。
链很多,但都无法做到“实时化”
假设除开叙事和炒作,为什么市场上还需要一个叫MegaETH的区块链?
MegaETH 自己给出的答案是,简单地创建更多链并不能解决区块链可扩展性问题,现在的L1/L2们面临着共性问题:
所有 EVM 链都表现出较低的交易吞吐量;
其次,由于计算能力稀缺,复杂的应用程序无法上链;
最后,需要高更新率或快速反馈循环的应用程序在较长的出块时间内是不可行的。
也就是说,现行所有的区块链其实无法做到:
实时结算:交易在到达区块链时立即被处理并且结果几乎即时发布。
实时处理:区块链系统能够在极短的时间内处理和验证大量的交易。
这种实时化,落到实际应用场景里是什么东西?
比如高频交易,需要能够在毫秒内完成订单的下单和取消操作。又或者是实时战斗或物理仿真的游戏,需要区块链能够以极高的频率更新状态。很显然现在的链都做不到。
节点专业化,性能实时化
那么,要做到上述的“实时化”, MegaETH 的大概思路是啥?太长不看版就是:
节点专业化:通过分离交易执行任务和完整节点的职责,减少共识开销。
如果要具体一点,可以看到MegaETH 中有三个主要角色:排序器、证明者和全节点。
具体来说,MegaETH 中只有一个活跃的排序节点(sequencer)在任意时间执行交易,其它节点通过p2p网络接收状态差异并更新本地状态,而无需重新执行交易。
排序器负责对用户交易进行排序和执行。但是,MegaETH 在任何给定时间都只有一个活跃的排序器,从而消除了正常执行期间的共识开销。
证明者使用 无状态验证方案,以异步和无序的方式验证区块。
一个MegaETH简易的工作流程如下:
1..交易处理和排序:用户提交的交易首先被发送到Sequencer(排序器),排序器按顺序处理这些交易,生成新的区块和见证数据。
2.数据发布:排序器将生成的区块、见证数据和状态差异发布到EigenDA(数据可用性层),确保这些数据在网络中可用。
3.区块验证:Prover Network(证明网络)从排序器获取区块和见证数据,通过专用硬件进行验证,生成证明并返回给排序器。
4. 状态更新:Fullnode Network(全节点网络)从排序器接收状态差异,更新本地状态,同时可以通过证明网络验证区块的有效性,确保区块链的一致性和安全性。
先测量,再执行
从白皮书其他内容看,MegaETH 自己也意识到了,这个“节点专业化”的思路不错,但不意味着能够非常简单的将思路付诸于实践。
在具体做链时,MegaETH 有个思路其实不错:先测量,再执行。即先进行深入的性能测量,以确定现有区块链系统的真正问题,再来看怎么把这个节点专业化的思路放到现行系统中解决问题。
那么,MegaETH 测出了哪些问题?
下面这部分其实都离韭菜们比较远,没有耐心的话可以直接翻到下一章节。
交易执行:他们的实验显示,即使使用配备512GB内存的强大服务器,现有的以太坊执行客户端Reth在实时同步设置中也只能达到约1000 TPS(每秒交易数),这表明现有系统在执行交易和更新存在显著的性能瓶颈。
并行执行:来到大热的并行EVM概念,其实也有一些性能问题没解决。并行EVM实际生产中的加速效果受到工作负载并行度的限制。MegaETH的测量显示,最近的以太坊区块中,中位数并行度小于2,即使将多个区块合并,中位数并行度也仅增加到2.75。
(并行度小于2表示在大多数情况下,每个区块中只有不到两个交易可以同时执行。这表明当前区块链系统中的交易大多是相互依赖的,无法进行大规模的并行处理。)
解释器开销:即使是较快的EVM解释器,如revm,其速度仍比本地执行慢1-2个数量级。
状态同步:同步每秒10万次ERC-20转账,需要消耗152.6 Mbps的带宽,而更复杂的交易则需要更多的带宽。更新状态根在Reth中比执行交易要耗费多10倍的计算资源。说人话就是现在的区块链资源消耗有点大。
测完这些问题后,MegaETH 才开始对症下药,也就更能理顺上文所说的解决方案逻辑:
高性能排序器:
节点专门化:MegaETH通过将任务分配给专门的节点来提高效率。排序器节点专门处理交易排序和执行,全节点负责状态更新和验证,证明节点使用专用硬件验证区块。
高端硬件:排序器使用高性能服务器(如100核心,1TB内存,10Gbps网络)来处理大量交易和快速生成区块。
状态访问优化:
内存存储:排序器节点配备大量RAM,能够将整个区块链状态存储在内存中,从而消除SSD读取延迟,加快状态访问速度。
并行执行:尽管并行EVM在现有工作负载中的加速效果有限,MegaETH通过优化并行执行引擎,并支持交易优先级管理,确保关键交易在高峰时期也能及时处理。
解释器优化:
AOT/JIT编译:MegaETH通过引入AOT/JIT编译技术,加速计算密集型合约的执行,即使在生产环境中大多数合约的性能提升有限,但对于特定的高计算需求场景,这些技术仍能显著提升性能。
状态同步优化:
高效数据传输:MegaETH设计了一种高效的状态差异编码和传输方法,能够在带宽有限的情况下同步大量状态更新。
压缩技术:通过采用高级压缩技术,MegaETH能够在带宽限制内同步复杂交易(如Uniswap交换)的状态更新。
状态根更新优化:
优化的MPT设计:MegaETH采用优化的Merkle Patricia Trie(如NOMT),减少读写操作,提高状态根更新的效率。
批处理技术:通过批量处理状态更新,MegaETH能够减少随机磁盘IO操作,提高整体性能。
上面的东西其实都很技术,但是跳出这些技术细节,实际上你可以看到 MegaETH 是真正在技术上有几把刷子的,也能明显感觉到一个动机:
通过公开详细的技术数据和测试结果,试图增强项目的透明度和可信度,让技术社区和潜在用户对其系统的性能有更深刻的理解和信任。
名校团队,屡受青睐?
在解读白皮书的过程中,可以明显感觉到虽然 MegaETH 在名字上有点浮夸,但文档和说明又时常透露出一种技术Nerd的严谨和过于细节化。
公开资料显示,MegaETH 的团队似乎有华人背景,且 CEO Li Yilong 来自斯坦福,是计算机科学方向的博士;而CTO Yang Lei 则是麻省理工的博士,CBO(商务官)Kong Shuyao 则是哈佛商学院的MBA出身,有多个圈内机构的工作经验(ConsenSys等);增长负责人则与CBO某些履历重叠,且也来自于名校纽约大学。
一个团队,4个人全部来自美国顶级名校,人脉和资源上的影响力不言而喻。
之前,我们也在《毕业生当 CEO,Pantera 领投 2500 万的 Nexus 是何来头》一文中介绍到,Nexus的CEO虽然是应届毕业生,但同样出名校自斯坦福,且看上去也有扎实的技术背景。
顶级VC果然更偏爱顶校技术大佬们,再加上 Vitalik 也参投和名字上带了ETH,技术叙事和营销效果可能都会拉满。
在当前老“天王”变“天亡”,项目青黄不接、行情不上不下的现在,MegaETH 显然还会带来新一轮FOMO效应。
更多关于项目测试网和交互的信息,我们也会持续保持关注。