Binance Square
LIVE
爷叔Yeshua
@Yeshua_1919
Following
Followers
Liked
Share
All Content
LIVE
--
Bullish
$AR sam发推预告,6月20号发布新产品:1. 完整的链上Llama3大模型;2.ao即将支持64位WASM;3.新品WeaveDrive可以在aos中像访问本地文件一样访问arweave
$AR sam发推预告,6月20号发布新产品:1. 完整的链上Llama3大模型;2.ao即将支持64位WASM;3.新品WeaveDrive可以在aos中像访问本地文件一样访问arweave
$AR 投资AR最好的策略是少量长拿,总量6000万,6000枚就是万分之一的巨鲸,600枚就是十万分之一的大户,60枚相当于前100万人之一了,持有60枚以现在的价格3000美金不到,爷叔建议大家长拿120枚,60枚A R现货,60枚可以考虑质押赚AO, 投资AR生态,等于用6000美金踏入真web3的大门。
$AR 投资AR最好的策略是少量长拿,总量6000万,6000枚就是万分之一的巨鲸,600枚就是十万分之一的大户,60枚相当于前100万人之一了,持有60枚以现在的价格3000美金不到,爷叔建议大家长拿120枚,60枚A R现货,60枚可以考虑质押赚AO, 投资AR生态,等于用6000美金踏入真web3的大门。
你说错了,官方数据,FIL主网显示的数据是220m TB, 相比AR的255pb=261120TB, 应该是1000倍。比这个毫无意义,Arweave一开始定位就和FIL不同,一个面向大众的开放性永久存储,一个鼓励大规模存储,大部分是私有数据。FIL是去中心化存储协议IPFS的激励层,这坦白说我今天装个IPFS客户端,添加一个本地文件生成一个ipfs 的hash ID也就算是放了一个文件到ipfs了,但这不意味着我的这个文件被同步到别的节点了,我本地这个文件的外部访问性极差。Arweave的文件是可以全球范围内检索和访问的。你要说清楚这点区别。 反到是你说一个公链的用户规模反倒有点说服力,但是要比用户规模,那条公链能超过比特币和以太坊? 爷叔也从来没吹嘘Arweave的用户规模大,只是说基于AR的scp范式公链(例如AO)具备获取大规模用户的能力,因为它彻底跳出了EVM导致的性能制约,实现了无限制的横向扩展,具体怎么实现的,等我后续发文普及。$AR
你说错了,官方数据,FIL主网显示的数据是220m TB, 相比AR的255pb=261120TB, 应该是1000倍。比这个毫无意义,Arweave一开始定位就和FIL不同,一个面向大众的开放性永久存储,一个鼓励大规模存储,大部分是私有数据。FIL是去中心化存储协议IPFS的激励层,这坦白说我今天装个IPFS客户端,添加一个本地文件生成一个ipfs 的hash ID也就算是放了一个文件到ipfs了,但这不意味着我的这个文件被同步到别的节点了,我本地这个文件的外部访问性极差。Arweave的文件是可以全球范围内检索和访问的。你要说清楚这点区别。 反到是你说一个公链的用户规模反倒有点说服力,但是要比用户规模,那条公链能超过比特币和以太坊?

爷叔也从来没吹嘘Arweave的用户规模大,只是说基于AR的scp范式公链(例如AO)具备获取大规模用户的能力,因为它彻底跳出了EVM导致的性能制约,实现了无限制的横向扩展,具体怎么实现的,等我后续发文普及。$AR
LIVE
橙子大元帅
--
关于爷叔言论的几点吐槽:
我永远叫不醒一个装睡的人,市值榜可以看一看ar附近市值的op,arb,sui,stx,okb,请问爷叔哪一个用户量弱于ao,哪一个背后的实力不强?

哦你想说ar的潜力是吧,好,咱们就比核心业务,真的是不放数据不落泪了,ar现在的市值28亿,fil市值33亿,相差不多。但是,filecoin现在总存储量22EB,arweave总存储量200+PB,爷叔不会没有概念吧?我来告诉你,1eb=1024pb,存储量相差100多倍,究竟是fil被低估了,还是ar被高估了呢?我猜你一会又会怼我:啊不能看存储量的,那是片面的~

技术谁都会说好,好不好也是别人吹出来的,没有哪个公链说自己技术差的,早期的flow的cadence合约跟现在move合约大差不差,怎么后面拉了呢?至于好不好,技术说了不算,资本实力和用户数据说了算。散会
大元帅估计是$ICP 重仓,谈$AR 总要带上ICP,大元帅还是AR中文社区的一名比较核心的编外人员,听过几次在twitrer上的分享,其实在twitrer上的分享还是满中肯的,基本上都是正面肯定AO,不知道为啥换个地方就立场不稳了。爷叔和你完全持反面意见: 1. AO相比ICP的优势反而是因为有AR; 2. 流通量小的币在本轮表现不佳?我看AR流通6000万,比起那些动辄几亿的MEME币流通小的可怜,但你能说AR表现很差?当然比不上那一些一天涨跌几倍的meme币,但那些本质属于赌狗币,AR的用户群普遍不会去参与。 3. 你说AR+ AO总市值到30亿是合理的,AO会稀释AR市值,这件事关键是看参照点,币圈在牛市整体市值泡沫都很大,这不是AR一家的问题,就当下大饼市值来讲,A R属于被严重低估的项目。我们就别扯啥子ICP了,ICP当年市值2000亿合理不合理? 4. 老是扯AR应用生态不够强大,我想问问现在除了以太坊的defi生态,谁能说自己应用生态起来了?反正爷叔用ardrive存了不少东西。
大元帅估计是$ICP 重仓,谈$AR 总要带上ICP,大元帅还是AR中文社区的一名比较核心的编外人员,听过几次在twitrer上的分享,其实在twitrer上的分享还是满中肯的,基本上都是正面肯定AO,不知道为啥换个地方就立场不稳了。爷叔和你完全持反面意见:
1. AO相比ICP的优势反而是因为有AR;
2. 流通量小的币在本轮表现不佳?我看AR流通6000万,比起那些动辄几亿的MEME币流通小的可怜,但你能说AR表现很差?当然比不上那一些一天涨跌几倍的meme币,但那些本质属于赌狗币,AR的用户群普遍不会去参与。
3. 你说AR+ AO总市值到30亿是合理的,AO会稀释AR市值,这件事关键是看参照点,币圈在牛市整体市值泡沫都很大,这不是AR一家的问题,就当下大饼市值来讲,A R属于被严重低估的项目。我们就别扯啥子ICP了,ICP当年市值2000亿合理不合理?
4. 老是扯AR应用生态不够强大,我想问问现在除了以太坊的defi生态,谁能说自己应用生态起来了?反正爷叔用ardrive存了不少东西。
LIVE
橙子大元帅
--
$AR 简单分析一下ar与ao的双币模型的优劣

1.首先ao的出现,一定是增加了ar的使用场景和代币赋能,但是ar本质上核心功能依旧是存储,ar单以存储功能看的话,30亿的市值略显高了,现在你可以说ar+ao整体市值是30亿是合适的,ao发币之后对于ar稀释我觉得是有的,你可以说ao值,但不能说ar值,但是ao现在也不值,因为你技术再牛,没有像样的应用会被人诟病200年,我宁愿赌 $ICP

2.ao的市值现在还真不好估测,开盘之后无预挖代表着流通量大概率也是很低,低流通项目在这轮牛市表现并不好,而且计算公链之间的竞争也很卷,很多也是当时声称技术好,到最后也是成为了死链

3.最重要的是,ao短期内不会上头部几大所,dex和小所可能会上,因为交易所的发币计划早就安排满了,除非你是传奇级别的meme或者交易所亲儿子级公链,否则不会短期内上的,因为交易所上币都要有利益给到所的,短期内不上所的币,你觉得有什么值得说的
$NOT 这个名字的意思就是告诉你别上车,上车就是亏!
$NOT 这个名字的意思就是告诉你别上车,上车就是亏!
$NOT 靠NOT赚钱还是亏钱了?
$NOT 靠NOT赚钱还是亏钱了?
大赚
27%
亏惨
37%
不亏不赚
36%
11 votes • Voting closed
$AR 有人AT,爷叔简单谈谈:1.投资市场历史经验不一定管用,如果仅仅是通过过去的经验和规律来预测未来,我认为比特币早就应该突破10万美金了。 2. 这个比特富明显不了解AR,例如有了新的应用场景就不能吸引新用户了吗?这句话就好像是有人问明明有了比特币为啥要发行一个以太坊,大家都用比特币行不行?token的本质是一种交易媒介,在美国的体系下用美元,在中国用人民币,环境变了,交易媒介就变了。3.AR和AO完全不是同一个维度的东西,AR是存储公链,既要兼顾现又的应用场景,例如帮助SOL存储NFT数据,帮助mirror存文章数据。这部分的经济模型已经成熟了,不可以破坏它。而AO是计算型公链,你可以理解为建立在AR上的另一个sol,AR团队不可能为了开发一个新产品而放弃原有的。 4. AO能不能100%成为最后的王者我们不知道,但是AO出现强化了Arweave永久存储的需求。其实爷叔认为AO未来可能不一定是唯一一个建立在ARweave上的SC P范式公链,还可以在AR上建立一个BO,CO,DO….铁打的硬盘,流水般的CPU。
$AR 有人AT,爷叔简单谈谈:1.投资市场历史经验不一定管用,如果仅仅是通过过去的经验和规律来预测未来,我认为比特币早就应该突破10万美金了。 2. 这个比特富明显不了解AR,例如有了新的应用场景就不能吸引新用户了吗?这句话就好像是有人问明明有了比特币为啥要发行一个以太坊,大家都用比特币行不行?token的本质是一种交易媒介,在美国的体系下用美元,在中国用人民币,环境变了,交易媒介就变了。3.AR和AO完全不是同一个维度的东西,AR是存储公链,既要兼顾现又的应用场景,例如帮助SOL存储NFT数据,帮助mirror存文章数据。这部分的经济模型已经成熟了,不可以破坏它。而AO是计算型公链,你可以理解为建立在AR上的另一个sol,AR团队不可能为了开发一个新产品而放弃原有的。 4. AO能不能100%成为最后的王者我们不知道,但是AO出现强化了Arweave永久存储的需求。其实爷叔认为AO未来可能不一定是唯一一个建立在ARweave上的SC P范式公链,还可以在AR上建立一个BO,CO,DO….铁打的硬盘,流水般的CPU。
很多人问爷叔关于AO的购买或获取方式,统一回复: 1. AO还没有发行,没有任何渠道能购买,获得AO的方式要等到6月13号; 2. AO应该需要质押AR获得,具体质押的方式爷叔认为早期需要把AR桥接到AO后质押,具体没有公布细节。 3. AO大概率没有空投,想拿着AR坐地发财可能性小。 4. 还是那句话,现在别管AO的那一些发行细节,但是可以确定的AO早期释放出来的量会非常小,AO的价格可能会被市场发酵到你难以想象的地步,也会推动市场对于AR的需求,所以当下是买入AR非常好的时机。 5. 很多人不给投资建议,爷叔要给你的投资建议就是:千万别做空!$AR
很多人问爷叔关于AO的购买或获取方式,统一回复:
1. AO还没有发行,没有任何渠道能购买,获得AO的方式要等到6月13号;
2. AO应该需要质押AR获得,具体质押的方式爷叔认为早期需要把AR桥接到AO后质押,具体没有公布细节。
3. AO大概率没有空投,想拿着AR坐地发财可能性小。
4. 还是那句话,现在别管AO的那一些发行细节,但是可以确定的AO早期释放出来的量会非常小,AO的价格可能会被市场发酵到你难以想象的地步,也会推动市场对于AR的需求,所以当下是买入AR非常好的时机。
5. 很多人不给投资建议,爷叔要给你的投资建议就是:千万别做空!$AR
明明官方都说过了零预挖,零预售,613具体挖矿细节也没公布,你假传消息让大家提币挖头矿!爷叔有点忍不住想骂上帝了!$AR
明明官方都说过了零预挖,零预售,613具体挖矿细节也没公布,你假传消息让大家提币挖头矿!爷叔有点忍不住想骂上帝了!$AR
LIVE
橙子大元帅
--
$AR 明确消息出来了,交易所不算,请把币火速提到链上!!!🚨我来告诉你怎么提币
arweave官方明确说了消息,ar需要提到链上才能获得ao,交易所的余额不行。

首先你需要在谷歌浏览器上下载一个arconnect钱包插件,火狐浏览器也能,注意别下载错了,然后新建一个钱包地址,保存好助记词和key file,从交易所就把币打进你的这个地址就可以。

如果你持有一些其他衍生品的话,也无法获得ao代币,一定要是实打实的链上arweave主网$AR 代币才可以。

提到链上就不用动了,后续等空投就行,6.13就要挖头矿了,时间不多了,别错过了。
爷叔确认了一下,ar中文频道没有这条消息,请大家自行确认下,再说了,一切消息以ao官号公布后为准,一切编外机构都属于推测。$AR
爷叔确认了一下,ar中文频道没有这条消息,请大家自行确认下,再说了,一切消息以ao官号公布后为准,一切编外机构都属于推测。$AR
LIVE
橙子大元帅
--
$AR 明确消息出来了,交易所不算,请把币火速提到链上!!!🚨我来告诉你怎么提币
arweave官方明确说了消息,ar需要提到链上才能获得ao,交易所的余额不行。

首先你需要在谷歌浏览器上下载一个arconnect钱包插件,火狐浏览器也能,注意别下载错了,然后新建一个钱包地址,保存好助记词和key file,从交易所就把币打进你的这个地址就可以。

如果你持有一些其他衍生品的话,也无法获得ao代币,一定要是实打实的链上arweave主网$AR 代币才可以。

提到链上就不用动了,后续等空投就行,6.13就要挖头矿了,时间不多了,别错过了。
$AR AO公布其代币发行方式后,印证了爷叔的几点判断: 1. AR和AO强关联,持有AR获得AO,不管是以那种方式,在AO没公布具体的发行细节之前,普通人要干的事就是买入并持有AR。 2. 当下测试网的测试代币CRED有点类似以太坊中的gas, 本质是一种算力消耗的计价单位。其实就是pow中的算力指标,这个会随着生态算力的壮大而逐步加大起发行量,所以现在测试网几千亿的发行量不足为奇,以后还会更多,CERD调控权在AR团队手上,未来价格应该会比较稳定。 关于发行细节,以下属于爷叔的推测: 1. 存储节点赚AR,计算节点(CU)赚AO,这个基本原则不会变,AO总量才2100万,大家就别指望拿着AR就给你空投等额ao; 2. 挖矿方式大概率支持质押AR和CRED(也有可能中间也会增加兑换机制),前者是为了平衡原有生态的既得利益者,后者考虑的是CU节点激励和生态发展激励。 3. 价值传递的链条大概如下:应用开发者或用户需要向CU支付CRED获得计算支持和捆绑存储支持,CU向存储节点支付AR存储全息状态,然后CRED和AR持有者回到上一步的参与AO挖矿,挖矿产出参考比特币的4年减半机制。 4. ao早期产量高,会激发大量AR持有者从二级市场购买参与挖矿,将ar价格拉升到3位数是大概率事件; 4. ao的野心不仅仅是做一条性能更强的公链,而是要成为所有公链的底层,不管是evm还是sol都可以成为ao上的一个process, ao如过按照这样的路子走,某一天你会发现ao实际上是把比特币原本计算随机数的算力转化为dapp的算力,高!妙! 再次友情提醒,在官方公布ao发行细节前,别轻易听信社区一些人为了博取流量瞎传消息,@iamBTCholder 比如这老兄一会不看好AR,一会号召大家买CRED,一会又大家火速提币到钱包。毫无立场和观点。爷叔建议从始至终一条,你如果相信AO的未来,持有AR是普通人的最佳姿势。
$AR AO公布其代币发行方式后,印证了爷叔的几点判断:
1. AR和AO强关联,持有AR获得AO,不管是以那种方式,在AO没公布具体的发行细节之前,普通人要干的事就是买入并持有AR。
2. 当下测试网的测试代币CRED有点类似以太坊中的gas, 本质是一种算力消耗的计价单位。其实就是pow中的算力指标,这个会随着生态算力的壮大而逐步加大起发行量,所以现在测试网几千亿的发行量不足为奇,以后还会更多,CERD调控权在AR团队手上,未来价格应该会比较稳定。

关于发行细节,以下属于爷叔的推测:
1. 存储节点赚AR,计算节点(CU)赚AO,这个基本原则不会变,AO总量才2100万,大家就别指望拿着AR就给你空投等额ao;
2. 挖矿方式大概率支持质押AR和CRED(也有可能中间也会增加兑换机制),前者是为了平衡原有生态的既得利益者,后者考虑的是CU节点激励和生态发展激励。
3. 价值传递的链条大概如下:应用开发者或用户需要向CU支付CRED获得计算支持和捆绑存储支持,CU向存储节点支付AR存储全息状态,然后CRED和AR持有者回到上一步的参与AO挖矿,挖矿产出参考比特币的4年减半机制。
4. ao早期产量高,会激发大量AR持有者从二级市场购买参与挖矿,将ar价格拉升到3位数是大概率事件;
4. ao的野心不仅仅是做一条性能更强的公链,而是要成为所有公链的底层,不管是evm还是sol都可以成为ao上的一个process, ao如过按照这样的路子走,某一天你会发现ao实际上是把比特币原本计算随机数的算力转化为dapp的算力,高!妙!

再次友情提醒,在官方公布ao发行细节前,别轻易听信社区一些人为了博取流量瞎传消息,@橙子大元帅 比如这老兄一会不看好AR,一会号召大家买CRED,一会又大家火速提币到钱包。毫无立场和观点。爷叔建议从始至终一条,你如果相信AO的未来,持有AR是普通人的最佳姿势。
$AR ao空投前,你觉得AR能突破100美金吗?
$AR ao空投前,你觉得AR能突破100美金吗?
必须突破
56%
突破不了
44%
131 votes • Voting closed
这个人前两天说什么谁还记得吗?
这个人前两天说什么谁还记得吗?
LIVE
橙子大元帅
--
$AR ao代币出消息了,获取ao代币有三个途径:
1.跨链到ao
2.持有ar可以得到ao代币
3.build可以得到ao代币

这个消息直接让ar从37.9拉飞,你们猜build可以得到ao代币,什么是build,不就是持有cred吗?

21m的总量,每四年减半一次,这跟比特币一模一样,不过100%社区持有,有点像土狗的感觉,不过官方不可能不持有老鼠仓的,这个可以看个乐呵。这个总量挺少的,估计到时候发射价格就要50u起步了。

现在持有ar和aocred都可以,虽然官方没有明着说,但基本上那个意思就是持有aocred也可以拿空投,官方的老鼠仓来源不就是需要从aocred里面出吗?

注意时间窗口不多了,6.13创世块,半个月见分晓,散会!
AO/ICP横向对比(八)#AOvsICP 系列从6个方面探讨了ICP的局限性,原文转自twitter用户astmjs ∞,astmjs是一名资深的ICP开发者,基于ICP开发了Azle 和 Kybra等项目,从应用开发选型的角度提出了ICP存在6大方面的局限性,爷叔对$ICP 了解也存在一定的局限性,astmjs的文章对爷叔带来了很多启发,但不完全代表爷叔立场,很多点还需实际验证。 一石激起千层浪,爷叔是AO的支持者,但并不代表爷叔否定ICP曾经带来的技术创新,例如基于消息机制的Actor模型,都是极具前瞻性的技术思想。 抛开去中心化计算这个层面的对比,$AR Arweave原本是做去中心化存储起家,提出了一次付费,永久存储的理念,并稳定运行数年,被众多EVM类区块链采用成为NFT内容的链上存储,在上一个周期NFT热潮中,币价突破历史最高70美金,即使我们抛开去中心化计算层,Arweave依然是当下主流公链做存储拓展的最优选择。永久存储的本质就是历史永存,无法篡改,这和比特币核心思想一脉相承。 纵观历史,言论被限制,真相被蒙蔽。胜者为王,败者为寇都是历史在向政治和权利低头。越是落后的体制下生活的人,体会越深。货币不被无限制超发,合同不被权利操控,而历史不被改写实际上是人类文明更普遍的刚需。Arweave更大的价值其实是一块无法被篡改,无读写门槛,人人可访问的世界硬盘。 AO并不是去中心化计算的先行者,但是AO基于Arweave提出去中心化计算,只是加速了和推动永久存储的普及和大规模接受,或者说Ao是Arweave向所有的公链类产品做出了开箱示范,原来我们可以这样利用Arweave实现更大规模的可信计算。 关于AO能否诞生大规模用户的产品,爷叔的回答依然是肯定的,这不是信口开河,实际上早在多年前流行的去中心化博客mirror就已经把内容托管在AR上,这是mirror为数不多的去中心化特征(还有一点可以使用钱包匿名登录),如过使用过AOS并且参与了Ao游戏任务的朋友肯定有更深的体会,在ao中发送消息几乎能达到媲美web2产品的速度和体验。当下生态中为数还不多的产品例如aotwitter,dumdum等,从某种角度已经达到了普通用户对于日常应用的期待,一个匿名的,无许可,言论不被限制的应用,被用户使用只是时间问题。 能否诞生大规模用户的产品还有一个重要的前提是开发者友好度,技术本身是否就一定比ICP强对于很多ICP信众来讲也许会打问号,但对于更大的开发者群体来说,AO采用的js+lua技术栈几乎是0门槛,AO就像web2互联网中的serverless,用户只需思考业务逻辑和前端交互,无需后端技术的基础就能开发一款全栈应用,这对于很多前端工程师来说,一两周开发一款去中心化应用,增加一条成本低且风险小的变现路径,why not?!!! 爷叔参与了ETH早期众筹,在ETH价格200刀左右出售2/3, 其实这么多年下来,细数赚到的钱,基本上都是靠剩下的1/3以太坊贡献。 AR是爷叔心目中的下一个以太坊,但这一次,至少会把2/3留给未来。和时间做朋友,爷叔只传递项目的价值,不构成任何投资建议。

AO/ICP横向对比(八)

#AOvsICP 系列从6个方面探讨了ICP的局限性,原文转自twitter用户astmjs ∞,astmjs是一名资深的ICP开发者,基于ICP开发了Azle 和 Kybra等项目,从应用开发选型的角度提出了ICP存在6大方面的局限性,爷叔对$ICP 了解也存在一定的局限性,astmjs的文章对爷叔带来了很多启发,但不完全代表爷叔立场,很多点还需实际验证。

一石激起千层浪,爷叔是AO的支持者,但并不代表爷叔否定ICP曾经带来的技术创新,例如基于消息机制的Actor模型,都是极具前瞻性的技术思想。

抛开去中心化计算这个层面的对比,$AR Arweave原本是做去中心化存储起家,提出了一次付费,永久存储的理念,并稳定运行数年,被众多EVM类区块链采用成为NFT内容的链上存储,在上一个周期NFT热潮中,币价突破历史最高70美金,即使我们抛开去中心化计算层,Arweave依然是当下主流公链做存储拓展的最优选择。永久存储的本质就是历史永存,无法篡改,这和比特币核心思想一脉相承。

纵观历史,言论被限制,真相被蒙蔽。胜者为王,败者为寇都是历史在向政治和权利低头。越是落后的体制下生活的人,体会越深。货币不被无限制超发,合同不被权利操控,而历史不被改写实际上是人类文明更普遍的刚需。Arweave更大的价值其实是一块无法被篡改,无读写门槛,人人可访问的世界硬盘。

AO并不是去中心化计算的先行者,但是AO基于Arweave提出去中心化计算,只是加速了和推动永久存储的普及和大规模接受,或者说Ao是Arweave向所有的公链类产品做出了开箱示范,原来我们可以这样利用Arweave实现更大规模的可信计算。

关于AO能否诞生大规模用户的产品,爷叔的回答依然是肯定的,这不是信口开河,实际上早在多年前流行的去中心化博客mirror就已经把内容托管在AR上,这是mirror为数不多的去中心化特征(还有一点可以使用钱包匿名登录),如过使用过AOS并且参与了Ao游戏任务的朋友肯定有更深的体会,在ao中发送消息几乎能达到媲美web2产品的速度和体验。当下生态中为数还不多的产品例如aotwitter,dumdum等,从某种角度已经达到了普通用户对于日常应用的期待,一个匿名的,无许可,言论不被限制的应用,被用户使用只是时间问题。

能否诞生大规模用户的产品还有一个重要的前提是开发者友好度,技术本身是否就一定比ICP强对于很多ICP信众来讲也许会打问号,但对于更大的开发者群体来说,AO采用的js+lua技术栈几乎是0门槛,AO就像web2互联网中的serverless,用户只需思考业务逻辑和前端交互,无需后端技术的基础就能开发一款全栈应用,这对于很多前端工程师来说,一两周开发一款去中心化应用,增加一条成本低且风险小的变现路径,why not?!!!

爷叔参与了ETH早期众筹,在ETH价格200刀左右出售2/3, 其实这么多年下来,细数赚到的钱,基本上都是靠剩下的1/3以太坊贡献。 AR是爷叔心目中的下一个以太坊,但这一次,至少会把2/3留给未来。和时间做朋友,爷叔只传递项目的价值,不构成任何投资建议。
AO/ICP横向对比(七)原文转自twitter用户astmjs ∞,astmjs是一名资深的ICP开发者,基于ICP开发了Azle 和 Kybra等项目,从应用开发选型的角度提出了ICP存在的局限性,以及放弃ICP转战AO$AR 的理由,爷叔转载并翻译原文供社区参考。#AOvsICP  系列从6个方面探讨了ICP的局限性,可前往爷叔主页浏览。 6. 集中化的DAO治理 这就引出了......当然是NNS DAO。这个想法是要有一个去中心化的治理机制,能够无缝升级整个协议。 这确实感觉是一个很好的姿态,在实践中它一直工作得很好。 但目前它是非常集中的。就像PoW导致了矿池一样,在这种情况下,纯粹的流动民主似乎导致每个人都选择跟随看起来最值得信赖的实体,在这种情况下,这个实体似乎是@dfinity。 只要DFINITY有追随者,这实质上赋予了DFINITY对协议的写入权限。 我认为,一个治理机制不应该允许一个实体拥有那么多的权力,不管人们是否想要。去中心化政府有任期限制和权力分立是有原因的,关键是要分散权力,防止权力过于集中。 NNS DAO缺乏这些基本的制衡机制。 我相信这些事情在某种程度上可以得到改进和改变。 但是我们真的需要一个全能的DAO吗,即使有制衡机制? 是否有可能像IP/TCP那样建立一个简单的协议,几乎不需要改变,多年来都很稳健? 这似乎是AO的目标。ICP并没有选择这条路。 通过AO,进程带来了自己的VM,自己的实现,看起来是这样的。因此,这将大部分实现细节的复杂性转移到开发人员那里,或者转移到协议层之上。该协议只是用于基本计算、内存和存储原语的基础层。 这是一个有趣而美丽的想法。 NNS的权力似乎是采用ICP用于应用程序的一个主要风险,因为它们将受制于一个实体关闭它们的可能性。在NNS提供更好的保证之前,这就是目前的现实。 我在ETH Denver与一个团队交谈,他们说NNS的这种能力对他们的项目来说是一个障碍。我相信他们不是唯一的。 6. Centralizing DAO governance Which brings us to...the NNS DAO of course. The idea is to have a decentralized governance mechanism that can seamlessly upgrade the entire protocol. This indeed feels like a nice gesture to have, and in practice it has been working very well. But it is extremely centralizing at the moment. Like PoW leads to mining pools, it seems that pure liquid democracy in this case leads to everyone choosing to follow the most trustworthy-appearing entity, which in this case seems to be @dfinity This essentially gives DFINITY write access to the protocol, as long as they have the followers. I contend that a governance mechanism should not ever allow one entity to have that much power, no matter if the people want it. There's a reason decentralized governments have term limits and separation of powers, the point is to diffuse power and prevent it from ever accumulating too much. The NNS DAO lacks these basic checks and balances. I believe these things could be improved and changed to some extent. But do we even need an all-powerful DAO, even one with checks and balances? Is it possible to just build a simple protocol, like IP/TCP, that requires few changes and is robust over years? That seems to be the aim of AO. ICP has not chosen that path. With AO processes bring their own VMs, their own implementations it seems. So this moves the complexity of much of the implementation details into the developer, or above the protocol layer. The protocol is just a base layer for base compute, memory, and storage primitives. This is an intriguing and beautiful idea. The power of the NNS seems a major risk to adopting ICP for an application, because they will be subject to the possibility of one entity shutting them down. Until the NNS provides better guarantees, that is currently the reality. I talked to one team at ETH Denver that said this capability of the NNS was a non-starter for their project. I don't believe they're the only ones.

AO/ICP横向对比(七)

原文转自twitter用户astmjs ∞,astmjs是一名资深的ICP开发者,基于ICP开发了Azle 和 Kybra等项目,从应用开发选型的角度提出了ICP存在的局限性,以及放弃ICP转战AO$AR 的理由,爷叔转载并翻译原文供社区参考。#AOvsICP  系列从6个方面探讨了ICP的局限性,可前往爷叔主页浏览。

6. 集中化的DAO治理
这就引出了......当然是NNS DAO。这个想法是要有一个去中心化的治理机制,能够无缝升级整个协议。
这确实感觉是一个很好的姿态,在实践中它一直工作得很好。
但目前它是非常集中的。就像PoW导致了矿池一样,在这种情况下,纯粹的流动民主似乎导致每个人都选择跟随看起来最值得信赖的实体,在这种情况下,这个实体似乎是@dfinity。
只要DFINITY有追随者,这实质上赋予了DFINITY对协议的写入权限。
我认为,一个治理机制不应该允许一个实体拥有那么多的权力,不管人们是否想要。去中心化政府有任期限制和权力分立是有原因的,关键是要分散权力,防止权力过于集中。
NNS DAO缺乏这些基本的制衡机制。
我相信这些事情在某种程度上可以得到改进和改变。
但是我们真的需要一个全能的DAO吗,即使有制衡机制?
是否有可能像IP/TCP那样建立一个简单的协议,几乎不需要改变,多年来都很稳健?
这似乎是AO的目标。ICP并没有选择这条路。
通过AO,进程带来了自己的VM,自己的实现,看起来是这样的。因此,这将大部分实现细节的复杂性转移到开发人员那里,或者转移到协议层之上。该协议只是用于基本计算、内存和存储原语的基础层。
这是一个有趣而美丽的想法。
NNS的权力似乎是采用ICP用于应用程序的一个主要风险,因为它们将受制于一个实体关闭它们的可能性。在NNS提供更好的保证之前,这就是目前的现实。
我在ETH Denver与一个团队交谈,他们说NNS的这种能力对他们的项目来说是一个障碍。我相信他们不是唯一的。

6. Centralizing DAO governance
Which brings us to...the NNS DAO of course. The idea is to have a decentralized governance mechanism that can seamlessly upgrade the entire protocol.
This indeed feels like a nice gesture to have, and in practice it has been working very well.
But it is extremely centralizing at the moment. Like PoW leads to mining pools, it seems that pure liquid democracy in this case leads to everyone choosing to follow the most trustworthy-appearing entity, which in this case seems to be @dfinity
This essentially gives DFINITY write access to the protocol, as long as they have the followers.
I contend that a governance mechanism should not ever allow one entity to have that much power, no matter if the people want it. There's a reason decentralized governments have term limits and separation of powers, the point is to diffuse power and prevent it from ever accumulating too much.
The NNS DAO lacks these basic checks and balances.
I believe these things could be improved and changed to some extent.
But do we even need an all-powerful DAO, even one with checks and balances?
Is it possible to just build a simple protocol, like IP/TCP, that requires few changes and is robust over years?
That seems to be the aim of AO. ICP has not chosen that path.
With AO processes bring their own VMs, their own implementations it seems. So this moves the complexity of much of the implementation details into the developer, or above the protocol layer. The protocol is just a base layer for base compute, memory, and storage primitives.
This is an intriguing and beautiful idea.
The power of the NNS seems a major risk to adopting ICP for an application, because they will be subject to the possibility of one entity shutting them down. Until the NNS provides better guarantees, that is currently the reality.
I talked to one team at ETH Denver that said this capability of the NNS was a non-starter for their project. I don't believe they're the only ones.
AO/ICP横向对比(六)原文转自twitter用户astmjs ∞,astmjs是一名资深的ICP开发者,基于ICP开发了Azle 和 Kybra等项目,从应用开发选型的角度提出了ICP存在的局限性,以及放弃ICP转战AO$AR 的理由,爷叔转载并翻译原文供社区参考。#AOvsICP  系列从6个方面探讨了ICP的局限性,可前往爷叔主页浏览。 5. 严格的网络架构 我们刚才已经谈了很多这个问题。 但是除了容器选择其安全级别之外,我想知道允许节点运营商带来各种类型的硬件,并按照自己的意愿进行配置是否会非常有益......事实上,至少在一开始,我从来都不喜欢子网架构。 我觉得这对开发人员来说又是一个复杂和限制因素,又是一个必须考虑的问题。 支持子网的论点可能集中在......至少有一点是确保一个同质的计算环境,在那里延迟、速度等可以得到很好的调节,并给开发人员一致的保证。 也许这需要一个同质的网络,也许。但我想知道AO是否可以实现同样的事情,因为每个进程和消息都指定了CPU和内存要求。如果有足够的CU可用,我希望它们能以适当的速度处理事情。 我们拭目以待。如果AO可以在异构网络中提供良好的保证和延迟,这种设计似乎更好。 任何人都可以带来他们想要的任何硬件,他们只会处理他们能处理的。应用程序/进程可以通过stake和CU复制来确定他们想要的安全性。 它无需许可切异常灵活,不需要像NNS DAO这样的中央权威。 5. Rigid network architecture We just touched on this quite a bit actually. But beyond the canister choosing its level of security, I wonder if it would be very beneficial to allow node operators to bring various types of hardware, and to configure themselves as they wish...in fact, I was never a fan of the subnet architecture at the beginning, at least. I feel it's yet another complication and limiter to devs, yet another thing that must be thought of. The arguments for the subnets probably focus around...well at least one thing will be ensuring a homogenous compute environment where latency, speed, etc can be well-regulated and give devs consistent guarantees. Perhaps a homogenous network is required for this, perhaps. But I wonder if AO can achieve the same thing, as each process and message specifies CPU and memory requirements. If there are enough CUs available i would hope they could process things at appropriate speeds. We shall see. If AO can provide good guarantees and latency with a heterogenous network, this design seems better. Anyone can bring whatever hardware they want, they will only process what they can. Applications/processes can determine the security that they want through stake and CU replication. It's very permissionless and flexible, there is no need for a central authority like the NNS DAO.

AO/ICP横向对比(六)

原文转自twitter用户astmjs ∞,astmjs是一名资深的ICP开发者,基于ICP开发了Azle 和 Kybra等项目,从应用开发选型的角度提出了ICP存在的局限性,以及放弃ICP转战AO$AR 的理由,爷叔转载并翻译原文供社区参考。#AOvsICP  系列从6个方面探讨了ICP的局限性,可前往爷叔主页浏览。

5. 严格的网络架构
我们刚才已经谈了很多这个问题。
但是除了容器选择其安全级别之外,我想知道允许节点运营商带来各种类型的硬件,并按照自己的意愿进行配置是否会非常有益......事实上,至少在一开始,我从来都不喜欢子网架构。
我觉得这对开发人员来说又是一个复杂和限制因素,又是一个必须考虑的问题。
支持子网的论点可能集中在......至少有一点是确保一个同质的计算环境,在那里延迟、速度等可以得到很好的调节,并给开发人员一致的保证。
也许这需要一个同质的网络,也许。但我想知道AO是否可以实现同样的事情,因为每个进程和消息都指定了CPU和内存要求。如果有足够的CU可用,我希望它们能以适当的速度处理事情。
我们拭目以待。如果AO可以在异构网络中提供良好的保证和延迟,这种设计似乎更好。
任何人都可以带来他们想要的任何硬件,他们只会处理他们能处理的。应用程序/进程可以通过stake和CU复制来确定他们想要的安全性。
它无需许可切异常灵活,不需要像NNS DAO这样的中央权威。

5. Rigid network architecture
We just touched on this quite a bit actually.
But beyond the canister choosing its level of security, I wonder if it would be very beneficial to allow node operators to bring various types of hardware, and to configure themselves as they wish...in fact, I was never a fan of the subnet architecture at the beginning, at least.
I feel it's yet another complication and limiter to devs, yet another thing that must be thought of.

The arguments for the subnets probably focus around...well at least one thing will be ensuring a homogenous compute environment where latency, speed, etc can be well-regulated and give devs consistent guarantees.

Perhaps a homogenous network is required for this, perhaps. But I wonder if AO can achieve the same thing, as each process and message specifies CPU and memory requirements. If there are enough CUs available i would hope they could process things at appropriate speeds.

We shall see. If AO can provide good guarantees and latency with a heterogenous network, this design seems better.
Anyone can bring whatever hardware they want, they will only process what they can. Applications/processes can determine the security that they want through stake and CU replication.
It's very permissionless and flexible, there is no need for a central authority like the NNS DAO.
AO/ICP横向对比(五)原文转自twitter用户astmjs ∞,astmjs是一名资深的ICP开发者,基于ICP开发了Azle 和 Kybra等项目,从应用开发选型的角度提出了ICP存在的局限性,以及放弃$ICP 转战AO$AR 的理由,爷叔转载并翻译原文供社区参考。#AOvsICP  系列从6个方面探讨了ICP的局限性,可前往爷叔主页浏览。 4.高成本 例如,ICP上传一个GiB的数据大约需要1美元(爷叔补充:当前上传1GB为5美元)。所有内容都在非常强大的机器上复制,所以最终你必须以某种方式为这些机器执行复制计算和存储付费。 我不确定如何克服这一点,考虑到你运行的CU的数量和类型,AO可能也不会更好。但是AO在允许你的应用程序选择其安全性和复制级别方面更加灵活。ICP容器缺乏这种灵活性。它们无法选择机器类型,几乎无法选择复制因子。 ICP子网架构非常严格,目前基本上只有两种类型的子网可供选择。一旦容器部署,它们就被困在这些子网中。想象一下,如果容器可以轻松选择它们所需的安全级别,甚至可以动态地上下移动它们所需的安全级别。这可以帮助为每个应用程序选择适当的成本和延迟。 4. High costs It costs about $1 to upload a GiB of data, for example. Everything is replicated on very powerful machines, so in the end you have to somehow pay for those machines to perform the replicated computation and storage. I'm not sure how to overcome this, and AO might not be any better considering which and how many CUs you run. But AO is much more flexible in allowing your application to choose its level of security and replication. ICP canisters lack this type of flexibility. They can't choose machine type and they can barely choose replication factor. The subnet architecture is so rigid, there are basically only two types of subnets to choose from for the moment.And once canisters are deployed, they are stuck in those subnets.Imagine if canisters could easily choose the level of security they required, and could even move up and down in their desired level of security dynamically. This could help with choosing the appropriate costs and latencies for each application.

AO/ICP横向对比(五)

原文转自twitter用户astmjs ∞,astmjs是一名资深的ICP开发者,基于ICP开发了Azle 和 Kybra等项目,从应用开发选型的角度提出了ICP存在的局限性,以及放弃$ICP 转战AO$AR 的理由,爷叔转载并翻译原文供社区参考。#AOvsICP  系列从6个方面探讨了ICP的局限性,可前往爷叔主页浏览。

4.高成本
例如,ICP上传一个GiB的数据大约需要1美元(爷叔补充:当前上传1GB为5美元)。所有内容都在非常强大的机器上复制,所以最终你必须以某种方式为这些机器执行复制计算和存储付费。
我不确定如何克服这一点,考虑到你运行的CU的数量和类型,AO可能也不会更好。但是AO在允许你的应用程序选择其安全性和复制级别方面更加灵活。ICP容器缺乏这种灵活性。它们无法选择机器类型,几乎无法选择复制因子。
ICP子网架构非常严格,目前基本上只有两种类型的子网可供选择。一旦容器部署,它们就被困在这些子网中。想象一下,如果容器可以轻松选择它们所需的安全级别,甚至可以动态地上下移动它们所需的安全级别。这可以帮助为每个应用程序选择适当的成本和延迟。

4. High costs
It costs about $1 to upload a GiB of data, for example. Everything is replicated on very powerful machines, so in the end you have to somehow pay for those machines to perform the replicated computation and storage.
I'm not sure how to overcome this, and AO might not be any better considering which and how many CUs you run.
But AO is much more flexible in allowing your application to choose its level of security and replication.
ICP canisters lack this type of flexibility. They can't choose machine type and they can barely choose replication factor.
The subnet architecture is so rigid, there are basically only two types of subnets to choose from for the moment.And once canisters are deployed, they are stuck in those subnets.Imagine if canisters could easily choose the level of security they required, and could even move up and down in their desired level of security dynamically.
This could help with choosing the appropriate costs and latencies for each application.
AO/ICP横向对比(四)原文转自twitter用户astmjs ∞,astmjs是一名资深的ICP开发者,基于ICP开发了Azle 和 Kybra等项目,从应用开发选型的角度提出了ICP存在的局限性,以及放弃ICP转战AO$AR 的理由,爷叔转载并翻译原文供社区参考。#AOvsICP  系列从6个方面探讨了ICP的局限性,可前往爷叔主页浏览。 3. 高延迟 这一点真的是个杀手(从坏的方面来说),我非常担心这一点,因为要维持类似pBFT的共识,延迟似乎有一个根本的下限。ICP可以优化,但如果没有一些革命性的突破或其他权衡或重新构建,这个下限将永远存在。 据我所知,AO似乎具有非常好的延迟,不到1秒......我不认为这是跨多个进程的共识。 但是,如果你接受staking和加密经济安全而不是类似pBFT的机制,也许在实践中,你可以获得相似的安全级别,同时延迟要少得多? 这是一个非常有趣的问题,值得思考。 3. High latencies This one is really killer (in a bad way), and I fear it greatly because to maintain pBFT-like consensus there seems to be a fundamental floor on latency. ICP can optimize but that floor will always be there without some revolutionary breakthrough or other trade-off or rearchitecture. AO seems to have very good latencies of under 1 second from what I know...I don't believe that is with consensus across multiple processes though. But if you embrace staking and crypto-economic-security instead of pBFT-like, perhaps in practice you get similar levels of security with much less latency? This is a very interesting point to ponder.

AO/ICP横向对比(四)

原文转自twitter用户astmjs ∞,astmjs是一名资深的ICP开发者,基于ICP开发了Azle 和 Kybra等项目,从应用开发选型的角度提出了ICP存在的局限性,以及放弃ICP转战AO$AR 的理由,爷叔转载并翻译原文供社区参考。#AOvsICP  系列从6个方面探讨了ICP的局限性,可前往爷叔主页浏览。

3. 高延迟

这一点真的是个杀手(从坏的方面来说),我非常担心这一点,因为要维持类似pBFT的共识,延迟似乎有一个根本的下限。ICP可以优化,但如果没有一些革命性的突破或其他权衡或重新构建,这个下限将永远存在。
据我所知,AO似乎具有非常好的延迟,不到1秒......我不认为这是跨多个进程的共识。
但是,如果你接受staking和加密经济安全而不是类似pBFT的机制,也许在实践中,你可以获得相似的安全级别,同时延迟要少得多?
这是一个非常有趣的问题,值得思考。

3. High latencies
This one is really killer (in a bad way), and I fear it greatly because to maintain pBFT-like consensus there seems to be a fundamental floor on latency. ICP can optimize but that floor will always be there without some revolutionary breakthrough or other trade-off or rearchitecture.
AO seems to have very good latencies of under 1 second from what I know...I don't believe that is with consensus across multiple processes though.
But if you embrace staking and crypto-economic-security instead of pBFT-like, perhaps in practice you get similar levels of security with much less latency?
This is a very interesting point to ponder.
AO/ICP横向对比(三)原文转自twitter用户astmjs ∞,astmjs是一名资深的ICP开发者,基于ICP开发了Azle 和 Kybra等项目,从应用开发选型的角度提出了ICP存在的局限性,以及放弃ICP$ICP 转战AO$AR 的理由,爷叔转载并翻译原文供社区参考。#AOvsICP  系列从6个方面探讨了ICP的局限性,可前往爷叔主页浏览。 2. 消息限制为2/3 MB 任何进出的数据都受此限制。这使得上传数据非常困难(可能在分块后不那么困难,但是所有语言的所有客户端出于各种目的都必须实现这种分块)和非常缓慢。 文件上传在这里是最糟糕的......对于视频流演示,我只上传了一个约600 MiB的文件,这需要几分钟。 我不确定AO如何比较......这是一个很好的问题需要找出答案。(爷叔备注:实测ao没有数据输入和输出的大小限制) 我很乐意看到ICP解决这个问题。一般来说,抽象出分块将是一个好的开始,这或许可以在边界节点级别完成,和/或类似于现在上传Wasm二进制文件的方式。 但是,这不会解决上传文件仍然很慢的问题。我们必须以某种方式解决这个问题。 2. Message limit of 2/3 MiB Any data going in or coming out is subject to this limit. It makes it very difficult (maybe not so much once you chunk, but then all clients in all languages for all purposes must implement this chunking) and very slow to upload data. File uploading is the worst here...for the video streaming demo I only uploaded a ~600 MiB file, and that take a few minutes. I'm not sure how AO compares... that's a good question to find out. I would love to see ICP solve this problem. Abstracting the chunking away generally would be a good start, this could perhaps be done at the boundary node level and/or similar to how Wasm binaries are now uploaded. But that won't solve how slow it would still be to upload files. We've got to solve this somehow.

AO/ICP横向对比(三)

原文转自twitter用户astmjs ∞,astmjs是一名资深的ICP开发者,基于ICP开发了Azle 和 Kybra等项目,从应用开发选型的角度提出了ICP存在的局限性,以及放弃ICP$ICP 转战AO$AR 的理由,爷叔转载并翻译原文供社区参考。#AOvsICP  系列从6个方面探讨了ICP的局限性,可前往爷叔主页浏览。

2. 消息限制为2/3 MB

任何进出的数据都受此限制。这使得上传数据非常困难(可能在分块后不那么困难,但是所有语言的所有客户端出于各种目的都必须实现这种分块)和非常缓慢。
文件上传在这里是最糟糕的......对于视频流演示,我只上传了一个约600 MiB的文件,这需要几分钟。
我不确定AO如何比较......这是一个很好的问题需要找出答案。(爷叔备注:实测ao没有数据输入和输出的大小限制)
我很乐意看到ICP解决这个问题。一般来说,抽象出分块将是一个好的开始,这或许可以在边界节点级别完成,和/或类似于现在上传Wasm二进制文件的方式。
但是,这不会解决上传文件仍然很慢的问题。我们必须以某种方式解决这个问题。

2. Message limit of 2/3 MiB
Any data going in or coming out is subject to this limit. It makes it very difficult (maybe not so much once you chunk, but then all clients in all languages for all purposes must implement this chunking) and very slow to upload data.
File uploading is the worst here...for the video streaming demo I only uploaded a ~600 MiB file, and that take a few minutes.
I'm not sure how AO compares... that's a good question to find out.
I would love to see ICP solve this problem. Abstracting the chunking away generally would be a good start, this could perhaps be done at the boundary node level and/or similar to how Wasm binaries are now uploaded.
But that won't solve how slow it would still be to upload files. We've got to solve this somehow.
Explore the lastest crypto news
⚡️ Be a part of the latests discussions in crypto
💬 Interact with your favorite creators
👍 Enjoy content that interests you
Email / Phone number

Latest News

--
View More
Sitemap
Cookie Preferences
Platform T&Cs