区块链网站|NFTS Aptos(APT) 以太坊:过去、现在和未来

以太坊:过去、现在和未来

广告位

以太坊(ETH):过去、现在、未来

一、以太坊M2SVPS升级路线图

合并

在合并阶段,POW共识机制将被过度POS,并且信标链将被合并在一起。为了便于理解,我们将邰方结构简化为下图:

我们先定义一下什么是碎片化:简单的理解就是对数据库进行水平分区以分散负载的过程。

转换为POS后:分块提议者和分块验证者,POS工作流程如下(按上图理解):

在汇总中提交事务验证器会将事务添加到切片块中。信标链选择验证者提出一个新的块,其余的验证者组成一个随机委员会,在切片块上验证该提议。建议的区块和证明建议都需要在一个时间段内完成,通常为12秒。每32个时隙形成一个历元周期,每个历元将打乱验证者的顺序并重新选举委员会。

合并后,以太坊将为共识层实现提议者-构建者分离(PBS)。维塔利科认为,所有区块链的最终结果将是集中的区块生产和分散的区块验证。由于碎片化以太坊块的数据密集,对于数据可用性的高要求,块生产的集中化是必要的。同时,必须有一个方案可以维护一个分散的验证器集,它可以验证块并执行数据可用性采样。

以及矿工的分离和块验证。矿工建造积木,然后提交给验证者。出价让验证者选择自己的区块,然后验证者投票决定该区块是否有效。

分片是一种划分方法,可以分散P2P网络中的计算任务和存储工作负载。在这种处理方式之后,每个节点不负责处理整个网络的事务负载,只需要维护与其分区(或分片)相关的信息。每个片段都有自己的验证者网络或节点网络。

碎片的安全问题:比如全网有10个碎片链,破坏全网需要51%的计算能力,那么破坏单个碎片只需要5.1%的计算能力。因此,后续的改进包括一个SSF算法,可以有效防止51%的计算能力攻击。根据vitalik的总结,转向SSF是多年的路线图。即使目前已经做了大量的工作,但这将是以太坊后来实现的重大改变之一,而且是在以太坊的PoS证明机制、分段和Verkle树完全推出之后很久。

信标链,负责生成随机数、给碎片分配节点、捕捉单个碎片的快照等功能,完成碎片间的通信和协调网络同步。

信标链的执行步骤如下:

块生产商承诺将块头与投标一起提交。信标链上的Blockers(验证者)选择中标块头和出价,无论block packer最终是否生成该块,都将无条件获得中标费。委员会(从验证者中随机选择)投票确认获得的块头。打包机公开了块体。激增

这条路线的主要目标是促进以汇总为中心的扩展。浪涌指的是以太坊碎片的加入,是一种扩容方案。以太坊基金会声称:该解决方案将进一步启用低气费的两层区块链,降低rollup或捆绑交易的成本,并使用户更容易操作保护以太坊网络的节点。

下图还是可以理解的:

以zkrollup的运行原理为例:zkrollup分为定序器和聚合器。排序器负责对用户事务进行排序,将它们打包成批处理并发送给聚合器。聚合器执行事务,从前一状态根生成后一状态根,然后生成证明。最后,聚合器将前状态根、后状态根的证明和事务数据发送到L1上的契约。契约负责检查证明是否有效,交易数据存储在calldata中。Zkrollup数据的可用性允许任何人根据存储在链中的交易数据来恢复帐户的全局状态。

但是使用calldata的成本非常昂贵,所以整个EIP-4844协议(随时可能改变)提出将事务块的大小改为1 ~ 2MB,为以后的rollup和数据分片打下了坚实的基础。目前以太坊的块大小在60KB ~100KB左右。以EIP-4844为例,块大小极限可以提高10 ~ 34x左右。这种块格式称为blob(也称为数据碎片)。

天灾

这个阶段祸害是路线图的补充,主要用来解决MEV的问题。MEV是什么?

MEV是Miner可提取值/最大可提取值的全称。这个概念最早是在工作量认证的背景下应用的,最初叫做“矿工可提取值”。这是因为在工作量证明中,矿工掌握了包括、排除和排序事务的角色能力。但是,通过合并过渡到股权证书后,验证者将负责这些角色,而挖掘将不再适用(这里介绍的价值提取方法在此过渡后将保留,因此需要更改名称)。为了继续使用相同的首字母缩略词以确保连续性,同时保持相同的基本含义,“最大可提取值”现在被用作更具包容性的替代词。

套利空间包括:

通过压缩存储空间,获得燃气成本差价;

裁判的rush:在mempool上广泛搜索交易,机器在本地执行计算,看是否会盈利。如果是,它用自己的地址发起同样的交易,使用更高的燃气费;

寻找清算对象:机器人竞相以最快的速度分析区块链数据,从而确定哪些借款人可以被清算,然后成为第一个提交清算交易并自行收取清算费用的人。

三明治事务:搜索器将监控内存池中DEX的大型事务。比如有人想在Uniswap上用戴买10000个UNI。此类大额交易将对UNI/DAI产生重大影响,并可能大幅提高UNI相对于DAI的价格。搜索者可以计算出大额交易对UNI/DAI对的大致价格影响,并在大额交易前立即执行最优购买订单,低价买入UNI,然后在大额交易后立即执行卖出订单,并在大额订单导致的更高价格卖出。

MEV缺陷:

某些形式的MEV,如三明治交易,会导致用户体验的明显恶化。夹在中间的用户面临更高的滑点和更差的交易执行。在网络层,一般的跑者和他们经常参与的矿工费拍卖(当两个或两个以上的先行者逐渐增加自己交易的矿工费,以至于他们的交易被打包到下一个区块)导致网络拥塞和其他试图运行正常交易的人的高矿工费。除了在一个块中发生的事情之外,MEV还可能在块之间产生有害影响。如果一个区块中可获得的MEV大大超过标准区块的回报,矿工可能会重新开采该区块并为自己捕获MEV,这将导致区块链的重组和共识的不稳定。

大多数mev是由被称为“搜索者”的独立网络参与者提取的。搜索者在区块链数据上运行复杂的算法,以检测有利可图的MEV机会,机器人会自动将这些有利可图的交易提交给网络。以太坊中的MEV问题涉及使用机器人来利用网络交易,这导致了拥塞和高成本。

边缘

Verge将实现“Verkle tree”(一种数学证明)和“无状态客户端”。这些技术升级将允许用户成为网络验证者,而无需在他们的机器上存储大量数据。这也是围绕rollup展开的步骤之一。前面提到了zk rollup的简单工作原理,聚合器提交了证明。第1层上的验证契约只需要验证blob中的KZG承诺和生成的证明。这里简单介绍一下KZG的承诺,就是保证所有的交易都包含在内。因为rollup可以提交一些事务并生成证书,所以如果使用KZG,将确保包含所有事务来生成证书。

边缘是确保验证非常简单。只需要下载N个字节的数据,进行基本计算,就可以验证rollup提交的证书。

值得一提的是,ZK rollup有很多方案,比如stark,snark或者防弹。每个方案都有不同的证明和验证方式,所以有一个权衡。目前SNARKs比STARKs技术更容易上手,技术也更完善。所以很多项目一开始用的是SNARKs,但是随着STARKs技术的迭代,最终会转向抗量子攻击的STARKs。虽然EIP-4844的主要改进之一是事务格式blob,扩展了块容量,但是为了适应rollup,目前所有零知识证明的主要瓶颈仍然在于自证明算法。一方面通过改进算法解决证明问题,另一方面通过硬件堆叠提高证明效率,导致ZK挖矿轨迹。有兴趣的可以去看看这篇文章。

清洗

清除将减少硬盘驱动器上存储ETH所需的空间量,尝试简化以太坊协议,并且不需要节点存储历史。这可以大大提高网络的带宽。

EIP-4444:

客户端必须在P2P层停止提供超过一年的历史报头、主体和接收者。客户端可以在本地删除这些历史数据。保存以太坊的历史是根本。我相信有各种带外方法可以实现这一点。历史数据可以通过torrent magnetic link或IPFS网络进行打包和共享。此外,门户网络或图表等系统可用于获取历史数据。客户端应该允许历史数据的导入和导出。客户端可以提供脚本来获取/验证数据并自动导入它们。

挥霍

这条路线主要是一些零碎的优化和修复,比如账号抽象、EVM优化和随机数方案VDF等。

这里提到的账户抽象(AA)一直是ZK第二层想要达到的第一个目标。什么是账户抽象?在实现了账户抽象之后,智能合约账户也可以主动发起交易,而不依赖于“元交易”的机制(EIP-4844提出)。

在以太坊,账户分为合约账户和外部账户。以太坊目前只有一种交易类型,必须由外部地址发起,但合约地址不能主动发起交易。因此,契约本身状态的任何改变都必须依赖于由外部地址发起的交易,无论是多签名账户、货币混合器还是任何智能契约配置改变,都需要由至少一个外部账户触发。

无论使用以太坊上的什么应用,用户都必须持有以太坊(并承担以太坊价格波动的风险)。其次,用户需要处理复杂的成本逻辑,比如气价、气限、交易阻断等,对用户来说过于复杂。许多区块链钱包或应用试图通过产品优化来改善用户体验,但效果甚微。

以帐户为中心的方案的目标是为用户创建一个基于智能合同管理的帐户。实现帐户抽象的好处是:

现在合同可以持有ETH,直接提交交易,全部签字。用户不一定要交交易的气费,完全看项目。

因为实现了自定义密码,以后不需要ESCDA椭圆曲线签名。未来一部手机的指纹识别、面部识别、生物识别等技术都可以作为签名方式。

从而显著提升用户与以太坊的交互体验。

二、以太坊的模块化

目前整个以太坊已经模块化,执行层负责第二层(如arbitrum,zksync,starknet,polygon zkevm等。).他们负责执行用户在L2上的交易并提交证书。第二层一般采用OP技术/ZK技术。理论上ZK技术的TPS比OP高很多,目前很多生态都在OP系统,但是未来随着ZK技术的完善,会有越来越多的应用迁移到ZK系统。这部分是对路线图的详细描述和补充,为什么和如何。

目前以太坊只分离了执行层。其实其他层还是很迷茫的。在celestia的设想中,执行层只做两件事:对于单个事务,执行事务并改变状态;对于同一批的交易,计算该批的状态根。目前以太坊执行层的部分工作分配给了Rollup,也就是我们熟知的StarkNet、zkSync、Arbitrum和optimization。

现在,乐观,多边形,starknet,zksync等。都在模块化的道路上探索。

乐观主义提出了基岩/op栈,polygon也在开发polygon avail作为数据可用性层,supernets用于简化链的创建和共享验证器集。

结算级别:可以理解为验证前述前置状态根、后置状态根、证书有效性(ZK汇总)或主链上汇总合同的欺诈性汇总的过程。

共识层:无论采用PoW、PoS还是其他共识算法,简而言之,共识层就是对分布式系统中的某件事达成一致,也就是对状态转移的有效性达成共识(前一个状态根通过计算转化为后一个状态根)。在模块化的背景下,结算层和共识层的含义有些相似,因此有研究者将其统一起来。

可用性层:确保事务数据完全上传到数据可用性层,并通过该层的数据验证节点能够重现所有的状态变化。

这里需要区分的是数据可用性和数据存储之间的区别:

数据可用性明显不同于数据存储。前者侧重于最新块释放的数据是否可用,而后者涉及安全存储数据并确保在需要时可以访问。

1.结算层的各种累计

从结算层面,认为目前汇总的重点是ZK系统。如果通过ZK系统的卷起来提高ZK证明系统的规模、气体消耗和成本,那么结合递归和并行处理就可以大大扩展它的TPS。那我们就从ZK卷开始吧。

随着以太坊资料片的发展,ZKP(零知识证明)技术被Vitalik认为是资料片战役的最终解决方案。

ZKP的本质是让某人证明自己知道或拥有某样东西。比如我不用拿出来就能证明我有开门的钥匙。无需输入密码并冒着暴露的风险即可证明帐户的密码。这项技术对个人隐私、加密、企业甚至核裁军都有影响。通过姚百万富翁问题的修订版,我们可以加深理解:这个问题讨论了两个百万富翁,爱丽丝和鲍勃,他们想知道谁更富有,而不透露他们的实际财富。

假设一套公寓的月租金为1000美元,如果要达到租房者的标准,它必须支付至少40倍的月租金。然后我们(租客)需要证明我们的年收入必须在4万美元以上。但业主不希望我们发现漏洞,所以选择不公布具体租金。他的目的是测试我们是否达标,答案只是我们达标还是不达标,具体多少他不负责。

现在有十个盒子,增量为10000美元,标记为10 ~ 100k美元。每个都有一把钥匙和一个插槽。店主拿着盒子走进房间,想毁掉9把钥匙,并拿走了标有$ 40k盒子的钥匙。

租客年薪达到75000美元,银行代理监督资产证明文件的发放,不具体说明资金。这个文件的本质是银行的资产负债表可以验证索赔文件。然后我们把文件放在10k~70k的盒子里。然后房东用40k的钥匙打开箱子,看到里面可核实的理赔文件,就判断租客符合标准。

这里面涉及到的点有:申报人(银行)出具资产标准证书,审核人(业主)通过钥匙验证租户是否合格。还是那句话,核查结果只有两个选择:3354合格和不合格,并没有也不可能要求租户的具体资产数额。

我们还是可以用下图作为理解。事务在第2层执行,事务以片的形式提交。第二层一般采用rollup的形式,即在第二层将多个交易打包成一批进行交易处理,然后提交给第一层的rollup智能合约。有旧的和新的国家根源。第1层上的契约将验证两个状态根是否匹配,如果匹配,主链上的旧状态根将被新状态根替换。如何验证批处理后得到的状态根是正确的?这里导出了最优的rollup和zk rollup。分别使用防欺诈和zk技术确认交易和验证状态根。

这里的第二层(rollup)相当于上面例子中的报关员(银行),它的打包操作就是这个申报操作,不做具体金额的声明,而是确认是否达标。打包后提交到第1层,这是可以认领的申报文件。核实新老身份的根本是业主通过钥匙核实自己预期的租客经济实力是否达标。根源验证问题是银行提交的对账单。如何使陈述能够使问题可信。

基于最优的,也就是带有欺诈证明的Rollup,主链的Rollup契约记录了rollup内部状态根变化的完整记录,以及每个批处理的hash值(触发状态根变化)。如果有人发现某个批处理对应的新状态根是错误的,可以在主链上贴一个证书,证明该批处理生成的新状态根是错误的。契约对证书进行验证,如果通过验证,将回滚批处理后的所有批处理事务。

这里的验证方式相当于申报人(银行)提交可验证的资产申报文件,然后将所有的资产文件发布到链上,数据也要发布到链上。其他质疑者根据原始数据进行计算,看可核实的资产文件是否有错误或伪造。如果有问题,他们会挑战,如果挑战成功,他们会向银行索赔。这里最重要的问题是给挑战者预留收集数据和验证文件真实性的时间。

对于使用零知识证明(ZKP)技术的汇总,每个批处理都包含一个名为ZK-斯纳克的加密证明。通过银行密码生成资产申报文件。这样就不需要给挑战者预留时间,所以没有挑战者。

2.现在,ZK是总结没有如预期的原因。

目前polygon部门的hermez已经发布,zksync dev主网和starknet主网也已经上线。但是他们的交易速度理论上似乎远远落后于我们,尤其是starknet用户可以明显感知到其主网慢得惊人。原因是零知识证明技术生成证明还是很难的,成本还是很高的。以太坊的兼容性和zkevm的性能之间也有权衡。Polygon团队也承认:“Polygon zkEVM的测试网络版本也具有有限的吞吐量,这意味着它远不是优化和扩展机器的最终形式。」

3.数据可用性层

以太坊的抽象执行步骤如下:

在以太坊去中心化的过程中,我们也可以在合并路线图上看到——去中心化验证器。最重要的是实现客户端的多样性,降低机器的入门门槛,增加验证者的数量。所以有些机器不达标的验证者想参与网络,可以用轻客户端。光节点的工作原理是通过所有邻居节点索要块头,光节点只需要下载并验证块头即可。如果轻节点不参与,所有事务都需要所有节点验证,所以所有节点都需要下载验证块中的每一个事务。同时,随着交易量的增加,所有节点的压力都在增加,因此节点网络逐渐趋向于高性能和集中化。

但这里的问题是,恶意的满节点可以给出缺失/无效的块头,而轻节点却无法伪造。有两种方法可以解决这个问题。首先我们需要一个可信全节点来监控块的有效性,在发现无效块后构造一个欺诈证书,如果在一段时间内没有收到欺诈证书就判断为有效的块头。

但是显然需要一个可信的全节点,也就是可信的设置或者诚实的假设。但是,如果块生产者可以隐藏一些交易,欺诈证书将明显无效,因为诚实节点也依赖于块生产者的数据。如果数据本身是隐藏的,可信节点会认为提交的数据都是数据,那么自然不会生成欺诈证书。

Mustarfa AI-Bassam和Vitalik在他们的合著论文中提出了一种新的解决方案——纠删码。采用纠删码来解决数据可用性问题。例如,celestia和polygon avail采用了reed-solomon的纠删码。但是如何保证传输的数据是完整的呢?结合KZG承诺/欺诈证明即可。

在KZG promise/fraud proof中,它可以保证块生产者发布完整的数据而不隐藏交易,然后通过纠删码对数据进行编码,再对数据可用性进行采样,使得轻节点能够正确验证数据。

聚合器在Rollup中提交的数据以calldata的形式存储在链中,因为calldata数据比其他存储区域便宜。

gas中的呼叫数据成本=事务大小16 gas字节

每笔交易的主要开销是calldata成本,因为链上的存储成本极其昂贵,占到了rollup成本的80% ~ 95%。

针对这个问题,我们提出了一种新的事务格式blob的EIP-4844,它扩大了block的容量,减少了向链提交所需的gas费。

4.数据可用性层的上下链。

那么如何解决链上数据贵的问题呢?有几种方法:

首先,上传到L1的呼叫数据的大小被压缩,这已经被优化了很多。

其次,是降低链中存储数据的成本。以太坊的proto-danksharding和danksharding为rollup提供了一个“大块”,有更大的数据可用空间。采用纠删码和KZG承诺解决轻节点问题。比如EIP-4844。

三是把数据可用性放在链下。这部分的通用方案有celestia/polygon avail等。

根据数据可用性存储的位置,我们将其分为下图:

Validium的方案:把数据可用性放在链下,那么这些交易数据将由集中的运营商来维护,用户需要可信的设置,成本低,但同时几乎没有安全性。之后,starkex和arbitrum nova都提出建立DAC来存储交易数据。DAC成员是法律管辖区内的知名个人或组织,信任假设是他们不会串通作恶。

Zkporter提议监护人(ZK同步令牌的持有者)承诺维护数据可用性。如果出现数据可用性故障,认捐的资金将被没收。

意愿是用户对在线/离线数据可用性的选择。根据需求,用户在安全性和成本之间进行选择。

这时,celestia和polygon avail出现了。如果validium有链下数据可用性的需求,又怕去中心化程度低,会导致类似跨链桥的私钥攻击,那么去中心化的通用DA方案可以解决这个问题。Celestia和polygon avail通过成为单链,为validium提供链下DA的解决方案。但是通过单独的链条,虽然安全性提高了,但是成本也会相应增加。

Rollup的扩展其实有两部分,一是聚合器的执行速度,二是数据可用性层的配合。目前,聚合器由中央服务器运行。假设事务执行速度可以达到无限大的程度,主要的扩展困境是受到底层数据可用性解决方案的数据吞吐量的影响。如果rollup想要最大化其事务吞吐量,如何最大化数据可用性解决方案的数据空间吞吐量是至关重要的。

回到开头,用KZG承诺或欺诈证书来保证数据的完整性,用纠删码来扩展交易数据,帮助轻节点采样数据可用性,从而进一步保证轻节点能够正确验证数据。

也许你还想问,KZG promise到底是如何保证其数据的完整性的?也许你可以稍微回答一下:

ZG承诺:证明多项式在特定位置的值与指定值一致。

ZG承诺只不过是多项式承诺中的一种,它可以在不给出具体消息的情况下验证一个消息。大致过程如下:

通过纠删码将数据转化为多项式,并对其进行扩展。使用KZG承诺保证我们的扩展是有效的,原始数据是有效的。然后我们可以通过扩展来重构数据,最后对数据可用性进行采样。

提交者生成一个提交,并将其绑定到消息。

当绑定的消息被发送给验证者时,这里的通信方案与证明大小有关。

Verifier,带入有限域的多个值验证是否仍然等于A(这是可用性采样的过程)。基本原理是验证的次数越多,正确的概率越高。

Celestia要求验证者下载整个块,现在danksharding使用数据可用性采样技术。

因为块是部分可用的,所以我们需要在任何时候重建块时确保同步。当块确实部分可用时,节点相互通信以将块拼凑在一起。

KG承诺和数据欺诈证明的比较;

可以看出,KZG承诺保证展开和数据正确,而造假证明则引入第三方进行观察。最明显的区别是,舞弊证明需要一个时间间隔才能反应到观察者,然后举报舞弊。这时候就需要满足节点的直接同步,让全网都能及时收到防欺诈证明。KG显然比欺诈证明要快,它用数学方法保证数据的正确性,不需要等待时间。

可以证明数据及其扩展是正确的。但是一维KZG承诺需要更多的资源,所以以太坊选择二维KZG承诺。

比如100行100列,那就是100,00股。但每一次采样都不能保证万分之一。那么扩大四倍就意味着总份额中至少有1/4是不可用的,这样你就可以画出一个不可用的份额,也就是说因为无法恢复所以真的不可用。只有1/4不可用时,才无法恢复。发现错误真的很有效,所以画一次的概率大概是1/4。抽十次以上十五次就能达到99%的可靠性保证。现在在15-20次的范围内做出选择。

5、EIP-4844(原始丹麦人)

在proto-danksharding实现中,所有验证者和用户仍然必须直接验证完整数据的可用性。

Proto-danksharding引入的主要特性是新的事务类型,我们称之为blob事务。携带blob的事务类似于常规事务,只是它还携带一个称为blob的额外数据。Blob非常大(~125 kB),比类似数量的呼叫数据便宜得多。然而,这些blob不能从EVM访问(只有blob的承诺)。和blob由共识层(信标链)而不是执行层存储。事实上,这是数据碎片化概念逐渐形成的开始。

因为验证者和客户机仍然需要下载完整的blob内容,所以proto-danksharding中的数据带宽目标是每个槽1 MB,而不是完整的16 MB。但是,因为这些数据不会与现有以太坊事务的gas使用量竞争,所以仍然有很大的可伸缩性好处。

虽然实现完全碎片化(使用数据可用性采样等)是一项复杂的任务。)而且在proto-danksharding之后仍然是一个复杂的任务,这个复杂是包含在共识层的。一旦启动proto-danksharding,执行层的客户团队、汇总开发者和用户不需要做进一步的工作来完成向完全分片的过渡。Proto-danksharding还将blob数据与calldata分开,使客户机更容易在更短的时间内存储blob数据。

值得注意的是,所有的工作都是由共识层改变的,不需要客户团队、用户或Rollup开发者的任何额外工作。

EIP-4488和proto-danksharding都导致每个时隙(12秒)大约1 MB的长期最大使用量。这相当于每年2.5 TB左右,远高于今天以太坊要求的增长率。

在EIP-4488的情况下,为了解决这个问题,需要历史记录到期建议EIP-4444(在路线图部分中提到),其中不再要求客户端存储特定时间段的历史记录。

6.数据碎片

在这里,我们将尽可能地从小白的角度来解释以太坊扩张过程中大家都在讨论的问题。所以让我们回到碎片化,再次强调碎片化这个片面的概念:简单理解就是对数据库进行水平分区以分散负载的过程。

这里,我们的数据碎片化有一个很重要的问题。在PBS中(提议者与分块者分离,路线图Merge中有提到),在分片中,每个节点组只处理那个分片内的事务,而事务在分片之间会相对独立。那么,AB两个用户应该如何互相转账呢?那么这里就需要良好的跨芯片通信能力。

在过去,数据可用性层是分区的,每个分区都有独立的提议者和委员会。在验证者集合中,每个验证者轮流验证碎片化的数据,他们下载所有的数据进行验证。

缺点是:

需要严格的同步技术来确保验证器可以在一个槽内同步。

验证者需要收集委员会的所有投票,这里会有延迟。

而且对于验证者来说,完全下载数据也是很有压力的。

第二种方法是放弃完全数据验证,转而采用数据可用性抽样方法(这种方法是在浪涌后期实施的)。这里的随机抽样方式有两种:1)块随机抽样,分片抽样部分数据,如果验证通过,验证者签字。但这里的问题是,可能会有错过的交易。2)纠删码将数据重新解释为多项式,然后利用多项式在特定条件下可以恢复数据的特性,保证数据的完全可用性。

“分片”的关键是验证者不负责下载所有的数据,这就是为什么Proto-danksharding不被认为是“分片”(虽然它的名字中有“分片”)。Proto-danksharding要求每个验证者完全下载所有碎片blob以验证它们的可用性;Danksharding然后将引入采样,并且单个验证器只需要下载分割的blob的片段。

三、以太坊第三层的未来

被视为以太坊未来扩展的ZK系列Layer 2,如zksync、starknet等都提出了Layer 3的概念。简单理解就是层2的层2。

以太坊高昂的交易成本正推动它(L3)成为L2的结算层。相信在不久的将来,由于交易成本的大幅降低,对DeFi工具的支持不断增加,以及L2提供的流动性增加,最终用户将在L2上进行大部分活动,以太坊将逐渐成为结算层。

L2通过降低每笔交易的汽油成本和提高交易率来提高可伸缩性。同时,L2s保留了去中心化、通用逻辑和可组合性的优点。然而,一些应用程序需要特定的定制,这可能由一个新的独立层更好地服务:L3!

L3与L2有关,就像L2与L1有关一样。只要L2能够支持验证者的智能契约,L3就可以通过使用有效性证明来实现。当L2也像StarkNet一样使用提交给L1的有效性证明时,这将成为一个非常优雅的递归结构,其中L2证明的压缩优势乘以L3证明的压缩优势。理论上,如果每层的成本降低例如1,000倍,那么L3与L1相比可以减少1,000,000倍,减少33,354倍,同时仍然保持L1的安全性。这也是starknet引以为豪的递归证明的一个真实用例。

这里需要《数据可用性层的链上与链下》部分的知识。整个层3包括:

Rollup(链上数据可用性),validium(链外数据可用性)。这两种类型对应不同的应用需求。对价格和数据敏感的Web2企业,可以使用validium将数据下链,大大降低了链上的用气成本,并且可以在不泄露用户数据的情况下实现隐私,让企业完成对数据的自主控制,使用自定义的数据格式。企业以前的数据商业模式还是可以贯穿的。

L2用于扩展,L3用于定制功能,例如隐私。

在这个愿景中,没有试图提供“二次可伸缩性”;相反,在这个堆栈中有一层可以帮助应用程序扩展,然后根据不同用例的定制功能需求来分离这些层。

L2用于一般扩展,L3用于定制扩展。

定制可以采取不同的形式:使用EVM以外的东西进行计算的特殊应用程序,其数据压缩针对特定应用程序的数据格式进行了优化的汇总(包括将“数据”与“证明”分开,以及用每个块的单个标记完全替换证明)等。

L2用于不信任汇总,L3用于弱信任汇总。

Validium是一个使用SNARK来验证计算的系统,但将数据可用性留给可信的第三方或委员会。在我看来,validium被严重低估了:特别是,许多“企业区块链”应用程序实际上可能由运行Validium provers并定期向链提交散列的集中式服务器提供最佳服务。

Validium的安全级别比rollup低,但可以便宜很多。

对于dApp的开发者来说,在基础设施方面有几个选择:

开发一个汇总(ZK汇总或最优汇总)

好处是可以继承以太坊的生态(用户)及其安全性,但对于一个dApp团队来说,Rollup的开发成本显然太高。

选择宇宙,波尔卡多特或雪崩。

开发成本会更低(比如dydx选择了Cosmos),但是你会失去以太坊的生态(用户)和安全性。

自己开发第1层区块链

开发成本和难度都很高,但是可以拥有最高的控制权。

让我们比较三种情况:

难度/费用:Alt-第1层卷起宇宙

安全性:汇总宇宙Alt-第1层

生态/用户:卷起宇宙Alt-第1层

控制权:Alt-第1层宇宙卷

作为dApp的开发者,如果想继承以太坊上的安全和流量,就不能重新开发一个链,只能选择rollup。但是,自己开发第2层汇总非常昂贵,因此合适的解决方案是使用第3层SDK开发特定于应用程序的汇总(第3层)。

四。第2层的未来发展

因为以太坊是基于账号模型设计的,所有用户都在一个完整的状态树中,所以不可能是并行的。所以以太坊本身的枷锁使得它需要被剥离执行,rollup的很多交易合并成一个交易,作为一个结算层存在。现在所有的问题都集中在第二层吞吐量的提高上。不仅使用第三层可以提高事务的吞吐量,而且在第二层实现并行处理可以大大提高整个网络的吞吐量。

并行化问题starknet也在积极探索中。虽然目前证明算法还是个桎梏,但预计未来不会成为阻力。潜在的瓶颈包括:

序列器发送处理:一些序列器看起来本质上是串行的。

带宽:多个定序器之间的互连将受到限制。

L2国家规模

在starknet社区,成员也提出aptos并行处理非常好。就Starknet而言,也在推动分拣机内部的tx并行分拣能力。

动词(verb的缩写)摘要

以太坊正在剥离执行层,它的所有行动都在朝着它所设想的“全球”结算层的方向前进。目前整个以太坊虽然进展缓慢,也就是因为它的整体太大,但是每次更新都涉及到很多利益和取舍。然而,不可否认的是,以太坊正在发生重大变化。以太坊拥有以太坊2.0的大量连锁活动、完善的经济机制和可扩展性,其创新IC0、Defi、NFT等诸多东西值得以太坊社区的兴奋和期待。相信随着越来越多的国家部署以太坊节点,比如阿根廷首都政府计划在2023年部署以太坊验证节点。在不久的将来,以太坊真的可以实现它的宏伟愿景。

广告位
本文来自网络,不代表区块链网站|NFTS立场,转载请注明出处:https://www.qklwz.com/jzb/apt/19354.html
上一篇
下一篇

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

返回顶部