A. 以太坊,以太币是啥玩意
以太币就是以太坊,是目前区块链虚拟货币中最火的币种,而且很多矿工首选的挖矿币种。
挖矿作为区块链发展的基石,再区块链中起着举足轻重的地位,所以想了解区块链还是要从挖矿开始。
你可以使用哈鱼矿工,来进行挖矿,相信你能更快的了解区块链和以太币!而且挖矿还能获得收益,美滋滋!
B. 以太坊总量多少枚
目前以太坊的总供应量为111,562,994枚。
1.以太币是后于比特币出现的一种虚拟货币,虽然是后出现的虚拟货币,但是以太币的发展势头大有后来者居上的情况,这并不能说明比特币已经退出了虚拟货币的大潮,但是可以说明的是人们正在逐渐接受这样的虚拟货币
2.以太坊在2015年正式发布并发行7200万枚以太坊数字货币,除此之外以太坊每年可通过挖矿产生大约1872万枚,总量并没有限制,为无限大。以太坊研发者在推出以太坊时不仅参考了比特币的相关规则,还结合了金融学中的部分规律,考虑到投资人数的逐年递增以及投资者资产实力的增加,于是决定了以太坊发行量为无限。
拓展资料:
1.以太坊(Ethereum,简称ETH),是下一代密码学账本,可以支持众多的高级功能,包括用户发行货币,智能协议,去中心化的交易和设立去中心化自治组织(DAOs)或去中心化自治公司(DACs)。
2.Ethereum(以太坊)是一个具有智能合约的平台,最大的贡献就是建立了标准化的代币使用标准,比喻ERC-20,同币种存储协议标准,不同币种转换标准ERC-721.还有其他交易、租拟,转让等各种金融数字货币标准应用,使开发人员能够建立和发布下一代分布式应用。 Ethereum可以用来编程,分散,担保和交易任何事物:投票,域名,金融交易所,众筹,公司管理, 合同和大部分的协议,知识产权,还有得益于硬件集成的智能资产。 以太坊将使用混合型的安全协议,前期使用工作量证明机制(POW),用于分发以太币,然后会切换到权益证明机制(POS)。自上线时起,每年都将有0.26x,即每年有60102216 * 0.26 = 15626576个以太币被矿工挖出。转成POS后,每年产出的以太币将减少。
C. 以太坊是什么以太坊与区块链有什么关系
以太坊是什么:
以太坊是一项基于比特币中技术和概念运用到计算机的创新。以太坊本身仿制了很多比特币的技术,以此来维护计算机平台。区块链技术就是其中之一。
以太坊平台可以安全的运行用户想要的任何程序。
以太坊和其余竞争币比的优势
以太坊出现之前,已经有一些数字货币模仿比特币出现了。但是,这些项目本身有一定的缺点,仅仅可以同时支持一种或几种特定应用。(更好的数字货币交易平台尽在“币汇”)
然而以太坊之所以能超越以往这些项目的局限性,是因为以太坊的核心思想。
以太坊要实现的是一个内置了编程语言的区块链协议,由于支持了编程语言,那么理论上任何区块链应用都可以用这门语言进行定义,进而作为一种应用,运行于以太坊的区块链协议之上。
以太坊的设计十分灵活,极具适应性。
以太坊目标集区块链技术之长,为了把区块链优点,如去中心化、开放和安全等特点都加入到近乎所有的计算领域。
以太坊的区块链应用
以太坊有很多区块链应用,如黄金和股票的数字化应用、金融衍生品应用、DNS 和数字认证等等。
以太坊被很多创业公司实现出的区块链应用就已经达到100多种。
以太坊也被一些金融机构、银行财团(比如 R3),以及类似三星、Deloitte、RWE 和 IBM 这类的大公司所密切关注,由此也催生出了一批诸如简化和自动化金融交易、商户忠诚指数追踪、旨在实现电子交易去中心化的礼品卡等等区块链应用。
以太坊与区块链的关系:
以太坊是可编程的区块链。
以太坊是并不是给用户一系列预先设定好的操作(例如比特币交易),而是允许用户按照自己的意愿创建复杂的操作。
这样一来,以太坊是就可以作为多种类型去中心化区块链应用的平台,包括加密货币在内但并不仅限于此。
和其他区块链一样,以太坊也有一个点对点网络协议。以太坊区块链数据库由众多连接到网络的节点来维护和更新。每个网络节点都运行着以太坊模拟机并执行相同的指令。因此,人们有时形象地称以太坊为“世界电脑”。
D. 以太坊升级是什么意思
网络将于区块高度7,280,000进行君士坦丁堡 & 彼得斯堡(Constantinople & Petersburg)升级l,z,b显示是北京时间2019年3月1日升级,目前不知道升级成功了没
E. 【深度知识】区块链之加密原理图示(加密,签名)
先放一张以太坊的架构图:
在学习的过程中主要是采用单个模块了学习了解的,包括P2P,密码学,网络,协议等。直接开始总结:
秘钥分配问题也就是秘钥的传输问题,如果对称秘钥,那么只能在线下进行秘钥的交换。如果在线上传输秘钥,那就有可能被拦截。所以采用非对称加密,两把钥匙,一把私钥自留,一把公钥公开。公钥可以在网上传输。不用线下交易。保证数据的安全性。
如上图,A节点发送数据到B节点,此时采用公钥加密。A节点从自己的公钥中获取到B节点的公钥对明文数据加密,得到密文发送给B节点。而B节点采用自己的私钥解密。
2、无法解决消息篡改。
如上图,A节点采用B的公钥进行加密,然后将密文传输给B节点。B节点拿A节点的公钥将密文解密。
1、由于A的公钥是公开的,一旦网上黑客拦截消息,密文形同虚设。说白了,这种加密方式,只要拦截消息,就都能解开。
2、同样存在无法确定消息来源的问题,和消息篡改的问题。
如上图,A节点在发送数据前,先用B的公钥加密,得到密文1,再用A的私钥对密文1加密得到密文2。而B节点得到密文后,先用A的公钥解密,得到密文1,之后用B的私钥解密得到明文。
1、当网络上拦截到数据密文2时, 由于A的公钥是公开的,故可以用A的公钥对密文2解密,就得到了密文1。所以这样看起来是双重加密,其实最后一层的私钥签名是无效的。一般来讲,我们都希望签名是签在最原始的数据上。如果签名放在后面,由于公钥是公开的,签名就缺乏安全性。
2、存在性能问题,非对称加密本身效率就很低下,还进行了两次加密过程。
如上图,A节点先用A的私钥加密,之后用B的公钥加密。B节点收到消息后,先采用B的私钥解密,然后再利用A的公钥解密。
1、当密文数据2被黑客拦截后,由于密文2只能采用B的私钥解密,而B的私钥只有B节点有,其他人无法机密。故安全性最高。
2、当B节点解密得到密文1后, 只能采用A的公钥来解密。而只有经过A的私钥加密的数据才能用A的公钥解密成功,A的私钥只有A节点有,所以可以确定数据是由A节点传输过来的。
经两次非对称加密,性能问题比较严重。
基于以上篡改数据的问题,我们引入了消息认证。经过消息认证后的加密流程如下:
当A节点发送消息前,先对明文数据做一次散列计算。得到一个摘要, 之后将照耀与原始数据同时发送给B节点。当B节点接收到消息后,对消息解密。解析出其中的散列摘要和原始数据,然后再对原始数据进行一次同样的散列计算得到摘要1, 比较摘要与摘要1。如果相同则未被篡改,如果不同则表示已经被篡改。
在传输过程中,密文2只要被篡改,最后导致的hash与hash1就会产生不同。
无法解决签名问题,也就是双方相互攻击。A对于自己发送的消息始终不承认。比如A对B发送了一条错误消息,导致B有损失。但A抵赖不是自己发送的。
在(三)的过程中,没有办法解决交互双方相互攻击。什么意思呢? 有可能是因为A发送的消息,对A节点不利,后来A就抵赖这消息不是它发送的。
为了解决这个问题,故引入了签名。这里我们将(二)-4中的加密方式,与消息签名合并设计在一起。
在上图中,我们利用A节点的私钥对其发送的摘要信息进行签名,然后将签名+原文,再利用B的公钥进行加密。而B得到密文后,先用B的私钥解密,然后 对摘要再用A的公钥解密,只有比较两次摘要的内容是否相同。这既避免了防篡改问题,有规避了双方攻击问题。因为A对信息进行了签名,故是无法抵赖的。
为了解决非对称加密数据时的性能问题,故往往采用混合加密。这里就需要引入对称加密,如下图:
在对数据加密时,我们采用了双方共享的对称秘钥来加密。而对称秘钥尽量不要在网络上传输,以免丢失。这里的共享对称秘钥是根据自己的私钥和对方的公钥计算出的,然后适用对称秘钥对数据加密。而对方接收到数据时,也计算出对称秘钥然后对密文解密。
以上这种对称秘钥是不安全的,因为A的私钥和B的公钥一般短期内固定,所以共享对称秘钥也是固定不变的。为了增强安全性,最好的方式是每次交互都生成一个临时的共享对称秘钥。那么如何才能在每次交互过程中生成一个随机的对称秘钥,且不需要传输呢?
那么如何生成随机的共享秘钥进行加密呢?
对于发送方A节点,在每次发送时,都生成一个临时非对称秘钥对,然后根据B节点的公钥 和 临时的非对称私钥 可以计算出一个对称秘钥(KA算法-Key Agreement)。然后利用该对称秘钥对数据进行加密,针对共享秘钥这里的流程如下:
对于B节点,当接收到传输过来的数据时,解析出其中A节点的随机公钥,之后利用A节点的随机公钥 与 B节点自身的私钥 计算出对称秘钥(KA算法)。之后利用对称秘钥机密数据。
对于以上加密方式,其实仍然存在很多问题,比如如何避免重放攻击(在消息中加入 Nonce ),再比如彩虹表(参考 KDF机制解决 )之类的问题。由于时间及能力有限,故暂时忽略。
那么究竟应该采用何种加密呢?
主要还是基于要传输的数据的安全等级来考量。不重要的数据其实做好认证和签名就可以,但是很重要的数据就需要采用安全等级比较高的加密方案了。
密码套件 是一个网络协议的概念。其中主要包括身份认证、加密、消息认证(MAC)、秘钥交换的算法组成。
在整个网络的传输过程中,根据密码套件主要分如下几大类算法:
秘钥交换算法:比如ECDHE、RSA。主要用于客户端和服务端握手时如何进行身份验证。
消息认证算法:比如SHA1、SHA2、SHA3。主要用于消息摘要。
批量加密算法:比如AES, 主要用于加密信息流。
伪随机数算法:例如TLS 1.2的伪随机函数使用MAC算法的散列函数来创建一个 主密钥 ——连接双方共享的一个48字节的私钥。主密钥在创建会话密钥(例如创建MAC)时作为一个熵来源。
在网络中,一次消息的传输一般需要在如下4个阶段分别进行加密,才能保证消息安全、可靠的传输。
握手/网络协商阶段:
在双方进行握手阶段,需要进行链接的协商。主要的加密算法包括RSA、DH、ECDH等
身份认证阶段:
身份认证阶段,需要确定发送的消息的来源来源。主要采用的加密方式包括RSA、DSA、ECDSA(ECC加密,DSA签名)等。
消息加密阶段:
消息加密指对发送的信息流进行加密。主要采用的加密方式包括DES、RC4、AES等。
消息身份认证阶段/防篡改阶段:
主要是保证消息在传输过程中确保没有被篡改过。主要的加密方式包括MD5、SHA1、SHA2、SHA3等。
ECC :Elliptic Curves Cryptography,椭圆曲线密码编码学。是一种根据椭圆上点倍积生成 公钥、私钥的算法。用于生成公私秘钥。
ECDSA :用于数字签名,是一种数字签名算法。一种有效的数字签名使接收者有理由相信消息是由已知的发送者创建的,从而发送者不能否认已经发送了消息(身份验证和不可否认),并且消息在运输过程中没有改变。ECDSA签名算法是ECC与DSA的结合,整个签名过程与DSA类似,所不一样的是签名中采取的算法为ECC,最后签名出来的值也是分为r,s。 主要用于身份认证阶段 。
ECDH :也是基于ECC算法的霍夫曼树秘钥,通过ECDH,双方可以在不共享任何秘密的前提下协商出一个共享秘密,并且是这种共享秘钥是为当前的通信暂时性的随机生成的,通信一旦中断秘钥就消失。 主要用于握手磋商阶段。
ECIES: 是一种集成加密方案,也可称为一种混合加密方案,它提供了对所选择的明文和选择的密码文本攻击的语义安全性。ECIES可以使用不同类型的函数:秘钥协商函数(KA),秘钥推导函数(KDF),对称加密方案(ENC),哈希函数(HASH), H-MAC函数(MAC)。
ECC 是椭圆加密算法,主要讲述了按照公私钥怎么在椭圆上产生,并且不可逆。 ECDSA 则主要是采用ECC算法怎么来做签名, ECDH 则是采用ECC算法怎么生成对称秘钥。以上三者都是对ECC加密算法的应用。而现实场景中,我们往往会采用混合加密(对称加密,非对称加密结合使用,签名技术等一起使用)。 ECIES 就是底层利用ECC算法提供的一套集成(混合)加密方案。其中包括了非对称加密,对称加密和签名的功能。
<meta charset="utf-8">
这个先订条件是为了保证曲线不包含奇点。
所以,随着曲线参数a和b的不断变化,曲线也呈现出了不同的形状。比如:
所有的非对称加密的基本原理基本都是基于一个公式 K = k G。其中K代表公钥,k代表私钥,G代表某一个选取的基点。非对称加密的算法 就是要保证 该公式 不可进行逆运算( 也就是说G/K是无法计算的 )。 *
ECC是如何计算出公私钥呢?这里我按照我自己的理解来描述。
我理解,ECC的核心思想就是:选择曲线上的一个基点G,之后随机在ECC曲线上取一个点k(作为私钥),然后根据k G计算出我们的公钥K。并且保证公钥K也要在曲线上。*
那么k G怎么计算呢?如何计算k G才能保证最后的结果不可逆呢?这就是ECC算法要解决的。
首先,我们先随便选择一条ECC曲线,a = -3, b = 7 得到如下曲线:
在这个曲线上,我随机选取两个点,这两个点的乘法怎么算呢?我们可以简化下问题,乘法是都可以用加法表示的,比如2 2 = 2+2,3 5 = 5+5+5。 那么我们只要能在曲线上计算出加法,理论上就能算乘法。所以,只要能在这个曲线上进行加法计算,理论上就可以来计算乘法,理论上也就可以计算k*G这种表达式的值。
曲线上两点的加法又怎么算呢?这里ECC为了保证不可逆性,在曲线上自定义了加法体系。
现实中,1+1=2,2+2=4,但在ECC算法里,我们理解的这种加法体系是不可能。故需要自定义一套适用于该曲线的加法体系。
ECC定义,在图形中随机找一条直线,与ECC曲线相交于三个点(也有可能是两个点),这三点分别是P、Q、R。
那么P+Q+R = 0。其中0 不是坐标轴上的0点,而是ECC中的无穷远点。也就是说定义了无穷远点为0点。
同样,我们就能得出 P+Q = -R。 由于R 与-R是关于X轴对称的,所以我们就能在曲线上找到其坐标。
P+R+Q = 0, 故P+R = -Q , 如上图。
以上就描述了ECC曲线的世界里是如何进行加法运算的。
从上图可看出,直线与曲线只有两个交点,也就是说 直线是曲线的切线。此时P,R 重合了。
也就是P = R, 根据上述ECC的加法体系,P+R+Q = 0, 就可以得出 P+R+Q = 2P+Q = 2R+Q=0
于是乎得到 2 P = -Q (是不是与我们非对称算法的公式 K = k G 越来越近了)。
于是我们得出一个结论,可以算乘法,不过只有在切点的时候才能算乘法,而且只能算2的乘法。
假若 2 可以变成任意个数进行想乘,那么就能代表在ECC曲线里可以进行乘法运算,那么ECC算法就能满足非对称加密算法的要求了。
那么我们是不是可以随机任何一个数的乘法都可以算呢? 答案是肯定的。 也就是点倍积 计算方式。
选一个随机数 k, 那么k * P等于多少呢?
我们知道在计算机的世界里,所有的都是二进制的,ECC既然能算2的乘法,那么我们可以将随机数k描 述成二进制然后计算。假若k = 151 = 10010111
由于2 P = -Q 所以 这样就计算出了k P。 这就是点倍积算法 。所以在ECC的曲线体系下是可以来计算乘法,那么以为这非对称加密的方式是可行的。
至于为什么这样计算 是不可逆的。这需要大量的推演,我也不了解。但是我觉得可以这样理解:
我们的手表上,一般都有时间刻度。现在如果把1990年01月01日0点0分0秒作为起始点,如果告诉你至起始点为止时间流逝了 整1年,那么我们是可以计算出现在的时间的,也就是能在手表上将时分秒指针应该指向00:00:00。但是反过来,我说现在手表上的时分秒指针指向了00:00:00,你能告诉我至起始点算过了有几年了么?
ECDSA签名算法和其他DSA、RSA基本相似,都是采用私钥签名,公钥验证。只不过算法体系采用的是ECC的算法。交互的双方要采用同一套参数体系。签名原理如下:
在曲线上选取一个无穷远点为基点 G = (x,y)。随机在曲线上取一点k 作为私钥, K = k*G 计算出公钥。
签名过程:
生成随机数R, 计算出RG.
根据随机数R,消息M的HASH值H,以及私钥k, 计算出签名S = (H+kx)/R.
将消息M,RG,S发送给接收方。
签名验证过程:
接收到消息M, RG,S
根据消息计算出HASH值H
根据发送方的公钥K,计算 HG/S + xK/S, 将计算的结果与 RG比较。如果相等则验证成功。
公式推论:
HG/S + xK/S = HG/S + x(kG)/S = (H+xk)/GS = RG
在介绍原理前,说明一下ECC是满足结合律和交换律的,也就是说A+B+C = A+C+B = (A+C)+B。
这里举一个WIKI上的例子说明如何生成共享秘钥,也可以参考 Alice And Bob 的例子。
Alice 与Bob 要进行通信,双方前提都是基于 同一参数体系的ECC生成的 公钥和私钥。所以有ECC有共同的基点G。
生成秘钥阶段:
Alice 采用公钥算法 KA = ka * G ,生成了公钥KA和私钥ka, 并公开公钥KA。
Bob 采用公钥算法 KB = kb * G ,生成了公钥KB和私钥 kb, 并公开公钥KB。
计算ECDH阶段:
Alice 利用计算公式 Q = ka * KB 计算出一个秘钥Q。
Bob 利用计算公式 Q' = kb * KA 计算出一个秘钥Q'。
共享秘钥验证:
Q = ka KB = ka * kb * G = ka * G * kb = KA * kb = kb * KA = Q'
故 双方分别计算出的共享秘钥不需要进行公开就可采用Q进行加密。我们将Q称为共享秘钥。
在以太坊中,采用的ECIEC的加密套件中的其他内容:
1、其中HASH算法采用的是最安全的SHA3算法 Keccak 。
2、签名算法采用的是 ECDSA
3、认证方式采用的是 H-MAC
4、ECC的参数体系采用了secp256k1, 其他参数体系 参考这里
H-MAC 全程叫做 Hash-based Message Authentication Code. 其模型如下:
在 以太坊 的 UDP通信时(RPC通信加密方式不同),则采用了以上的实现方式,并扩展化了。
首先,以太坊的UDP通信的结构如下:
其中,sig是 经过 私钥加密的签名信息。mac是可以理解为整个消息的摘要, ptype是消息的事件类型,data则是经过RLP编码后的传输数据。
其UDP的整个的加密,认证,签名模型如下:
F. 011:Ethash算法|《ETH原理与智能合约开发》笔记
待字闺中开发了一门区块链方面的课程:《深入浅出ETH原理与智能合约开发》,马良老师讲授。此文集记录我的学习笔记。
课程共8节课。其中,前四课讲ETH原理,后四课讲智能合约。
第四课分为三部分:
这篇文章是第四课第一部分的学习笔记:Ethash算法。
这节课介绍的是以太坊非常核心的挖矿算法。
在介绍Ethash算法之前,先讲一些背景知识。其实区块链技术主要是解决一个共识的问题,而共识是一个层次很丰富的概念,这里把范畴缩小,只讨论区块链中的共识。
什么是共识?
在区块链中,共识是指哪个节点有记账权。网络中有多个节点,理论上都有记账权,首先面临的问题就是,到底谁来记帐。另一个问题,交易一定是有顺序的,即谁在前,前在后。这样可以解决双花问题。区块链中的共识机制就是解决这两个问题,谁记帐和交易的顺序。
什么是工作量证明算法
为了决定众多节点中谁来记帐,可以有多种方案。其中,工作量证明就让节点去算一个哈希值,满足难度目标值的胜出。这个过程只能通过枚举计算,谁算的快,谁获胜的概率大。收益跟节点的工作量有关,这就是工作量证明算法。
为什么要引入工作量证明算法?
Hash Cash 由Adam Back 在1997年发表,中本聪首次在比特币中应用来解决共识问题。
它最初用来解决垃圾邮件问题。
其主要设计思想是通过暴力搜索,找到一种Block头部组合(通过调整nonce)使得嵌套的SHA256单向散列值输出小于一个特定的值(Target)。
这个算法是计算密集型算法,一开始从CPU挖矿,转而为GPU,转而为FPGA,转而为ASIC,从而使得算力变得非常集中。
算力集中就会带来一个问题,若有一个矿池的算力达到51%,则它就会有作恶的风险。这是比特币等使用工作量证明算法的系统的弊端。而以太坊则吸取了这个教训,进行了一些改进,诞生了Ethash算法。
Ethash算法吸取了比特币的教训,专门设计了非常不利用计算的模型,它采用了I/O密集的模型,I/O慢,计算再快也没用。这样,对专用集成电路则不是那么有效。
该算法对GPU友好。一是考虑如果只支持CPU,担心易被木马攻击;二是现在的显存都很大。
轻型客户端的算法不适于挖矿,易于验证;快速启动
算法中,主要依赖于Keccake256 。
数据源除了传统的Block头部,还引入了随机数阵列DAG(有向非循环图)(Vitalik提出)
种子值很小。根据种子值生成缓存值,缓存层的初始值为16M,每个世代增加128K。
在缓存层之下是矿工使用的数据值,数据层的初始值是1G,每个世代增加8M。整个数据层的大小是128Bytes的素数倍。
框架主要分为两个部分,一是DAG的生成,二是用Hashimoto来计算最终的结果。
DAG分为三个层次,种子层,缓存层,数据层。三个层次是逐渐增大的。
种子层很小,依赖上个世代的种子层。
缓存层的第一个数据是根据种子层生成的,后面的根据前面的一个来生成,它是一个串行化的过程。其初始大小是16M,每个世代增加128K。每个元素64字节。
数据层就是要用到的数据,其初始大小1G,现在约2个G,每个元素128字节。数据层的元素依赖缓存层的256个元素。
整个流程是内存密集型。
首先是头部信息和随机数结合在一起,做一个Keccak运算,获得初始的单向散列值Mix[0],128字节。然后,通过另外一个函数,映射到DAG上,获取一个值,再与Mix[0]混合得到Mix[1],如此循环64次,得到Mix[64],128字节。
接下来经过后处理过程,得到 mix final 值,32字节。(这个值在前面两个小节《 009:GHOST协议 》、《 010:搭建测试网络 》都出现过)
再经过计算,得出结果。把它和目标值相比较,小于则挖矿成功。
难度值大,目标值小,就越难(前面需要的 0 越多)。
这个过程也是挖矿难,验证容易。
为防止矿机,mix function函数也有更新过。
难度公式见课件截图。
根据上一个区块的难度,来推算下一个。
从公式看出,难度由三部分组成,首先是上一区块的难度,然后是线性部分,最后是非线性部分。
非线性部分也叫难度炸弹,在过了一个特定的时间节点后,难度是指数上升。如此设计,其背后的目的是,在以太坊的项目周期中,在大都会版本后的下一个版本中,要转换共识,由POW变为POW、POS混合型的协议。基金会的意思可能是使得挖矿变得没意思。
难度曲线图显示,2017年10月,难度有一个大的下降,奖励也由5个变为3个。
本节主要介绍了Ethash算法,不足之处,请批评指正。
G. 有哪些EOC技术,各有何优缺点
1、MoCA技术
MoCA特点:
使用频带800MHz-1500MHz,选择1GHz以下布线方便
每个信道带宽50MHz,15个信道可选,物理层速率可达270Mbps,数据链路层速率可达130Mbps
采用OFDM调制,TDMA/TDD
MoCA优点:
有联盟标准,高带宽,能够通过分支分配器,在北美有较大规模的应用
MoCA缺点:
单一的芯片厂商(Entropic),目前价格还偏高,产品不够成熟
MOCA设备的价格下降比较快,生产的厂商也比较多
MOCA应用拓扑图
2、(1)同轴WI-FI技术
同轴WI-FI特点:
Wi-Fi原是IEEE802.11b无线接入网的别名
IEEE 802.11g工作在2.400-2.482GHz,采用OFDM调制,物理层传输速率为54Mbps,数据链路层速
率约为25Mbps.
采用Wi-Fi的主要问题是无线信号衰减太快, 将其通过同轴电缆传输可以有效地降低损耗.
Wi-Fi通过同轴有降频与不降频两种方式
值得注意的是:新的IEEE802.11n的初步标准已经通过.确保108Mbps的的吞吐量,最高可到300Mbps.
同轴WI-FI优点:
全标准的应用,设备成熟、价格低廉
同轴WI-FI缺点:
需要更换所有的分支分配器
(2)降频同轴WI-FI技术
降频同轴WI-FI特点:
将频率降低到900MHz,不用更换现有的网络设备
与MOCA一样,能够通过分支分配器,不能够通过放大器
由于带宽比MOCA低,为保证带宽,因此一个WIFI的头端一般带12个有线电视用户,一个ONU下带4个WI-FI头端
降频同轴WI-FI优点:
技术成熟,价格低廉,是所有有源EOC技术中成本最低的,与无源EOC相比,具备滚动式投资的优势
降频同轴WI-FI缺点:
降频是非标准方式,不同厂商的降频芯片不能互通
3、HPNA3.0技术
HPNA3.0特点:
使用频带12MHz-28MHz,与现有有线电视网络结构完全相同
物理层速率128Mbps,数据链路层速率可达80Mbps
采用FDQAM调制,在频率轴上设置2-8个不同频率的载波同时传送同样数据,比传统QAM调制抗干扰能力更强,性能更优
HPNA3.0优点:
ITU的国际标准,带宽较高,能够通过分支分配器,还能通过放大器
HPNA3.0缺点:
芯片厂商不多,目前价格还偏高
4、PLC技术
PLC特点:
2001年,HomePlug 1.0 14Mbps
2004年,HomePlug Turbo 85Mbps
2005年,HomePlug AV 200Mbps
频段:2~28MHz ,OFDM调制(84),最大链路衰减60dB,极强的抗噪声性能
数据链路层数据速率30Mbps,HomePlugAV可达150Mbps
PLC优点:
技术成熟,价格低廉,有联盟标准,IEEE标准正在制定中,并且抗噪声、抗多径
PLC缺点:
200M芯片还不成熟,45M芯片的带宽仅与WI-FI相当,近期速比特的224M芯片已经推出
PLC应用拓扑
5、基带EOC技术
基带EOC特点:
链路层完全遵循802.3x,点对点连接,各项电气特性与LAN的方式接近
双极性差分信号/单极性信号、75Ω/100 Ω的转换
工作带宽: IP DATA:0.5~65MHz
基带EOC优点:
每线价格成本低,生产厂商较多,在国内有一定规模的应用
基带EOC缺点:
不能通过分支分配器,只支持点对点的星型分配网络,每线带宽是固定的10M,改造的时候必须一次投入到位,不能实现滚动式投资
二、非标准技术
1、EPCN技术
EPCN特点:
华三推出的一种入户技术,采用博通的RF芯片,基于点对多点的基带传输技术
EPCN优点:成本低,可以通过分支分配器,不需要对现有的网络进行改动
EPCN缺点:非标准技术,产品应用时间不长
EPCN应用拓扑图
2、BIOC技术
BIOC特点:
杭州雷科通公司推出的一种入户技术,基于WIFI降频的一种技术
BIOC优点:
成本较低,可以通过分支分配器,不需要对现有的网络进行改动
BIOC缺点:
非标准技术,产品应用时间不长
由于WI-FI技术传输的距离有限,雷科通公司推出了专有的放大器,延长器等设备
3、UCLINK技术
UCLINK特点:
华为推出的一种全新的数据接入解决方案,其系统包含以下几个模块:
UC8001:数据接入设备:UC8001位于用户终端与汇聚设备之间,是UCLink综合接入系统的网络节点
UC6201:数据用户终端:实现射频数据与标准以太网数据之间的相互变换.
UMIX数据射频混合器:用于将UC8001的数据射频输入、输出信号与CATV射频信号进行混合,在同轴分配网中进行传输.
UJUMP数据射频跨接器:对射频放大器进行跨接,用于保证UCLink数据射频信号的双向传输.该跨接器具体又分为过流型和非过流型.
p; 实际测试结果:UCLink实际传输链路衰减在85dB左右(对野外型UC8001而言,此链路是指混合端口到UC6201之间的测试数据,已经包括了混合器的插损在内),考虑一定的链路余量(取为5dB),因此实际衰减链路损耗取为80dB.如果线路衰减超过80dB,可能导致UCLink系统的传输速率下降或者终端掉线.
另外,UCLink系统支持线路衰减在不超过Lmax的情况下,可以有45dB的动态,即实际线路衰减L允许变化的范围为:L=35dBi80dB.
UCLINK优点:
良好的网络适应性
对于现有的CATV网络,进行简单地双向化改造,安装相应的UCLink设备,即可实现数据接入功能.
单路成本较同类产品低廉,在用户接入率较低的情况下成本优势尤其明显
初期投入小,工程量少,可迅速开展业务.在用户容量上升的情况下,可持续扩容,保证投资的有效性.
可支持宽带业务
UCLINK缺点:
业务支持能力弱,难以支持三网合一
用户共享10M,单户宽带不足1M
宽带需求小,仅能实现简单的宽带上网业务
仅仅属于一种过渡技术
UCLINK用于集线器跨接方案示意图
4、CableRan技术
CableRan特点:
普天e视通推出的一种接入方案,是一种建立在单向有线电视网络上的宽带接入系统.CableRan接入设
备的组成包括前置小局端MAS、智能端口I/O和网络管理软件.
小型“CMTS",覆盖范围5km,最大接入64户
下行频段40~80MHz,QAM256,最高48Mbps
下行发射电平:50dbmV;接收电平:-10dbmV~40dbmV
上行频段5~36MHz,QPSK、QAM16,最高12Mbps
上行发射电平:最大48dbmV(自适应)接受电平:-10dbmV~15dbmV
前置小局端MAS是一种多方式接入IP网关设备,它可以把前端设备I/O再还原成IP信号,是IP和射频转换的介于同轴和IP接口部分的设备.每个前置MAS可以支持64个端口I/O,该前置MAS可以方便地放置在楼栋或光节点处.智能端口I/O设备是一种信号转换设备,它可以把来自于前置MAS调制在同轴电缆上的IP信号,还原为以RJ45或USB接口形式的标准以太网信号.
只需要智能终端I/O来替换现有的普通机顶盒,另外在干线和楼栋之间加一个MAS小局端就可以了.
CableRan技术上行带宽可达10Mbit/s,下行带宽可达48Mbit/s.占用5~65MHz频率部分,其中5~36MHz用于上行,40~65 MHz是下行频段.下行采用16/64/256QAM调制,上行采用QPSK、16QAM调制.
CableRan组网结构图
这些非标准产品,各具特色,不具备突出的性价比优势,存在更多的技术及商业风险
三、各种EOC技术的比较
1、带宽比较(数据速率)
MOCA 130Mbps
HPNA3.0 80Mbps,3.1标准会更高
PLC 30Mbps,Homeplug AV 标准会更高
WI-FI 25Mbps,802.11n标准会更高
BIOC 25Mbps
EPCN 10Mbps,下一代产品会更高
&nb sp; 基带EOC 10Mbps
2、成本比较
MOCA 最高,但近期价格下降较快
HPNA3.0 偏高
PLC 中等
WI-FI 较低
BIOC 价格不明晰
EPCN 价格策略还不明晰,产品成本较低
基带EOC 每线价格低,但隐性成本比较高
3、与现有网络的兼容性比较
MOCA 兼容性比较好,可以通过分支分配器,但不能通过放大器
HPNA3.0 兼容性最好,可以通过分支分配器与放大器
PLC 兼容性比较好,可以通过分支分配器,但不能通过放大器
WI-FI 降频产品的兼容性比较好,可以通过分支分配器,但不能通过放大器
BIOC 兼容性比较好,可以通过分支分配器,但不能通过放大器
EPCN 兼容性比较好,可以通过分支分配器,但不能通过放大器
基带EOC 兼容性差,不能通过分支分配器与放大器
4、成熟度比较
MOCA 比较成熟,在北美有规模化应用
HPNA3.0 比较成熟,有ITU标准支持
PLC 在电力线应用比价成熟,广电领域内的应用刚刚开始
WI-FI 产品非常成熟,但降频部分的应用刚刚开始
BIOC 2006年推出的产品,在国内刚开始应用
EPCN 2007年推出的产品
基带EOC 在国内已有一部分的应用
H. 以太坊分叉是遵循什么推理逻辑
以太雾EthereumFog,简称:ETF,是以太坊Ethereum的分叉链,是为了解决以太坊所缺乏的分布式存储和分布式计算能力而生,后期会切换为POW+POS混合挖矿。原生Coin为ETF。
接下去,简单阐述下之所以做出“分叉概念币”的推理逻辑:
1、利益的需求。针对这一点,内参从来不掩饰。现在的分叉,或多或少都夹杂着背后利益团体的诉求。追求利益,追求高效的资金投资回报率是永恒的主题。
中国有句古话叫:一鼓作气,再而衰,三而竭。比特币经过多次的分叉,价格被推上新高,已经成为很多人“买不起”的标的,并且由于单价的高昂,使得分叉带来的糖果越来越没吸引力,用句玩笑话就是:比特币稍微一哆嗦,也许你心心念念的糖果钱就跌进去了。
基于此,主力何尝不明白。那么,就顺理成章转而向其他主链寻求分叉利益。以太坊作为全球市值第二大数字货币,无论从规模还是群众基础,都是最佳的选择对象。
当然,以太之后,还会有别的分叉主链被瞄上,我们不妨拭目以待。
2、进化的需求。这一点其实应该放在首位,但是在投机氛围下,反而成了容易被忽视的点。
我们不得不承认,现在的比特币也好,以太坊也罢。要想真正大规模商用,还存在诸多的问题,而且每个问题都是一块硬骨头。一只“猫”给以太坊造成了不小的麻烦,有计划说,一些团队正在依葫芦画瓢,开发“狗、兔子”等以太坊链上养成游戏。以太坊对于技术(扩展性、处理能力、并发量、延时性等)的需求已经迫在眉睫。
而基于共识的分叉,是受大家欢迎的,也是必需的。
一切未完待续,大幕一旦拉开,分叉潮将滚滚而来。
I. 关于以太坊ETH合并的错误观点理清
随着合并的临近,越来越多的文章在向人们发出信号:它确实快要临近了。这也带来了和 PoS 相关的一系列问题的讨论,人们在反复讨论着同样的话题和同样的误解。在上周 Kiln 测试网成功合并时,我已经在一定程度上看到了这一状况,今后我们还会看到更多类似的东西,所以我将一些常见的问题、观点归纳如下。
每当看到有人提出这些观点时,我就可以把这篇文章分享给他,我希望大家也可以这样做。如果本文存在一些纰漏,还望斧正或提出补充建议。
什么是合并?
更多的信息可以在 ethmerge.com 上找到,所以本部分将简单介绍。
在合并之后,Ethereum 将采取 PoS(股权证明)而不是 PoW(工作量证明)共识。合并并非「ETH 2.0」、也不存在「ETH 2.0」,这已经是一个过时的术语。
如果是 ETH 持有者,则不需要做任何事情。合并后你仍将持有相同数量的 ETH,没有「ETH2 币」,也不需要进行任何迁移。一切都完全相同,只有共识机制发生了变化。
之所以被称为「合并」,是因为 ETH 将信标链(共识层)与现存的链(执行层)合并,并抛弃了执行层的 PoW 部分。
解释一下,「共识」只是一个花哨的词汇,其含义是指如何对交易进行排序并保证安全性。PoW 和 PoS 都是实现共识的不同手段。
PoW:"打乱区块顺序的成本太高了,因为按规则办事更划算。"
PoS:「扰乱区块顺序的成本太高了,因为如果我这样做就会失去我抵押的所有钱。」
由于只是共识机制的改变,PoS 本身并不会大幅降低 Gas 费用。
为什么合并?
降低安全成本,因为达成共识所需的能源更少。
对于 PoW 来说,收益需要为矿工使用的所有硬件和能源买单,否则将无人再去挖矿。这就需要大量发行并迅速卖出 Ethereum 以换取法币来支付账单。
而 PoS 则不然,PoS 只需要支付给投机者一些收益,让人们愿意存入资本,而不是直接投资到其他地方。除了一台普通的电脑和互联网连接之外,并不需要支付大额账单。所以收益率只需要反映所涉及的机会成本和风险。
更具可持续性。
一条链的安全性基本上与它的市值成正比。无论是 PoW(更高价值的 Token 奖励 = 更有理由按规则行事 = 更多的矿工 = 更难以破坏共识)或 PoS(更高价值的抵押 Token = 更有理由按规则行事以避免失去抵押品)都是如此。
新发行的 Token 本质上是将价值从所有持币人身上转移走,并重新分配给特定的人。在其他条件相同的情况下,将这些 Token 卖出可以从网络中提取价值。
这为未来的许多扩容解决方案打开了大门:数据分片、无状态、轻客户端等等。
通过分离执行层和共识层,这将有助于降低未来的代码复杂性。
安抚环境和 游戏 玩家当然是一个积极的副作用,但这并非是切换到 PoS 的主因。切换更多是由于外部因素导致的,Ethereum 作为一个协议并没有对整个网络太多的控制权,例如能源生产、GPU 供应链等等。
何时合并?
目前官方尚未公布日期。综合各方面的原因,开发者和社区对 6 月中旬合并持谨慎乐观的态度
目前仍在测试之中,在开发人员完全确信不会出现错误之前,不会进行合并。
我个人不把希望寄托在 6 月,但我认为至少也会在夏季完成,除非在测试过程中出了极大的问题。例如,出现一个需要几周时间来修复的关键错误,或者规范本身存在需要几个月时间来修复的漏洞。
难度炸弹被设置在 6 月,所以无论届时是否进行合并,都将进行一次硬分叉。
建议将 wenmerge. com 存入书签,以便快速查看测试网合并的最新预估。
流传已久的错误观点
观点:「你这个白痴!开发团队会像过去一样拖延,早在数年前他们就应允合并了,但至今仍未兑现。」
首先是一些说明:现在仍未宣布正式的合并日期,此前也从来宣布过。一个本就不存在的最后期限,何来的拖延之说呢?
类似于「将在 2018 年转换为 PoS」的说法来自于极端乐观的态度,并且低估了 PoS 设计的复杂性和从 PoW 到 PoS 的安全过渡的复杂性。此前开发者所做的工作相当于部分完成了 Casper FFG 规范(一个混合 PoW 和 PoS 的机制),但它最终被废止了。现状已经存在很多不同了:
经过多年的研究、对潜在的攻击方向进行分析,现在拥有一个完整的协议规范。
客户端已经实现,现在只差测试尚未进行。
合并时所有人都在工作,除了合并外没有其他工作。合并所需的必要步骤都已完成。这甚至不是「他们已经完成了像 EIP1559 这样复杂的内容,所以现在可以把更多的注意力集中在合并上」,而是:「他们把所有的注意力都集中在合并上」。不可能会出现这种状况:因为开发者需从事其他内容的工作而导致合并再次被推迟。在合并完成之前,他们没有其他事情可以做。
自 2020 年 12 月以来,PoS 实际上正在以信标链的形式运行。这意味着以太坊的 PoS 已经在生产环境中进行了一年多的测试(在一定程度上),目前有超过 1000 万 ETH 在运行。它只是还没有为执行层生产区块而已。
观点:「数以百万计的质押 ETH 将在解锁的那一刻崩盘。」
可以肯定的是,会有大量的锁仓者想要最终获利,尤其是那些在 32 个 ETH 仅价值 1 万美元时就锁定了 ETH 的人。但从一角度来看,还有很多需要考虑的问题。
合并并不会解锁任何 ETH。解锁将在合并后的第一次硬分叉中进行,可能是 6-8 个月后。这意味着数个月内都将没有 PoW 方式增发的 ETH(约 13000 ETH/天)被抛售,也没有 PoS 增发的 ETH 进入流通。
就像存 ETH 要排队一样,取 ETH 也要排队。假设发生大规模抛售事件,每个人都将处于排队之中,以每天 1125 名的速度依次解锁。所以不存在 "开闸放水 "的时刻。每个人解冻都需要一年多的时间,一年的时间里,每天有约 38000 个 ETH 进入流通领域(大约是日均量的 1%)。
合并后,验证者也将开始收到费用奖励,有预估表明收益率或将翻倍。现在有成千上万的人在排队等待进入质押。他们既然可以接受 5% 的 ETH 收益率,我不认为他们会在收益率变成 10% 的时候放弃存入。
到目前为止,抵押所涉及的最大风险是合并本身。一些灾难性的事情可能会导致合并出错,尽管存在这种风险、尽管 ETH 被锁定到一个未知的未来日期,但人们已经锁定他们的 ETH 一年多了。有多少人或机构还愿意袖手旁观、等待这种风险消失后再进入呢?
抵押者退出就意味着更少的验证者,这意味着对不退出的抵押者有更高的奖励。这也意味着更能激励其他之前未投资的人开始投资......
当然,这是加密世界,让加密归于加密。合并将带来兴奋和波动,可能会出现「sell the news」的跌幅,谁又知道呢?我不会假装预知未来,但在我看来,更多的 ETH 可能会流入、而不是流出锁仓。
观点:「如果 PoS 这么好,Ethereum 为什么不从一开始就这样做呢?」
PoW 很容易概念化并实现,PoS 则不然。当我们回到 2014 年,PoS 尚是一个仍在研究的理论概念,只有一些区块链实施了它的某种特定版本。
在考虑实施 PoS 之前,需要从研究角度解决一些基本问题。
没有放之四海而皆准的 PoS。每个 PoS 区块链都有自己的 PoS 规范,在各方面都有优缺点,所以这并非是「这个链做到了,为什么 Ethereum 不能做同样的事情」这样简单。
以一个 PoW 链作为开始,让任何人都可以在无需许可的条件下开采 crypto,这让 crypto 的分发机制比那些最初就是 PoS 的链要好得多。因为那些链从最初就是 PoS,这样必须决定如何分配初始 crypto,而不是无需许可的分发 Crypto。
Ethereum 存在预挖、预售,但经过多年的换手,现在已经稀释到一半左右,使其分布更接近 BTC 的分布。所以在 2022 年,当 ETH 作为流动性极强且易于获得的资产时,这并不是什么大问题。
观点:「这实际上只是在多年努力后最后一次坑害矿工的伎俩。」
从第一天起,PoS 就是最终的目标,每个人在挖矿时都知道它早晚有一天会结束。这里并没有什么不公正的事情发生。
经济因素胜过任何形式的矿工对链的忠诚度。你可以把一条链看作是一个企业,把矿工看作是雇员。
矿工/雇员已经为他们提供的服务(即安全共识)获得了区块奖励。工资由雇主支出,它来自于稀释现有持币者的价值。
矿工流向提供奖励最高的链,如果有另一个可由 GPU 开采的 crypto 可以提供更多的奖励,大多数矿工会立即抛弃 Ethereum。
类似地,如果验证者能够以更低的价格完成它所需要的服务,那么 Ethereum 将支付更少的费用。
这并不完全是排他性的。矿工也可以 ETH 的持有者,以及区块链的使用者。没有什么能阻止他们成为抵押者并获取抵押奖励。
观点:「如果挖矿没有花费现实世界的能源,则这枚 crypto 就不再具有内在价值。」
我不太相信这种说法。反复计算哈希值直到找到一个符合任意要求的哈希值,这并没有什么神奇之处。我的意思是,PoW 的区块链其工作是通过解密来完成的,但这并不意味着解密本身就能为世界带来价值。提高一个 Crypto 的挖矿难度并不会神奇地让每个人都变得更富有,它只会让挖矿的利润降低(当然,如果对这种 Crypto 的需求量也上升则不然)。
在我看来,一个币的价值最终来自于供给和需求,而需求来自于区块空间的价值。无论 ETH 是由矿工还是锁仓者生产的,人们都需要 ETH 来购买区块空间。当然,矿工越多,安全性/去中心化程度越高,这进一步增加了区块空间的价值主张,这是一个正反馈循环,但反馈循环也存在于 PoS 的 Ethereum 中,它也同样酷。
观点:「PoS 是中心化的不二法门。」
PoS 与 PoW 基本相同,但又存在差异。「更好」或「更坏」只取决于你的看法。在我看来,PoW 实际上只是 PoS 的额外步骤。
Ethereum 作为一个社区高度重视去中心化,任何潜在的中心化趋势都会被研究团队注意到并提出缓解的方法,即使是以其他重要的东西为代价,就比如可扩展性(保持低 Gas 限制以便更多的节点可以参与其中,即使这会导致拥堵和高费用)。
尽管目前存在一些缺点,但去中心化是一个缓慢的过程,我们还没有到那一步。目前有许多中心化的拐杖从长远来看是需要消失的。我个人认为,想出一大堆东西来解决某个问题比「放弃并说因为某问题而不能做」要吸引人得多。
Ethereum 的 PoS 有一些有趣的设计经常被忽视。单个验证器瘫痪、捣乱或直接攻击网络都不会受到很严重的惩罚。而一千个验证器同时这样做则会受到更严重的惩罚。
这意味着,如果你是一个拥有数千个验证者的大型企业,为了你自己的利益,应该把它们去中心化,避免使用云主机、使用不同的客户端等等。当然,资本仍然是集中的,但至少故障点是去中心化的,这对网络的整体 健康 是有利的。
与依靠中心化摊销成本的大型矿业相比,通过能源更容易发现 PoW 挖矿并被当局关停。在全世界范围内移动采矿设备是很难的,但锁仓则不需要,不需要消费级设备以外的任何额外硬件。
观点:「PoS 实际上就是『越有钱赚得越多』。」
是的。不幸的是,我们生活在一个财富高度不平等的世界。blockchain 并不能解决这个问题。
可这也是 PoW 的真实情况。谁有钱谁就可以买更多的矿机、赚更多的钱。在矿业,投资回报率也在随着规模经济的发展而变得更好。集中式的采矿作业可以获得更好的硬件折扣、并搬到电力便宜的地方。独立小矿工在现实中根本无法与之竞争。有了 PoS,每个人都能按比例获得相同的收益,无论他们的股份是 10 美元还是 1000 万美元。
它可能是中心化,但那些大的采矿业务没有理由攻击网络并削弱它,因为他们在基础设施上投入了数百万美元。所以……或许你对大型中心化主体的存在没有意见,只是对他们在网络中存在巨大利益而不满?
观点:「存款被动产生利息,这是在无中生有地印钱?这简直就是中央银行和法币的翻版!」
验证者仍在进行着「工作」:创建区块和验证其他区块。只是这些工作完全由 blockchain 达成共识所需的实际有用的工作组成,而不是一遍又一遍地计算哈希值。
这并不是真正的 "凭空印出的免费的钱",这些资金仍然有成本,它们只是比能源账单更抽象、更不直观而已。他主要存在于下面几个成本:
机会成本:如果另一项投资能给你带来更好的收益,为什么还要赌?
流动性差:从你存款的那一刻起资金就被锁定了。你需要排队等待你的验证器激活,而当你取款时,又要排队才能取回。
固有风险:这仍然是一个相当新事物,可能会出现问题:一个关键错误、网络被攻击、你的抵押物受损等等。
波动性:这仍然是一种不稳定的资产,如果你以本国法币计价,那么使用一种可能一夜之间下跌 30% 的资产来获取 5% 的收益率并不是那么好。
维护:验证者需要维护验证器、更新软件等,以此来确保 100% 的正常运行时间。
这就是它有趣的地方:越多的锁仓者、每人的奖励就越低。这也意味着所有成本都将交由市场本身定价。如果质押收益率太低,那么奖励就不能证明成本的合理性,人们就会撤出并投资于其他地方,这一举动会使收益率回升。同样,如果收益率太高,也会吸引更多的资本使收益回落。
就通货膨胀而言。假设市场认为 5% 是理想的收益率,其中 3% 来自增发。这样算下来,每年大约有 3000 万个 ETH 被抵押,将发行 90 万个新 ETH。在总供应量为 1.2 亿 ETH 的情况下,通货膨胀率为 0.75%。只要 Gas 费用高于 23gwei,EIP1559 燃烧的 ETH 就将超过这一数量。我要强调的是,Ethereum 很快就会成为一种带有收益的通缩资产。
「ETH 一直没有供应上限,且他们一直在改变货币政策。」
多年来,Ethereum 的目标一直是「确保网络安全的最低可行发行量」,将网络安全置于控制供应上限之上。对货币政策的任何更新都没有增加供应通货膨胀。从第一天起低通胀率就一直是目标。
一旦 EIP1559 的燃烧率与发行率相匹配,就会有一个作为有效供应上限的平衡点——再次由市场力量决定对 Ethereum 区块空间的估值。
并不存在一个 "Ethereum 中央银行 "任意调整利率并向亲信印钞。市场本身决定了有多少通货膨胀/通货紧缩,并不存在一个可以像中央银行控制法币通货膨胀率那样的实体控制 Ethereum。
观点:「巨鲸有足够的钱来接管和改变 游戏 规则,并打击诚实的锁仓者。」
不,Ethereum 没有任何形式的链上治理。
协议更新是社区的努力(Layer 0),你不需要锁仓 ETH 来提出不良的提案、参与协议更新。
这一过程与 PoW 完全相同。即使你拥有 99% 的算力,你也不能在没有私钥的情况下进行无效的交易、窃取他人资产、改变协议规则,或者除了重组区块之外真的做些什么。1% 的诚实节点将拒绝任何不遵守规则的区块,你将在一个无效的/无用的链上挖矿。现在把「哈希算力/挖矿」换成「质押金额/锁仓」,PoS 也是如此。不过不同的是,被发现重组区块的人将被销毁他们的整个权益,而链不能完全摧毁采矿机。
简单地说,这涉及到大量的 ETH。在合并之前高达 1000 万计数的 ETH,约合 300 亿美元。锁仓的 ETH 数额和 ETH 的价值预计都会上升,所以攻击变得越来越不可能,因为做一次攻击所涉及的经济成本太高了。而且如果攻击来自外部行为者,他能够获得这么多 ETH 就是很荒谬的,你在哪里能买到 1000 万 ETH 来拥有 51% 的股份?
观点:「32 个 ETH 太多了,普通人没有这么多钱。」
我同意这是一个很大的问题。之所以有这么高的数字,是因为它必须落在一个技术的平衡点上:它必须低到有充足的验证者来保证链的安全,但又要高到避免验证者太多以使链的开销膨胀。
从技术角度来看,有一大问题涉及到 32ETH,当时 32ETH 价值约 7000 美元。2017 年的早期曾有人甚至建议最低超过 1000ETH。
值得庆幸的是,就像矿池的存在一样,也有锁仓池,允许用户以小金额参与锁仓。这归功于像 RocketPool、Secret Shared Validators 这些使用智能合约的无许可、去中心化的非托管协议。而且由于上面提到的二次惩罚,我相信从长远来看,去中心化的锁仓操作会比中心化的要好。像 Rocket Pool 这样的协议最好被看作是基础锁仓的高级抽象,而不是 "只是一个锁仓池"。
观点:「PoS 还没有被证明,而我们知道 PoW 是有效的。」
这实际上是完全公正,显然我们无法真正的反驳这一点,只有时间会证明。只是我认为在 Ethereum 正在转向 PoS 的背景下,这是无关的。如果你不相信它,就不要参与/投资它。我个人相信一个长期可持续的 PoS Ethereum,但即使如此,我也乐于见到 bitcoin 继续沿用它的 PoW。
这都是我们一生中伟大的 crypto 实验的一部分。PoS Ethereum 要么只是一阵风,失败直至默默无闻,要么将成功地创造出能够超越人类的怪物般的强大网络。
我在 bitcoin 和 Ethereum 中看到,为了实现这一目标,优先考虑去中心化是关键。尽管两者的理念大不相同,但我很高兴能同时拥有这两种东西,以真正看到长期的价值。