同步 Ethereum 全节点有感
945坏男人
发表于 2022-12-28 15:11:45
109
0
0
% y$ X @+ N4 f
本人在18年的6月份用Geth同步过全节点。当时想把区块链数据用异构的方式查询, 比如提供 Sql 、GraphQL访问,而不在通过rpc接口访问数据。
而首要工作是把全节点数据放入到数据仓库中,那就要先从同步全节点的任务开始。
类似 ocap.arcblock.io
服务器配置当时云主机选择的是阿里云香港,操作系统是Ubuntu,8G内存,主流CPU,30G系统盘,外挂1T高效硬盘,带宽2M。 这是最低的基本硬件配置,再低,同步速度就太慢了。: I7 i7 j+ }# _' L
获得Gethhttps://ethereum.github.io/go-ethereum/downloads/,选择Stable Linux 64bit版本,记得校验Checksum,防止软件被篡改。
- f! Z$ K/ ^! E7 e: A
Geth, i" G& q4 x1 d4 A2 S
# 下载) n4 {7 a5 O& y$ R3 ?4 G
wget https://gethstore.blob.core.windows.net/builds/geth-linux-amd64-1.8.23-c9427004.tar.gz
md5sum geth-linux-amd64-1.8.23-c9427004.tar.gz # 校验! B4 |. N$ B/ U/ b1 O
# => a3b2dd950bc986036be4ff66efec36f9
# 与上文提供的Checksum比较,如果一致说明文件没有被篡改
tar -xzf geth-linux-amd64-1.8.23-c9427004.tar.gz # 解压
mv geth-linux-amd64-1.8.23-c9427004/geth /usr/bin/ # 移动 放到全局环境变量中
which geth # 查看位置如果想通过手动编译的方式,请移步 https://www.jianshu.com/p/65ae648b97ae2 H2 d) z# d4 F4 q5 m/ A
同步方式Geth 有3种同步方式:full,fast,light,默认是fast模式。7 [, K( G; E# |* g6 H
geth -h | grep sync
# --syncmode fast Blockchain sync mode ("fast", "full", or "light")Full6 [1 P; j- J$ }
同步完整的区块信息,获取所有历史区块的header、body数据,' k, G" U+ M: T9 Y" W: N
从创始块开始校验每一个元素,并顺序执行其中的所有交易,验证区块头中的 stateRoot、transactionRoot 和 receiptRoot。2 u8 S2 f+ S5 c" e2 W% x: _( [
Fast" T4 X: J9 S* u% P3 T- G
获取所有历史区块的header、body数据,但不执行其中的任何交易,所以也无法验证区块头中的三个状态根。# i& L/ I* J$ Q7 m, g( q
在追上最新区块之后,会继续请求最新的完整 state trie 数据,并维护最新的 state trie 和 receipt trie 数据,但不保存它们的历史版本。
所以可以用 fast 模式同步的节点执行智能合约来获得最新的状态。使用此模式时可以设置 --cache,默认1024M5 R: M; z* s, C' z6 Z4 g! B8 l3 W
--syncmode fast --cache 2048Light
只下载所有区块的header数据,本地仅做交易是否发生的验证,
也就是仅下载最新区块的所有数据并验证 transactionRoot 是否一致。无法进行任何状态验证。$ W" _9 B" z' q) v. {; {' V
设定datadir即储存数据的位置,使用full模式,并让这个进程在后台持续运行
nohup geth --datadir /mnt/eth --syncmode full &0 c' G- Z2 S6 o7 ^7 r) A, ~( c2 b( ^
经过24小时不间断的同步,达到了500万块高度,硬盘空间大概用了683G,大概花了10天左右时间。2 O; k& N+ m5 M2 t" l! J
存档节点 gcmodegeth -h | grep gcmode# ^9 J! q( w0 h9 V
--gcmode full Blockchain garbage collection mode ("full", "archive")
区块的垃圾回收模式,默认是fullarchive模式存储着智能合约中的所有值状态以及帐户余额的完整历史记录* Z: ~ @3 Y: N; {
syncmode=full 验证每块的state trie、transaction trie 和 receipt trie数据,但并不保存所有的 state trie、transaction trie 和 receipt trie 的完整历史版本。
如果一个合约的字符串的值,在6000000高度的时候是xyz,在 6000001高度的时候变为ABC,这只有在archive模式下才会记录,其他的同步模式,会裁剪过去的状态,将只会保存最新的值。具体来说,gcmode=full模式,只有最近的128次状态被保存在内存中,再多的状态会被丢弃。比如说现在同步到了 7000000高度,只会记录7000000-128 到7000000高度的之间的合约的某个状态的值。
Parity甚至提供了一种同步模式,只记录一定数量的过去状态,从而减少了同步链数据的大小。. H4 l7 p* b" I$ m. y" G) T
使用 --syncmode=full --gcmode=archive 模式,即归档节点,这种模式保存了最最最全的Ethereum节点数据,占用硬盘空间也会更大。+ z, r7 u* T% S# M: ^9 @
我当初就是用归档模式,同步到500w高度的时候,1T硬盘已经塞爆了...
也许本人使用的这种同步方式对达到工作目的来说并不是最有效的,最经济的,这个不是讨论的重点。5 G4 B9 U. H( v' p" H
有感我相信大部分人知道syncmode模式,而不知道 gcmode模式,更没有同步过存档模式。1 A$ v; m. k% h* X- Y( J/ {5 b
Ethereum在 2015-07-30诞生,经过4年的发展到现在的740w高度,
从https://etherscan.io/chartsync/chainarchive 数据来看,完完整整的区块链数据已经膨胀到2231.5 GB,也就是2.2 TB,同步时间要花几个月时间,而且每天以 3~4 GB的速度在增长。在过几年5TB的硬盘可能也装不下了,这也是为什么ethereum技术社区对的分片呼声这么高的原因。. O4 ]6 n) S$ N( A; S5 f( h9 s
Bitcoin在2009-01-03诞生,经过10年的发展,完完整整的区块链数据基本也就200多GB,同步时间基本在24~36小时。
从保持去中心化,保有全量数据的角度来说,Bitcoin 在这两方面平衡的相当好。而Ethereum归档节点的机器成本已经很高了,个人没有太多动力去维护。
之前我曾抱怨Bitcoin技术推动太墨迹,丧失了很多机会,现在我感觉Ethereum面临的技术挑战相当严峻。从最近的君士坦丁堡硬分叉出现的问题来看,这2个最知名的区块链技术团队的行事风格差异也挺大的。# X* |2 y2 a9 i9 _
Bitcoin是伟大的创举,Ethereum是天才的设计,前者是从0到1跨时代的发明,后者带来了智能合约,深刻影响着传统的经济观念。总之,都祝好吧。
成为第一个吐槽的人