探究用于状态网络的可扩展广播方案

[复制链接]
7336 |0
发表于 2021-4-19 11:46:08 | 显示全部楼层 |阅读模式

原文链接:

https://ethresear.ch/t/scalable-gossip-for-state-network/8958

作者: Piper Merriam

翻译&校对: 闵敏 & 阿剑

在我之前的新型交易 gossip 广播网络设计中其实可以看到我最初在为状态网络设计 gossip 广播方面的尝试。在之前的文章中,我介绍了一种设计,可以让节点在无需处理完整交易池的情况下参与 gossip 广播。

从较高层面上来说,我们关于交易 gossip 广播的问题陈述如下(忽略 DOS 攻击/安全性要求):

  • 交易来自整个网络。
  • 一些网络参与者本身就需要维护完整的交易池(例如,矿工、抢跑交易者)。
  • 一些网络参与者缺少足够的资源来处理完整的交易池(例如,轻客户端)。

我提议的交易 gossip 广播方案采用了距离指标【我们称之为 radius(半径)】,让节点可以自行调整它们必须处理的交易池规模。节点采用一组简单的规则来管理与之连接的对等节点集合,从而形成网络拓扑结构。半径最大的节点被视为网络的“中心”,半径最小的节点被视为网络的“边缘”。

该方案之所以有效,主要的两点原因如下:

第一,我们预期,节点的半径值会有很大差别,但 同时 都会相对较大。这种差异源自那些有动力维护“完整”半径以及“较大”半径的参与者。正是这些节点将位于网络边缘的节点连接到了一起。

第二,我们关于半径值较大的预期是根据键空间推测出的。根据 Peter 最近关于交易池的文章,geth 节点默认最多可维护 4000 笔交易。在任意时刻,整个网络中的待处理交易高达 4 万至 40 万笔。轻节点无法处理 4000 笔交易,但是处理其中 5% 不成问题。因此,我们预期半径值通常在整个键空间的 1% 至 100% 之间。


将同样的设计应用到状态 gossip 广播上(并不奏效)


我最初尝试将这种设计应用到针对状态网络的 gossip 广播上,但是没有成功。主要原因如下:

第一,状态网络中各节点在半径值上的差异会小得多。我们预期不太可能会有网络参与者维护“完整”半径。这会导致网络中缺少一个起到连接边缘作用的“中心”。

第二,半径值会很小。假设有 200 GB 的状态,平均每个节点提供 100MB 的存储空间,且复制因子为 10,那么计算下来我们需要一个由 2 万个节点组成的网络。平均每个节点需要存储 0.002%(1/20,000)的数据。

正是上述两个不同之处从根本上改变了网络拓扑结构,导致原来的交易 gossip 广播网络设计失灵。


与交易 gossip 广播不同的目标


别忘了,交易 gossip 广播的目标之一是,让交易进入矿工所在的网络“中心”。位于网络边缘的节点其实不是很在乎是否能看到所有待处理交易,即使一个都看不到也没关系。它们主要关心的是能否广播自己的交易,并让这些交易可靠地打包进区块内。

状态网络不仅缺少中心,而且数据流向与交易 gossip 广播相反。状态 gossip 广播的目标是将数据发送到网络边缘进行存储。

另外,在交易 gossip 广播中,消息来自整个网络;在状态网络中,我们预期新数据只会来自一小部分友善的桥节点。这些桥节点负责生成证明,并将这些证明发送到状态网络。


中继机制会导致 DOS 攻击和不可归因的错误


我想到的一个改进方向是引入中继节点。

我们预期每个节点会对网络中 0.002% 的数据(体量很小)感兴趣。我认为,根据我的结论可以构建出多个不同的网络模型,但是一种简单的做法是,根据 D火币全球生态通证 网络中每个节点的路由表为 gossip 节点之间的连接构建模型。在这样一个网络中,数据需要经过 log(n) 跳才能到达需要它的节点那里。

这里的问题在于,如果一个节点转发了其它节点都不感兴趣的数据,但是这个数据需要经历一次以上的跳跃,就会变成一个放大向量。恶意节点可以通过在 gossip 网络中广播无用数据来放大 DOS 攻击。


一个笨办法


目前,我比较偏向于一个 “笨” 办法,旨在从非网络层面解决上述问题。

  • 有 “一小批” 状态提供商节点为每个区块内新的状态数据生成证明。
  • 每个证明预期有大约 2000 个 trie 节点。其中一部分节点是新数据或更新后的数据。只有这个子集需要发送到网络中。

已知每个节点只关心每个区块中 0.002% 的数据,也就是说不同节点感兴趣的数据之间很少有重叠。如果一个区块内包含 2000 条新数据,我们可以预见每条数据要发送给完全不同的节点。这就意味着,为了在区块时间内广播新区块的证明数据,一个状态提供商每 15 秒要将 2000 个不同的证明发送给 2000 个不同的节点。要做到这点不是不可能,但是会很难。一旦证明大小增加或网络延迟稍微高一点,状态提供商就无法在区块时间内发送完整的证明数据。

幸好我们可以有不止一个数据提供商。我们可以合理预期将会出现数量不多(但是不会很少)的状态提供商发送证明数据。在这个模型下,我们可以设计一个能够在不同状态提供商之间平均分配负载的系统。

每个状态提供商都会为每一个新区块生成证明。状态提供商会按照距离其节点 ID(node_id)的远近对该证明包含的每项数据进行排序,先从那些距离最近的数据开始,查询对这些数据感兴趣的节点,并将它们广播出去。在这个模型中,负载会在不同状态提供商之间平均分配。等轮到那些距离其节点 ID 较远的数据时,状态提供商会发现节点对这些数据的兴趣减弱,因为其节点 ID 距离这些数据较近的提供商已经广播了这些数据。


可以改进/扩展/优化之处


或许,我们可以稍微优化一下这个方案。

我们的网络结构需要存储的不仅是叶节点,还有中间节点。也就是说,如果按叶子节点和对等节点的需要来分割区块证明,这些碎片证明之间会出现大量重叠。例如,当要你要证明一个叶节点的时候,其证明中也会包含对其默克尔路径上所有中间节点的数据的证明。

如果网络中的某个节点想存储某个叶子,TA 当然希望获得该叶子节点的中间节点也可以在网络中找到。如果这些中间节点不可得,甚至都没有人会请求叶子节点数据,因为本地还没有中间节点的数据,还没法顺着这些中间节点发现对叶子节点的需要。我们或许可以利用这一点在整个网络中分散广播数据的责任。

  • 状态提供商通过 gossip 方式广播叶节点数据的证明。
  • 节点一收到自己想要存储的内容的证明,就会找出 “父证明” —— 对上一级中间节点数据的证明 —— 并发送出去。

这一 “递归” 过程可以让状态提供商只需将叶节点数据发送至网络,并将广播中间节点数据的责任分配给那些对叶节点数据感兴趣的节点。这些节点会一级一级地把上一层级的中间节点的数据的证明推送到网络中,直到所有节点都把最终的状态根推送到网络中。

(完)

(文内有许多超链接,可点击左下 ”阅读原文“ 从 EthFans 网站上获取)

矿工 节点
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表