Raft 声称是一种易于理解的分布式一致性算法。有不少工程师们翻了它的论文,参考了很多资料,最后只好怀疑自己是不是智商有问题。
Raft 一直以来是很多高级资深程序员技术上的天花板,捅破相当有难度。每次刚刚拿起时汹涌澎湃,过不了多久便偃旗息鼓了,有一种丧尸般的难受。渴望逃离技术舒适区时会经常经历有这种挫折。在分布式系统领域,Raft 就是一道很高的门槛,迈过了这道坎后面技术的自由度就可以再上一个台阶。
Raft Paper 的内容对于一个普通程序员来说不是太容易理解。选举模块还算比较简单,日志复制表面上也很好理解,快照模块也很形象。但是深入进去看细节,一头雾水是必然的。特别是对集群节点变更模块的理解更是艰难。
github 上找到了一个看起来还不错的开源项目,基于 Netty 的 Raft 项目的实现,是百度的工程师开源的。
https://github.com/wenweihu86/raft-java
最近花了一些时间把他的代码通读了一边,发现居然都可以理解,感觉离目标更近了一步。加上之前实现过 RPC 框架,自己再撸一套 Raft 应该是可以很快变成现实了。
首先我们假设有三个 RaftNode,每个 RaftNode 都会开设一个端口,这个端口的作用就是接受客户端的(Get/Set)请求以及其它 RaftNode 的 RPC 请求。这里需要说明的是多数著名开源项目一般会选择两个端口,一个面向客户端,一个面向 RPC,好处是可以选择不同的 IP 地址,客户端端口可以面向外网,而 RPC 则是安全的内网通信。作者选择了一个端口是因为只用于内网,在实现上也会简单不少。
客户端可以连接任意一个节点。如果连接的不是 Leader,那么发送的请求会在服务端进行转发,从当前连接的 RaftNode 转发到 Leader 进行处理。
另外一种可选的设计是所有的客户端都连接到 Leader,这样就避免了转发的过程,可以提升性能。
但是服务端转发也有它的好处,那就是当客户端在数据一致性要求不好的情况下,读请求可以不用转发,直接在当前的 RaftNode 进行处理。所以返回的数据可能不是实时的。这可以挡住大部分客户端请求,提升整体的读性能。
RaftNode 中包含的重要组件都在这张图上了。
首先 Local Server 接收到请求后,立即将请求日志附加到 SegmentedLog 中,这个日志会实时存到文件系统中,同时内存里也会保留一份。因为作者考虑到日志文件过大可能会影响性能和安全性(具体原因未知,Redis 的 aof 日志咋就不需要分段呢),所以对日志做了分段处理,顺序分成多个文件,所以叫 SegmentedLog。
日志有四个重要的索引,分别是 firstLogIndex/lastLogIndex 和 commitIndex/applyIndex,前两个就是当前内存中日志的开始和结束索引位置,后面两个是日志的提交索引和生效索引。之所以是用 firstLogIndex 而不是直接用零,是因为日志文件如果无限增长会非常庞大,Raft 有策略会定时清理久远的日志,所以日志的起始位置并不是零。commitIndex 指的是过半节点都成功同步的日志的最大位置,这个位置之前的日志都是安全的可以应用到状态机中。Raft 会将当前已经 commit 的日志立即应用到状态机中,这里使用 applyIndex 来标识当前已经成功应用到状态机的日志索引。
该项目示例提供的状态机是 RocksDB。RocksDB 提供了高效的键值对存储功能。实际使用时还有很多其它选择,比如使用纯内存的 kv 或者使用 leveldb。纯内存的缺点就是数据库的内容都在内存中,Rocksdb/Leveldb 的好处就是可以落盘,减轻内存的压力,性能自然也会有所折损。
如果服务器设置了本地落盘即可返回(isAsyncWrite),那么 Local Server 将日志塞进 SegmentedLog 之后就会立即向客户端返回请求成功消息。但是这可能会导致数据安全问题。因为 Raft 协议要求必须等待过半服务器成功响应后才可以认为数据是安全的,才可以告知客户端请求成功。之所以提供了这样一个配置项,纯粹是为了性能考虑。分布式数据库 Kafka 同样也有类似的选项。是通过牺牲数据一致性来提高性能的折中方法。
正常情况下,Local Server 通过一个 Condition 变量的 await 操作悬挂住当前的请求不予返回。
对于每个 RPCClient,它也要维护日志的两个索引,一个是 matchIndex 表示对方节点已经成功同步的位置,可以理解为局部的 commitIndex。而 nextIndex 就是下一个要同步的日志索引位置。随着 Leader 和 Follower 之间的消息同步,matchIndex 会努力追平 nextIndex。同样随着客户端的请求的连续到来,nextIndex 也会持续前进。
Local Server 在悬挂住用户的请求后,会立即发出一次异步日志同步操作。它会通过 RPC Client 向其它节点发送一个 AppendEntries 消息(也是心跳消息),包含当前尚未同步的所有日志数据(从 commitIndex 到 lastLogIndex)。然后等待对方实时反馈。如果反馈成功,就可以前进当前的日志同步位置 matchIndex。
matchIndex 是每个 RPCClient 局部的位置,当有过半 RPCClient 的 matchIndex 都前进了,那么全局的 commitIndex 也就可以随之前进,取过半节点的 matchIndex 最小值即可。
commitIndex 一旦前进,意味着前面的日志都已经成功提交了,那么悬挂的客户端也可以继续下去了。所以立即通过 Condition 变量的 signalAll 操作唤醒所有正在悬挂住的请求,通知它们马上给客户端响应。
注意日志同步时还得看节点日志是否落后太多,如果落后太多,通过 AppendEntries 这种方式同步是比较慢的,这时就是要考虑走另一条路线来同步日志,那就是 snapshot 快照同步。
RaftNode 会定时进行快照,将当前的状态机内容序列化到文件系统中,然后清理久远的 SegmentedLog 日志,给 Raft 的请求日志瘦身。
快照同步就是 Leader 将最新的快照文件发送到 Follower 节点,Follower 安装快照后成功后,Leader 继续同步 SegmentedLog,力图让 Follower 追平自己。
RaftNode 启动的第一步是加载 SegmentedLog,再加载最新的 Snapshot 形成状态机的初始状态。紧接着使用 RPCClient 去连接其它节点,开启 snapshot 定时任务。随之正式进入选举流程。
RaftNode 初始是处于 Follower 状态,启动后立即开启一个 startNewElection 定时器,在这个定时器到点之前如果没有收到来自 Leader 的心跳消息或者其它 Candidate 的请求投票消息,就立即变身成为 Candidate,发起新一轮选举过程。
RaftNode 变成 Candidate 后,会向其它节点发送一个请求投票(requestVote)的消息,然后立即开启一个 startElection 定时器,在这个定时器到点之前 RaftNode 如果没有变身 Follower 或者 Leader 就会立即再次发起一轮新的选举。
RaftNode 处于 Candidate 状态时,如果收到来自 Leader 的心跳消息,就会立即变身为 Follower。如果发出去的投票请求得到了半数节点的成功回应,就会立即变身为 Leader,并周期性地向其它节点广播心跳消息,以尽可能长期维持自己的统治地位。
并不是任意一个节点都可以变成 Leader。如果要当 Leader,这个节点包含的日志必须最全。Candidate 通过 RequestVote 消息拉票的时候,需要携带当前日志列表的 lastLogIndex 和相应日志的 term 值(尾部日志的 term 和 index )。 其它节点需要和这两个值进行匹配,凡是没自己新的拉票请求都拒绝。简单一点说,组里最牛逼的节点才可以当领导。
Leader 发生切换的时候,新 Leader 的日志和 Follower 的日志可能会存在不一致的情形。这时 Follower 需要对自身的日志进行截断处理,再从截断的位置重新同步日志。Leader 自身的日志是 Append-Only 的,它永远不会抹掉自身的任何日志。
标准的策略是 Leader 当选后立即向所有节点广播 AppendEntries 消息,携带最后一条日志的信息。Follower 收到消息后和自己的日志进行比对,如果最后一条日志和自己的不匹配就回绝 Leader。
Leader 被打击后,就会开始回退一步,携带最后两条日志,重新向拒绝自己的 Follower 发送 AppendEntries 消息。如果 Follower 发现消息中两条日志的第一条还是和自己的不匹配,那就继续拒绝,然后 Leader 被打击后继续后退重试。如果匹配的话,那么就把消息中的日志项覆盖掉本地的日志,于是同步就成功了,一致性就实现了。
集群配置变更可能是 Raft 算法里最复杂的一个模块。为了理解这个模块我也是费了九牛二虎之力。看了很多文章后发现这些作者们实际上都没深入理解这个集群成员变化算法,不过是把论文中说的拷贝了一遍。我相信它们最多只把 Raft 实现了一半,完整的整个算法如果没有对细节精致地把握那是难以写出来的。
分布式系统的一个非常头疼的问题就是同样的动作发生的时间却不一样。比如上图的集群从 3 个变成 5 个,集群的配置从 OldConfig 变成 NewConfig,这些节点配置转变的时间并不完全一样,存在一定的偏差,于是就形成了新旧配置的叠加态。
在图中红色剪头的时间点,旧配置的集群下 Server[1,2]可以选举 Server1 为 Leader,Server3 不同意没关系,过半就行。而同样的时间,新配置的集群下 Server[3,4,5]则可以选举出 Server5 为另外一个 Leader。这时候就存在多 Leader 并存问题。
为了避免这个问题,Raft 使用单节点变更算法。一次只允许变动一个节点,并且要按顺序变更,不允许并行交叉,否则会出现混乱。如果你想从 3 个节点变成 5 个节点,那就先变成 4 节点,再变成 5 节点。变更单节点的好处是集群不会分裂,不会同时存在两个 Leader。
如图所示,蓝色圈圈代表旧配置的大多数(majority),红色圈圈代码新配置的带多数。新旧配置下两个集群的大多数必然会重叠(旧配置节点数 2k 的大多数是 k+1,新配置节点数 2k+1 的大多数是 k+1,两个集群的大多数之和是 2k+2 大于集群的节点数 2k+1)。这两个集群的 term 肯定不一样,而同一个节点不可能有两个 term。所以这个重叠的节点只会属于一个大多数,最终也就只会存在一个集群,也就只有一个 Leader。
集群变更操作日志不同于普通日志。普通日志要等到 commit 之后才可以 apply 到状态机,而集群变更日志在 leader 将日志追加持久化后,就可以立即 apply。为什么要这么做,可以参考知乎孙建良的这篇文章 https://zhuanlan.zhihu.com/p/29678067,这里面精细描述了 commit & reply 集群变更日志带来的集群不可用的场景。
文章是写完了,但是感觉还是有点懵,总觉得有很多细枝末节还没有搞清楚。另外就是开始觉得百度实现的这个 Raft 应该很完善,深入了解之后发现原来还是有很多不完善之处,这个项目应该只是一个 demo。后续还得继续研究 etcd 的 raft 代码,它的代码要复杂一些,但是应该要完善很多。它具备 prevote 流程和 Leader 提交之后的 no-op 日志同步,这些是 raft-java 项目欠缺的地方所在。
1
ghos 2018-05-08 13:33:08 +08:00
干货 兹磁
|
2
breeswish 2018-05-08 14:33:48 +08:00
RocksDB 自己有 WAL,不使用这个 WAL 而是自己实现一个 SegmentedLog 有什么优势吗?
|
3
shellquery OP @breeswish raft 要深度处理 WAL,rocksdb 的 wal 外面是看不到的
|