zookeeper 学习总结(二)——一致性协议

致性协议

  事务需要跨多个分布式节点时,为了保证事务的ACID特性,需要选举出一个协调者来协调分布式各个节 点的调度,基于这个思想衍生了多种一致性协议:

一、2PC 二阶段提交

  顾名思义,二阶段提交叫事务的提交过程分为两个阶段:

阶段一 提交事务请求

1、协调者向所有的参与者节点发送事务内容,询问是否可以执行事务操作,并等待其他参与者节点的 反馈

2 、各参与者节点执行事务操作

3、各参与者节点反馈给协调者,事务是否可以执行

阶段二 事务提交

  根据一阶段各个参与者节点反馈的ack,如果所有参与者节点反馈ack,则执行事务提交,否则中断事务

 

事务提交:

1、协调者向各个参与者节点发送commit请求

2、参与者节点接受到commit请求后,执行事务的提交操作

3、各参与者节点完成事务提交后,向协调者返送提交commit成功确认消息

4、协调者接受各个参与者节点的ack后,完成事务commit

中断事务:

1、发送回滚请求

2、各个参与者节点回滚事务

3、反馈给协调者事务回滚结果

4、协调者接受各参与者节点ack后回滚事务

 

存在的问题

同步阻塞

  二阶段提交过程中,所有参与事务操作的节点处于同步阻塞状态,无法进行其他的操作

单点问题

  一旦协调者出现单点故障,无法保证事务的一致性操作

脑裂导致数据不一致

  如果分布式节点出现网络分区,某些参与者跟协调者失去联系,未收到commit提交命令。则出现部分参与者完成数据提交。因失去联系未收到commit的命令的参与者则无法进行事务提交,整个分布式系统便出现了数据不一致性现 象。

 

二、 3PC 三阶段提交

3PC是2PC的改进版,实质是将2PC中提交事务请求拆分为两步,形成了CanCommit、PreCommit、doCommit三个阶段的事务一致性协议

 

阶段一 : CanCommit

1、事务询问: 询问参与者是否可以执行事务,参与者就分析自身是否能够成功执行事务操作

2、各参与者节点向协调者反馈事务询问的响应

阶段二 : PreCommit

  根据阶段一的反馈结果分为两种情况

1、执行事务预提交

  1)发送预提交请求:协调者向所有参与者节点发送preCommit请求,进入prepared阶段

  2)事务预提交:各参与者节点接受到preCommit请求后,执行事务操作

  3)各参与者节点向协调者反馈事务执行

2、中断事务

  任意一个参与者节点反馈给协调者响应No时,或者在等待超时后,协调者还未收到参与者的反馈,就中断事务,中断事务分为两步:

  1)协调者向各个参与者节点发送abort请求

  2)参与者收到abort请求,或者等待超时时间后,中断事务

阶段三 : doCommit

1、执行提交

1)发送提交请求:协调者向所有参与者节点发送doCommit请求

2)事务提交:各参与者节点接受到doCommit请求后,执行事务提交操作

3)反馈事务提交结果:各参与者节点完成事务提交以后,向协调者发送 ack

4)事务完成:协调者接受各个参与者反馈的ack后,完成事务

2、中断事务

1)参与者接受到abort请求后,执行事务回滚

2)参与者完成事务回滚以后,向协调者发送ack

3)协调者接受回滚ack后,回滚事务

存在的问题

  3PC相较于2PC而言,解决了协调者挂点后参与者无限阻塞和单点问题,但是仍然无法解决网络分区问题;

网络分区问题:

  如果进入PreCommit后,协调者发出的是abort请求,假设只有一个参与者收到并进行了abort操作,而其他超时或者因为网络原因无法接收abort的参与者会根据3PC选择继续Commit,此时系统状态发生不一致性。

 

三、Paxos算法

paxos介绍

  Paxos算法是Leslie Lamport 1990年提出的一种一致性算法,该算法是一种提高分布式系统容错性的一致性算法,解决了3PC中网络分区的问题,paxos算法可以在节点失效、网络分区、网络延迟等各种异常情况下保证所有节点都处于同一状态,同时paxos算法引入了“过半”理念,即少数服从多数原则。

  在常见的分布式系统中,总会发生诸如机器宕机网络异常(包括消息的延迟、丢失、重复、乱序,还有网络分区)等情况。Paxos算法需要解决的问题就是如何在一个可能发生上述异常的分布式系统中,快速且正确地在集群内部对某个数据的值达成一致,并且保证不论发生以上任何异常,都不会破坏整个系统的一致性。

paxos三个版本:

Basic Paxos

Multi Paxos

Fast Paxos

paxos算法的角色

  在paxos算法中,有四种种角色,分别具有三种不同的行为,但多数情况,一个进程可能同时充当多种角色。

  • client :系统外部角色,请求发起者,不参与决策

  • proposer :提案提议者

  • acceptor :提案的表决者,即是否accept该提案,只有超过半数以上的acceptor接受了提案,该提案才被认为被“选定”

  • learners :提案的学习者,当提案被选定后,其同步执行提案,不参与决策

Paxos算法

  Paxos算法分为两个阶段:prepare阶段、accept阶段

prepare 阶段

1、proposer提出一个提案,编号为N,发送给所有的acceptor。

2、每个表决者都保存自己的accept的最大提案编号maxN,当表决者收到prepare(N)请求时,会比较N与maxN的值,若N小于maxN,则提案已过时,拒绝prepare(N)请求。若N大于等于maxN,则接受提案,并将该表决者将自己上次接受的提案回复给Proposal(myid,maxN,value)反馈给提议者:其中myid表示表决者acceptor的标识id,maxN表示接受过的最大提案编号maxN,value表示提案内容。若当前表决者未曾accept任何提议,会将proposal(myid,null,null)反馈给提议者。

accept 阶段

1、提议者proposer发出prepare(N),若收到超过半数表决者acceptor的反馈,proposer将真正的提案内容proposal(N,value)发送给所有表决者。

2、表决者acceptor接受提议者发送的proposal(N,value)提案后,会将自己曾经accept过的最大提案编号maxN和反馈过的prepare的最大编号,若N大于这两个编号,则当前表决者accept该提案,并反馈给提议者。否则拒绝该提议。

3、若提议者没有收到半数以上的表决者accept反馈,则重新进入prepare阶段,递增提案编号,重新提出prepare请求。若收到半数以上的accept,则其他未向提议者反馈的表决者称为 learner,主动同步提议者的提案。

算法选举过程

 

核心

  可以简单描述为:Proposer先从大多数Acceptor那里学习提案的最新内容,然后根据学习到的编号最大的提案内容组成新的提案提交,如果提案获得大多数Acceptor的投票通过就意味着提案被通过。

  由于学习提案和通过提案的Acceptor集合都超过了半数,所以一定能学到最新通过的提案值,两次提案通过的Acceptor集合中也一定存在一个公共的Acceptor。

  算法本质上很简单,保证一致性所依赖的物理事实是:两个多数集合至少有一个公共成员。把全局信息存储在多数集合返回的统计结果上。

  如果一个值曾经被通过了,多数集合中至少有一个成员记得它,所以提议新值之前,先通过一个prepare阶段就是从一个多数集合中收集到可能已经通过的值,并同步。然后在accept阶段就是发送可能已通过的值,或者在没有值的情况下提议一个新值。

  所以提议新值之前,先通过一个prepare阶段就是从一个多数集合中收集到可能已经通过的值,并同步。然后在accept阶段就是发送可能已通过的值,或者在没有值的情况下提议一个新值。

运行流程图

正常流程

 

acceptor表决者单点故障,部分节点失败

 

proposer提议者节点故障

 

Basic Paxos算法存在活锁问题(liveness)或dueling,而且较难实现

四、ZAB协议(Fast Paxos)

  由于paxos算法实现起来较难,存在活锁和全序问题(无法保证事务两次最终提交的顺序),所以zookeeper并没有使用paxos作为一致性协议,而是使用了ZAB协议。

  ZAB( zookeeper atomic broadcast ):是一种支持崩溃恢复的原子广播协议,基于Fast paxos实现。

协议过程

1、ZooKeeper使用单一主进程Leader用于处理客户端所有事务请求(增删改),即写请求。当服务器数据发生变更好,集群采用ZAB原子广播协议,以事务提交proposal的形式广播到所有的副本进程(flower),每一个事务分配一个全局的递增的事务编号xid。即leader会以提案的方式广播此写请求,如果超过半数的节点(flower)同意写请求,则该写请求就会提交。leader会通知所有的订阅者同步数据。

2、若客户端提交的请求为读请求时,则接受请求的节点直接根据自己保存的数据响应。若是写请求,且当前节点不是leader,那么该节点就会将请求转发给leader。

zookeeper 的三种角色

  为了避免zk的单点问题,zk采用集群方式保证zk高可用

leader

  leader负责处理集群的写请求,并发起投票,只有超过半数的节点同意后才会提交该写请求

follower

  处理读请求,响应结果。转发写请求到leader,在选举leader过程中参与投票

observer

  observer可以理解为没有投票权的follower,主要职责是协助follower处理读请求。那么当整个zk集群读请求负载很高时,为什么不增加follower节点呢?原因是增加follower节点会让leader在提出写请求提案时,需要半数以上的follower投票节点同意,这样会增加leader和follower的通信通信压力,降低写操作效率。

 

zookeeper 两种模式

恢复模式

  当服务启动或领导崩溃后,zk进入恢复状态,选举leader,leader选出后,将完成leader和其他机器的数据同步,当大多数server完成和leader的同步后,恢复模式结束

...TODO 恢复过程待扩展

广播模式

  一旦Leader已经和多数的Follower进行了状态同步后,进入广播模式。进入广播模式后,如果有新加入的服务器,会自动从leader中同步数据。leader在接收客户端请求后,会生成事务提案广播给其他机器,有超过半数以上的follower同意该提议后,再提交事务。

  注意在ZAB的事务的二阶段提交中,移除了事务中断的逻辑,follower要么ack,要么放弃,leader无需等待所有的follower的ack。

事务编号zxid

  当崩溃恢复之后,需要在正式工作之前(接收客户端请求),Leader 服务器首先确认事务是否都已经被过半的 Follwer 提交了,即是否完成了数据同步。目的是为了保持数据一致。当所有的 Follwer 服务器都成功同步之后,Leader 会将这些服务器加入到可用服务器列表中 。实际上,Leader 服务器处理或丢弃事务都是依赖着 ZXID 。

  zxid是64位长度的Long类型,其中高32位表示纪元epoch,低32位表示事务标识xid。即zxid由两部分构成:epoch和xid。

  每个leader都会具有不同的epoch值,表示一个纪元,每一个新的选举开启时都会生成一个新的epoch,新的leader产生,会更新所有的zkServer的zxid的epoch,xid是一个依次递增的事务编号。

 

leader选举算法

三个核心选举原则

  • zookeeper集群中只有超过了半数以上的服务器启动,集群才能正常工作。

  • 在集群正常工作之前, myid小的服务器会给myid大的服务器进行投票,持续到集群正常工作,选出leader。

  • 选择leader之后,之前的服务器状态由looking改变为following,以后加进来的服务器都是follower 状态。

服务器的状态

  • Looking:该状态表示集群中不存在群首节点,进入群首选举过程。

  • Leading:群首状态,表示该服务器是群首节点。

  • Following:跟随者状态,表示该服务器是群首的Follow节点。 注意:服务器默认是Looking状态

leader选举

启动过程
  • 每一个 server发出一个投票给集群中其他节点

  • 收到各个服务器的投票后,判断该投票有效性:比如是否是本轮投票,是否是 looking状态

  • 处理投票, pk别人的投票和自己的投票 比较规则xid>myid “取大原则”

  • 统计是否超过半数的接受相同的选票

  • 确认 leader,改变服务器状态

  • 添加新 server,leader已经选举出来,只能以follower身份加入集群中

崩溃恢复过程
  • leader 挂掉后,集群中其他follower会将状态从FOLLOWING变为LOOKING,重新进入leader选举

  • 同上启动过程

     

消息广播算法

  一旦进入广播模式,集群中非leader节点接受到事务写请求,首先会将事务请求转发给服务器,leader服务器为其生成对应的事务提案proposal,并发送给集群中其他节点,如果过半则事务提交;

  • leader 接受到消息后,消息通过全局唯一的64位自增事务id,zxid标识

  • leader 发送给follower的提案是有序的,leader会创建一个FIFO队列,将提案顺序写入队列中发送给follower

  • follower 接受到提案后,会比较提案zxid和本地事务日志最大的zxid,若提案zxid比本地事务id大,将提案记录到本地日志中,反馈ack给leader,否则拒绝

  • leader 接收到过半ack后,leader向所有的follower发送commit,通知每个follower执行本地事务

 

原文地址:https://www.cnblogs.com/TvvT-kevin/p/12249648.html