consul 微服务管理--分布式与单点故障

微服务管理--分布式与单点故障

上节课我们提到了服务的注册于发现机制,可以引入一个服务注册发现组件来实现对服务的管理,完成服务注册,信息查询,存储配置等功能。虽然引入了服务注册发现组件解决了就问题,但是会引入新问题。

Consul环境配置

  • 1、将下载的consul_1.5.1_darwin_amd64.zip进行解压,解压后得到可执行文件consul。

  • 2、将consul可执行文件拷贝到电脑本地的环境变量中。

    • Unix系统中:可以拷贝到~/bin/usr/local/bin目录下,这两个目录是常见的安装目录。
    • Windows系统:可以将consul安装到%PATH%所对应的目录路径中。
      以macOS系统为例,属于unix系统,将consul拷贝到/usr/local/bin目录下,如图所示:
      ![Consul环境配置]
      (http://7xtcwd.com1.z0.glb.clouddn.com/WX20190611-114040@2x.png)
  • 3、测试配置成功
    完成consul的环境配置后,即表示已经将consul完成了安装。可以通过在命令行中运行consul指令验证是否安装成功。打开命令行工具,输入如下指令:

    consul
    

    ![consul指令]
    (http://7xtcwd.com1.z0.glb.clouddn.com/WX20190611-114521@2x.png)
    在终端中输入consul指令,出现如上指令用法及参数提示,即表示consul安装成功。
    如果得到的是-bash: consul: command not found的错误,则表示path没有正确设置,需要重新检查consul可执行文件所在路径是否添加到了环境变量PATH中。

主从模式分布式系统

分布式系统中,一遍采用主从模式进行部署,如下图所示:
![主从模式分布式系统]
(http://7xtcwd.com1.z0.glb.clouddn.com/WX20190613-142516@2x.png)

单点故障

通常分布式系统采用主从模式,就是一个主控机连接多个处理节点。主节点负责分发任务,从节点负责处理任务,当我们的主节点发生故障时,整个系统就瘫痪了。这就是单点故障。

单点故障(single point of failure),从英文字面上可以看到是单个点发生的故障,通常应用于计算机系统及网络。实际指的是单个点发生故障的时候会波及到整个系统或者网络,从而导致整个系统或者网络的瘫痪。这也是在设计IT基础设施时应避免的。

对应到上文,我们所说的服务注册与发现组件,如果我们引入的服务注册与发现组件出现了问题,则会导致系统乃至整个链路瘫痪,这是不可容忍的。需要采用新的方案解决此问题。

![单点故障]
(http://7xtcwd.com1.z0.glb.clouddn.com/WX20190613-145130@2x.png)

传统解决方案

传统的解决方案是采用一个备用节点,这个备用节点定期给当前主节点发送ping包,主节点收到ping包以后向备用节点发送回复ACK,当备用节点收到回复时就会认为当前主节点还活着,让他继续提供服务。
![备用主节点]
(http://7xtcwd.com1.z0.glb.clouddn.com/WX20190613-144656@2x.png)

当主节点停止服务以后,这个时候备用节点收不到回复了,备用主节点认为主节点就宕机了,备用节点会代替主节点成为主节点,如下图:
![备用节点成为主节点]
(http://7xtcwd.com1.z0.glb.clouddn.com/WX20190613-151156@2x.png)

但是这种方案有个问题,如果仅仅是网络故障引起的ACK返回延时,这种方案就会面临着同时存在两个主节点的问题。

Consul中的Raft

Raft是一种基于Paxos的一致性算法。和Paxos相比,Raft的状态更少,算法更简单易懂。

Raft中的节点总是处于以下三种状态之一: follower、candidate或leader。所有的节点最初都是follower。在这种状态下,节点可以接受来自leader的日志条目并进行投票。如果在一段时间内没有收到条目,节点将自动提升到候选状态。在候选状态中,节点请求同级的选票。如果一个候选人获得了法定人数的选票,那么他就被提升为领袖。领导者必须接受新的日志条目,并将其复制给所有其他的追随者。此外,如果不能接受过时的读取,则还必须对leader执行所有查询。

Consul内部原理

我们可以通过如下的原理图来理解Consul的原理:
![consul的构造原理图]
(http://7xtcwd.com1.z0.glb.clouddn.com/consul.png)

首先Consul支持多数据中心,在上图中有两个DataCenter,他们通过Internet互联,同时请注意为了提高通信效率,只有Server节点才加入跨数据中心的通信。

在单个数据中心中,Consul分为Client和Server两种节点(所有的节点也被称为Agent),Server节点保存数据,Client负责健康检查及转发数据请求到Server。

Server节点有一个Leader和多个Follower,Leader节点会将数据同步到Follower,Server的数量推荐是3个或者 5个,在Leader挂掉的时候会启动选举机制产生一个新的 Leader。

集群内的Consul节点通过gossip协议(流言协议)维护成员关系,也就是说某个节点了解集群内现在还有哪些节点,这些节点是Client还是Server。

单个数据中心的流言协议同时使用TCP和UDP通信,并且都使用8301端口。跨数据中心的流言协议也同时使用TCP和UDP 通信,端口使用8302。

集群内数据的读写请求既可以直接发到Server,也可以通过Client使用RPC转发到Server,请求最终会到达Leader节点。

在允许数据轻微陈旧的情况下,读请求也可以在普通的Server节点完成,集群内数据的读写和复制都是通过TCP的8300端口完成。

欢迎大家学习,交流
原文地址:https://www.cnblogs.com/lijintao1025/p/14529238.html