MySQL5.7高可用MHA

MySQL高可用MHA

一、架构工作原理

主库宕机处理过程
1. 监控节点 (通过配置文件获取所有节点信息)
   系统,网络,SSH连接性
   主从状态,重点是主库

2.选主
 2.1.优先级(主观),如果在节点配置时,加入了candidate_ master= 1参数。
	如果备选主,日志量落后master太多 (后master 100M的relay logs的话,)也不会被选择新主。可以通过check repl delay=0, 不检查日志落后的情景。
 2.2.日志量最接近主库
 2.3.日志量一样。配置文件顺序。
3.日志补偿
	#情况1: ssh能连上,通过save binary logs立即保存缺失部分的日志到从库(/var/tmp目录下)并恢复。
	#情况2: ssh不能连,两个从库进行relaylog日志diff(apply diff relay logs)差异补偿。
4.主从身份切换,所有从库取消和原有主库的复制关系(stop slave; reset slave all)新主库和剩余从库  重新构建主从关系。
5.故障库自动被剔除集群(masterha conf host配置信息去掉)
6. MHA是一次性的高可用,Failover后, Manager自动推出。

二、架构介绍

1主2从,master:master   slave:slave1   slave2 ):
MHA 高可用方案软件构成
Manager软件:选择一个从节点安装
Node软件:所有节点都要安装

# 架构不足的地方
0.应用透明
1.数据补偿
2.自动提醒
3.自愈功能待开发....
	MHA + k8s + Operator官方
	8.0 MGR + mysqlsh

三、 MHA软件构成

Manager工具包主要包括以下几个工具:
masterha_manger             启动MHA 
masterha_check_ssh      检查MHA的SSH配置状况 
masterha_check_repl         检查MySQL复制状况 
masterha_master_monitor     检测master是否宕机 
masterha_check_status       检测当前MHA运行状态 
masterha_master_switch  控制故障转移(自动或者手动)
masterha_conf_host      添加或删除配置的server信息

Node工具包主要包括以下几个工具:
这些工具通常由MHA Manager的脚本触发,无需人为操作
save_binary_logs            保存和复制master的二进制日志 
apply_diff_relay_logs       识别差异的中继日志事件并将其差异的事件应用于其他的
purge_relay_logs            清除中继日志(不会阻塞SQL线程)

四、MHA环境搭建

4.1、环境规划

主库: 
192.168.1.111      Node软件 
从库: 
192.168.1.112      Node软件
192.168.1.113      Node软件    Manager软件(生产建议把Manager软件独立放另一台服务器上)

4.2、准备环境(略。1主2从GTID)

看另外的笔记吧,简单明了

4.3、配置各节点互信(免密登录)

master:
rm -rf /root/.ssh 
ssh-keygen
cd /root/.ssh 
mv id_rsa.pub authorized_keys
scp  -r  /root/.ssh  192.168.1.112:/root 
scp  -r  /root/.ssh  192.168.1.113:/root 

4.4、配置关键程序软连接(三台机器上都是)

ln -s /data/mysql/bin/mysqlbinlog    /usr/bin/mysqlbinlog
ln -s /data/mysql/bin/mysql          /usr/bin/mysql

4.5、 安装mha、Node

mha官网:https://code.google.com/archive/p/mysql-master-ha/
github下载地址:https://github.com/yoshinorim/mha4mysql-manager/wiki/Downloads
4.5.1、所有节点安装Node软件依赖包
# 下载好mha4mysql-node-0.56-0.el6.noarch.rpm,上传到三台机器的/app目录下,执行以下命令
[root@slave1 app]# yum install perl-DBD-MySQL -y
[root@slave1 app]# rpm -ivh mha4mysql-node-0.56-0.el6.noarch.rpm

4.6、在主库新建用户

grant all privileges on *.* to mha@'192.168.1.%' identified by 'mha';
grant all privileges on *.* to mha@'%' identified by 'mha';
#两个从库检查
mysql -p123 -e "select user,host from mysql.user;"

4.7、软件安装(在从库192.168.1.113 上)

# 把下载好的软件mha4mysql-manager-0.56-0.el6.noarch.rpm上传到slave2的/app目录下,执行以下命令
[root@slave2 app]# yum install -y perl-Config-Tiny epel-release perl-Log-Dispatch perl-Parallel-ForkManager perl-Time-HiRes
[root@slave2 app]# rpm -ivh mha4mysql-manager-0.56-0.el6.noarch.rpm
4.7.1、 Manager配置文件(在从库192.168.1.113 上)
# 创建配置文件目录、创建日志目录
[root@slave2 app]# mkdir -p /etc/mha
[root@slave2 app]# mkdir -p /var/log/mha/app1
# 编辑mha配置文件
cat > /etc/mha/app1.cnf << EFO
[server default]
manager_log=/var/log/mha/app1/manager        
manager_workdir=/var/log/mha/app1            
master_binlog_dir=/data/mysql  #主节点日志文件目录  
user=mha           #mha工作过程中专用的用户,刚刚上面新建的                         
password=mha       #mha工作过程中专用的用户,刚刚上面新建的                             
ping_interval=2    #监控间隔时间,2秒一次
repl_password=123  #主从复制的密码
repl_user=tzh      #主从复制的用户
ssh_user=root                               
[server1]                                   
hostname=192.168.1.111
port=3306                                  
[server2]            
hostname=192.168.1.112
port=3306
[server3]
hostname=192.168.1.113
port=3306
EFO

4.8、状态检查(在从库192.168.1.113 上)

# 互信检查
[root@slave2 app]# masterha_check_ssh  --conf=/etc/mha/app1.cnf 
# 看到如下日志表示成功
Sun Nov 22 04:10:12 2020 - [info] All SSH connection tests passed successfully.

# 主从状态检查
[root@slave2 app]# masterha_check_repl  --conf=/etc/mha/app1.cnf 
# 看到如下日志表示成功
MySQL Replication Health is OK.

4.9、开启MHA(在从库192.168.1.113 上)

[root@slave2 app]# nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover  < /dev/null> /var/log/mha/app1/manager.log 2>&1 &

4.10、查看MHA状态

[root@slave2 ~]# masterha_check_status --conf=/etc/mha/app1.cnf
app1 (pid:19660) is running(0:PING_OK), master:192.168.1.111
[root@slave2 ~]# mysql -umha -pmha -h 192.168.1.111 -e "show variables like 'server_id'"
mysql: [Warning] Using a password on the command line interface can be insecure.
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| server_id     | 51    |
+---------------+-------+
[root@slave2 ~]# mysql -umha -pmha -h 192.168.1.112 -e "show variables like 'server_id'"
mysql: [Warning] Using a password on the command line interface can be insecure.
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| server_id     | 52    |
+---------------+-------+
[root@slave2 ~]# mysql -umha -pmha -h 192.168.1.113 -e "show variables like 'server_id'"
mysql: [Warning] Using a password on the command line interface can be insecure.
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| server_id     | 53    |
+---------------+-------+

4.11、故障模拟及处理

### 停主库master    
[root@master app]# systemctl stop mysqld

观察manager  日志 tail -f /var/log/mha/app1/manager
末尾必须显示successfully,才算正常切换成功。  

Master 192.168.1.111(192.168.1.111:3306) is down!

Check MHA Manager logs at slave2:/var/log/mha/app1/manager for details.

Started automated(non-interactive) failover.
Selected 192.168.1.112(192.168.1.112:3306) as a new master.
192.168.1.112(192.168.1.112:3306): OK: Applying all logs succeeded.
192.168.1.113(192.168.1.113:3306): OK: Slave started, replicating from 192.168.1.112(192.168.1.112:3306)
192.168.1.112(192.168.1.112:3306): Resetting slave info succeeded.
Master failover to 192.168.1.112(192.168.1.112:3306) completed successfully.

4.12、故障恢复

A、修复主库
[root@master app]# systemctl start mysqld
B、恢复主从结构
CHANGE MASTER TO 
MASTER_HOST='192.168.1.112',  #现在112是主库了
MASTER_PORT=3306, 
MASTER_AUTO_POSITION=1, 
MASTER_USER='tzh', 
MASTER_PASSWORD='123';
start slave ;
C、修改配置文件
[root@slave2 ~]# vim /etc/mha/app1.cnf 加上这段(当你打开会惊喜的发现没有了这段哦)
[server1]
hostname=192.168.1.111
port=3306
D、启动MHA
[root@slave2 ~]# nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover  < /dev/null> /var/log/mha/app1/manager.log 2>&1 &

五、Manager额外参数介绍

说明:
主库宕机谁来接管?
1. 所有从节点日志都是一致的,默认会以配置文件的顺序去选择一个新主。
2. 从节点日志不一致,自动选择最接近于主库的从库
3. 如果对于某节点设定了权重(candidate_master=1),权重节点会优先选择。
但是此节点日志量落后主库100M日志的话,也不会被选择。可以配合check_repl_delay=0,关闭日志量的检查,强制选择候选节点。

(1)  ping_interval=1
#设置监控主库,发送ping包的时间间隔,尝试三次没有回应的时候自动进行failover
(2) candidate_master=1
#设置为候选master,如果设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个主库不是集群中事件最新的slave
(3)check_repl_delay=0
#默认情况下如果一个slave落后master 100M的relay logs的话,
MHA将不会选择该slave作为一个新的master,因为对于这个slave的恢复需要花费很长时间,通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master

六、MHA 的vip功能

6.1、添加参数(Manager上,slave3)

注意:/usr/local/bin/master_ip_failover,必须事先准备好  #自带vip只能在同机房实现
[root@slave2 ~]# vim /etc/mha/app1.cnf
# 加在[server default]标签下即可
master_ip_failover_script=/usr/local/bin/master_ip_failover
6.1.2、脚本
[root@slave2 ~]# vim /usr/local/bin/master_ip_failover
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
    $command,          $ssh_user,        $orig_master_host, $orig_master_ip,
    $orig_master_port, $new_master_host, $new_master_ip,    $new_master_port
);
my $vip = '192.168.1.254/24';
my $key = '1';
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";

GetOptions(
    'command=s'          => $command,
    'ssh_user=s'         => $ssh_user,
    'orig_master_host=s' => $orig_master_host,
    'orig_master_ip=s'   => $orig_master_ip,
    'orig_master_port=i' => $orig_master_port,
    'new_master_host=s'  => $new_master_host,
    'new_master_ip=s'    => $new_master_ip,
    'new_master_port=i'  => $new_master_port,
);

exit &main();

sub main {

    print "

IN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===

";

    if ( $command eq "stop" || $command eq "stopssh" ) {

        my $exit_code = 1;
        eval {
            print "Disabling the VIP on old master: $orig_master_host 
";
            &stop_vip();
            $exit_code = 0;
        };
        if ($@) {
            warn "Got Error: $@
";
            exit $exit_code;
        }
        exit $exit_code;
    }
    elsif ( $command eq "start" ) {

        my $exit_code = 10;
        eval {
            print "Enabling the VIP - $vip on the new master - $new_master_host 
";
            &start_vip();
            $exit_code = 0;
        };
        if ($@) {
            warn $@;
            exit $exit_code;
        }
        exit $exit_code;
    }
    elsif ( $command eq "status" ) {
        print "Checking the Status of the script.. OK 
";
        exit 0;
    }
    else {
        &usage();
        exit 1;
    }
}

sub start_vip() {
    `ssh $ssh_user@$new_master_host " $ssh_start_vip "`;
}
sub stop_vip() {
     return 0  unless  ($ssh_user);
    `ssh $ssh_user@$orig_master_host " $ssh_stop_vip "`;
}

sub usage {
    print
    "Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port
";
}

# 给权限
[root@slave2 ~]# chmod +x /usr/local/bin/master_ip_failover

# 主库手工加VIP
# 手工在主库上绑定vip,注意一定要和配置文件中的ethN一致,我的是ens33:1(1是key指定的值)
[root@master ~]# yum install net-tools -y   #三台机器都得安装
[root@master ~]# ifconfig ens33:1 192.168.1.254/24
[root@master ~]# ifconfig ens33:1 down  

6.2、邮件提醒

#没做

1. 参数:
report_script=/usr/local/bin/send
2. 准备邮件脚本
send_report
(1)准备发邮件的脚本(上传 email_2019-最新.zip中的脚本,到/usr/local/bin/中)
(2)将准备好的脚本添加到mha配置文件中,让其调用

3. 修改manager配置文件,调用邮件脚本
vi /etc/mha/app1.cnf
report_script=/usr/local/bin/send

(3)停止MHA
masterha_stop --conf=/etc/mha/app1.cnf
(4)开启MHA    
nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1 &     
(5) 关闭主库,看警告邮件 

6.3、重启mha

[root@master ~]# masterha_stop --conf=/etc/mha/app1.cnf
[root@master ~]# nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1 &

七、binlog server(slave2上)

binlogserver配置:
找一台额外的机器,必须要有5.6以上的版本,支持gtid并开启,我们直接用的第二个slave(db03)
vim /etc/mha/app1.cnf 
    
# 在最后加上就行
[binlog1]   
no_master=1   						  #主库宕机、切换的时候不切到这里了
hostname=192.168.1.113				  #本机ip
master_binlog_dir=/data/mysql/binlog  #日志目录
    
# 创建目录
# 修改完成后,将主库binlog拉过来(从000001开始拉,之后的binlog会自动按顺序过来)
[root@slave2 ~]# mkdir -p /data/mysql/binlog
[root@slave2 ~]# chown mysql.mysql -R /data/mysql/binlog

#拉取主库binlog日志
[root@slave2 ~]# cd /data/mysql/binlog     ----->必须进入到自己创建好的目录
#host是主库的IP,不做这个会报错哦
[root@slave2 binlog]# mysqlbinlog  -R --host=192.168.1.111 --user=mha --password=mha --raw  --stop-never mysql-bin.000001 &
注意:
	#到主库show master status;看看在使用那个binlog文件,从这个开始啦就行!
	拉取日志的起点,需要按照目前从库的已经获取到的二进制日志点为起点
	mysqlbinlog  -R --host=192.168.1.111 --user=mha --password=mha --raw  --stop-never mysql-bin.000xxx &

# 查看
[root@slave2 binlog]# ll
total 16
-rw-r----- 1 root root  177 Nov 22 00:05 mysql-bin.000001
-rw-r----- 1 root root 3435 Nov 22 00:05 mysql-bin.000002
-rw-r----- 1 root root  379 Nov 22 00:05 mysql-bin.000003
-rw-r----- 1 root root  359 Nov 22 00:05 mysql-bin.000004

八、再次测试,把主库停机

# 关闭主库
[root@master ~]#  systemctl stop mysqld

# 观察slave2上的日志情况
[root@slave2 ~]# tail -f /var/log/mha/app1/manager
主库宕机,binlogserver 自动停掉,manager 也会自动停止。
处理思路:
1、重新获取新主库的binlog到binlogserver中
2、重新配置文件binlog server信息
3、最后再启动MHA


故障修复:
1. 恢复故障节点
(1)实例宕掉
/etc/init.d/mysqld start 
(2)主机损坏,有可能数据也损坏了
备份并恢复故障节点。
2.恢复主从环境
看日志文件:恢复新主库的日志
CHANGE MASTER TO MASTER_HOST='192.168.1.112', MASTER_PORT=3306, MASTER_AUTO_POSITION=1, MASTER_USER='tzh', MASTER_PASSWORD='123';
start slave ;
3.恢复manager
3.1 修好的故障节点配置信息,加入到配置文件
[server1]
hostname=10.0.0.51
port=3306
3.2 查看VIP是否在master,不在就手动加
3.2 启动manager   
nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1 &
原文地址:https://www.cnblogs.com/hsyw/p/14019507.html