mysql MHA高可用+读写分离

1.mysql MHA高可用+读写分离

高可用采用mha方式实现,因为keepalive存在脑裂现象,所以vip漂移采用mha自带的脚本实现,读写分离采用基于MySQL-proxy的360公司的atlas实现。

1.1 mysql MHA高可用

1.11 mha简介

MHA(Master High Availability)目前在MySQL高可用方面是一个相对成熟的解决方案,它由日本DeNA公司youshimaton(现就职于Facebook公司)开发,是一套优秀的作为MySQL高可用性环境下故障切换和主从提升的高可用软件。在MySQL故障切换过程中,MHA能做到在10~30秒之内自动完成数据库的故障切换操作,并且在进行故障切换的过程中,MHA能在最大程度上保证数据的一致性,以达到真正意义上的高可用。

  MHA能够在较短的时间内实现自动故障检测和故障转移,通常在10-30秒以内;在复制 框架中,MHA能够很好地解决复制过程中的数据一致性问题,由于不需要在现有的 replication中添加额外的服务器,仅需要一个manager节点,而一个Manager能管理多套复制,所以能大大地节约服务器的数量;另外,安装简单,无性能损耗,以及不需要修改现 有的复制部署也是它的优势之处。

  MHA还提供在线主库切换的功能,能够安全地切换当前运行的主库到一个新的主库中 (通过将从库提升为主库),大概0.5-2秒内即可完成。

  该软件由两部分组成:MHA Manager(管理节点)和MHA Node(数据节点)。MHA Manager可以单独部署在一台独立的机器上管理多个master-slave集群,也可以部署在一台slave节点上。MHA Node运行在每台MySQL服务器上,MHA Manager会定时探测集群中的master节点,当master出现故障时,它可以自动将最新数据的slave提升为新的master,然后将所有其他的slave重新指向新的master。整个故障转移过程对应用程序完全透明。
  在MHA自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据的不丢失,但这并不总是可行的。例如,如果主服务器硬件故障或无法通过ssh访问,MHA没法保存二进制日志,只进行故障转移而丢失了最新的数据。使用MySQL 5.5的半同步复制,可以大大降低数据丢失的风险。

  MHA可以与半同步复制结合起来。如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性。

  目前MHA主要支持一主多从的架构,要搭建MHA,要求一个复制集群中必须最少有三台数据库服务器,一主二从,即一台充当master,一台充当备用master,另外一台充当从库,因为至少需要三台服务器,出于机器成本的考虑,淘宝也在该基础上进行了改造,目前淘宝TMHA已经支持一主一从。

1.2 mha部署

1.2.1 环境:

主:192.168.100.52
从:192.168.100.53
从:192.168.100.54
vip:192.168.100.55
关闭所有节点的selinux和防火墙或开放3306端口
- 管理节点:
mha-manager 192.168.100.53

1.2.2 安装mha

  • mha主机安装perl环境:
    yum -y install perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker perl-DBD-MySQL perl-Config-Tiny perl-Log-Dispatch perl-Parallel-ForkManager perl-ExtUtils-Embed cpan
  • manager安装:
# 先安装node
tar xf mha4mysql-node-0.56.tar.gz
cd mha4mysql-node-0.56
perl Makefile.PL
make && make install  
# 再安装manager
tar xf mha4mysql-manager-0.56.tar.gz
cd  mha4mysql-manager-0.56
perl Makefile.PL
make && make install 
  • 创建配置文件:
mkdir /etc/mha 
mkdir -p /data/logs/mha/app1
cp mha4mysql-manager-0.56/samples/conf/app1.cnf /etc/mha

配置文件:

[server default]

manager_workdir=/data/logs/mha/app1
manager_log=/data/logs/mha/app1/manager.log
master_binlog_dir=/data/data/mysql
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
ssh_user=root
ssh_port=22
user=admin
password=mha_admin
repl_user=slave
repl_password=nx111
ping_interval=1



[server1]
ignore_fail=0
hostname=192.168.100.52
port=3306

[server2]
ignore_fail=0
hostname=192.168.100.53
port=3306
candidate_master=1
check_repl_delay=0

[server3]
ignore_fail=0
hostname=192.168.100.54
port=3306

配置文件详解:

 1 [server default]
 2 #设置manager的工作目录
 3 manager_workdir=/var/log/masterha/app1
 4 #设置manager的日志
 5 manager_log=/var/log/masterha/app1/manager.log 
 6 #设置master 保存binlog的位置,以便MHA可以找到master的日志,我这里的也就是mysql的数据目录
 7 master_binlog_dir=/data/mysql
 8 #设置自动failover时候的切换脚本
 9 master_ip_failover_script= /usr/local/bin/master_ip_failover
10 #设置手动切换时候的切换脚本
11 master_ip_online_change_script= /usr/local/bin/master_ip_online_change
12 #设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码
13 password=123456
14 #设置监控用户root
15 user=root
16 #设置监控主库,发送ping包的时间间隔,尝试三次没有回应的时候自动进行failover
17 ping_interval=1
18 #设置远端mysql在发生切换时binlog的保存位置
19 remote_workdir=/tmp
20 #设置复制用户的密码
21 repl_password=123456
22 #设置复制环境中的复制用户名 
23 repl_user=rep
24 #设置发生切换后发送的报警的脚本
25 report_script=/usr/local/send_report
26 #一旦MHA到server02的监控之间出现问题,MHA Manager将会尝试从server03登录到server02
27 secondary_check_script= /usr/local/bin/masterha_secondary_check -s server03 -s server02 --user=root --master_host=server02 --master_ip=10.0.0.51 --master_port=3306
28 #设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机放在发生脑裂,这里没有使用)
29 shutdown_script=""
30 #设置ssh的登录用户名
31 ssh_user=root 
32 
33 [server1]
34 hostname=10.0.0.51
35 port=3306
36 
37 [server2]
38 hostname=10.0.0.52
39 port=3306
40 #设置为候选master,如果设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个主库不是集群中事件最新的slave
41 candidate_master=1
42 #默认情况下如果一个slave落后master 100M的relay logs的话,MHA将不会选择该slave作为一个新的master,因为对于这个slave的恢复需要花费很长时间,通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master
43 check_repl_delay=0
  • 主从节点安装node:
tar xf mha4mysql-node-0.56.tar.gz
cd mha4mysql-node-0.56
perl Makefile.PL
make && make install 
  • 各节点相互生成密钥添加互信包括本机自身:
    生成密钥:ssh-keygen
    互相添加互信:ssh-copy-id -i 公钥文件 ip
    添加完成后用master_chekc_ssh -conf=/etc/mha/app1.cnf进行测试
  • 配置文件更改,从节点也开启二进制日志,server_id不能相同
    vim /etc/my.cnf
[mysql]
server_id = 1         # 设置优先级最高
log_bin = binlog      # 开启二进制日志
log_bin = binlog.index
read_only = 1         # 设置只读权限
relay_log_purge = 0   # 关闭自动清除执行完毕后的中级日志

1.2.3 mysql开启主从同步

  • 原理:主从同步同步的是基于binlog里面记录的增删改。从服务器开启io线程同步主服务器binlog,从服务器接收binlog,并记录在relaylog里,sql线程执行relaylog日志。
    主:192.168.100.52
    从:192.168.100.53
    从:192.168.100.54
    vip:192.168.100.55
  • 重启mysql,登录主节点添加授权主从复制账号和mha用的账号:
# 建立从服务器账户
grant replication slave on *.* to 'slave'@'192.168.100.%' identified by 'nx111';


# 建立mha管理用账户
grant all on *.* to 'admin'@'192.168.100.%' identified by 'mha_admin';
  • 登录主节点mysql查看二进制日志状态:
    show master status
+---------------+----------+--------------+------------------+-------------------+
| File          | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
+---------------+----------+--------------+------------------+-------------------+
| binlog.000001 |      686 |              |                  |                   |
+---------------+----------+--------------+------------------+-------------------+
  • 登录每一个从节点,开启主从复制:
change master to 
master_host='192.168.100.52',
master_user='slave',
master_password='nx111',
master_log_file='binlog.000001',
master_log_pos=686;
  • 检查
    masterha_check_repl --conf=/etc/mha/app1.cnf
    输出:MySQL Replication Health is OK.
  • 启动mha-manager
    nohup /usr/local/bin/masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /data/logs/mha/app1/manager.log 2>&1 &
  • 查看运行状态
    masterha_check_status --conf=/etc/mha/app1.cnf
    输出:app1 (pid:11809) is running(0:PING_OK), master:192.168.100.52表明成功运行

1.2.4 主从切换测试

  • 切换主从测试:
    主库192.168.100.52
    停掉主库/etc/init.d/mysqld stop
    查看mha-manager日志切换从库为主库
    配置文件添加被剔除的52主库,启动主库,change master到新主库
    测试成功主库成功迁移到54
  • 添加vip漂移:

1.2.5 添加vip测试vip漂移

  • 虚拟ip漂移有两种方式:
    • keepalive方式:网络抖动会导致脑裂现象,主从库会争夺vip,造成ip冲突。
    • mha自带脚本方式:修改mha自带脚本
  • 前端nginx新建php网页文件:
<?php
echo time() . PHP_EOL;
$db = new mysqli('192.168.100.55','admin','mha_admin');                                                                                                                                                                   
if ($db->connect_errno)
{
        die("连接数据库失败". $db->connect_error);
}

echo "连接成功";

$db->close();
?>
  • 自带脚本:
    • 自动切换脚本:/usr/local/bin/master_ip_failover
    • 手动切换脚本:/usr/local/bin/master_ip_online_change
    • 修改两个脚本内的vip和gatway,ssh端口,网卡名称。centos7注意ifconfig命令的路径,没有ifconfig命令yum安装net-tools网络工具包,并修改脚本里面ifconfig路径。
  • 手动绑定vip:
    ip addr add 192.168.100.55/32 dev eth0
  • 浏览器打开前端服务器可以看到 这里写图片描述

  • masterha_check_repl --conf=/etc/mha/app1.cnf检测一下,输出全部ok,MySQL Replication Health is OK.就可以启动mha了
    启动命令:nohup /usr/local/bin/masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /data/logs/mha/app1/manager.log 2>&1 &

  • 停掉52主库mysql,查看54备选master的ip漂移成功ip a s eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 52:54:00:03:d9:43 brd ff:ff:ff:ff:ff:ff
    inet 192.168.100.54/24 brd 192.168.100.255 scope global eth0
       valid_lft forever preferred_lft forever
    inet 192.168.100.55/24 brd 192.168.100.255 scope global secondary eth0:0
       valid_lft forever preferred_lft forever

有两个ip,其中一个是vip55,查看从53从库的slave status切换备选主库成功:

mysql> show slave statusG
*************************** 1. row ***************************
               Slave_IO_State: Waiting for master to send event
                  Master_Host: 192.168.100.54
                  Master_User: slave
                  Master_Port: 3306
                Connect_Retry: 60
              Master_Log_File: binlog.000004
          Read_Master_Log_Pos: 120
               Relay_Log_File: localhost-relay-bin.000002
                Relay_Log_Pos: 280
        Relay_Master_Log_File: binlog.000004
             Slave_IO_Running: Yes
            Slave_SQL_Running: Yes

查看/data/logs/mha/app1/manager.log

----- Failover Report -----

app1: MySQL Master failover 192.168.100.52(192.168.100.52:3306) to 192.168.100.54(192.168.100.54:3306) succeeded

Master 192.168.100.52(192.168.100.52:3306) is down!

Check MHA Manager logs at localhost.localdomain:/data/logs/mha/app1/manager.log for details.

Started automated(non-interactive) failover.
Invalidated master IP address on 192.168.100.52(192.168.100.52:3306)
The latest slave 192.168.100.53(192.168.100.53:3306) has all relay logs for recovery.
Selected 192.168.100.54(192.168.100.54:3306) as a new master.
192.168.100.54(192.168.100.54:3306): OK: Applying all logs succeeded.
192.168.100.54(192.168.100.54:3306): OK: Activated master IP address.
192.168.100.53(192.168.100.53:3306): This host has the latest relay log events.
Generating relay diff files from the latest slave succeeded.
192.168.100.53(192.168.100.53:3306): OK: Applying all logs succeeded. Slave started, replicating from 192.168.100.54(192.168.100.54:3306)
192.168.100.54(192.168.100.54:3306): Resetting slave info succeeded.
Master failover to 192.168.100.54(192.168.100.54:3306) completed successfully.
  • 再次用浏览器打开前端地址,依然连接成功,mha高可用实现Alt text

2. 读写分离中间件atlas

2.1 atlas介绍

Atlas是由 Qihoo 360公司Web平台部基础架构团队开发维护的一个基于MySQL协议的数据中间层项目。它在MySQL官方推出的MySQL-Proxy 0.8.2版本的基础上,修改了大量bug,添加了很多功能特性。目前该项目在360公司内部得到了广泛应用,很多MySQL业务已经接入了Atlas平台,每天承载的读写请求数达几十亿条。

  • 主要功能
      读写分离、从库负载均衡、自动分表、IP过滤
  • 使用场景
    atlas是位于前端应以和后端数据库之间的中间件,作为客户端与数据库连接,同时对于前端应用来说,是一个服务端。

2.2 其它中间件介绍

Mysql-proxy(oracle)
Mysql-router(oracle)
Atlas (Qihoo 360)
Atlas-sharding (Qihoo 360)
Cobar(是阿里巴巴(B2B)部门开发)
Mycat(基于阿里开源的Cobar产品而研发)
TDDL Smart Client的方式(淘宝)
Oceanus(58同城数据库中间件)
OneProxy(原支付宝首席架构师楼方鑫开发 )
vitess(谷歌开发的数据库中间件)
Heisenberg(百度)
TSharding(蘑菇街白辉)
Xx-dbproxy(金山的Kingshard、当当网的sharding-jdbc )

2.3 atlas安装

我安装atlas到54从库的机器上

2.3.1 注意事项

软件获取地址:https://github.com/Qihoo360/Atlas/releases
下载安装:
wget https://github.com/Qihoo360/Atlas/releases/download/2.2.1/Atlas-2.2.1.el6.x86_64.rpm
rpm -ivh Atlas-2.2.1.el6.x86_64.rpm

1、Atlas只能安装运行在64位的系统上
2、Centos 5.X安装 Atlas-XX.el5.x86_64.rpm,Centos 6.X安装Atlas-XX.el6.x86_64.rpm。
3、后端mysql版本应大于5.1,建议使用Mysql 5.6以上
  Atlas (普通) : Atlas-2.2.1.el6.x86_64.rpm
  Atlas (分表) : Atlas-sharding_1.0.1-el6.x86_64.rpm
  

2.3.2 配置文件

[root@localhost conf]# rpm -ql Atlas-2.2.1
/usr/local/mysql-proxy/bin/VERSION
/usr/local/mysql-proxy/bin/encrypt  //密码加密程序
/usr/local/mysql-proxy/bin/mysql-proxy //原版mysql-proxy
/usr/local/mysql-proxy/bin/mysql-proxyd  //360重写后的程序
/usr/local/mysql-proxy/conf/test.cnf    //配置文件

这里密码加密程序是atlas配置文件密码。主库授信数据库权限,否则通过atlas访问数据库获取不到数据。因为开了主从复制,所以从库会同步授信。
因为先前授信了mha用户admin。所以使用这个账户,加密密码:

[root@localhost bin]# /usr/local/mysql-proxy/bin/encrypt mha_admin
2VJk4+gKBSiT6hL0DO30MA==

复制密码串到配置文件; /usr/local/mysql-proxy/conf/test.cnf

配置文件注释是中文

[mysql-proxy]

#带#号的为非必需的配置项目

#管理接口的用户名
admin-username=user

#管理接口的密码
admin-password=pwd

#Atlas后端连接的MySQL主库的IP和端口,可设置多项,用逗号分隔
proxy-backend-addresses=192.168.100.55:3306

#Atlas后端连接的MySQL从库的IP和端口,@后面的数字代表权重,用来作负载均衡,若省略则默认为1,可设置多项,用逗号分隔
proxy-read-only-backend-addresses=192.168.100.54:3306@2,192.168.100.53:3306@1

#用户名与其对应的加密过的MySQL密码,密码使用PREFIX/bin目录下的加密程序encrypt加密,下行的user1和user2为示例,将其替换为你的MySQL的用户名和加密密码!
pwds=admin:2VJk4+gKBSiT6hL0DO30MA==,atlas:F81glGa2FGwa8s/oWZlMvQ==

#设置Atlas的运行方式,设为true时为守护进程方式,设为false时为前台方式,一般开发调试时设为false,线上运行时设为true,true后面不能有空格。
daemon=true

#设置Atlas的运行方式,设为true时Atlas会启动两个进程,一个为monitor,一个为worker,monitor在worker意外退出后会自动将其重启,设为false时只有worker,没有monitor,一般开发调试时设为false,线上运行时设为true,true后面不能有空格。
keepalive=true

#工作线程数,对Atlas的性能有很大影响,可根据情况适当设置
event-threads=8

#日志级别,分为message、warning、critical、error、debug五个级别
log-level=message

#日志存放的路径
log-path=/data/logs/mysql-proxy/log

#SQL日志的开关,可设置为OFF、ON、REALTIME,OFF代表不记录SQL日志,ON代表记录SQL日志,REALTIME代表记录SQL日志且实时写入磁盘,默认为OFF
#sql-log = OFF

#慢日志输出设置。当设置了该参数时,则日志只输出执行时间超过sql-log-slow(单位:ms)的日志记录。不设置该参数则输出全部日志。
#sql-log-slow = 10

#实例名称,用于同一台机器上多个Atlas实例间的区分
#instance = test

#Atlas监听的工作接口IP和端口
proxy-address=0.0.0.0:1234

#Atlas监听的管理接口IP和端口
admin-address=0.0.0.0:2345

#分表设置,此例中person为库名,mt为表名,id为分表字段,3为子表数量,可设置多项,以逗号分隔,若不分表则不需要设置该项
#tables = person.mt.id.3

#默认字符集,设置该项后客户端不再需要执行SET NAMES语句
charset=utf8

#允许连接Atlas的客户端的IP,可以是精确IP,也可以是IP段,以逗号分隔,若不设置该项则允许所有IP连接,否则只允许列表中的IP连接
client-ips=127.0.0.1,192.168.100.52

#Atlas前面挂接的LVS的物理网卡的IP(注意不是虚IP),若有LVS且设置了client-ips则此项必须设置,否则可以不设置
#lvs-ips = 192.168.1.1

2.3.3 启动atlas

首先,先确认主库vip已经绑定,所以我这里配置文件里的主库是55,并不是实际的52。然后确认主从库完好,MySQL启动正常,并且防火墙已经关闭。改完了配置文件,就可以启动atlas了/etc/init.d/atlasd start

2.4 测试atlas

2.4.1 客户端测试
  • 查看端口是否已经启动
[root@localhost conf]# ss -nptl |grep mysql-proxy
LISTEN     0      128          *:1234                     *:*                   users:(("mysql-proxy",pid=2361,fd=10))
LISTEN     0      128          *:2345                     *:*                   users:(("mysql-proxy",pid=2361,fd=9))

两个端口都是配置文件里指定的端口,其中1234是工作端口,负责对外提供数据库读写服务的,2345端口是mysql-proxy管理端口。
管理端口登录的用户名默认:user,默认密码:pwd

  • 登录管理端口:
    mysql -h127.0.0.1 -uadmin -p -P2345
    根据提示:use ‘SELECT * FROM help’ to see the supported commands
    输入SELECT * FROM help;
+----------------------------+---------------------------------------------------------+
| command                    | description                                             |
+----------------------------+---------------------------------------------------------+
| SELECT * FROM help         | shows this help                                         |
| SELECT * FROM backends     | lists the backends and their state                      |
| SET OFFLINE $backend_id    | offline backend server, $backend_id is backend_ndx's id |
| SET ONLINE $backend_id     | online backend server, ...                              |
| ADD MASTER $backend        | example: "add master 127.0.0.1:3306", ...               |
| ADD SLAVE $backend         | example: "add slave 127.0.0.1:3306", ...                |
| REMOVE BACKEND $backend_id | example: "remove backend 1", ...                        |
| SELECT * FROM clients      | lists the clients                                       |
| ADD CLIENT $client         | example: "add client 192.168.1.2", ...                  |
| REMOVE CLIENT $client      | example: "remove client 192.168.1.2", ...               |
| SELECT * FROM pwds         | lists the pwds                                          |
| ADD PWD $pwd               | example: "add pwd user:raw_password", ...               |
| ADD ENPWD $pwd             | example: "add enpwd user:encrypted_password", ...       |
| REMOVE PWD $pwd            | example: "remove pwd user", ...                         |
| SAVE CONFIG                | save the backends to config file                        |
| SELECT VERSION             | display the version of Atlas                            |
+----------------------------+---------------------------------------------------------+

查看backend节点状态:SELECT * FROM backends;

+-------------+---------------------+-------+------+
| backend_ndx | address             | state | type |
+-------------+---------------------+-------+------+
|           1 | 192.168.100.55:3306 | up    | rw   |
|           2 | 192.168.100.54:3306 | up    | ro   |
|           3 | 192.168.100.53:3306 | up    | ro   |
+-------------+---------------------+-------+------+
3 rows in set (0.00 sec)

关闭一个节点:set offlne 2;

+-------------+---------------------+---------+------+
| backend_ndx | address             | state   | type |
+-------------+---------------------+---------+------+
|           2 | 192.168.100.54:3306 | offline | ro   |
+-------------+---------------------+---------+------+

移除一个节点:remove backend 2;

mysql> remove backend 2;
Empty set (0.00 sec)

mysql> SELECT * FROM backends;
+-------------+---------------------+-------+------+
| backend_ndx | address             | state | type |
+-------------+---------------------+-------+------+
|           1 | 192.168.100.55:3306 | up    | rw   |
|           2 | 192.168.100.53:3306 | up    | ro   |
+-------------+---------------------+-------+------+

保存配置:SAVE CONFIG;
添加一个节点:add slave 192.168.100.54:3306

mysql> SELECT * FROM backends;
+-------------+---------------------+-------+------+
| backend_ndx | address             | state | type |
+-------------+---------------------+-------+------+
|           1 | 192.168.100.55:3306 | up    | rw   |
|           2 | 192.168.100.53:3306 | up    | ro   |
|           3 | 192.168.100.54:3306 | up    | ro   |
+-------------+---------------------+-------+------+
3 rows in set (0.00 sec)
  • 登录工作端口:
    mysql -h127.0.0.1 -uadmin -p -P1234
    输入admin密码进行登录,然后就可以查看一下数据库show databases;
    能否看到授权的数据库,不能看到的话重新授权admin用户。
    然后查询server_idshow variables like 'server_id';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| server_id     | 3     |
+---------------+-------+

再次查看show variables like 'server_id

+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| server_id     | 2     |
+---------------+-------+

负载均衡已经实现。

2.4.2 网页测试

确保配置文件已经添加web端地址,能够远程访问atlas的工作端口。我这里web程序搭建在52上。所以在52上进行测试登录atlas工作端口:
主机52:mysql -h192.168.100.54 -uadmin -p -P1234如果不能连接请检查atlas配置文件配置的允许登录地址和俩机器的防火墙状态。

  • 接下来新建php进行测试
    确保主从复制打开的情况下,在主库新建数据库,数据表并插入数据。或找个数据表导入进去。

    • 查询和读写分离:
      这时更改从数据库上的表数据53和54分别添加标识
<?php

$connect=mysqli_connect('192.168.100.54','admin','mha_admin','mha','1234');

$sql='select name from aty_menu';                                                                                                                                                                                         
mysqli_query($connect,'set names utf8');

$result=mysqli_query($connect,$sql);
$arr=array();//定义空数组
while($row =mysqli_fetch_array($result)){
    //var_dump($row);
    //array_push(要存入的数组,要存的值)
    array_push($arr,$row);
}
var_dump($arr);

然后打开浏览器进行访问,然后ctrl+f5进行刷新可以看到,分别读取两个数据库。并且并不会读取到主库,说明读写分离和只读负载均衡已经实现
53
54



参考资料:《MHA高可用架构与Atlas读写分离》作者:惨绿少年

原文地址:https://www.cnblogs.com/lixuebin/p/10808458.html