1,MHA概述

MHA目前在mysql高可用方面是一个相对成熟的解决方案,它由日本DeNA公司youshimaton(现就职于Facebook公司)开发,是一套优秀的作为mysql高可用性环境下故障切换和主从提升的高可用软件。在mysql故障切换过程中,MHA能做到在0-30秒之内自动完成数据库的故障切换操作,并且在进行故障切换操作的过程中,MHA能在最大程度上保证数据的一致性,以达到真正意义上的高可用,MHA里由两个角色一个是MHA Node(数据节点),另一个是MHA Manager(管理节点)。MHA Manager可以单独部署在一台读立的服务器上管理多个master-slave集群,也可以部署在一台slave节点上。
MHA Node运行在每台mysql服务器上,MHA Manager会定时探测集群中的master节点,当master出现故障时,它可以自动将最新数据的slave提升为新的master,然后将所有其他的slave重新指向新的master。整个故障转移过程中对应用程序完全透明。

在MHA自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度地保证数据的不丢失,但这并不总是可行的。例如,如果主服务器硬件故障或无法通过ssh访问,MHA没法保存二进制日志,只进行故障转移而丢失了最新的数据。使用mysql 5.5的半同步复制,可以大大降低数据丢失的风险。MHA可以与半同步复制结合起来,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性。

注:从mysql5.5开始,mysql以插件的形式支持半同步复制。

2,如何理解半同步呢?

#首先我们来看看异步,全同步的概念:
异步复制:mysql默认的复制即是异步的,主库在执行完客户端提交的事务后会立即将结果返回给客户端,并不关心从库是否已经接收并处理,这样就会有一个问题,主如果挂掉了,此时主上已经提交的事务可能并没有传到从上,如果此时强行将从提升为主,可能导致新主上的数据不完整。

全同步复制:指当主库执行完一个事务,所有的从库都执行了该事务才返回给客户端,因为需要等待所有从库执行完该事务才能返回,所以全同步复制的性能必然会受到严重的影响。

半同步复制:介于异步复制和全同步复制之间,主库在执行完客户端提交的事务后不是立刻返回给客户端,而是等待至少有一个从库接收到并写到relay log(中继)中才返回给客户端。相对于异步复制,半同步复制提高了数据的安全性,同时它也造成了一定程度的延迟,这个延迟最少是一个TCP/IP往返的时间。所以,半同步复制最好在低延时的网络中使用。

总结:异步与半同步异同,默认情况下mysql的复制是异步的,master上所有的更新操作写入binglog之后并不确保所有的更新都被复制到slave上。异步操作虽然效率高,但是在master/slave出现问题的时候,存在很高数据不同步的风险,甚至可能丢失数据。mysql5.5引入半同步复制功能的目的是为了保证在master出问题的时候,至少有一台slave的数据是完整的。在超时的情况下也可以临时转入异步复制,保障业务的正常使用,直到一台slave追赶上之后,继续切换到半同步模式。

3,MHA的工作原理

相较于其他HA软件,MHA目的在于维持mysql 主从复制中mater库的高可用性,其最大特点是可以修复多个slave之间的差异日志,最终使所有slave保持数据一致,然后从中选择一个充当新的master,并将其它slave指向它。
1)从宕机崩溃的master保存二进制日志事件(binglogevents)
2)识别含有最新更新的slave
3)应用差异的中继日志(relay log)到其他slave
4)应用从master保存的二进制日志事件(binglogevents)
5)提升一个slave为新master
6)使其它的slave连接新的master进行复制

4,澳门新华大旅店电话登入:部署MHA

目前MHA主要支持一主多从的架构,要搭建MHA,要求一个复制集群中必须最少有三台数据库服务器,一主三从,即一台充当master,一台充当备用master,另外一台充当主库,因为至少需要三台服务器。

具体的搭建环境如下:

主机名 ip地址 server id 类型 OS
Manager 172.16.1.100 管理节点 CentOS 7.3
Master 172.16.1.110 1 主mysql(写入) CentOS 7.3
CandicateMaster(备用master) 172.16.1.120 2 从mysql(读) CenOS 7.3
slave 172.16.1.130 3 从mysql(读) CentOS 7.3

其中master对外提供写服务,备选master(实际的slave,主机名CandicateMaster)提供读服务,slave也提供相关的读服务,一旦master宕机,将会把备选master提升为新的master,slave指向新的master,manager作为管理服务器(无需安装mysql)。
一,基础环境准备
1,在配置好ip地址后检查selinux,iptables设置,关闭selinux,iptables服务以便后期主从同步不出错,注:时间要同步。
#配置时间同步

设置时区(临时生效),永久可修改/etc/sysconfig/clock文件,把ZONE的值改为Asia/Shanghai,UTC值改为false
[root@manager ~]# cp /usr/share/zoneinfo/Asia/Shanghai  /etc/localtime 
[root@manager ~]# hwclock
时间同步:
[root@manager ~]# ntpdate -u ntp.api.bz     //NTP服务器(上海)

2,在四台机器都配置epel源
#下载epel源:
[root@manager ~]# wget -O /etc/yum.repos.d/epel.repo http://www.4553399.com/259/repo/epel-7.repo

3,配置hosts环境:

拷贝给其他主机:
[root@manager ~]# for i in 110 120 130; do scp /etc/hosts root@172.16.1.$i:/etc/; done

4,建立ssh无交互登陆环境
(四台主机都需操作,使其都能够互相免密登录)

[root@manager ~]# ssh-keygen -t rsa    #生成密钥
[root@manager ~]# for i in manager master candicatemaster slave; do ssh-copy-id -i ~/.ssh/id_rsa.pub root@$i; done

5,互相测试ssh无交互登录(四台主机上都需测试)

[root@manager ~]# for i in manager master candicatemaster slave; do ssh $i hostname; done 
manager
master
candicatemaster
slave
//ssh各台主机,并执行hostname命令,验证是否成功

二,配置mysql半同步复制
为了尽可能的减少主库硬件损坏宕机造成的数据丢失,因此在配置MHA的同时建议配置成mysql的半同步复制。
注:mysql半同步插件是由google提供,具体位置/usr/local/mysql/lib/plugin下,一个是master用的semisync_master.so,一个是slave用的semisync_slave.so,下面我们就来具体配置一下。如果不清楚Plugin的目录,用如下查找:

mysql> show variables like '%plugin_dir%';  #查找plugin的目录
+---------------+------------------------------+
| Variable_name | Value                        |
+---------------+------------------------------+
| plugin_dir    | /usr/local/mysql/lib/plugin/ |
+---------------+------------------------------+
1 row in set (0.00 sec)

1,分别在主从节点上安装相关的插件(master,candicatemaster,slave)在mysql上安装插件需要数据库支持动态载入。检查是否支持,用如下检测:

mysql> show variables like '%have_dynamic%'
    -> ;
+----------------------+-------+
| Variable_name        | Value |
+----------------------+-------+
| have_dynamic_loading | YES   |
+----------------------+-------+
1 row in set (0.00 sec)

#所有mysql数据库服务器,安装半同步插件(semisync_master.so,semisync_slave.so):

mysql> install plugin rpl_semi_sync_master soname 'semisync_master.so';
Query OK, 0 rows affected (0.30 sec)

mysql> install plugin rpl_semi_sync_slave soname 'semisync_slave.so';
Query OK, 0 rows affected (0.00 sec)

其他mysql主机采用同样的方法安装。

#确保每台mysql主机都正确安装plugin:
mysql> show plugins;

或者使用:
mysql> select * from information_schema.plugins\G;

#查看半同步相关信息:

mysql> show variables like '%rpl_semi_sync%';
+-------------------------------------------+------------+
| Variable_name                             | Value      |
+-------------------------------------------+------------+
| rpl_semi_sync_master_enabled              | OFF        |
| rpl_semi_sync_master_timeout              | 10000      |
| rpl_semi_sync_master_trace_level          | 32         |
| rpl_semi_sync_master_wait_for_slave_count | 1          |
| rpl_semi_sync_master_wait_no_slave        | ON         |
| rpl_semi_sync_master_wait_point           | AFTER_SYNC |
| rpl_semi_sync_slave_enabled               | OFF        |
| rpl_semi_sync_slave_trace_level           | 32         |
+-------------------------------------------+------------+
8 rows in set (0.00 sec)

从上面可以看到半同步复制插件已经安装,只是还没有启用,所以是OFF。

2,修改my.cnf文件,配置主从同步

注:若主mysql服务器已经存在,只是后期才搭建从mysql服务器,在配置数据同步前应先将主mysql服务器的要同步的数据库拷贝到从mysql服务器上(如先在主mysql上备份数据库,再用备份在从mysql服务器上恢复)

master mysql主机:

[root@master ~]# vim /etc/my.cnf
添加内容如下:
server-id=1
log-bin=mysql-bin
binlog_format=mixed
log-bin-index=mysql-bin.index
rpl_semi_sync_master_enabled=1
rpl_semi_sync_master_timeout=10000
rpl_semi_sync_slave_enabled=1
relay_log_purge=0
relay-log=relay-bin
relay-log-index=slave-relay-bin.index

注: rpl_semi_sync_master_enabled=1 1表是启用,0表示关闭 ,
rpl_semi_sync_master_timeout=10000:毫秒单位 ,该参数主服务器等待确认消息10秒后,不再等待,变为异步方式。

candicate master主机:

[root@candicatemaster ~]# vim /etc/my.cnf 
server-id=2
log-bin=mysql-bin
binlog_format=mixed
log-bin-index=mysql-bin.index
relay_log_purge=0
relay-log=relay-bin
relay-log-index=slave-relay-bin.index
rpl_semi_sync_master_enabled=1
rpl_semi_sync_master_timeout=10000
rpl_semi_sync_slave_enabled=1

注:relay_log_purge=0,禁止sql线程在执行完一个relay log后自动将其删除,对于MHA场景下,对于某些滞后从库的恢复依赖于其他从库的relay log,因此采取禁用自动删除功能。

slave主机:

[root@slave ~]# vim /etc/my.cnf 
server-id=3
log-bin=mysql-bin
relay-log=relay-bin
relay-log-index=slave-relay-bin.index
read_only=1
rpl_semi_sync_slave_enabled=1

#依次重启mysql服务(master,candicate master,slave):systemctl restart mysqld

#查看半同步相关信息:

mysql> show variables like '%rpl_semi_sync%';
+-------------------------------------------+------------+
| Variable_name                             | Value      |
+-------------------------------------------+------------+
| rpl_semi_sync_master_enabled              | ON         |
| rpl_semi_sync_master_timeout              | 10000      |
| rpl_semi_sync_master_trace_level          | 32         |
| rpl_semi_sync_master_wait_for_slave_count | 1          |
| rpl_semi_sync_master_wait_no_slave        | ON         |
| rpl_semi_sync_master_wait_point           | AFTER_SYNC |
| rpl_semi_sync_slave_enabled               | ON         |
| rpl_semi_sync_slave_trace_level           | 32         |
+-------------------------------------------+------------+
8 rows in set (0.00 sec)

可以看到半同步复制已经启用了(ON)。

#查看半同步状态:

有几个参数值得关注的:

Rpl_semi_sync_master_status :显示主服务是异步复制模式还是半同步复制模式
Rpl_semi_sync_master_clients:显示有多少个从服务器配置为半同步复制模式
Rpl_semi_sync_master_yes_tx:显示从服务器确认成功提交的数量
Rpl_semi_sync_master_no_tx:显示从服务器确认不成功提交的数量
Rpl_semi_sync_master_tx_avg_wait_time:事务因开启semi_sync,平均需要额外等待的时间
Rpl_semi_sync_master_net_avg_wait_time:事务进入等待队列后,到网络平均等待时间。

master主机:

mysql> grant replication slave on *.* to rep@'172.16.1.%' identified by '123.com';
Query OK, 0 rows affected, 1 warning (10.01 sec)

mysql> grant all privileges on *.* to manager@'172.16.1.%' identified by '123.com';
Query OK, 0 rows affected, 1 warning (0.00 sec)

mysql> show master status;
+------------------+----------+--------------+------------------+-------------------+
| File             | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
+------------------+----------+--------------+------------------+-------------------+
| mysql-bin.000002 |      737 |              |                  |                   |
+------------------+----------+--------------+------------------+-------------------+
1 row in set (0.00 sec)

第一条grant命令是创建一个用于主从复制的账号,在master和candicate master的主机上创建即可。第二条grant命令是创建MHA管理账号,所有mysql服务器上都需要执行。MHA会在配置文件里要求能远程登录到数据库,所有要进行必要的赋权。

candicate master主机:

mysql> grant replication slave on *.* to rep@'172.16.1.%' identified by '123.com';
Query OK, 0 rows affected, 1 warning (10.00 sec)

mysql> grant all privileges on *.* to manager@'172.16.1.%' identified by  '123.com';
Query OK, 0 rows affected, 1 warning (0.00 sec)

mysql>  change master to master_host='172.16.1.110',master_port=3306,master_user='rep',master_password='1233.com',master_log_file='mysql-bin.000002',master_log_pos=737;
Query OK, 0 rows affected, 2 warnings (0.00 sec)

mysql> start slave;
Query OK, 0 rows affected (0.00 sec)

#查看从的状态,以下两个值必须为yes,代表从服务器能正常连接主服务器

slave主机:

mysql> grant all privileges on *.* to manager@'172.16.1.%' identified by '123.com';
Query OK, 0 rows affected, 1 warning (0.28 sec)

mysql> change master to master_host='172.16.1.110',master_port=3306,master_user='rep',master_password='123.com',master_log_file='mysql-bin.000002',master_log_pos=737;
Query OK, 0 rows affected, 2 warnings (0.01 sec)

mysql> start slave;
Query OK, 0 rows affected (0.00 sec)

#同样查看从的状态,以下两个值必须为yes,代表从服务器能正常连接主服务器

#查看master服务器的半同步状态:

可以看到目前已经有2个slave服务器已经配置成了半同步模式。

三,配置mysql-mha
mha包括manager节点和data节点,data节点包括原有的mysql复制几个中的主机,至少3台,即1主2从,当masterfailover后,还能保证主从结构;只需安装node包。
manager节点:运行监控脚本,负责monitoring和auto-failover;需要安装node包和manager包。

1,在所有主机上安装mha所依赖的软件包(需要系统自带的yum源并联网)

yum -y install perl-DBD-MySQL perl-Config-Tiny perl-Log-Dispatch perl-ParallelForkManager perl-Config-IniFiles ncftp perl-Params-Validate perl-CPAN perl-TestMock-LWP.noarch perl-LWP-Authen-Negotiate.noarch perl-devel perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker

2,以下操作管理节点(manager)需要两个都安装,在3台数据库节点只要安装MHA的node节点:
软件下载地址:http://www.ib911.com/907/yoshinorim
1)在所有数据库节点上安装mha4mysql-node-0.56.tar.gz:

[root@master ~]# wget http://www.ib911.com/yoshinorim/mha4mysql-node/releases/download/v0.58/mha4mysql-node-0.58.tar.gz
[root@master ~]# tar zxf mha4mysql-node-0.58.tar.gz 
[root@master ~]# cd mha4mysql-node-0.58
[root@master mha4mysql-node-0.58]# perl Makefile.PL 
*** Module::AutoInstall version 1.06
*** Checking for Perl dependencies...
[Core Features]
- DBI        ...loaded. (1.627)
- DBD::mysql ...loaded. (4.023)
*** Module::AutoInstall configuration finished.
Checking if your kit is complete...
Looks good
Writing Makefile for mha4mysql::node
[root@master mha4mysql-node-0.58]# make && make install
#将安装包拷贝给其他主机:
[root@master ~]# for i in candicatemaster slave; do scp mha4mysql-node-0.58.tar.gz root@$i:/root; done
mha4mysql-node-0.58.tar.gz                                              100%   55KB  24.5MB/s   00:00    
mha4mysql-node-0.58.tar.gz                                              100%   55KB  23.1MB/s   00:00 

其他两个数据库节点依次进行安装(过程略。。)

2)在管理节点安装mha-node和mha-manager:

#下载安装包:
[root@manager ~]# wget http://www.ib911.com/631/yoshinorim/mha4mysql-node/releases/download/v0.58/mha4mysql-node-0.58.tar.gz
[root@manager ~]# wget http://www.575.cao856.com/yoshinorim/mha4mysql-manager/releases/download/v0.58/mha4mysql-manager-0.58.tar.gz
//安装mha-node:
[root@manager ~]# tar zxf mha4mysql-node-0.58.tar.gz 
[root@manager ~]# cd mha4mysql-node-0.58
[root@manager mha4mysql-node-0.58]# perl Makefile.PL 
*** Module::AutoInstall version 1.06
*** Checking for Perl dependencies...
[Core Features]
- DBI        ...loaded. (1.627)
- DBD::mysql ...loaded. (4.023)
*** Module::AutoInstall configuration finished.
Checking if your kit is complete...
Looks good
Writing Makefile for mha4mysql::node
[root@manager mha4mysql-node-0.58]# make && make install
//安装mha-manager:
[root@manager ~]# tar zxf mha4mysql-manager-0.58.tar.gz 
[root@manager ~]# cd mha4mysql-manager-0.58
[root@manager mha4mysql-manager-0.58]# perl Makefile.PL 
*** Module::AutoInstall version 1.06
*** Checking for Perl dependencies...
[Core Features]
- DBI                   ...loaded. (1.627)
- DBD::mysql            ...loaded. (4.023)
- Time::HiRes           ...loaded. (1.9725)
- Config::Tiny          ...loaded. (2.14)
- Log::Dispatch         ...loaded. (2.41)
- Parallel::ForkManager ...loaded. (1.18)
- MHA::NodeConst        ...loaded. (0.58)
*** Module::AutoInstall configuration finished.
Writing Makefile for mha4mysql::manager
[root@manager mha4mysql-manager-0.58]# make && make install

#在manager上创建所需要的目录:

[root@manager mha4mysql-manager-0.58]# mkdir /etc/masterha
[root@manager mha4mysql-manager-0.58]# mkdir -p /masterha/app1
[root@manager mha4mysql-manager-0.58]# mkdir /scripts
[root@manager mha4mysql-manager-0.58]# cp samples/conf/* /etc/masterha/
[root@manager mha4mysql-manager-0.58]# cp samples/scripts/* /scripts/

3,配置mha
与绝大多数linux应用程序类似,MHA的正确使用依赖于合理的配置文件。MHA的配置文件与mysql的my.cnf文件配置相似,采取的是param=value的方式来配置,配置文件位于管理节点,通常包括每一个mysql server的主机名,mysql用户名,密码,工作目录等。
1)编辑/etc/masterha/app1.conf文件,内容如下:

[root@manager mha4mysql-manager-0.58]# vim /etc/masterha/app1.cnf 
[server default]
manager_workdir=/masterha/app1    //设置manager的工作目录
manager_log=/masterha/app1/manager.log  //设置manager的日志
user=manager    //设置监控用户manager
password=123.com    //监控用户manager的密码
ssh_user=root     //ssh连接用户
repl_user=rep   //主从复制用户
repl_password=123.com   //主从复制用户密码
ping_interval=1   //设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行failover。

[server1]
hostname=172.16.1.110
port=3306
master_binlog_dir=/usr/local/mysql/data   //设置master保存binglog的位置,以便MHA可以找到master的日志,我这里的也就是myslq的数据目录
candidate_master=1   //设置为候选master,如果设置该参数之后,发生主从切换以后将会将此从库提升为主库。

[server2]
hostname=172.16.1.120
port=3306
master_binlog_dir=/usr/local/mysql/data
candidate_master=1

[server3]
hostname=172.16.1.130
port=3306
master_binlog_dir=/usr/local/mysql/data
no_master=1

2)清空masterha_default.cnf文件,连接MySQL的时候会自动寻找app1.cnf配置文件:

[root@manager ~]# >/etc/masterha/masterha_default.cnf 
[root@manager ~]# cat /etc/masterha/masterha_default.cnf 
[root@manager ~]# 

3)ssh有效性验证:
[root@manager ~]# masterha_check_ssh --global_conf=/etc/masterha/masterha_default.cnf --conf=/etc/masterha/app1.cnf

验证成功的话会自动识别出所有服务器和主从状况;
注:在验证时若遇到这个错误:Can't exec "mysqlbinlog" ...... 解决方法是在所有服务器上执行:
ln -s /usr/local/mysql/bin/* /usr/local/bin/

5)启动manager:

[root@manager ~]# nohup masterha_manager --conf=/etc/masterha/app1.cnf &> /tmp/mha_manager.log &
[1] 19438

注意:在应用unix/linux时,我们一般想让某个程序在后台运行,于是我们将常会用&在程序结尾来让程序自动运行。比如我们要运行mysql在后台:/usr/local/mysql/bin/mysqld_safe –user=mysql &。可是有很多程序并不像mysqld一样,这样我们就需要nohub命令;

#状态检查:

[root@manager ~]# masterha_check_status --conf=/etc/masterha/app1.cnf
app1 (pid:19438) is running(0:PING_OK), master:172.16.1.110
#可以看到manager角色运行正常,并且当前的主从架构中的master为17.16.1.110。

四,故障转移验证(自动failover(故障切换))
master挂掉后,MHA当时已经开启,候选master库(slave)会自动failover为master,验证的方式是先停掉master(master主机),因为之前的配置文件中,把candicate msaer(candicatemaster主机)作为候选人,那么就到slave(slave主机)上查看master的ip是否变为了candicatemaster主机的ip。

1)停掉master主机的mysql服务,模拟故障:

[root@master ~]# systemctl stop mysqld
[root@master ~]# netstat -anput | grep mysqld
[root@master ~]# 

2)查看MHA的日志文件:
[root@manager ~]# tailf /masterha/app1/manager.log

从MHA的日志信息出可以看出,原来的master主机已经挂掉了,并且通过mha机制进行故障切换,最后备用master(candicatemaster主机)成功的替换为新的master。

3)检查slave2的复制:
#登陆slave主机的mysql,查看slave状态

可以看到master的ip现在为172.16.1.120,已经切换到和172.16.1.120同步了,本来是和172.16.1.110同步的,说明MHA已经把备用master(candicatemaster主机)提升为了新的master,IO线程和SQL线程也正常运行,MHA搭建成功。。。

MHA Manager端日常主要操作步骤

1)检查是否有下列文件,有则删除。
#发生主从切换后,MHAmanager服务会自动停掉,且在manager的家目录(/masterha/app1)下面生成文件app1.failover.complete,若要启动MHA,必须确保无此文件,如果有下面的提示,那么删除此文件

//提示信息:
 masterha/app1/app1.failover.complete [error]
[/usr/share/perl5/vendor_perl/MHA/MasterFailover.pm, ln298] Last failover was done at 2015/01/09 10:00:47.
Current time is too early to do failover again. If you want to do failover, manually remove /
masterha/app1/app1.failover.complete and run this script again.
[root@manager ~]# ps -ef | grep manager  //发生failover后,我们可以看到服务会自动停止
root      20455  17892  0 15:28 pts/1    00:00:00 grep --color=auto manager
[root@manager ~]# ls /masterha/app1/
app1.failover.complete  manager.log
#删除该文件
[root@manager ~]# rm -rf /masterha/app1/app1.failover.complete 

#我暂时先不启动MHA服务,如果此时要启动需要加上 ”--ignore_fail_on_start“ 参数,因为当有slave节点宕掉时,默认是启动不了的(原来的slave已经替换为了master,所以MHA认为是有一台slave没有运行的),若加上此参数后,即使由节点宕机也能启动MHA,如下所示:
# #nohup masterha_manager --conf=/etc/masterha/app1.cnf --ignore_fail_on_start &>/tmp/mha_manager.log &

2)检查MHA复制检查(需要把master设置成candicatade的从服务器)

#首先查看新master的状态:
mysql> show master status;
+------------------+----------+--------------+------------------+-------------------+
| File             | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
+------------------+----------+--------------+------------------+-------------------+
| mysql-bin.000002 |      737 |              |                  |                   |
+------------------+----------+--------------+------------------+-------------------+
1 row in set (0.00 sec)

#把恢复的master设置为新master的从服务器:

[root@master ~]# systemctl start mysqld   #启动mysql服务
// 登陆mysql,配置主从复制
mysql> change master to master_host='172.16.1.120',master_port=3306,master_log_file='mysql-bin.000002',mastter_log_pos=737,master_user='rep',master_password='123.com'
    -> ;
Query OK, 0 rows affected, 2 warnings (0.06 sec)
mysql> start slave;  
Query OK, 0 rows affected (0.00 sec)

#集群复制验证:

[root@manager ~]# masterha_check_repl --conf=/etc/masterha/app1.cnf 


3)启动MHA:

[root@manager ~]# nohup masterha_manager --conf=/etc/masterha/app1.cnf &>/tmp/mha_manager.log &
[1] 20587
[root@manager ~]# ps -ef | grep manager
root      20587  17892  0 15:51 pts/1    00:00:00 perl /usr/local/bin/masterha_manager --conf=/etc/masterha/app1.cnf
root      20657  17892  0 15:52 pts/1    00:00:00 grep --color=auto manager
//可以看到MHA又重新恢复运行
若要停止MHA可以执行以下命令或者kill掉进程号:
masterha_stop --conf=/etc/masterha/app1.cnf

4)检查日志:

通过MHA的日志,得知,此时的master为刚刚提升为master,并且原来的master恢复后,成为了当前master的slave,代表MHA又重新进行监控,如果此时的master挂掉的话,MHA依然会从上面的slave中推选一位成为master。

5)定期删除中继日志
在配置主从复制中,slave上设置了参数relay_log_purge=0,禁用了自动删除功能,为了保证mysql的性能,所以slave节点需要定期删除中继日志(建议每个slave节点删除中继日志的时间错开)

#计划任务:
crontab -e
0 5 * * * /usr/local/bin/purge_relay_logs - -user=root --password=123.com --port=3306 --disable_relay_log_purge >> /var/log/purge_relay.log 2>&1 

总结:MHA软件又两部分组成,Manager工具包和Node工具包,具体说明如下。
manager工具包主要包括以下几个工具:masterha_check_ssh (检查MHA的ssh配置状况),masterha_check_repl(检查mysql复制状况),masterha_manager(启动MHA),master_check_status(检测当前MHA运行状态),masterha_master_monitor(检测master是否宕机),masterha_master_switch(控制故障转移【自动或手动】),master_conf_host(添加或删除配置的server信息)。
Node工具包(这些工具通常由MHA Manager的脚本触发,无需人为操作)主要包括以下几个工具:save_binary_logs(保存和复制master的二进制日志),apply_diff_relay_logs(识别差异的中继日志事件并将其差异的事件应用于其他的slave),filter_mysqlbinlog(去除不必要的rollback事件【MHA已不再使用这个工具】),purge_relay_logs(清除中继日志【不会阻塞SQL线程】)。