目录
什么是MHA
MHA(MasterHigh Availability)是一套优秀的MySQL高可用环境下故障切换和主从复制的软件。
MHA 的出现就是解决MySQL 单点的问题。
MySQL故障切换过程中,MHA能做到0-30秒内自动完成故障切换操作。
MHA能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用
MHA的组成
MHA Node(数据节点)
MHA Node 运行在每台 MySQL 服务器上
MHA Manager(管理节点)
MHA Manager 可以单独部署在一台独立的机器上,管理多个 master-slave 集群;也可以部署在一台 slave 节点上。
MHA Manager 会定时探测集群中的 master 节点。当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 mas然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明。
MHA的特点
自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失
使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性
目前MHA支持一主多从架构,最少三台服务,即一主两从
MHA支持管理多组主从复制
MHA的工作原理
1.从宕机崩溃的master 保存二进制日志事件(binlog events)
2.识别含有最新的更新 slave 日志
3.应用差异的中继日志(relay log)到其他的slave
4.应用从master保存的二进制日志事件
5.提升一个 salve 为新的master
6.使其他的slave连接行的master 进行复制
实现MHA
首先实现主从复制
一主两从 (mysql5.7)
192.168.94.7(主)
192.168.94.8(从)
192.168.94.9(从)
修改配置文件
主配置
从配置(192.168.94.8 192.168.94.9)
重启mysql(主从都要重启)
systemctl restart mysqld.service
在 Master、Slave1、Slave2 节点上都创建两个软链接
ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
配置数据库主从
所有数据库节点进行 mysql 授权
grant replication slave on *.* to 'myslave'@'192.168.94.%' identified by '123456'; (数据库同步使用)
grant all privileges on *.* to 'mha'@'192.168.94.%' identified by 'manager'; (manager使用,做MHA时有用)
grant all privileges on *.* to 'mha'@'master' identified by 'manager'; (这里的master 是主机名,如果没有设置请使用ip地址)
grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';(这里的slave1 是主机名,如果没有设置请使用ip地址)
grant all privileges on *.* to 'mha'@'slave2' identified by 'manager'; (这里的slave2 是主机名,如果没有设置请使用ip地址)
flush privileges; (刷新权限)
查看主的二进制文件和偏移量
show master status;
在 Slave1、Slave2 节点执行同步操作
change master to master_host='192.168.94.7',master_user='myslave',master_password='123456',master_log_file='m_file='master-bin.000001',master_log_pos=1745;
查看状态
start slave;
show slave status\G;
两个从库必须设置为只读模式 (实现读写分离)
set global read_only=1;
测试主从复制是否完成
主从复制完成
配置MHA组件
所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源
yum install epel-release --nogpgcheck -y
yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
安装 MHA 软件包,先在所有服务器上必须先安装 node 组件
对于每个操作系统版本不一样,这里 CentOS7.6选择 0.57 版本。
在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件,因为 manager 依赖 node 组件
以下操作步骤(三台一致),便不重复截图
cd /opt
tar zxvf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl Makefile.PL
make && make install
在 MHA manager 节点上安装 manager (仅在slave2上做)
tar zxvf mha4mysql-manager-0.57.tar.gz
cd mha4mysql-manager-0.57
perl Makefile.PL
make && make install
manager 组件安装后在/usr/local/bin 下面会生成几个工具,主要包括以下几个:
masterha_check_ssh 检查 MHA 的 SSH 配置状况
masterha_check_repl 检查 MySQL 复制状况
masterha_manger 启动 manager的脚本
masterha_check_status 检测当前 MHA 运行状态
masterha_master_monitor 检测 master 是否宕机
masterha_master_switch 控制故障转移(自动或者 手动)
masterha_conf_host 添加或删除配置的 server 信息
masterha_stop 关闭manager
node 组件安装后也会在/usr/local/bin 下面会生成几个脚本(这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下:
save_binary_logs 保存和复制 master 的二进制日志
apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的 slave
filter_mysqlbinlog 去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)
purge_relay_logs 清除中继日志(不会阻塞 SQL 线程)
在所有服务器上配置无密码认证
master 对从(slave1,2)做无密码认证
salve1 对 主(master) 和 从(slave1)做无密码认证
注意:看此图
slave2 (manager) slave2本身只需要对主(master)和从(slave1)做无密码认证,但由于manager部署在此,也要对本身(slave2)做无密码 认证
在 manager 节点上配置 MHA
cp -rp /opt/mha4mysql-manager-0.57/samples/scripts/ /usr/local/bin/
ll /usr/local/bin/scripts/
master_ip_failover #自动切换时 VIP 管理的脚本
master_ip_online_change #在线切换时 vip 的管理
power_manager #故障发生后关闭主机的脚本
send_report #因故障切换后发送报警的脚本
复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换
cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin
修改内容 master_ip_failover
将里面的内容全部删除,换成如下内容
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
#############################添加内容部分#########################################
my $vip = '192.168.94.200'; #指定vip的地址
my $brdc = '192.168.94.255'; #指定vip的广播地址
my $ifdev = 'ens33'; #指定vip绑定的网卡
my $key = '1'; #指定vip绑定的虚拟网卡序列号
my ssh_start_vip = "/sbin/ifconfig ens33:key $vip"; #代表此变量值为ifconfig ens33:1 192.168.94.200
my ssh_stop_vip = "/sbin/ifconfig ens33:key down"; #代表此变量值为ifconfig ens33:1 192.168.94.200 down
my $exit_code = 0; #指定退出状态码为0
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label ifdev:key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label ifdev:key";
##################################################################################
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====ssh_stop_vip==ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh ssh_user\\@new_master_host \" $ssh_start_vip \"`;
}
A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh ssh_user\\@orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器
加入 如下配置
[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123456
repl_user=myslavex`
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.94.8 -s 192.168.94.9
shutdown_script=""
ssh_user=root
user=mha
[server1]
hostname=192.168.94.7
port=3306
[server2]
candidate_master=1 (设置为候选master,设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个从库不是集群中最新的slave)
check_repl_delay=0**(默认情况下如果一个slave落后master 超过100M的relay logs的话,MHA将不会选择该slave作为一个新的master, 因为对于这个slave的恢复需要花费很长时间;通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master)**
hostname=192.168.94.8
port=3306
[server3]
hostname=192.168.94.9
port=3306
第一次配置需要在 Master 节点上手动开启虚拟IP
在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully
masterha_check_ssh -conf=/etc/masterha/app1.cnf
在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。
masterha_check_repl -conf=/etc/masterha/app1.cnf
主从都要注释,不需要重启mysql
在 manager 节点上启动 MHA
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
--remove_dead_master_conf:该参数代表当发生主从切换后,老的主库的 ip 将会从配置文件中移除。
--manger_log:日志存放位置。
--ignore_last_failover:在缺省情况下,如果 MHA 检测到连续发生宕机,且两次宕机间隔不足 8 小时的话,则不会进行 Failover, 之所以这样限制是为了避免 ping-pong 效应。该参数代表忽略上次 MHA 触发切换产生的文件,默认情况下,MHA 发生切换后会在日志记录,也就是上面设置的日志app1.failover.complete文件,下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件,为了方便,这里设置为--ignore_last_failover。
查看 MHA 状态,可以看到当前的 master 是 master 节点
masterha_check_status --conf=/etc/masterha/app1.cnf
查看 MHA 日志,也以看到当前的 master
cat /var/log/masterha/app1/manager.log | grep "current master"
查看master 的 VIP 地址 192.168.94.200 是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失**(当发生主备切换时,该地址会自动到主上)**
若要关闭 manager 服务,可以使用如下命令。
masterha_stop --conf=/etc/masterha/app1.cnf
模拟故障
我们主动杀死主数据库,看看效果
正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 master 节点删除。查看 slave1 是否接管 VIP,此时我们要恢复主从,由于192.168.94.8成为主,192.168.94.7需要变成从。并重启启动mha
故障切换备选主库的算法:
一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
数据一致的情况下,按照配置文件顺序,选择备选主库。
设定有权重(candidate_master=1),按照权重强制指定备选主。
(1)默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。
(2)如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。
修复故障
查看主的情况
重启启动mysql
在 manager 节点上修改配置文件app1.cnf(再把这个记录添加进去,因为它检测掉失效时候会自动消失)
修复
在 manager 节点上启动 MHA
修复完成