1、MHA的定义
MHA是高可用模式下的故障切换,基于主从复制
解决单点故障和主从复制不能切换的问题
至少需要3台
故障切换过程0-30秒
根据vip地址所在的主机确定主备,主备不是优先级确定的,主从复制的时候就决定了主,备是在MHA的过程中确定的
2、MHA的组件
MHA node:数据节点,每台mysql和管理服务器都要安装,监控服务器状态以及收集数据
MHA manager:管理节点,管理mysql的高可用集群,可以单独部署在一台独立的服务器,也可以部署多个。实现主和备之间的切换,主发生故障,切换到备
3、MHA的特点
1、通过manager实现主备切换
2、数据同步依靠二进制日志,最大程度保证数据的完整
3、半同步的方式实现,为了实现数据的完整性
支持一主多从的架构,至少需要3台
4、MHA的工作原理
1、从宕机崩溃的master保存二进制日志事件(binlog events);
2、识别含有最新的更新 slave 日志
3、应用差异的中继日志(relay log)到其他的slave
4、应用从master保存的二进制日志事件
5、提升一个 salve 为新的master
6、使其他的slave连接行的master 进行复制
5、实验
5.1MHA架构
master 192.168.230.21 mysql8.0 node组件
slave1 192.168.230.22 mysql8.0 node组件
slave2 192.168.230.23 mysql8.0 node组件
管理节点 192.168.230.10 node组件 manager组件
sql
systemctl stop firewalld
setenforce 0
1.Master、Slave1、Slave2 节点上安装 mysql5.7
2.修改 Master、Slave1、Slave2 节点的主机名
hostnamectl set-hostname Master
hostnamectl set-hostname Slave1
hostnamectl set-hostname Slave2
3.修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf
##Master 节点##
vim /etc/my.cnf
[mysqld]
server-id = 1
log_bin = master-bin
binlog_format = MIXED
log_bin = master-bin
#用于记录主服务器上的更改操作的日志文件。
这个配置用于主服务器,将生成的二进制日志文件保存为"master-bin"(可以是其他自定义的名称)。
log-slave-updates = true:
#从服务器是否要记录它自己执行的更改操作到自己的二进制日志文件中。
设置为"true"表示从服务器会记录自己执行的更改操作,将其写入从服务器的二进制日志文件中。
relay_log_recovery = 1
systemctl restart mysqld
##Slave1 节点##
vim /etc/my.cnf
server-id = 2 #三台服务器的 server-id 不能一样
log_bin = master-bin
binlog_format = MIXED
log_bin = master-bin
#指定主服务器(master)的二进制日志文件名称,用于记录主服务器上的更改操作的日志文件。
relay-log = relay-log-bin:
#指定从服务器的中继日志文件名称,即用于记录主服务器的二进制日志在从服务器上执行的中继日志。
从服务器会读取主服务器的二进制日志并将其记录到中继日志中。这个配置用于从服务器。
relay-log-index = slave-relay-bin.index:
#指定从服务器的中继日志索引文件的名称,该索引文件用于跟踪中继日志文件的位置和顺序。
通过这个索引文件,从服务器知道哪个中继日志文件是下一个要读取和执行的。这个配置用于从服务器。
relay_log_recovery = 1
systemctl restart mysqld
###Slave2 节点##
vim /etc/my.cnf #三台服务器的 server-id 不能一样
server-id = 3
log_bin = master-bin
binlog_format = MIXED
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
relay_log_recovery = 1
#slave2不用设置master,指定主的备服务器为slave1即可。
systemctl restart mysqld
4.在 Master、Slave1、Slave2 节点上都创建两个软链接
ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
5.配置 mysql 一主两从
(1)所有数据库节点进行 mysql 授权
mysql -uroot -p123456
#从数据库同步使用
CREATE USER 'myslave'@'192.168.233.%' IDENTIFIED WITH mysql_native_password BY '123456';
GRANT REPLICATION SLAVE ON *.* TO 'myslave'@'192.168.233.%';
#manager 使用
CREATE USER 'mha'@'192.168.233.%' IDENTIFIED WITH mysql_native_password BY 'manager';
GRANT ALL PRIVILEGES ON *.* TO 'mha'@'192.168.233.%' WITH GRANT OPTION;
#防止从库通过主机名连接不上主库
CREATE USER 'mha'@'master' IDENTIFIED WITH mysql_native_password BY 'manager';
GRANT ALL PRIVILEGES ON *.* TO 'mha'@'master';
CREATE USER 'mha'@'slave1' IDENTIFIED WITH mysql_native_password BY 'manager';
GRANT ALL PRIVILEGES ON *.* TO 'mha'@'slave1';
CREATE USER 'mha'@'slave2' IDENTIFIED WITH mysql_native_password BY 'manager';
GRANT ALL PRIVILEGES ON *.* TO 'mha'@'slave2';
flush privileges;
#在 Master 节点查看二进制文件和同步点
show master status;
#在slave1、slave2节点执行同步操作
change master to master_host='192.168.230.21',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=2921;
start slave;
在 Slave1、Slave2 节点查看数据同步结果
show slave status\G;
确保 IO 和 SQL 线程都是 Yes,代表同步正常。
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
#两个从库必须设置为只读模式
set global read_only=1;
6.安装 MHA 软件
(1)所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源
yum install epel-release --nogpgcheck -y
yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
(2)安装 MHA 软件包,先在所有服务器上必须先安装 node 组件
对于每个操作系统版本不一样,这里 CentOS7.6选择 0.57 版本。
在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件,
因为 manager 依赖 node 组件。
cd /opt
tar zxvf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl Makefile.PL
make && make install
(3)在 MHA manager 节点上安装 manager 组件
cd /opt
tar zxvf mha4mysql-manager-0.57.tar.gz
cd mha4mysql-manager-0.57
perl Makefile.PL
make && make install
-------------------------------------------------------------------------------------------------------------------------
manager 组件安装后在/usr/local/bin 下面会生成几个工具,主要包括以下几个:
masterha_check_ssh
#检查 MHA 的 SSH 配置状况
masterha_check_repl
#检查 MySQL 复制状况
masterha_manger
#启动 manager的脚本
masterha_check_status
#检测当前 MHA 运行状态
masterha_master_monitor
#检测 master 是否宕机
masterha_master_switch
#控制故障转移(自动或者 手动)
masterha_conf_host
#添加或删除配置的 server 信息
masterha_stop
#关闭manager
-------------------------------------------------------------------------------------------------------------------------
#node 组件安装后也会在/usr/local/bin 下面会生成几个脚本
(这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下:
save_binary_logs
#保存和复制 master 的二进制日志
apply_diff_relay_logs
#识别差异的中继日志事件并将其差异的事件应用于其他的 slave
filter_mysqlbinlog
#去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)
purge_relay_logs
#清除中继日志(不会阻塞 SQL 线程)
-------------------------------------------------------------------------------------------------------------------------
7.在所有服务器上配置无密码认证
(1)在 manager 节点上配置到所有数据库节点的无密码认证
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.233.21
ssh-copy-id 192.168.233.22
ssh-copy-id 192.168.233.23
(2)在 master 上配置到数据库节点 slave1 和 slave2 的无密码认证
ssh-keygen -t rsa
ssh-copy-id 192.168.233.22
ssh-copy-id 192.168.233.23
(3)在 slave1 上配置到数据库节点 master 和 slave2 的无密码认证
ssh-keygen -t rsa
ssh-copy-id 192.168.233.21
ssh-copy-id 192.168.233.23
(4)在 slave2 上配置到数据库节点 master 和 slave1 的无密码认证
ssh-keygen -t rsa
ssh-copy-id 192.168.233.21
ssh-copy-id 192.168.233.22
8.在 manager 节点上配置 MHA
(1)在 manager 节点上复制相关脚本到/usr/local/bin 目录
cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
//拷贝后会有四个执行文件
ll /usr/local/bin/scripts/
-------------------------------------------------------------------------------------------------------------------------
master_ip_failover
#自动切换时 VIP 管理的脚本
master_ip_online_change
#在线切换时 vip 的管理
power_manager
#故障发生后关闭主机的脚本
send_report
#因故障切换后发送报警的脚本
-------------------------------------------------------------------------------------------------------------------------
(2)复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录,
这里使用master_ip_failover脚本来管理 VIP 和故障切换
cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin
(3)修改内容如下:(删除原有内容,直接复制并修改vip相关参数)
vim /usr/local/bin/master_ip_failover
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
my $vip = '192.168.230.100';
#指定vip的地址
my $brdc = '192.168.230.255';
#指定vip的广播地址
my $ifdev = 'ens33';
#指定vip绑定的网卡
my $key = '1';
#指定vip绑定的虚拟网卡序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";
#代表此变量值为ifconfig ens33:1 192.168.233.100
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";
#代表此变量值为ifconfig ens33:1 192.168.233.100 down
my $exit_code = 0;
#指定退出状态码为0
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
### A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
管理mysql主从复制设置中的虚拟ip故障切换而设计的,可能用于主服务器需要切换到另一台服务器的情景。
它使用ssh在远程服务器上执行命令来控制虚拟ip地址。
4)创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器
mkdir /etc/masterha
cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha
vim /etc/masterha/app1.cnf
[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123456
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.230.22 -s 192.168.230.23
#从对主监听
shutdown_script=""
ssh_user=root
user=mha
[server1]
hostname=192.168.230.21
#主服务器
port=3306
[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.230.22
#备用主服务器
port=3306
[server3]
hostname=192.168.230.23
#从服务器2
port=3306
9.第一次配置需要在 Master 节点上手动开启虚拟IP
/sbin/ifconfig ens33:1 192.168.233.100/24
10.在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully,如下所示。
masterha_check_ssh -conf=/etc/masterha/app1.cnf
11.在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示。
masterha_check_repl -conf=/etc/masterha/app1.cnf
12.在 manager 节点上启动 MHA
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
13.查看 MHA 状态,可以看到当前的 master 是 master 节点。
masterha_check_status --conf=/etc/masterha/app1.cnf
14. 查看 MHA 日志,也以看到当前的 master 是 192.168.233.21,如下所示。
cat /var/log/masterha/app1/manager.log | grep "current master"
15. 查看master 的 VIP 地址 192.168.233.100 是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。
ifconfig
//若要关闭 manager 服务,可以使用如下命令。
masterha_stop --conf=/etc/masterha/app1.cnf
或者可以直接采用 kill 进程 ID 的方式关闭。
5.2故障模拟
主库失效
备选主库成为主库
原故障主库恢复重新加入到MHA成为主库
sql
#查看日志
tail -f /var/log/masterha/app1/manager.log
#关闭master的mysql
systemctl stop mysqld
#查看状态
masterha_check_status --conf=/etc/masterha/app1.cnf
主切换到192.168.230.22
在slave1中创建库,会同步到slave2
create database test3;
#实现故障恢复
#先关闭manager服务
masterha_stop --conf=/etc/masterha/app1.cnf
#修改配置
vim /etc/masterha/app1.cnf
[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123456
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.230.21 -s 192.168.230.23shutdown_script=""
ssh_user=root
user=mha
[server1]
candidate_master=1
check_repl_delay=0
hostname=192.168.230.21
port=3306
[server2]
hostname=192.168.230.22
port=3306
[server3]
hostname=192.168.230.23
port=3306
修改原master的配置文件
vim /etc/my.cnf
[client]
[mysqld]
[client]
port = 3306
socket=/usr/local/mysql/mysql.sock
basedir=/usr/local/mysql
datadir=/usr/local/mysql/data
port = 3306
character-set-server=utf8
pid-file = /usr/local/mysql/mysqld.pid
socket=/usr/local/mysql/mysql.sock
bind-address = 0.0.0.0
skip-name-resolve
max_connections=2048
default-storage-engine=INNODB
max_allowed_packet=16M
server-id = 1
log_bin = master-bin
binlog_format = MIXED
log-slave-updates = true
relay_log_recovery = 1
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
sql_mode = STRICT_TRANS_TABLES,NO_ZERO_IN_DATE,NO_ZERO_DATE,ERROR_FOR_DIVISION_BY_ZERO,NO_ENGINE_SUBSTITUTION
systemctl restart mysqld
#进入slave1
mysql -u root -p123456
#关闭只读模式
set global read_only=0;
#查看主的状态
show master status;
#进入原master
mysql -u root -p123456
#设置只读模式
set global read_only=1;
stop slave;
reset slave;
change master to master_host='192.168.230.22',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=157;
start slave;
show slave status\G;
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
#重启MHA
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
#查看状态
masterha_check_status --conf=/etc/masterha/app1.cnf
app1 (pid:27119) is running(0:PING_OK), master:192.168.230.22
#检查从服务集群的状态
masterha_check_repl -conf=/etc/masterha/app1.cnf
MySQL Replication Health is OK.
#在主库创建库
create database test5;
同步复制到两个从上