MySQL的高可用+MHA

MySQL 主从复制高可用架构 ,是一套优秀的MySQL 高可用解决方案 ,由日本 DeNA 公司 youshimaton 开发,主要用于保障 MySQL 数据库在主服务器出现故障时,能快速进行主从切换,减少数据库服务中断时间。

其核心特点包括:

  1. 自动故障检测与切换:通过定期监控主库状态,当主库出现故障(如宕机、网络中断等)时,能自动识别并在从库中选择最合适的节点提升为新主库,整个过程无需人工干预。

  2. 数据一致性保障:在切换过程中,会尽量复制主库未同步到从库的binlog日志,最大程度减少数据丢失;支持GTID(全局事务标识),简化binlog定位与同步流程。

  3. 灵活的候选主库选择:可通过配置指定优先成为新主库的候选节点,优先选择数据最新、负载较低的从库,确保切换后服务稳定。

  4. 低性能损耗:监控过程对MySQL集群性能影响极小,仅通过SSH和MySQL账号进行轻量通信。

  5. 架构简洁:由Manager(管理节点)和Node(数据节点代理)两部分组成,Manager负责监控和决策,Node部署在所有MySQL节点上执行具体操作(如复制管理、binlog处理等)

MHA实现原理

(1)从宕机崩溃的master保存二进制日志事件(binlog events);

(2)识别含有最新更新的slave;

(3)应用差异的中继日志(relay log)到其他的slave;

(4)应用从master保存的二进制日志事件(binlog events);

(5)提升一个slave为新的master;

(6)使其他的slave连接新的master进行复制;


实验步骤

1. 服务器规划(至少3节点)
角色 主机名 IP地址 说明
Master mha-node1 192.168.1.10 主库
Slave1 mha-node2 192.168.1.20 从库(候选主库)
Slave2 mha-node3 192.168.1.60 从库
Manager mha-manager 192.168.1.40 MHA管理节点(独立服务器)
2. 基础配置(所有节点)
复制代码
# 关闭防火墙
systemctl stop firewalld && systemctl disable firewalld

# 关闭SELinux
setenforce 0
sed -i 's/SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config

# 配置hosts(所有节点一致)

cat >> /etc/hosts << EOF
192.168.1.10 mha-node1
192.168.1.20 mha-node2
192.168.1.60 mha-node3
192.168.1.40 mha-manager
EOF

# 配置SSH免密登录(manager节点需免密登录所有数据库节点,数据库节点间也需互信)所有节点执行
ssh-keygen -t rsa -N '' -f ~/.ssh/id_rsa
nodes=("mha-manager" "mha-node1" "mha-node2" "mha-node3")
for host in "${nodes[@]}"; do
  ssh-copy-id -i ~/.ssh/id_rsa.pub $host
done
执行时,会提示输入目标节点的登录密码(每个节点第一次执行时需要)。
就是我们登录不同设备的密码

解释上面的ssh免密登录,不用做

复制代码
在当前节点生成 SSH 密钥对
登录到一个节点(例如先在mha-manager执行,之后再依次在mha-node1、mha-node2、mha-node3重复),执行以下命令生成密钥(无密码):
bash
# 生成RSA密钥对,-N ''表示空密码,-f指定密钥文件路径
ssh-keygen -t rsa -N '' -f ~/.ssh/id_rsa

执行后会在~/.ssh/目录下生成id_rsa(私钥)和id_rsa.pub(公钥)。
将当前节点的公钥分发到所有其他节点
同样在当前节点,执行以下命令,将其公钥复制到包括自身在内的所有节点(确保所有节点的 hostname 能被解析,或用 IP 替代):
bash
# 定义所有节点的列表(包括当前节点自己)
nodes=("mha-manager" "mha-node1" "mha-node2" "mha-node3")

# 循环分发公钥到每个节点
for host in "${nodes[@]}"; do
  # 输入目标节点的密码(首次需要,后续免密)
  ssh-copy-id -i ~/.ssh/id_rsa.pub $host
done

执行时,会提示输入目标节点的登录密码(每个节点第一次执行时需要)。
ssh-copy-id的作用是将当前节点的id_rsa.pub内容追加到目标节点的~/.ssh/authorized_keys文件中。
在所有节点重复上述步骤
登录到下一个节点(例如mha-node1),重复步骤 1 和步骤 2,将其公钥分发到包括mha-manager、mha-node2、mha-node3在内的所有节点。
依次对mha-node2、mha-node3执行相同操作。
验证免密登录
在任意节点上,尝试 SSH 连接其他节点,若无需输入密码则表示配置成功:
bash
# 例如在mha-manager上测试连接mha-node1
ssh mha-node1

# 在mha-node1上测试连接mha-node2
ssh mha-node2
注意事项
节点 hostname 解析:确保所有节点的/etc/hosts文件中配置了彼此的 hostname 和 IP 映射,例如:
bash
# 所有节点的/etc/hosts都添加以下内容(IP替换为实际地址)
192.168.1.10 mha-manager
192.168.1.11 mha-node1
192.168.1.12 mha-node2
192.168.1.13 mha-node3


权限问题:SSH 对权限敏感,需确保相关文件权限正确:
bash
chmod 700 ~/.ssh               # .ssh目录权限必须为700
chmod 600 ~/.ssh/authorized_keys  # 授权文件权限必须为600


避免重复操作:如果节点数量较多,可编写一个脚本批量执行(但首次仍需手动输入各节点密码)。

二、部署MySQL 8.0主从复制

安装好mysql

配置MySQL(主从差异化配置)
建议采用GTID依赖 :建议开启GTID,减少MHA切换时的binlog定位复杂度。
Master(mha-node1)配置
复制代码
vim  /etc/my.cnf
[mysqld]
# ...
# 在默认配置下方添加:
server-id=11  # 唯一ID
log_bin=mysql-bin  # 开启binlog
binlog_format=ROW  # ROW模式(MHA推荐)
gtid_mode=ON  # 开启GTID
enforce_gtid_consistency=ON  # 强制GTID一致性
log_slave_updates=ON  # 从库同步时记录binlog(用于级联复制)
skip_name_resolve=ON  # 跳过域名解析

systemctl restart mysqld

可直接复制
server-id=11
log_bin=mysql-bin  
binlog_format=ROW  
gtid_mode=ON  
enforce_gtid_consistency=ON  
log_slave_updates=ON  
skip_name_resolve=ON
Slave(mha-node2/mha-node3)配置
复制代码
# mha-node2(server-id=12)
vim  /etc/my.cnf
[mysqld]
# ...
server-id=12  # 唯一ID(mha-node3设为13)
log_bin=mysql-bin
binlog_format=ROW
gtid_mode=ON
enforce_gtid_consistency=ON
log_slave_updates=ON
skip_name_resolve=ON
relay_log=relay-bin  # 开启中继日志
read_only=ON  # 从库只读(可选)

systemctl restart mysqld

可复制
server-id=12
log_bin=mysql-bin
binlog_format=ROW
gtid_mode=ON
enforce_gtid_consistency=ON
log_slave_updates=ON
skip_name_resolve=ON
relay_log=relay-bin
read_only=ON

server-id=14
log_bin=mysql-bin
binlog_format=ROW
gtid_mode=ON
enforce_gtid_consistency=ON
log_slave_updates=ON
skip_name_resolve=ON
relay_log=relay-bin
read_only=ON
3. 搭建主从复制(基于GTID)
在Master(mha-node1)创建复制用户
复制代码
-- MySQL 8.0默认认证插件为caching_sha2_password,MHA需用mysql_native_password
CREATE USER 'repl'@'192.168.1.%' IDENTIFIED WITH mysql_native_password BY 'Repl@123';
GRANT REPLICATION SLAVE ON *.* TO 'repl'@'192.168.1.%';
FLUSH PRIVILEGES;
在Slave(mha-node2/mha-node3)配置复制
复制代码
-- 登录Slave的MySQL
CHANGE MASTER TO
  MASTER_HOST='mha-node1',
  MASTER_USER='repl',
  MASTER_PASSWORD='Repl@123',
  MASTER_PORT=3306,
  MASTER_AUTO_POSITION=1;  # 基于GTID自动定位

-- 启动复制
START SLAVE;

-- 检查复制状态(确保Slave_IO_Running和Slave_SQL_Running均为Yes)
SHOW SLAVE STATUS\G;

可复制
CHANGE MASTER TO
  MASTER_HOST='mha-node1',
  MASTER_USER='repl',
  MASTER_PASSWORD='Repl@123',
  MASTER_PORT=3306,
  MASTER_AUTO_POSITION=1;

三、部署MHA

1. 安装依赖(所有节点)

CentOS7安装依赖

复制代码
# 安装wget
yum install -y wget
这时候需要先把ip改成dhcp
# 配置网络Yum源
wget -O /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-7.repo
# 配置Yum扩展源
wget -O /etc/yum.repos.d/epel.repo https://mirrors.aliyun.com/repo/epel-7.repo
# 安装Perl依赖(MHA基于Perl开发)
yum install -y perl-DBD-MySQL perl-CPAN perl-Config-Tiny perl-Log-Dispatch perl-Parallel-ForkManager perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker
yum install -y perl-Email-Sender perl-Email-Valid perl-Mail-Sender

Ubuntu22.04安装依赖包

复制代码
sudo apt install -y perl libdbi-perl libdbd-mysql-perl libperl-dev libconfig-tiny-perl liblog-dispatch-perl libparallel-forkmanager-perl
2. 安装MHA包
下载MHA源码包
复制代码
# 在教室可以使用局域网下载
# 管理节点下载
wget http://192.168.56.200/Software/mha4mysql-manager-0.58.tar.gz
# 所有节点下载
wget http://192.168.56.200/Software/mha4mysql-node-0.58.tar.gz

# github下载
# 管理节点下载
# wget https://github.com/yoshinorim/mha4mysql-manager/releases/download/v0.58/mha4mysql-manager-0.58.tar.gz
# 所有节点下载
# wget https://github.com/yoshinorim/mha4mysql-node/releases/download/v0.58/mha4mysql-node-0.58.tar.gz
安装MHA Node(所有节点)管理节点也要做这个不然下一个步骤装不成功
复制代码
tar -zxvf mha4mysql-node-0.58.tar.gz
cd mha4mysql-node-0.58
perl Makefile.PL
make && make install
安装MHA Manager(仅manager节点)
复制代码
tar -zxvf mha4mysql-manager-0.58.tar.gz
cd mha4mysql-manager-0.58
perl Makefile.PL
make && make install

# 创建MHA工作目录
mkdir -p /etc/mha/mha_cluster /var/log/mha/mha_cluster
创建MHA配置文件(manager节点)
复制代码
vim /etc/mha/mha_cluster.cnf 

[server default]
user=mha_user        # MHA管理用户(需在所有MySQL节点创建)
password=Mha@123
ssh_user=root        # SSH登录用户
repl_user=repl        # MySQL复制用户
repl_password=Repl@123
ping_interval=1        # 健康检查间隔(秒)
master_binlog_dir=/usr/local/mysql/data        # master的binlog目录
remote_workdir=/tmp        # 远程节点临时目录
secondary_check_script=masterha_secondary_check -s mha-node2 -s mha-node3        # 二次检查节点
manager_workdir=/var/log/mha/mha_cluster        # manager工作目录
manager_log=/var/log/mha/mha_cluster/manager.log        # manager日志

[server1]
hostname=mha-node1
port=3306
candidate_master=0        # 不优先作为候选主库

[server2]
hostname=mha-node2
port=3306
candidate_master=1        # 优先作为候选主库(数据最新时)
check_repl_delay=0        # 忽略复制延迟,强制作为候选

[server3]
hostname=mha-node3
port=3306
candidate_master=0

可复制
[server default]
user=mha_user
password=Mha@123
ssh_user=root
repl_user=repl
repl_password=Repl@123
ping_interval=1
master_binlog_dir=/usr/local/mysql/data
remote_workdir=/tmp
secondary_check_script=masterha_secondary_check -s mha-node2 -s mha-node3
manager_workdir=/var/log/mha/mha_cluster
manager_log=/var/log/mha/mha_cluster/manager.log

[server1]
hostname=mha-node1
port=3306
candidate_master=0
[server2]
hostname=mha-node2
port=3306
candidate_master=1
check_repl_delay=0
[server3]
hostname=mha-node3
port=3306
candidate_master=0
创建MHA管理用户,因为前面做了主从所以只在主上做就好了(所有MySQL节点)
复制代码
CREATE USER 'mha_user'@'192.168.1.%' IDENTIFIED BY 'Mha@123';
GRANT ALL PRIVILEGES ON *.* TO 'mha_user'@'192.168.1.%';
FLUSH PRIVILEGES;

四、验证MHA配置

1. 检查SSH连接(manager节点)
复制代码
masterha_check_ssh --conf=/etc/mha/mha_cluster.cnf
# 输出"All SSH connection tests passed successfully."即为正常
2. 检查主从复制(manager节点)
复制代码
masterha_check_repl --conf=/etc/mha/mha_cluster.cnf
# 输出"MySQL Replication Health is OK."即为正常

五、启动MHA Manager

复制代码
# 前台启动(测试用,日志实时输出)
masterha_manager --conf=/etc/mha/mha_cluster.cnf

# 后台启动(生产用)
nohup masterha_manager --conf=/etc/mha/mha_cluster.cnf > /var/log/mha/mha_cluster/nohup.log 2>&1 &

# 检查MHA状态
masterha_check_status --conf=/etc/mha/mha_cluster.cnf
# 输出"mha_cluster (pid: xxxx) is running(0:PING_OK)"即为正常运行

GTID依赖 :建议开启GTID,减少MHA切换时的binlog定位复杂度。

启动报错:排错(因为这个版本我做的时候主从复制采用的二进制,出了一堆错,现在还没解决所以我打算换一种复制方法。重新做)我现在照着前面文档做了一次,做成功了,有机会再拍这个错~(其实是失去了所有力气和手段了,算了吧,能做出来就可以了)

错误1:

他显示删除用户失败,这个用户是我之前创的,没用我就直接删了,但是反而报错了,这时候需要检查是否真的删除了。这时候看了一下主从复制这里也报错了,所以直接排查主从复制的错误。最后我通过跳过执行成功了,因为真的没有这个用户了。

1. 确认用户是否真的不存在

先通过更全面的查询确认是否有类似用户:

复制代码
-- 检查所有以'rep'为用户名的记录
SELECT user, host FROM mysql.user WHERE user LIKE 'rep';

-- 检查权限表中是否有残留记录
SELECT * FROM mysql.db WHERE user = 'rep';
SELECT * FROM mysql.tables_priv WHERE user = 'rep';
SELECT * FROM mysql.columns_priv WHERE user = 'rep';

2. 清理残留权限记录(如果有)

如果上述查询发现残留记录,手动删除并刷新权限:

复制代码
-- 删除残留的数据库级权限
DELETE FROM mysql.db WHERE user = 'rep';

-- 删除残留的表级权限
DELETE FROM mysql.tables_priv WHERE user = 'rep';

-- 刷新权限
FLUSH PRIVILEGES;

3. 解决复制环境中的问题

如果这是从库(slave)的错误,可能是主库执行过 DROP USER 但从库无此用户导致的复制中断:

方法 A:跳过这个错误(临时解决)
复制代码
-- MySQL 5.6及以下
STOP SLAVE;
SET GLOBAL sql_slave_skip_counter = 1;
START SLAVE;

-- MySQL 5.7及以上(GTID模式)
STOP SLAVE;
SET GTID_NEXT = 'AUTOMATIC';
START SLAVE;
方法 B:在从库手动创建再删除用户
复制代码
-- 在从库执行
CREATE USER 'rep'@'%' IDENTIFIED BY '任意密码';
DROP USER 'rep'@'%';
FLUSH PRIVILEGES;

-- 然后重启复制
STOP SLAVE;
START SLAVE;
错误2

主要问题是 masterha_manager 启动后立即停止(状态为 NOT RUNNING,结合提示和常见 MHA 启动失败场景,可从以下方面排查:

查看报错日志:/var/log/mha/mha_cluster/manager.log

复制代码
Thu Aug 21 09:34:50 2025 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln359] Slave configurations is not valid.
Thu Aug 21 09:34:50 2025 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln427] Error happened on checking configurations.  at /usr/local/bin/masterha_manager line 50.
Thu Aug 21 09:34:50 2025 - [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln525] Error happened on monitoring servers.
Thu Aug 21 09:34:50 2025 - [info] Got exit code 1 (Not master dead).

六、测试故障切换

1. 模拟Master故障(在mha-node1执行)
复制代码
systemctl stop mysqld  # 停止主库服务
2. 观察故障切换(manager节点日志)
复制代码
tail -f /var/log/mha/mha_cluster/manager.log
# 正常情况下,日志会显示:
# - 检测到master故障
# - 提升mha-node2为新master
# - 其他slave(mha-node3)指向新master
3. 验证切换结果
复制代码
# 在新master(mha-node2)查看状态
mysql -uroot -p -e "SELECT @@server_id, @@read_only;"
# 应显示server_id=12,read_only=OFF 或者0

# 在mha-node3查看复制状态
mysql -uroot -p -e "SHOW SLAVE STATUS\G"
# 应显示Master_Host为mha-node2,且复制正常

七、故障恢复后处理

  1. 修复原master(mha-node1),重新安装MySQL并配置为新master(mha-node2)的从库。

  2. 重新启动MHA Manager(故障切换后Manager会自动退出):

    nohup masterha_manager --conf=/etc/mha/mha_cluster.cnf > /var/log/mha/mha_cluster/nohup.log 2>&1 &

恢复步骤

mha-node1启动服务

获取 mha-node2 的 binlog 位置

mha-node2 上执行,记录 FilePosition(用于 mha-node1 同步起点):

复制代码
SHOW MASTER STATUS;

mha-node1 上配置从库同步

登录 mha-node1 的 MySQL,设置同步源为 mha-node2

复制代码
CHANGE MASTER TO
  MASTER_HOST = '192.168.1.20', 
  MASTER_USER = 'repl',
  MASTER_PASSWORD = 'Repl@123',
  MASTER_PORT = 3306,
  MASTER_LOG_FILE = 'mysql-bin.000001',
  MASTER_LOG_POS = 2866;  

验证同步状态

mha-node1 上执行,确保 Slave_IO_RunningSlave_SQL_Running 均为 Yes

复制代码
SHOW SLAVE STATUS\G

四、手动触发主库切换(可选,若需立即切回)

若需主动将主库切回 mha-node1,在 manager 节点执行手动故障转移(模拟主库故障,强制切换):

复制代码
# 停止当前 MHA Manager(若正在运行)
masterha_stop --conf=/etc/mha/mha_cluster.cnf

# 执行手动故障转移,指定目标主库为 mha-node1
masterha_master_switch --conf=/etc/mha/mha_cluster.cnf \
    --master_state=alive \
    --new_master_host=mha-node1 \
    --interactive=0

五、重启 MHA Manager 监控

故障切换后,重启 MHA Manager 以监控新的主从架构:

复制代码
nohup masterha_manager --conf=/etc/mha/mha_cluster.cnf > /var/log/mha/mha_cluster/nohup.log 2>&1 &

六、验证最终主库状态

manager 节点检查 MHA 状态,确认主库已切回 mha-node1

复制代码
masterha_check_status --conf=/etc/mha/mha_cluster.cnf

同时在从库mha-node3执行 SHOW SLAVE STATUS\G,确保同步源已指向 mha-node1

如果我们想让2接着当备胎,那么就是重复上述步骤,将2设置为1的备重新再配置一下

复制代码
CHANGE MASTER TO
  MASTER_HOST='mha-node1',
  MASTER_USER='repl',
  MASTER_PASSWORD='Repl@123',
  MASTER_PORT=3306,
  MASTER_AUTO_POSITION=1;

现在就恢复到了第五大步做完时候的样子了!!喜大普奔

报错提示:

Last_Error: Error 'Operation CREATE USER failed for 'mha_user'@'192.168.68.%'' on query. Default database: ''. Query: 'CREATE USER 'mha_user'@'192.168.68.%' IDENTIFIED WITH 'mysql_native_password' AS '*B0878D325DEBC019F3AB1BC3522CC9310F887A9B'

这时候我们需要哦

SHOW SLAVE STATUS\G

找到 Retrieved_Gtid_Set: c81dbb0b-7c0f-11f0-ab4d-000c296e2d0c:1-6

Executed_Gtid_Set: c81dbb0b-7c0f-11f0-ab4d-000c296e2d0c:1-6,

e64cc74a-79a3-11f0-aa84-000c29ad973b:1-3

复制代码
1. 已获取的 GTID 范围(Retrieved_Gtid_Set)
从 SHOW SLAVE STATUS\G 中可知:
plaintext
Retrieved_Gtid_Set: c81dbb0b-7c0f-11f0-ab4d-000c296e2d0c:1-6
这表示从库已经从主库完整接收了 GTID 为 c81dbb0b-... 的 1-6 号事务(即主库执行过这 6 个事务,且从库已下载到本地)。
2. 已执行的 GTID 范围(Executed_Gtid_Set)
同时,从库已执行的事务是:
plaintext
Executed_Gtid_Set: c81dbb0b-7c0f-11f0-ab4d-000c296e2d0c:1-3, ...

这表示从库只成功执行了 GTID 为 c81dbb0b-... 的 1-3 号事务,而 4-6 号事务尚未执行(或执行失败)。
3. 错误位置推断
结合错误信息 Last_SQL_Error 可知,从库在执行某条 SQL 时失败(创建用户冲突)。由于:
1-3 号事务已成功执行(Executed_Gtid_Set 包含)
4-6 号事务已接收但未执行(Retrieved_Gtid_Set 包含,Executed_Gtid_Set 不包含)
因此,第一个执行失败的事务必然是第 4 号事务,对应的 GTID 就是 c81dbb0b-7c0f-11f0-ab4d-000c296e2d0c:4。
简单说就是:已接收的事务范围(1-6)减去已成功执行的范围(1-3),第一个未执行的就是失败的事务(4)。

-- 停止从库复制
STOP SLAVE;

-- 指定要跳过的GTID事务
SET GTID_NEXT = 'c81dbb0b-7c0f-11f0-ab4d-000c296e2d0c:4';

-- 执行空事务跳过该GTID
BEGIN; COMMIT;

-- 恢复自动同步模式
SET GTID_NEXT = 'AUTOMATIC';

-- 重启复制
START SLAVE;

-- 验证同步状态(确保Slave_SQL_Running变为Yes)
SHOW SLAVE STATUS\G

注意事项

  1. MySQL 8.0兼容性 :需使用MHA 0.58版本,且用户认证插件必须为mysql_native_password
  2. GTID依赖 :建议开启GTID,减少MHA切换时的binlog定位复杂度。
  3. 候选主库选择candidate_master=1的节点应尽量与原master数据一致(复制延迟小)。
  4. 日志监控:定期检查MHA日志,及时发现潜在问题(如SSH连接失败、复制延迟等)。

后面的内容我没试,可以看一下了解一下

MHA与VIP(虚拟IP)集成配置

在MHA架构中,虽然其核心功能是实现主从自动切换,但应用程序通常通过固定IP地址连接数据库。为避免主库切换后需手动修改应用连接地址,可引入VIP(虚拟IP) 实现IP漂移------VIP始终绑定当前主库节点,切换时自动迁移至新主库,确保应用无感知。

"虚拟 IP"(Virtual IP,简称 VIP)是一个在网络技术中常见的概念,指的是不直接绑定到特定物理网络接口(如网卡)的 IP 地址,而是通过软件或网络设备(如路由器、负载均衡器)逻辑分配和管理的 IP 地址。它的核心作用是实现网络服务的高可用性、负载均衡、故障转移等功能。

一、VIP规划与原理

1.VIP设定 :为MHA集群分配一个独立的虚拟IP(如192.168.8.100),不直接绑定到某台物理机,而是随主库节点动态迁移。

2.实现逻辑 :通过MHA的master_ip_failover脚本,在主库故障切换时自动执行以下操作:

  • 从原主库(故障节点)移除VIP;
  • 在新主库(提升的slave)绑定VIP;
  • 确保VIP在网络中唯一,避免冲突。
二、VIP配置步骤
1. 环境准备(所有节点)

确保所有节点支持VIP配置,关闭网络管理工具(如NetworkManager)对VIP的干扰:

复制代码
# 关闭NetworkManager(避免自动清理VIP)
systemctl stop NetworkManager && systemctl disable NetworkManager

# 安装arping工具(用于发送ARP广播,刷新网络缓存)
# CentOS
yum install -y arping
# Ubuntu
apt install -y arping
2. 编写VIP切换脚本

在MHA Manager节点创建master_ip_failover脚本(用于控制VIP漂移),路径为/etc/mha/master_ip_failover

复制代码
#!/usr/bin/perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;

# VIP配置
my $vip = '192.168.8.100/24';  # 虚拟IP及子网掩码
my $key = '0';                 # 虚拟网卡标识(如需)
my $dev = 'eth0';              # 物理网卡名称(根据实际环境修改)

# 解析MHA传递的参数
my ($command, $ssh_user, $orig_master_host, $orig_master_ip, $orig_master_port, $new_master_host, $new_master_ip, $new_master_port);
GetOptions(
  'command=s' => \$command,
  'ssh_user=s' => \$ssh_user,
  'orig_master_host=s' => \$orig_master_host,
  'orig_master_ip=s' => \$orig_master_ip,
  'orig_master_port=i' => \$orig_master_port,
  'new_master_host=s' => \$new_master_host,
  'new_master_ip=s' => \$new_master_ip,
  'new_master_port=i' => \$new_master_port,
);

# 执行VIP操作的函数
sub exec_cmd {
  my $cmd = shift;
  my $result = system($cmd);
  if ($result != 0) {
    die "Failed to execute: $cmd\n";
  }
}

# 从原主库移除VIP
if ($command eq "stop" || $command eq "stopssh") {
  print "Removing VIP $vip from old master $orig_master_host...\n";
  exec_cmd("ssh $ssh_user\@$orig_master_host \"ip addr del $vip dev $dev; arping -c 3 -I $dev $vip\"");
}

# 在新主库绑定VIP
elsif ($command eq "start") {
  print "Adding VIP $vip to new master $new_master_host...\n";
  exec_cmd("ssh $ssh_user\@$new_master_host \"ip addr add $vip dev $dev; arping -c 3 -I $dev $vip\"");
}

# 忽略其他命令
elsif ($command eq "status") {
  exit 0;
}

exit 0;

给脚本添加执行权限:

复制代码
chmod +x /etc/mha/master_ip_failover
3. 集成VIP脚本到MHA配置

修改MHA配置文件/etc/mha/mha_cluster.cnf,添加VIP脚本路径:

复制代码
[server default]
# ... 原有配置 ...
# 添加VIP切换脚本
master_ip_failover_script=/etc/mha/master_ip_failover
4. 初始化VIP(首次部署)

手动在当前主库(mha-node1)绑定VIP:

复制代码
# 在mha-node1执行
ip addr add 192.168.8.100/24 dev eth0  # 绑定VIP到网卡
arping -c 3 -I eth0 192.168.8.100     # 发送ARP广播,通知网络设备更新缓存

验证VIP绑定:

复制代码
ip addr show eth0 | grep 192.168.8.100
# 输出包含"192.168.8.100/24"即为成功
三、验证VIP漂移功能
1. 重启MHA Manager

使VIP配置生效:

复制代码
# 先停止原有MHA进程
masterha_stop --conf=/etc/mha/mha_cluster.cnf

# 后台重启
nohup masterha_manager --conf=/etc/mha/mha_cluster.cnf > /var/log/mha/mha_cluster/nohup.log 2>&1 &
2. 模拟主库故障(同前文步骤)

在原主库(mha-node1)停止MySQL服务:

复制代码
systemctl stop mysqld
3. 检查VIP漂移结果
  • 查看MHA日志:确认脚本执行成功

    tail -f /var/log/mha/mha_cluster/manager.log

    应包含"Removing VIP from old master"和"Adding VIP to new master"的成功日志

  • 验证新主库VIP:在mha-node2(新主库)执行

    ip addr show eth0 | grep 192.168.8.100

    输出包含VIP即为漂移成功

  • 应用连接测试:通过VIP连接数据库,验证可用性

    mysql -h 192.168.8.100 -u root -p

    能成功登录即表示应用无感知切换

四、VIP配置注意事项
  1. 网络兼容性:确保交换机、防火墙支持VIP漂移(允许同一IP在不同节点间切换),避免因网络策略导致VIP不可用。
  2. ARP缓存刷新 :脚本中arping命令用于强制更新网络中其他设备的ARP缓存,必须添加,否则可能出现VIP切换后短时间无法访问的问题。
  3. 脚本权限master_ip_failover脚本需保证MHA Manager用户(通常为root)有执行权限,且SSH免密登录对所有节点生效(否则脚本无法远程执行命令)。
  4. 故障恢复后处理 :原主库修复后,需手动将其作为新主库的从库,不要手动绑定VIP(VIP应由MHA脚本自动管理)。

通过集成VIP,MHA集群可实现"主库切换+IP漂移"全自动化,进一步降低故障对应用的影响,提升整体高可用能力。

8.21 超级不开心的一上午,好累

相关推荐
牛角上的男孩1 小时前
apt update Ign and 404 Not Found
开发语言·数据库
帧栈4 小时前
开发避坑指南(29):微信昵称特殊字符存储异常修复方案
java·mysql
差不多的张三5 小时前
【解决方案】powershell自动连接夜神adb端口
数据库·adb
小马哥编程6 小时前
【软考架构】第6章 数据库基本概念
数据库·oracle·架构
自学也学好编程6 小时前
【数据库】PostgreSQL详解:企业级关系型数据库
数据库·postgresql
.Eyes8 小时前
OceanBase 分区裁剪(Partition Pruning)原理解读
数据库·oceanbase
苹果醋38 小时前
Java并发编程-Java内存模型(JMM)
java·运维·spring boot·mysql·nginx
MrZhangBaby9 小时前
SQL-leetcode— 2356. 每位教师所教授的科目种类的数量
数据库
一水鉴天9 小时前
整体设计 之定稿 “凝聚式中心点”原型 --整除:智能合约和DBMS的在表层挂接 能/所 依据的深层套接 之2
数据库·人工智能·智能合约