MHA实现mysql主从自动切换
原理简介
MHA(Master HA)是一款开源的 MySQL 的高可用程序,它为 MySQL 主从复制架构提供了 automating master failover 功能。MHA 在监控到 master 节点故障时,会提升其中拥有最新数据的 slave 节点成为新的master 节点,在此期间,MHA 会通过于其它从节点获取额外信息来避免一致性方面的问题。MHA 还提供了 master 节点的在线切换功能,即按需切换 master/slave 节点。
MHA 是由日本人 yoshinorim(原就职于DeNA现就职于FaceBook)开发的比较成熟的 MySQL 高可用方案。MHA 能够在30秒内实现故障切换,并能在故障切换中,最大可能的保证数据一致性。目前淘宝也正在开发相似产品 TMHA, 目前已支持一主一从。
一、MHA 服务
MHA 服务有两种角色, MHA Manager(管理节点)和 MHA Node(数据节点):
MHA Manager:
通常单独部署在一*立机器上管理多个 master/slave 集群(组),每个 master/slave 集群称作一个 application,用来管理统筹整个集群。
MHA node:
运行在每台 MySQL 服务器上(master/slave/manager),它通过监控具备解析和清理 logs 功能的脚本来加快故障转移。
主要是接收管理节点所发出指令的代理,代理需要运行在每一个 mysql 节点上。简单讲 node 就是用来收集从节点服务器上所生成的 bin-log 。对比打算提升为新的主节点之上的从节点的是否拥有并完成操作,如果没有发给新主节点在本地应用后提升为主节点。
由上图我们可以看出,每个复制组内部和 Manager 之间都需要ssh实现无密码互连,只有这样,在 Master 出故障时, Manager 才能顺利的连接进去,实现主从切换功能。
二、MHA工作原理
(1) 从宕机崩溃的 master 保存二进制日志事件(binlog events);
(2) 识别含有最新更新的 slave ;
(3) 应用差异的中继日志(relay log) 到其他 slave ;
(4) 应用从 master 保存的二进制日志事件(binlog events);
(5) 提升一个 slave 为新 master ;
(6) 使用其他的 slave 连接新的 master 进行复制。
三、环境分配
机器名称 | ip分配 | 角色分配 | 备注 |
---|---|---|---|
Manager | 192.168.131.87 | Manager控制器 | 用于监控管理 |
master | 192.168.131.83 | 数据库主服务器 | 开启二进制,中继日志 |
slave1 | 192.168.131.84 | 数据库从服务器 | 开启二进制,中继日志 |
slave2 | 192.168.131.85 | 数据库从服务器 | 开启二进制,中继日志 |
四、开始配置搭建
1、修改master节点配置:
vim /etc/my.cnf
server-id = 1
log-bin = mysql-bin
relay-log = relay-log
skip_name_resolve #关闭名称解析(非必须)
重启数据库
systemctl restart mariadb
2、修改slave1节点配置:
vim /etc/my.cnf
server-id = 2
log-bin = mysql-bin #开启二进制日志
relay-log = relay-log #开启中继日志
skip_name_resolve #关闭名称解析(非必须)
relay_log_purge = 0 #是否自动清空不再需要中继日志
log_slave_updates = 1 #使得更新的数据写进二进制日志中
read_only = ON #启用只读属性
重启数据库
systemctl restart mariadb
3、修改slave2节点配置:
vim /etc/my.cnf
server-id = 3
log-bin = mysql-bin #开启二进制日志
relay-log = relay-log #开启中继日志
skip_name_resolve #关闭名称解析(非必须)
relay_log_purge = 0 #是否自动清空不再需要中继日志
log_slave_updates = 1 #使得更新的数据写进二进制日志中
read_only = ON #启用只读属性
重启数据库
systemctl restart mariadb
一主双从搭建参考博客:
https://blog.csdn.net/weixin_52092942/article/details/111387595
4、准备ssh 免密互通:
MHA集群中的各节点彼此之间均需要基于ssh互信通信,以实现远程控制及数据管理功能。简单起见,可在Manager节点生成密钥对儿,并设置其可远程连接本地主机后, 将私钥文件及authorized_keys文件复制给余下的所有节点即可。
所有节点都需要执行:
ssh-keygen -t rsa
ssh-copy-id -i .ssh/id_rsa.pub root@192.168.131.87
Manger节点执行:
查看这个文件里有没有4台节点的公钥,然后我们只需要把这个文件发送至另外三台机器,这四台机器就可以实现 ssh 无密码互通了:
任意一台机器登录测试:
5、MHA配置Manger节点:
在 master 上进行授权
在所有 Mysql 节点授权拥有管理权限的用户可在本地网络中有其他节点上远程访问。 当然, 此时仅需要且只能在 master 节点运行类似如下 SQL 语句即可。
grant all on *.* to 'mha'@'192.168.131.%' identified by '123';
flush privileges; //刷新
6、拖包上传mha软件包:
MHA软件由两部分组成,Manager工具包和Node工具包,具体的说明如下。
Manager工具包主要包括以下几个工具:
masterha_check_ssh | 检查MHA的SSH配置状况 |
---|---|
masterha_check_repl | 检查MySQL复制状况 |
masterha_manger | 启动MHA |
masterha_check_status | 检测当前MHA运行状态 |
masterha_master_monitor | 检测master是否宕机 |
masterha_master_switch | 控制故障转移(自动或者手动) |
masterha_conf_host | 添加或删除配置的server信息 |
Node工具包(这些工具通常由MHA Manager的脚本触发,无需人为操作)
主要包括以下几个工具:
save_binary_logs | 保存和复制master的二进制日志 |
---|---|
apply_diff_relay_logs | 识别差异的中继日志事件并将其差异的事件应用于其他的slave |
filter_mysqlbinlog | 去除不必要的ROLLBACK事件(MHA已不再使用这个工具) |
purge_relay_logs | 清除中继日志(不会阻塞SQL线程) |
四个节点都需安装:mha4mysql-node-0.58-0.el7.norch.rpm
Manager 节点另需要安装:mha4mysql-manager-0.58-0.el7.noarch.rpm
Yum安装即可
7、初始化 MHA ,进行配置
Manager 节点需要为每个监控的 master/slave 集群提供一个专用的配置文件,而所有的 master/slave 集群也可共享全局配置。全局配置文件默认为/etc/masterha_default.cnf,其为可选配置。如果仅监控一组 master/slave 集群,也可直接通过 application 的配置来提供各服务器的默认配置信息。而每个 application 的配置文件路径为自定义。具体操作见下一步骤。
首先创建目录
mkdir /etc/mha_master
vim /etc/mha_master/mha.cnf
***********************************************
[server default]
user=mha # MHA管理服务器用户名
password=123 # MHA管理服务器密码
manager_workdir=/etc/mha_master/app1 # mha_master自己的工作路径,需要手动创建;
manager_log=/etc/mha_master/manager.log # mha_master自己的日志文件
remote_workdir=/mydata/mha_master/app1 #每个远程主机的工作目录,自己手动创建;
ssh_user=root # 基于ssh秘钥认证用户
repl_user=tom # 数据库用户名
repl_password=123 # 数据库密码
ping_interval=1 # ping间隔时长
[server1]
hostname=192.168.131.83
ssh_port=22
candidate_master=1 # 将来可不可以作为master候选主节点
[server2]
hostname=192.168.131.84
ssh_port=22
candidate_master=1
[server3]
hostname=192.168.131.85
ssh_port=22
candidate_master=1
8、测试
检测各节点ssh互相通信配置是否OK:
masterha_check_ssh --conf=/etc/mha_master/mha.cnf
看到这个[info] All SSH connection tests passed successfully
.表示测试成功
检查管理的MYSQL复制集群的连接配置参数是否OK:
masterha_check_repl -conf=/etc/mha_master/mha.cnf
因为没有在master上授权给所有的从节点,以至于从节点上没有相对应的账号。因为这个架构,任何一个从节点都有可能成为主节点,所以也要创建账号;
授权之后再次执行命令:
masterha_check_repl -conf=/etc/mha_master/mha.cnf
最后结果显示:MySQL Replication Health is OK. 则表示成功
启动mha:
nohup masterha_manager -conf=/etc/mha_master/mha.cnf &> /etc/mha_master/manager.log &
其中“&> &”是将输出结果全部重定向到/etc/mha_master/manager.log,也可以使用“2>&1”;
masterha_check_status -conf=/etc/mha_master/mha.cnf
#查看master的状态;
若是需要停止MHA,需要使用master_stop命令;
masterha_stop -conf=/etc/mha_master/mha.cnf
测试:
手动停掉192.168.131.83的主数据库,查看mha日志
主转移到192.168.131.84上,测试成功
这里我翻译了一下