一.MHA概述
MHA(Master High Availability Manager and tools for MySOL)
目前在MySOL高可用方面是一个相对成熟的解决方案,它是由日本人 youshimaton 采用Per语言编写的一个脚本管理工具。目前MHA主要支持一主多从的架构,要搭建MHA,要求一个复制集群必须最少有3台数据库服务器,一主二从,即一台充当Master,一台充当备用Master,另一台充当从库。MHA由两部分组成:MHAManager(管理节点)和MHA Node(数据库节点),MHA Manager 可以单独部署在一台独立的机器上管理多个 master-slave 集群,也可以部署在一台 slave 节点上MHA Node 运行在每台 MySOL 服务器上,MHA Manager 会定时探测集群中的master 节点,当master 出现故障时,它可以自动将最新数据的 slave 提升为新的master,然后将所有其他的 slave 重新指整个故障转移过程对应用向新的 master。程序完全透明。
1.什么是MHA
MHA(MasterHigh availability)是一套优秀的MySQI高可用环境下故障切换和主从复制的软件。
MHA 的出现就是解决MySQL 单点的问题。
MySQL故障切换过程中,MHA能做到0-30秒内自动完成故障切换操作。
MHA能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用。
2.MHA的组成
MHA Node(数据节点)
HA Node 运行在每台MySQL 服务器上
MHA Manager(管理节点)
MHA Manager 可以单独部署在一台独立的机器上,管理多个 master-slave 集群;也可以部署在一台 slave 节点上。
MHA Manager 会定时探测集群中的 master 节点。当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 master, 然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明。
3.MHA的特点
自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失
使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性
目前MHA支持一主多从架构,最少三台服务,即一主两从
4.MHA 的工作原理
MHA Node 部署在每台MySQL服务器上;
MHA Manager 可以单独部署在一台独立服务器上或者某个从库服务器上。
MHA Manager 会定时探测 MySQL 集群中master主库的状态,当主库出现故障,MHA Manager 会自动将一台拥有最新数据的slave从库提升为新的主库,也会在新的主库上生成 写入VIP, 然后还会将其它的从库重新指向新的主库做主从复制,从而保证MySQL集群的高可用。整个故障转移过程对客户端应用来说是完全透明的。
二.搭建MySQL MHA
初始化操作
systemctl disable --now firewalld.service
setenforce 0
vim /etc/sysconfig/selinux
1.进行时间同步
主从服务器
vim /etc/chrony.conf
server 192.168.10.40 iburst #添加时间服务器IP地址
systemctl restart chronyd.service
timedatectl
时间服务器
vim /etc/chrony.conf
systemctl restart chronyd.service
timedatectl
2.搭建主从服务器
(1)修改 Master、Slave1、Slave2 节点的主机名
hostnamectl set-hostname mysql1
hostnamectl set-hostname mysql2
hostnamectl set-hostname mysql3
hostnamectl set-hostname manager
vim /etc/hosts
(2)修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf
vim /etc/my.cnf #三台服务器的 server-id 不能一样
[mysqld]
server-id = 1 #Master 节点
log_bin = mysql-bin
binlog_format = mixed
log-slave-updates = 1
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
server-id = 2 #Slave1节点
log_bin = mysql-bin
binlog_format = mixed
log-slave-updates = 1
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
server-id = 3 #Slave2 节点
log_bin = mysql-bin
log_bin = mysql-bin
binlog_format = mixed
log-slave-updates = 1
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
systemctl restart mysqld
(3)在 Master、Slave1、Slave2 节点上都创建两个软链接
ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
(4)配置 mysql 一主两从
所有数据库节点进行 mysql 授权
mysql -u root -pabc123
#从数据库同步使用
create user 'myslave'@'192.168.10.%' identified by 'myslave123';
grant replication slave on *.* to 'myslave'@'192.168.10.%';
#mha manager 使用
create user 'manager'@'192.168.10.%' identified by 'manager123';
grant all on *.* to 'manager'@'192.168.10.%';
#刷新权限
flush privileges;
在 Master 节点查看二进制文件和同步点
show master status;
在 Slave1、Slave2 节点执行同步操作
change master to master_host='192.168.10.10', master_port=3306, master_user='myslave', master_password='myslave123', master_log_file='mysql-bin.000001', master_log_pos=1241;
start slave;
在 Slave1、Slave2 节点查看数据同步结果
show slave status\G
两个从库必须设置为只读模式
set global read_only=1;
主库插入数据测试数据库同步
create database mydb;
use mydb;
create table xy101 (id int, name varchar(20), age int, sex char(2));
insert into xy101 values(1, 'zhangsan', 18, '男');
insert into xy101 values(2, 'lisi', 20, '男');
select * from xy101;
从库测试
select * from mydb.xy101;
3.安装 MHA 软件
(1)所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源(没有数据库的服务器上)
vim /etc/yum.conf
----
cachedir=/opt/yumcache
keepcache=1
----
cd /opt
mkdir /opt/yumcache
cd /etc/yum.repos.d
mv repo.bak/* ./
mv local.repo repo.bak
cd /opt/yumcache
yum install -y epel-release
yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
mkdir /opt/mha
find ./ -name "*.rpm" -exec mv {} ./mha/ \; #将依赖包挪入该目录
scp -r mha/ 192.168.10.20:/opt #将包复制到主服务器
scp -r mha/ 192.168.10.30:/opt #将包复制到从服务器
scp -r mha/ 192.168.10.40:/opt #将包复制到从服务器
主服务器
cd /opt
createrepo mha/ #自动生成yum数据库依赖关系
cd mha
----修改目录
vim /etc/yum.repos.d/local.repo
baseurl=file:///opt/mha
----安装依赖包
yum install -y perl-DBD-MySQL \
> perl-Config-Tiny \
> perl-Log-Dispatch \
> perl-Parallel-ForkManager \
> perl-ExtUtils-CBuilder \
> perl-ExtUtils-MakeMaker \
> perl-CPAN
两个从服务器
cd /opt
createrepo mha/ #自动生成yum数据库依赖关系
cd mha
----修改目录
vim /etc/yum.repos.d/local.repo
baseurl=file:///opt/mha
----安装依赖包
yum install -y perl-DBD-MySQL \
> perl-Config-Tiny \
> perl-Log-Dispatch \
> perl-Parallel-ForkManager \
> perl-ExtUtils-CBuilder \
> perl-ExtUtils-MakeMaker \
> perl-CPAN
(2)安装 MHA 软件包,先在所有服务器上必须先安装 node 组件
主服务器
cd /opt/
使用 wincap 上传数据包 mha4mysql-node-0.57.tar.gz 至/opt/目录下
tar xf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57/
perl Makefile.PL && make && make install
两个从服务器
cd /opt/
使用 wincap 上传数据包 mha4mysql-node-0.57.tar.gz 至/opt/目录下
tar xf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57/
perl Makefile.PL && make && make install
(3)在 MHA manager 节点上安装 node 组件 和 manager 组件
MHA服务器
cd /opt/
上传数据包 mha4mysql-node-0.57.tar.gz 和 mha4mysql-manager-0.57.tar.gz至/opt/目录下
tar xf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57/
perl Makefile.PL && make && make install
tar xf mha4mysql-manager-0.57.tar.gz
cd mha4mysql-manager-0.57
perl Makefile.PL && make && make install
(4)所有服务器配置无密码认证
MHA服务器
在 manager 节点上配置到所有数据库节点的无密码认证
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.10.20
ssh-copy-id 192.168.10.30
ssh-copy-id 192.168.10.40
主服务器
在 mysql1 上配置到数据库节点 mysql2 和 mysql3 的无密码认证
ssh-keygen -t rsa #一路回车
ssh-copy-id 192.168.10.30
ssh-copy-id 192.168.10.40
从服务器1
在 mysql2 上配置到数据库节点 mysql1 和 mysql3 的无密码认证
ssh-keygen -t rsa #一路回车
ssh-copy-id 192.168.10.20
ssh-copy-id 192.168.10.40
从服务器2
在 mysql3 上配置到数据库节点 mysql1 和 mysql2 的无密码认证
ssh-keygen -t rsa #一路回车
ssh-copy-id 192.168.10.20
ssh-copy-id 192.168.10.30
(5)manager 节点配置MHA
cd /opt/mha4mysql-manager-0.57/samples
cp -a scripts/ /usr/local/bin
cd /usr/local/bin
cp scripts/master_ip_failover /usr/local/bin
vim master_ip_failover
清空原先master_ip_failover的内容添加以下配置
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $orig_master_host, $orig_master_ip,$ssh_user,
$orig_master_port, $new_master_host, $new_master_ip,$new_master_port,
$orig_master_ssh_port,$new_master_ssh_port,$new_master_user,$new_master_password
);
# 这里定义的虚拟IP配置要注意,这个ip必须要与你自己的集群在同一个网段,否则无效
my $vip = '192.168.10.100/24';
my $key = '1';
# 这里的网卡名称 “ens33” 需要根据你机器的网卡名称进行修改
# 如果多台机器直接的网卡名称不统一,有两种方式,一个是改脚本,二是把网卡名称修改成统一
# 我这边实际情况是修改成统一的网卡名称
my $ssh_start_vip = "sudo /sbin/ifconfig ens33:$key $vip";
my $ssh_stop_vip = "sudo /sbin/ifconfig ens33:$key down";
my $ssh_Bcast_arp= "sudo /sbin/arping -I ens33 -c 3 -A $vip";
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'orig_master_ssh_port=i' => \$orig_master_ssh_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
'new_master_ssh_port' => \$new_master_ssh_port,
'new_master_user' => \$new_master_user,
'new_master_password' => \$new_master_password
);
exit &main();
sub main {
$ssh_user = defined $ssh_user ? $ssh_user : 'root';
print "\n\nIN SCRIPT TEST====$ssh_user|$ssh_stop_vip==$ssh_user|$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
&start_arp();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub start_arp() {
`ssh $ssh_user\@$new_master_host \" $ssh_Bcast_arp \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --ssh_user=user --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
(6)创建MHA相关目录并复制配置文件
创建相关目录(所有节点)
cd /usr/local/bin/scripts
cp master_ip_online_change power_manager /usr/local/bin/
cd /usr/local/bin/
chmod +x master_ip_failover
MHA服务器
cd /opt
mkdir /opt/mysql-mha
cd mysql-mha
mkdir mha-manager
mkdir mha-node
vim mysql_mha.cnf
[server default]
manager_log=/opt/mysql-mha/manager.log
manager_workdir=/opt/mysql-mha/mha-manager
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
user=manager
password=manager123
port=3306
ping_interval=1
remote_workdir=/opt/mysql-mha/mha-node
repl_user=myslave
repl_password=myslave123
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.10.30 -s 192.168.10.40
shutdown_script=""
ssh_user=root
[server1]
hostname=192.168.10.20
port=3306
[server2]
hostname=192.168.10.30
port=3306
[server3]
hostname=192.168.10.40
port=3306
主服务器
ifconfig ens33:1 192.168.10.100/24
(7)在manager节点上测试ssh无密码认证
MHA服务器
masterha_check_ssh -conf=/opt/mysql-mha/mysql_mha.cnf
主从服务器(三台服务器都设置)
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
(8)在 manager 节点上测试 mysql 主从连接情况
MHA服务器
masterha_check_repl -conf=/opt/mysql-mha/mysql_mha.cnf
(9)在manager节点上启动MHA
nohup masterha_manager \
--conf=/opt/mysql-mha/mysql_mha.cnf \
--remove_dead_master_conf \
--ignore_last_failover < /dev/null > /var/log/mha_manager.log 2>&1 &
masterha_check_status -conf=/opt/mysql-mha/mysql_mha.cnf
--remove_dead_master_conf:该参数代表当发生主从切换后,老的主库的 ip 将会从配置文件中移除。
--ignore_last_failover:在缺省情况下,如果 MHA 检测到连续发生宕机,且两次宕机间隔不足 8 小时的话,则不会进行 Failover, 之所以这样限制是为了避免 ping-pong 效应。该参数代表忽略上次 MHA 触发切换产生的文件,默认情况下,MHA 发生切换后会在 app1.failover.complete 日志文件中记录,下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换, 除非在第一次切换后删除该文件,为了方便,这里设置为--ignore_last_failover。
----------------------------------------------------------------------------------------------------------
●使用&后台运行程序:结果会输出到终端;使用Ctrl+C发送SIGINT信号,程序免疫;关闭session发送SIGHUP信号,程序关闭。
●使用nohup运行程序:结果默认会输出到nohup.out;使用Ctrl+C发送SIGINT信号,程序关闭;关闭session发送SIGHUP信号,程序免疫。
●使用nohup和&配合来启动程序nohup ./test &:同时免疫SIGINT和SIGHUP信号。
(10)故障模拟
主服务器
关闭MySQL服务
systemctl stop mysqld.service
从服务器
tail -f /opt/mysql-mha/manager.log
MHA服务器
发生故障,会自动停止mha
主服务器上的VIP也会漂移到从服务器上
若原master修复完成,如何加入到集群中?
原主
使用现主的二进制文件和position,并查看两个是否都为yes
如何恢复原先192.168.10.10做主服务器?
修改MHA服务器
###启动MHA
nohup masterha_manager --conf=/opt/mysql-mha/mysql_mha.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha_manager.log 2>&1 &
###检查状态
masterha_check_status -conf=/opt/mysql-mha/mysql_mha.cnf
之后,去停止并启动新的主服务器
VIP地址就会回到原主服务器上面
MHA高可用集群部署总结
- 1.采用一主两从架构
- 2.一主两从先做主从复制
- 3.给MHA进行登录授权,访问数据库的授权
- 4.所有数据库节点安装mha node 组件,manager服务器还要安装mha manager 组件
- 5.所有服务器相互组件做ssh免交互登录
- 6.manager上准备好VIP故障转移脚本和MHA配置文件
- 7.在master上创建VIP地址
- 8.启动MHA进程并做故障转移测试
主从复制步骤
(1)主从服务器先做时间同步
(2)修改主从数据库的配置文件,主库开启二进制日志,从库开启中继日志
(3)在主库创建主从复制的用户,并授予主从复制的权限
(4)在从库使用 change master to 对接主库,并 start slave 开启同步
(5)在从库使用 show slave status\G 查看 IO线程和 SQL线程的状态是否都为 YES