• MySQL5.7高可用MHA


    MySQL高可用MHA

    一、架构工作原理

    主库宕机处理过程
    1. 监控节点 (通过配置文件获取所有节点信息)
       系统,网络,SSH连接性
       主从状态,重点是主库
    
    2.选主
     2.1.优先级(主观),如果在节点配置时,加入了candidate_ master= 1参数。
    	如果备选主,日志量落后master太多 (后master 100M的relay logs的话,)也不会被选择新主。可以通过check repl delay=0, 不检查日志落后的情景。
     2.2.日志量最接近主库
     2.3.日志量一样。配置文件顺序。
    3.日志补偿
    	#情况1: ssh能连上,通过save binary logs立即保存缺失部分的日志到从库(/var/tmp目录下)并恢复。
    	#情况2: ssh不能连,两个从库进行relaylog日志diff(apply diff relay logs)差异补偿。
    4.主从身份切换,所有从库取消和原有主库的复制关系(stop slave; reset slave all)新主库和剩余从库  重新构建主从关系。
    5.故障库自动被剔除集群(masterha conf host配置信息去掉)
    6. MHA是一次性的高可用,Failover后, Manager自动推出。
    

    二、架构介绍

    1主2从,master:master   slave:slave1   slave2 ):
    MHA 高可用方案软件构成
    Manager软件:选择一个从节点安装
    Node软件:所有节点都要安装
    
    # 架构不足的地方
    0.应用透明
    1.数据补偿
    2.自动提醒
    3.自愈功能待开发....
    	MHA + k8s + Operator官方
    	8.0 MGR + mysqlsh
    

    三、 MHA软件构成

    Manager工具包主要包括以下几个工具:
    masterha_manger             启动MHA 
    masterha_check_ssh      检查MHA的SSH配置状况 
    masterha_check_repl         检查MySQL复制状况 
    masterha_master_monitor     检测master是否宕机 
    masterha_check_status       检测当前MHA运行状态 
    masterha_master_switch  控制故障转移(自动或者手动)
    masterha_conf_host      添加或删除配置的server信息
    
    Node工具包主要包括以下几个工具:
    这些工具通常由MHA Manager的脚本触发,无需人为操作
    save_binary_logs            保存和复制master的二进制日志 
    apply_diff_relay_logs       识别差异的中继日志事件并将其差异的事件应用于其他的
    purge_relay_logs            清除中继日志(不会阻塞SQL线程)
    

    四、MHA环境搭建

    4.1、环境规划

    主库: 
    192.168.1.111      Node软件 
    从库: 
    192.168.1.112      Node软件
    192.168.1.113      Node软件    Manager软件(生产建议把Manager软件独立放另一台服务器上)
    

    4.2、准备环境(略。1主2从GTID)

    看另外的笔记吧,简单明了
    

    4.3、配置各节点互信(免密登录)

    master:
    rm -rf /root/.ssh 
    ssh-keygen
    cd /root/.ssh 
    mv id_rsa.pub authorized_keys
    scp  -r  /root/.ssh  192.168.1.112:/root 
    scp  -r  /root/.ssh  192.168.1.113:/root 
    

    4.4、配置关键程序软连接(三台机器上都是)

    ln -s /data/mysql/bin/mysqlbinlog    /usr/bin/mysqlbinlog
    ln -s /data/mysql/bin/mysql          /usr/bin/mysql
    

    4.5、 安装mha、Node

    mha官网:https://code.google.com/archive/p/mysql-master-ha/
    github下载地址:https://github.com/yoshinorim/mha4mysql-manager/wiki/Downloads
    
    4.5.1、所有节点安装Node软件依赖包
    # 下载好mha4mysql-node-0.56-0.el6.noarch.rpm,上传到三台机器的/app目录下,执行以下命令
    [root@slave1 app]# yum install perl-DBD-MySQL -y
    [root@slave1 app]# rpm -ivh mha4mysql-node-0.56-0.el6.noarch.rpm
    

    4.6、在主库新建用户

    grant all privileges on *.* to mha@'192.168.1.%' identified by 'mha';
    grant all privileges on *.* to mha@'%' identified by 'mha';
    #两个从库检查
    mysql -p123 -e "select user,host from mysql.user;"
    

    4.7、软件安装(在从库192.168.1.113 上)

    # 把下载好的软件mha4mysql-manager-0.56-0.el6.noarch.rpm上传到slave2的/app目录下,执行以下命令
    [root@slave2 app]# yum install -y perl-Config-Tiny epel-release perl-Log-Dispatch perl-Parallel-ForkManager perl-Time-HiRes
    [root@slave2 app]# rpm -ivh mha4mysql-manager-0.56-0.el6.noarch.rpm
    
    4.7.1、 Manager配置文件(在从库192.168.1.113 上)
    # 创建配置文件目录、创建日志目录
    [root@slave2 app]# mkdir -p /etc/mha
    [root@slave2 app]# mkdir -p /var/log/mha/app1
    # 编辑mha配置文件
    cat > /etc/mha/app1.cnf << EFO
    [server default]
    manager_log=/var/log/mha/app1/manager        
    manager_workdir=/var/log/mha/app1            
    master_binlog_dir=/data/mysql  #主节点日志文件目录  
    user=mha           #mha工作过程中专用的用户,刚刚上面新建的                         
    password=mha       #mha工作过程中专用的用户,刚刚上面新建的                             
    ping_interval=2    #监控间隔时间,2秒一次
    repl_password=123  #主从复制的密码
    repl_user=tzh      #主从复制的用户
    ssh_user=root                               
    [server1]                                   
    hostname=192.168.1.111
    port=3306                                  
    [server2]            
    hostname=192.168.1.112
    port=3306
    [server3]
    hostname=192.168.1.113
    port=3306
    EFO
    

    4.8、状态检查(在从库192.168.1.113 上)

    # 互信检查
    [root@slave2 app]# masterha_check_ssh  --conf=/etc/mha/app1.cnf 
    # 看到如下日志表示成功
    Sun Nov 22 04:10:12 2020 - [info] All SSH connection tests passed successfully.
    
    # 主从状态检查
    [root@slave2 app]# masterha_check_repl  --conf=/etc/mha/app1.cnf 
    # 看到如下日志表示成功
    MySQL Replication Health is OK.
    

    4.9、开启MHA(在从库192.168.1.113 上)

    [root@slave2 app]# nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover  < /dev/null> /var/log/mha/app1/manager.log 2>&1 &
    

    4.10、查看MHA状态

    [root@slave2 ~]# masterha_check_status --conf=/etc/mha/app1.cnf
    app1 (pid:19660) is running(0:PING_OK), master:192.168.1.111
    [root@slave2 ~]# mysql -umha -pmha -h 192.168.1.111 -e "show variables like 'server_id'"
    mysql: [Warning] Using a password on the command line interface can be insecure.
    +---------------+-------+
    | Variable_name | Value |
    +---------------+-------+
    | server_id     | 51    |
    +---------------+-------+
    [root@slave2 ~]# mysql -umha -pmha -h 192.168.1.112 -e "show variables like 'server_id'"
    mysql: [Warning] Using a password on the command line interface can be insecure.
    +---------------+-------+
    | Variable_name | Value |
    +---------------+-------+
    | server_id     | 52    |
    +---------------+-------+
    [root@slave2 ~]# mysql -umha -pmha -h 192.168.1.113 -e "show variables like 'server_id'"
    mysql: [Warning] Using a password on the command line interface can be insecure.
    +---------------+-------+
    | Variable_name | Value |
    +---------------+-------+
    | server_id     | 53    |
    +---------------+-------+
    

    4.11、故障模拟及处理

    ### 停主库master    
    [root@master app]# systemctl stop mysqld
    
    观察manager  日志 tail -f /var/log/mha/app1/manager
    末尾必须显示successfully,才算正常切换成功。  
    
    Master 192.168.1.111(192.168.1.111:3306) is down!
    
    Check MHA Manager logs at slave2:/var/log/mha/app1/manager for details.
    
    Started automated(non-interactive) failover.
    Selected 192.168.1.112(192.168.1.112:3306) as a new master.
    192.168.1.112(192.168.1.112:3306): OK: Applying all logs succeeded.
    192.168.1.113(192.168.1.113:3306): OK: Slave started, replicating from 192.168.1.112(192.168.1.112:3306)
    192.168.1.112(192.168.1.112:3306): Resetting slave info succeeded.
    Master failover to 192.168.1.112(192.168.1.112:3306) completed successfully.
    

    4.12、故障恢复

    A、修复主库
    [root@master app]# systemctl start mysqld
    
    B、恢复主从结构
    CHANGE MASTER TO 
    MASTER_HOST='192.168.1.112',  #现在112是主库了
    MASTER_PORT=3306, 
    MASTER_AUTO_POSITION=1, 
    MASTER_USER='tzh', 
    MASTER_PASSWORD='123';
    start slave ;
    
    C、修改配置文件
    [root@slave2 ~]# vim /etc/mha/app1.cnf 加上这段(当你打开会惊喜的发现没有了这段哦)
    [server1]
    hostname=192.168.1.111
    port=3306
    
    D、启动MHA
    [root@slave2 ~]# nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover  < /dev/null> /var/log/mha/app1/manager.log 2>&1 &
    

    五、Manager额外参数介绍

    说明:
    主库宕机谁来接管?
    1. 所有从节点日志都是一致的,默认会以配置文件的顺序去选择一个新主。
    2. 从节点日志不一致,自动选择最接近于主库的从库
    3. 如果对于某节点设定了权重(candidate_master=1),权重节点会优先选择。
    但是此节点日志量落后主库100M日志的话,也不会被选择。可以配合check_repl_delay=0,关闭日志量的检查,强制选择候选节点。
    
    (1)  ping_interval=1
    #设置监控主库,发送ping包的时间间隔,尝试三次没有回应的时候自动进行failover
    (2) candidate_master=1
    #设置为候选master,如果设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个主库不是集群中事件最新的slave
    (3)check_repl_delay=0
    #默认情况下如果一个slave落后master 100M的relay logs的话,
    MHA将不会选择该slave作为一个新的master,因为对于这个slave的恢复需要花费很长时间,通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master
    

    六、MHA 的vip功能

    6.1、添加参数(Manager上,slave3)

    注意:/usr/local/bin/master_ip_failover,必须事先准备好  #自带vip只能在同机房实现
    [root@slave2 ~]# vim /etc/mha/app1.cnf
    # 加在[server default]标签下即可
    master_ip_failover_script=/usr/local/bin/master_ip_failover
    
    6.1.2、脚本
    [root@slave2 ~]# vim /usr/local/bin/master_ip_failover
    #!/usr/bin/env perl
    use strict;
    use warnings FATAL => 'all';
    use Getopt::Long;
    my (
        $command,          $ssh_user,        $orig_master_host, $orig_master_ip,
        $orig_master_port, $new_master_host, $new_master_ip,    $new_master_port
    );
    my $vip = '192.168.1.254/24';
    my $key = '1';
    my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";
    my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";
    
    GetOptions(
        'command=s'          => $command,
        'ssh_user=s'         => $ssh_user,
        'orig_master_host=s' => $orig_master_host,
        'orig_master_ip=s'   => $orig_master_ip,
        'orig_master_port=i' => $orig_master_port,
        'new_master_host=s'  => $new_master_host,
        'new_master_ip=s'    => $new_master_ip,
        'new_master_port=i'  => $new_master_port,
    );
    
    exit &main();
    
    sub main {
    
        print "
    
    IN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===
    
    ";
    
        if ( $command eq "stop" || $command eq "stopssh" ) {
    
            my $exit_code = 1;
            eval {
                print "Disabling the VIP on old master: $orig_master_host 
    ";
                &stop_vip();
                $exit_code = 0;
            };
            if ($@) {
                warn "Got Error: $@
    ";
                exit $exit_code;
            }
            exit $exit_code;
        }
        elsif ( $command eq "start" ) {
    
            my $exit_code = 10;
            eval {
                print "Enabling the VIP - $vip on the new master - $new_master_host 
    ";
                &start_vip();
                $exit_code = 0;
            };
            if ($@) {
                warn $@;
                exit $exit_code;
            }
            exit $exit_code;
        }
        elsif ( $command eq "status" ) {
            print "Checking the Status of the script.. OK 
    ";
            exit 0;
        }
        else {
            &usage();
            exit 1;
        }
    }
    
    sub start_vip() {
        `ssh $ssh_user@$new_master_host " $ssh_start_vip "`;
    }
    sub stop_vip() {
         return 0  unless  ($ssh_user);
        `ssh $ssh_user@$orig_master_host " $ssh_stop_vip "`;
    }
    
    sub usage {
        print
        "Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port
    ";
    }
    
    # 给权限
    [root@slave2 ~]# chmod +x /usr/local/bin/master_ip_failover
    
    # 主库手工加VIP
    # 手工在主库上绑定vip,注意一定要和配置文件中的ethN一致,我的是ens33:1(1是key指定的值)
    [root@master ~]# yum install net-tools -y   #三台机器都得安装
    [root@master ~]# ifconfig ens33:1 192.168.1.254/24
    [root@master ~]# ifconfig ens33:1 down  
    

    6.2、邮件提醒

    #没做

    1. 参数:
    report_script=/usr/local/bin/send
    2. 准备邮件脚本
    send_report
    (1)准备发邮件的脚本(上传 email_2019-最新.zip中的脚本,到/usr/local/bin/中)
    (2)将准备好的脚本添加到mha配置文件中,让其调用
    
    3. 修改manager配置文件,调用邮件脚本
    vi /etc/mha/app1.cnf
    report_script=/usr/local/bin/send
    
    (3)停止MHA
    masterha_stop --conf=/etc/mha/app1.cnf
    (4)开启MHA    
    nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1 &     
    (5) 关闭主库,看警告邮件 
    

    6.3、重启mha

    [root@master ~]# masterha_stop --conf=/etc/mha/app1.cnf
    [root@master ~]# nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1 &
    

    七、binlog server(slave2上)

    binlogserver配置:
    找一台额外的机器,必须要有5.6以上的版本,支持gtid并开启,我们直接用的第二个slave(db03)
    vim /etc/mha/app1.cnf 
        
    # 在最后加上就行
    [binlog1]   
    no_master=1   						  #主库宕机、切换的时候不切到这里了
    hostname=192.168.1.113				  #本机ip
    master_binlog_dir=/data/mysql/binlog  #日志目录
        
    # 创建目录
    # 修改完成后,将主库binlog拉过来(从000001开始拉,之后的binlog会自动按顺序过来)
    [root@slave2 ~]# mkdir -p /data/mysql/binlog
    [root@slave2 ~]# chown mysql.mysql -R /data/mysql/binlog
    
    #拉取主库binlog日志
    [root@slave2 ~]# cd /data/mysql/binlog     ----->必须进入到自己创建好的目录
    #host是主库的IP,不做这个会报错哦
    [root@slave2 binlog]# mysqlbinlog  -R --host=192.168.1.111 --user=mha --password=mha --raw  --stop-never mysql-bin.000001 &
    注意:
    	#到主库show master status;看看在使用那个binlog文件,从这个开始啦就行!
    	拉取日志的起点,需要按照目前从库的已经获取到的二进制日志点为起点
    	mysqlbinlog  -R --host=192.168.1.111 --user=mha --password=mha --raw  --stop-never mysql-bin.000xxx &
    
    # 查看
    [root@slave2 binlog]# ll
    total 16
    -rw-r----- 1 root root  177 Nov 22 00:05 mysql-bin.000001
    -rw-r----- 1 root root 3435 Nov 22 00:05 mysql-bin.000002
    -rw-r----- 1 root root  379 Nov 22 00:05 mysql-bin.000003
    -rw-r----- 1 root root  359 Nov 22 00:05 mysql-bin.000004
    

    八、再次测试,把主库停机

    # 关闭主库
    [root@master ~]#  systemctl stop mysqld
    
    # 观察slave2上的日志情况
    [root@slave2 ~]# tail -f /var/log/mha/app1/manager
    
    主库宕机,binlogserver 自动停掉,manager 也会自动停止。
    处理思路:
    1、重新获取新主库的binlog到binlogserver中
    2、重新配置文件binlog server信息
    3、最后再启动MHA
    
    
    故障修复:
    1. 恢复故障节点
    (1)实例宕掉
    /etc/init.d/mysqld start 
    (2)主机损坏,有可能数据也损坏了
    备份并恢复故障节点。
    2.恢复主从环境
    看日志文件:恢复新主库的日志
    CHANGE MASTER TO MASTER_HOST='192.168.1.112', MASTER_PORT=3306, MASTER_AUTO_POSITION=1, MASTER_USER='tzh', MASTER_PASSWORD='123';
    start slave ;
    3.恢复manager
    3.1 修好的故障节点配置信息,加入到配置文件
    [server1]
    hostname=10.0.0.51
    port=3306
    3.2 查看VIP是否在master,不在就手动加
    3.2 启动manager   
    nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1 &
    
  • 相关阅读:
    UILabel 详解
    didMoveToSuperView 引发的思考
    Source
    设计模式
    Code ReView
    UIApearance
    UINavigationBar
    initWithNibName与viewDidLoad的执行关系以及顺序
    bLock 回调 就是这么简单!
    程序语言小记
  • 原文地址:https://www.cnblogs.com/hsyw/p/14019507.html
Copyright © 2020-2023  润新知