zoukankan      html  css  js  c++  java
  • MYSQL数据库基于MHA的高可用

     MYSQL数据库基于MHA的高可用
    MHA :HA表示高可用,M表示master
    一、MHA 简介
    MHA(Master High Availability)目前在 MySQL 高可用方面是一个相对成熟的解决方案,
    是一套优秀的作为 MySQL 高可用性环境下故障切换和主从角色提升的高可用软件。在 MySQL 故障切换过程中,MHA 能做到在 0~30 秒之内自动完成数据库的主从故障切换操作,并且在进行故障切换的过程中,MHA 能在最大程度上保证数据的一致性,以达到真正意义上的高可用。
    MHA 由两部分组成:MHA Manager(管理节点)和 MHA Node(数据节点)。MHA Manager可以单独部署在一台独立的机器上管理多个 master-slave 集群,也可以部署在一台 slave 节点上。MHA Node 运行在每台 MySQL 服务器及 Manager 服务器上,MHA Manager 会定时探测集群中的 master 节点,当 master 出现故障时,它可以自动将拥有最新数据的 slave 提升为新的 master,然后将所有其他的 slave 重新指向新提升的 master。整个故障转移过程对应用程序层面完全透明。
    在 MHA 自动故障切换过程中,MHA 会试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失,但这种操作是有概率性的。MHA 可以与半同步复制结合起来。如果只有一个 slave 已经收到了最新的二进制日志,MHA 可以将最新的二进制日志应用于其他所有的slave 服务器上,因此可以保证所有节点的数据一致性。
    目前 MHA 主要支持一主多从的架构,要搭建 MHA,要求一个复制集群中必须最少有三台数据库服务器,一主二从,即一台充当 master,一台充当备用 master,另外一台充当从库,因为至少需要三台服务器,出于机器成本的考虑,淘宝也在该基础上进行了改造,目前淘宝 TMHA 已经支持一主一从。
     
    1、工作流程
    从宕机崩溃的 master 上尝试保存二进制日志事件(binlog events);
    识别含有最新更新的 slave 服务器;
    应用差异的中继日志(relay log)到其他的 slave;
    应用从 master 保存的二进制日志事件(binlog events);
    提升一个 slave 为新的 master 服务器;
    将其他的 slave 连接指向新的 master 进行主从复制
    2、MHA 工具介绍
    MHA 软件由两部分组成,Manager 工具包和 Node 工具包,具体的说明如下。
    Manager 工具包主要包括以下几个工具:
    masterha_check_ssh 检查 MHA 的 SSH 配置状况
    masterha_check_repl 检查 MySQL 复制状况
    masterha_manger 启动 MHA
    masterha_check_status 检测当前 MHA 运行状态
    masterha_master_monitor 检测 master 是否宕机
    masterha_master_switch 控制故障转移(自动或者手动)
    masterha_conf_host 添加或删除配置的 server 信息
    Node 工具包(这些工具通常由 MHA Manager 的脚本触发,无需人为操作)主要包括以下几个工具:
    save_binary_logs 保存和复制 master 的二进制日志
    apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的slave
    filter_mysqlbinlog 去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)
    purge_relay_logs 清除中继日志(不会阻塞 SQL 线程)
     
    =========================================
    keepalived 作用:支持故障自动切换,支持节点健康检查。(模式:抢占和非抢占)
    --------------------------------------------------------------------------
    ==========================================================
    MHA高可用实验
    7台服务器              IP地址     主机名      ServerID    数据库类型
    Manager              192.168.200.66       server01         -           监控复制组
    Primary Master     192.168.200.67         server02         1             写 入
    Secondary Master 192.168.200.68         server03         2             写 入
    Slave1                  192.168.200.69         server04         3               读
    Slave2                  192.168.200.70         server05         4               读
    LVS Master           192.168.200.71         localhost         -
    LVS Backup          192.168.200.72         localhost         -
    ==========================================================
    实验步骤推荐
    【1】配置各主机的主机名
    【2】配置各主机名映射
    【3】关闭防火墙和selinux安全机制
    【4】安装Epel yum 源
    【5】安装MHA node (5台机器都要装 保护数据库之间架构)
    【6】安装MHA Manager(只有manager装)
    【7】配置SSH密钥对验证
    【8】源码包安装mysql
    【9】搭建主从复制环境
    【10】配置MHA环境
    【11】搭建VIP管理方式,基于keepalived控制,基于Perl脚本控制
    【12】配置读请求负载均衡
    ===========================================================
    【1】配置各主机的主机名
    manager 主机:
    hostname server01
    bash
    master1 主机:
    hostname server02
    bash
    master2 主机:
    hostname server03
    bash
    slave1 主机:
    hostname server04
    bash
    slave2 主机:
    hostname server05
    bash
    -------------------------------------------------------------------------------------------------------------
    【2】配置各主机名映射
    manager 主机:
     vim /etc/hosts
    192.168.200.66 server01
    192.168.200.67 server02
    192.168.200.68 server03
    192.168.200.69 server04
    192.168.200.70 server05
    scp /etc/hosts 192.168.200.67:/etc/
    scp /etc/hosts 192.168.200.68:/etc/
    scp /etc/hosts 192.168.200.69:/etc/
    scp /etc/hosts 192.168.200.70:/etc/
    --------------------------------------------------------------------------------------------------------------
    【3】关闭防火墙和selinux安全机制
    iptables -F
    systemctl stop firewalld
    setenforce 0
    --------------------------------------------------------------------------------------------------------------
    【4】安装Epel yum 源 《《 下载 mha-manager 和 mha-node
    http://downloads.mariadb.com/MHA/》》
    66manager 上传  mha4mysql-manager-0.56.tar.gz、mha4mysql-node-0.56.tar.gz 、perl-Config-Tiny-2.14-7.e17.noarch.rpm
    67、68、69、70主机上传mha4mysql-node-0.56.tar.gz 、perl-Config-Tiny-2.14-7.e17.noarch.rpm
    --------------------------------------------------------------------------------------------------------------
    【5】安装MHA node
    【5.1】所有主机安装 MHA node 及相关 perl 依赖包
    所有主机上传epel源安装包并进行安装
    rpm -ivh epel-release-latest-7.noarch.rpm
    yum install -y perl-DBD-MySQL.x86_64 perl-DBI.x86_64 perl-CPAN perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker   //安装依赖包
    rpm -q perl-DBD-MySQL.x86_64 perl-DBI.x86_64 perl-CPAN perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker   //注意:安装后建议检查一下所需软件包是否全部安装
    【5.2】所有主机上安装 MHA Node
    tar xf mha4mysql-node-0.56.tar.gz
    cd mha4mysql-node-0.56/
    perl Makefile.PL
    make && make install
    ls -l /usr/local/bin/    //检查是否有以下工具
    -r-xr-xr-x 1 root root 16346 12 月 29 15:07 apply_diff_relay_logs
    -r-xr-xr-x 1 root root 4807 12 月 29 15:07 filter_mysqlbinlog
    -r-xr-xr-x 1 root root 7401 12 月 29 15:07 purge_relay_logs
    -r-xr-xr-x 1 root root 7395 12 月 29 15:07 save_binary_logs
    --------------------------------------------------------------------------------------------------------------
    【6】安装MHA Manager(只有manager装)在66主机
     注意:安装 MHA Manger 之前也需要安装 MHA Node
    【6.1】首先安装 MHA Manger 依赖的 perl 模块(我这里使用 yum 安装)
    yum install -y perl perl-Log-Dispatch perl-Parallel-ForkManager perl-DBD-MySQL perl-DBI perl-Time-HiRes
    yum -y install perl-Config-Tiny-2.14-7.el7.noarch.rpm   ///单独安装
    rpm -q perl  perl-Log-Dispatch perl-Parallel-ForkManager perl-DBD-MySQL perl-DBI perl-Time-HiRes perl-Config-Tiny   //检查是否全部安装成功
    【6.2】安装 MHA Manger 软件包
    tar xf mha4mysql-manager-0.56.tar.gz
    cd mha4mysql-manager-0.56/
    perl Makefile.PL
    make && make install
    【6.3】安装完成后会有以下脚本文件
    ls -l /usr/local/bin/     //会发现多了很多的工具包
    --------------------------------------------------------------------------------------------------------------
    【7】配置SSH密钥对验证
     服务器之间需要实现密钥对验证。关于配置密钥对验证可看下面步骤。但是有一点需要
    注意:不能禁止 password 登陆,否则会出现错误
    1. 服务器先生成一个密钥对
    2. 把自己的公钥传给对方
    【7.1】在66 manager主机上创建密钥对
    ssh-keygen -t rsa
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.67
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.68
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.69
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.70
    注意:Server01 需要连接每个主机测试,因为第一次连接的时候需要输入 yes,影响后期故障切换时,对于每个主机的 SSH 控制
    【7.2】在66主机上登陆一下,看这4台是否登录成功
    ssh server02
    ssh server03
    ssh server04
    ssh server05
    【7.3】在67主机Primary Master(192.168.200.67):上生成密钥对
    ssh-keygen -t rsa
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.68
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.69
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.70
    【7.4】在68主机Secondary Master(192.168.200.68):上生成密钥对
    ssh-keygen -t rsa
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.67
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.69
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.70
    【7.5】在69主机slave1(192.168.200.69):上生成密钥对
    ssh-keygen -t rsa
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.67
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.68
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.70
    【7.6】在70主机slave2(192.168.200.70):上生成密钥对
    ssh-keygen -t rsa
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.67
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.68
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.200.69
    --------------------------------------------------------------------------------------------------------------
    【8】源码包安装mysql
    【8.1】主机67、68、69、70上分别进行操作
    yum -y install mariadb mariadb-server mariadb-devel
    systemctl start mariadb
    netstat -lnpt | grep :3306
    【8.2】设置数据库初始密码(后续操作中使用)
    mysqladmin -u root password 123456
    --------------------------------------------------------------------------------------------------------------
    【9】搭建主从复制环境
    注意:binlog-do-db 和 replicate-ignore-db 设置必须相同。 MHA 在启动时候会检测过滤规则,如果过滤规则不同,MHA 将不启动监控和故障转移功能。
    【9.1】修改主机67Primary Master数据库的主配置文件
    vim /etc/my.cnf
    [mysqld]
    server-id = 1
    log-bin=master-bin
    log-slave-updates=true
    relay_log_purge=0
    保存退出
    systemctl restart mariadb
    【9.2】修改主机68 Secondary Master数据库的主配置文件
    vim /etc/my.cnf
    [mysqld]
    server-id =2
    log-bin=master-bin
    log-slave-updates=true
    relay_log_purge=0
    保存退出
    systemctl restart mariadb
    【9.3】修改主机69 slave1数据库的主配置文件
    vim /etc/my.cnf
    [mysqld]
    server-id = 3
    log-bin=mysql-bin
    relay-log=slave-relay-bin
    log-slave-updates=true
    relay_log_purge=0
    保存退出
    systemctl restart mariadb
    【9.4】修改主机70slave2数据库的主配置文件
    vim /etc/my.cnf
    [mysqld]
    server-id = 4
    log-bin=mysql-bin
    relay-log=slave-relay-bin
    log-slave-updates=true
    relay_log_purge=0
    保存退出
    systemctl restart mariadb
    --------------------------------------------------------------------------------------------------------------
    注意考虑没有旧数据,所以不用备份
    【9.5】、在 Primary Master(192.168.200.111)上对旧数据进行备份
    mysqldump --master-data=2 --single-transaction -R --triggers -A > all.sql
    参数解释:
    --master-data=2 备份时刻记录 master 的 Binlog 位置和 Position
    --single-transaction 获取一致性快照
    -R 备份存储过程和函数
    -triggres 备份触发器
    -A 备份所有的库
    【9.6】mysql 服务器创建复制授权用户
    在主机67Primary Master数据库执行操作
    grant replication slave on *.* to 'repl'@'192.168.200.%' identified by '123456';
    flush privileges;
    show master status;  ///查看位置以及文件信息
    +-------------------+----------+--------------+------------------+
    | File | Position | Binlog_Do_DB | Binlog_Ignore_DB |
    +-------------------+----------+--------------+------------------+
    | master-bin.000001 | 474 | | |
    +-------------------+----------+--------------+------------------+
    1 row in set (0.00 sec)
    【9.7】把数据备份复制其他主机   (由于没有旧数据所以不用操作)
    scp all.sql 192.168.200.112:/tmp/
    scp all.sql 192.168.200.113:/tmp/
    scp all.sql 192.168.200.114:/tmp/
    【9.8】导入备份数据到 112-114 主机上执行复制相关命令 (由于没有旧数据所以不用操作)
    mysql -uroot -p123456< /tmp/all.sql
    stop slave;
    CHANGE MASTER TO
    MASTER_HOST='192.168.200.111',
    MASTER_USER='repl',
    MASTER_PASSWORD='123456',
    MASTER_LOG_FILE='master-bin.000001',
    MASTER_LOG_POS=474;
    start slave;
    show slave statusG
    # 检查 IO 和 SQL 线程是否为:yes
     Slave_IO_Running: Yes
     Slave_SQL_Running: Yes
    【9.9】进入68、69、70主机中查看# 检查 IO 和 SQL 线程是否为:yes
     Slave_IO_Running: Yes
     Slave_SQL_Running: Yes
    分别在68、69、70主机中执行以下操作
    mysql -uroot -p123456
    show slave statusG
    【9.10】、主从同步故障处理
     Slave_IO_Running: No
     Slave_SQL_Running: Yes
    -----------------------------------忽略部分信息-----------------------------------
    Last_IO_Errno: 1236
     Last_IO_Error: Got fatal error 1236 from master when reading data from
    binary log: 'Could not find first log file name in binary log index file'
    -----------------------------------忽略部分信息-----------------------------------
    处理方式:
    stop slave;
    reset slave;
    set global sql_slave_skip_counter =1 ;
    start slave;
    【9.11】三台 slave 服务器设置 read_only 状态
    注意:从库对外只提供读服务,只所以没有写进 mysql 配置文件,是因为随时 server02 会提升为master
    [root@server02 ~]# mysql -uroot -p123456 -e 'set global read_only=1'   //临时的操作,也可以在数据库中直接执行set global read_only=1。
    [root@server03 ~]# mysql -uroot -p123456 -e 'set global read_only=1
    [root@server04 ~]# mysql -uroot -p123456 -e 'set global read_only=1'
    【9.12】在主机68、69、70数据库执行操作
    grant replication slave on *.* to 'repl'@'192.168.200.%' identified by '123456';
    flush privileges;
    【9.13】创建监控用户(67-70 主机上的操作):
    grant all privileges on *.* to 'root'@'192.168.200.%' identified by '123456';
    flush privileges;
    【9.14】 为自己的主机名授权:(67-70主机上的操作)
    67主机:
    grant all privileges on *.* to 'root'@'server02' identified by '123456';
    flush privileges;
    68主机:
    grant all privileges on *.* to 'root'@'server03' identified by '123456';
    flush privileges;
    69主机:
    grant all privileges on *.* to 'root'@'server04' identified by '123456';
    flush privileges;
    70主机:
    grant all privileges on *.* to 'root'@'server05' identified by '123456';
    flush privileges;
    到这里整个 mysql 主从集群环境已经搭建完毕。
    --------------------------------------------------------------------------------------------------------------
    【10】配置MHA环境 在66主机上执行操作
    【10.1】创建 MHA 的工作目录及相关配置文件
    Server05(192.168.200.115):在软件包解压后的目录里面有样例配置文件
    mkdir /etc/masterha
    cp mha4mysql-manager-0.56/samples/conf/app1.cnf /etc/masterha
    【10.2】修改 app1.cnf 配置文件
    注意:/usr/local/bin/master_ip_failover 脚本需要根据自己环境修改 ip 和网卡名称等。
    vim /etc/masterha/app1.cnf
    [server default]
    #设置 manager 的工作日志
    manager_workdir=/var/log/masterha/app1
    #设置 manager 的日志,这两条都是默认存在的
    manager_log=/var/log/masterha/app1/manager.log
    ****#设置 master 默认保存 binlog 的位置,以便 MHA 可以找到 master 日志
    master_binlog_dir=/var/lib/mysql    //yum安装跟源码安装时不一样的。
    #设置自动 failover 时候的切换脚本
    master_ip_failover_script= /usr/local/bin/master_ip_failover
    #设置 mysql 中 root 用户的密码
    password=123456
    user=root
    #ping 包的时间间隔
    ping_interval=1
    #设置远端 mysql 在发生切换时保存 binlog 的具体位置
    remote_workdir=/tmp
    #设置复制用户的密码和用户名
    repl_password=123456
    repl_user=repl******   这部分内容需要自己手动添加
    [server1]
    hostname=server02
    port=3306
    [server2]
    hostname=server03
    candidate_master=1
    port=3306
    check_repl_delay=0
    [server3]
    hostname=server04
    port=3306
    [server4]
    hostname=server05
    port=3306
    保存退出
    【10.3】在主机66上配置故障转移脚本
    vim /usr/local/bin/master_ip_failover
    #!/usr/bin/env perl
    use strict;
    use warnings FATAL => 'all';
    use Getopt::Long;
    my (
    $command, $ssh_user, $orig_master_host, $orig_master_ip,
    $orig_master_port, $new_master_host, $new_master_ip, $new_master_port,
    );
    my $vip = '192.168.200.100'; # 写入 VIP
    my $key = "1"; #非 keepalived 方式切换脚本使用的
    my $ssh_start_vip = "/sbin/ifconfig ens32:$key $vip";
    my $ssh_stop_vip = "/sbin/ifconfig ens32:$key down"; #那么这里写服务的开关命令
    $ssh_user = "root";
    GetOptions(
    'command=s' => $command,
    'ssh_user=s' => $ssh_user,
    'orig_master_host=s' => $orig_master_host,
    'orig_master_ip=s' => $orig_master_ip,
    'orig_master_port=i' => $orig_master_port,
    'new_master_host=s' => $new_master_host,
    'new_master_ip=s' => $new_master_ip,
    'new_master_port=i' => $new_master_port,
    );
    exit &main();
    sub main {
    print " IN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip=== ";
    if ( $command eq "stop" || $command eq "stopssh" ) {
    # $orig_master_host, $orig_master_ip, $orig_master_port are passed.
    # If you manage master ip address at global catalog database,
    # invalidate orig_master_ip here.
    my $exit_code = 1;
    #eval {
    # print "Disabling the VIP on old master: $orig_master_host ";
    # &stop_vip();
    # $exit_code = 0;
    #};
    eval {
    print "Disabling the VIP on old master: $orig_master_host ";
    #my $ping=`ping -c 1 10.0.0.13 | grep "packet loss" | awk -F',' '{print $3}' | awk '{print $1}'`;
    #if ( $ping le "90.0%"&& $ping gt "0.0%" ){
    #$exit_code = 0;
    #}
    #else {
    &stop_vip();
    # updating global catalog, etc
    $exit_code = 0;
    #}
    };
    if ($@) {
    warn "Got Error: $@ ";
    exit $exit_code;
    }
    exit $exit_code;
    }
    elsif ( $command eq "start" ) {
    # all arguments are passed.
    # If you manage master ip address at global catalog database,
    # activate new_master_ip here.
    # You can also grant write access (create user, set read_only=0, etc) here.
    my $exit_code = 10;
    eval {
    print "Enabling the VIP - $vip on the new master - $new_master_host ";
    &start_vip();
    $exit_code = 0;
    };
    if ($@) {
    warn $@;
    exit $exit_code;
    }
    exit $exit_code;
    }
    elsif ( $command eq "status" ) {
    print "Checking the Status of the script.. OK ";
    `ssh $ssh_user@$orig_master_ip " $ssh_start_vip "`;
    exit 0;
    }
    else {
    &usage();
    exit 1;
    }
    }
    # A simple system call that enable the VIP on the new master
    sub start_vip() {
    `ssh $ssh_user@$new_master_host " $ssh_start_vip "`;
    }
    # A simple system call that disable the VIP on the old_master
    sub stop_vip() {
    `ssh $ssh_user@$orig_master_host " $ssh_stop_vip "`;
    }
    sub usage {
    print
    "Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host
    --orig_master_ip=ip --orig_master_port=port --
    new_master_host=host --new_master_ip=ip --new_master_port=port "; }
    保存退出
    chmod +x /usr/local/bin/master_ip_failover
    【10.4】检查 MHA ssh 通信状态
    masterha_check_ssh --conf=/etc/masterha/app1.cnf
    ///出现以下内容表示成功
    Sat Dec 29 16:04:01 2018 - [debug] Connecting via SSH from
    root@server04(192.168.200.114:22) to root@server03(192.168.200.113:22)..
    Sat Dec 29 16:04:02 2018 - [debug] ok.
    Sat Dec 29 16:04:02 2018 - [info] All SSH connection tests passed successfully.
    【10.5】设置从库 relay log 的清除方式(68-70):
    mysql -uroot -p123456 -e 'set global relay_log_purge=0;'
    【10.6】检查整个集群的状态
     masterha_check_repl --conf=/etc/masterha/app1.cnf
    --------------------------------------------------------------------------------------------------------------
    【11】搭建VIP管理方式,基于keepalived控制,基于Perl脚本控制
    【11.1】Master vip 配置有两种方式,一种是通过 keepalived 或者 heartbeat 类似的软件的方式管理 VIP 的浮动,另一种为通过命令方式管理。
    通过命令方式管理 VIP 地址:
    打开在前面编辑过的文件/etc/masterha/app1.cnf,检查如下行是否正确,再检查集群状态。
    [root@server05 ~]# grep -n 'master_ip_failover_script' /etc/masterha/app1.cnf
    9:master_ip_failover_script= /usr/local/bin/master_ip_failover
    【11.2】Server01(192.168.200.66) 检查 manager 状态
    masterha_check_status --conf=/etc/masterha/app1.cnf
    【11.3】Server01(192.168.200.66) 开启 manager 监控
    [root@server01 ~]# nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover< /dev/null>/var/log/masterha/app1/manager.log 2>&1 &
    【11.4】Server01(192.168.200.66)查看 Server01 监控是否正常:
    [root@monitor ~]# masterha_check_status --conf=/etc/masterha/app1.cnf
    app1 (pid:65837) is running(0:PING_OK), master:server02
    【11.5】在67主机上检查server02 的IP  
    ip a
    【11.6】在66主机上Server01(192.168.200.66)查看启动日志
    [root@server01 ~]# cat /var/log/masterha/app1/manager.log
    【11.7】模拟主库故障
    在69从服务器上
    stop slaves;
    show slave statusG
    在67主机操作
    systemctl stop mariadb
    netstat -lnpt | grep :3306
    ip a | grep ens32
    在68、69、70主机上查看
    show slave statusG  //会发现主机IP已经发生改变  或者用ip a 查看IP的变化
    【11.8】Server01(192.168.200.66) 故障切换过程中的日志文件内容如下:
    [root@server01 ~]# tail -f /var/log/masterha/app1/manager.log
    【11.9】故障主库修复及 VIP 切回测试
    在主机67上操作
     systemctl start mariadb
     netstat -lnpt | grep :3306
    将67变成从服务器
    mysql -uroot -p123456
    stop slave;
    CHANGE MASTER TO
    MASTER_HOST='192.168.200.112',
    MASTER_USER='repl',
    MASTER_PASSWORD='123456';
    start slave;
    show slave statusG
    在主机66上做以下操作
    vim /etc/masterha/app1.cnf    //将以下3行加上
    [server1]
    hostname=server02
    port=3306
    保存退出
    //接着检查集群状态
    masterha_check_repl --conf=/etc/masterha/app1.cnf
    //开启监控
     nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover<
    /dev/null >/var/log/masterha/app1/manager.log 2>&1 &
    在68主机中操作 查看ip
    ip a
    在模拟68出错
    systemctl stop mariadb
     netstat -lnpt | grep :3306  //模拟出错
    在67主机进行操作 看ip 有没有回来
    ip a
    在69、70主机中看主从复制
     show slave statusG
    在68主机进行修复
     systemctl start mariadb
     netstat -lnpt | grep :3306
    将68变成从服务器
    mysql -uroot -p123456
    stop slave;
    CHANGE MASTER TO
    MASTER_HOST='192.168.200.112',
    MASTER_USER='repl',
    MASTER_PASSWORD='123456';
    start slave;
    show slave statusG
    在主机66上做以下操作
    vim /etc/masterha/app1.cnf    //将以下3行加上
    [server2]
    hostname=server03
    candidate_master=1
    port=3306
    保存退出
    //接着检查集群状态
    masterha_check_repl --conf=/etc/masterha/app1.cnf
    //开启监控
     nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover<
    /dev/null >/var/log/masterha/app1/manager.log 2>&1 &
    --------------------------------------------------------------------------------------------------------------
    【12】配置读请求负载均衡
    【12.1】安装 LVS 和 Keepalived   在
    192.168.200.71 和 192.168.200.72主机:
    yum -y install ipvsadm kernel-devel openssl-devel keepalived
    【12.2】master 主机设置
    192.168.200.71 lvs master 主机配置:
    ! Configuration File for keepalived
    global_defs {
     notification_email {
    crushlinux@163.com
     }
     notification_email_from crushlinux@163.com
     smtp_server 192.168.200.1
     smtp_connect_timeout 30
     router_id LVS_DEVEL
     vrrp_skip_check_adv_addr
     vrrp_strict
     vrrp_garp_interval 0
     vrrp_gna_interval 0
    }
    vrrp_instance VI_1 {
    state MASTER
     interface ens32
     virtual_router_id 51
     priority 100
     advert_int 1
     authentication {
     auth_type PASS
     auth_pass 1111
     }
     virtual_ipaddress {
     192.168.200.200
     } }
    virtual_server 192.168.200.200 3306 {
     delay_loop 6
     lb_algo wrr
     lb_kind DR
     protocol TCP
     real_server 192.168.200.69 3306 {
     weight 1
     TCP_CHECK {
     connect_timeout 10
     nb_get_retry 3
     delay_before_retry 3
     connect_port 3306
     }
     }
     real_server 192.168.200.70 3306 {
     weight 1
     TCP_CHECK {
     connect_timeout 10
     nb_get_retry 3
     delay_before_retry 3
     connect_port 3306
     }
     } }
    保存退出
    systemctl restart keepalived
     ip add | grep ens32
    ipvsadm -Ln
    【12.3】backup 主机设置
    192.168.200.72 backup 主机配置:
    ! Configuration File for keepalived
    global_defs {
     notification_email {
    crushlinux@163.com
     }
     notification_email_from crushlinux@163.com
     smtp_server 192.168.200.1
     smtp_connect_timeout 30
     router_id LVS_DEVEL
     vrrp_skip_check_adv_addr
     vrrp_strict
     vrrp_garp_interval 0
     vrrp_gna_interval 0
    }
    vrrp_instance VI_1 {
     state BACKUP
     interface ens32
     virtual_router_id 51
     priority 99
     advert_int 1
     authentication {
     auth_type PASS
     auth_pass 1111
    }
     virtual_ipaddress {
     192.168.200.200
     } }
    virtual_server 192.168.200.200 3306 {
     delay_loop 6
     lb_algo wrr
     lb_kind DR
     protocol TCP
     real_server 192.168.200.69 3306 {
     weight 1
     TCP_CHECK {
     connect_timeout 10
     nb_get_retry 3
     delay_before_retry 3
     connect_port 3306
     }
     }
     real_server 192.168.200.70 3306 {
     weight 1
     TCP_CHECK {
     connect_timeout 10
     nb_get_retry 3
     delay_before_retry 3
     connect_port 3306
     }
     } }
    保存退出
    systemctl restart keepalived
    【12.4】为数据库节点设置 VIP 地址及配置 ARP 相关参数
    slave1(192.168.200.69)和 slave2(192.168.200.70)主机配置 realserver 脚本:
    在从服务器69上进行操作
    vim realserver.sh
    #!/bin/bash
    SNS_VIP=192.168.200.200
    ifconfig lo:0 $SNS_VIP netmask 255.255.255.255 broadcast $SNS_VIP
    /sbin/route add -host $SNS_VIP dev lo:0
    echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
    echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
    echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
    echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
    sysctl -p >/dev/null 2>&1
    保存退出
     bash realserver.sh
     ip a | grep lo
    scp realserver.sh 192.168.200.114:/root/
    在70主机进行操作
     bash realserver.sh
     ip a |grep lo
    【12.5】数据库读请求测试
    Server01(192.168.200.66)担任 client 角色测试,连接 vip
    在66主机进行操作
    [root@server01 ~]# mysql -uroot -p123456 -h192.168.200.200 -P3306
    MariaDB [(none)]> exit
    Bye
    断开后在连接测试。。。。
    mysql -uroot -p123456 -h192.168.200.200 -P3306
    查看请求分流在71主机进行操作
    ipvsadm -Ln
    ipvsadm -Lnc
    【12.6】数据库连接故障处理
    [root@localhost ~]# mysql -u root -p123456 -h192.168.200.113 -P3306
    ERROR 1129 (HY000): Host '192.168.200.113' is blocked because of many connection errors;
    unblock with 'mysqladmin flush-hosts'
    [root@server04 ~]# mysqladmin -uroot -p123456 flush-hosts
    =========================完成==================================
     
     
  • 相关阅读:
    Windows Server 2008 R2 Enterprise 安装.NET Framework 4.0
    layer弹层content写错导致div复制了一次,导致id失效 $().val() 获取不到dispaly:none div里表单的值
    IIS 注册.NET Framework 4.0 命令
    记一次神秘又刺激的装机
    HTTP Error 503. The service is unavailable.
    找到多个与名为“Home”的控制器匹配的类型。
    Discuz论坛广告横幅大图在百度app内无法显示,百度app默认开启了广告屏蔽
    解决Antimalware Service Executable CPU,内存占用高的问题
    Discuz 部署,500 – 内部服务器错误。 您查找的资源存在问题,因而无法显示。
    IIS部署网站只有首页能访问,其他链接失效/运行.net+Access网站-可能原因:IIS未启用32位应用程序模式
  • 原文地址:https://www.cnblogs.com/elin989898/p/11969346.html
Copyright © 2011-2022 走看看