zoukankan      html  css  js  c++  java
  • 搭建redis的读写分离架构(包含节点间认证口令)

    redis,你要搞高并发的话,不可避免,要把底层的缓存搞得很好

    mysql,高并发,做到了,那么也是通过一系列复杂的分库分表,订单系统,事务要求的,QPS到几万,比较高了

    单机在几万

    读写分离,一般来说,对缓存,一般都是用来支撑读高并发的,写的请求是比较少的,可能写请求也就一秒钟几千,一两千

    大量的请求都是读,一秒钟二十万次读

    读写分离

    主从架构 -> 读写分离 -> 支撑10万+读QPS的架构

    接下来要讲解的一个topic

    redis replication

    redis主从架构 -> 读写分离架构 -> 可支持水平扩展的读高并发架构

    redis replication的核心机制

    (1)redis采用异步方式复制数据到slave节点,不过redis 2.8开始,slave node会周期性地确认自己每次复制的数据量
    (2)一个master node是可以配置多个slave node的
    (3)slave node也可以连接其他的slave node
    (4)slave node做复制的时候,是不会block master node的正常工作的
    (5)slave node在做复制的时候,也不会block对自己的查询操作,它会用旧的数据集来提供服务; 但是复制完成的时候,需要删除旧数据集,加载新数据集,这个时候就会暂停对外服务了
    (6)slave node主要用来进行横向扩容,做读写分离,扩容的slave node可以提高读的吞吐量

    slave,高可用性,有很大的关系

    master持久化对于主从架构的安全保障的意义


    如果采用了主从架构,那么建议必须开启master node的持久化!

    不建议用slave node作为master node的数据热备,因为那样的话,如果你关掉master的持久化,可能在master宕机重启的时候数据是空的,然后可能一经过复制,salve node数据也丢了

    master -> RDB和AOF都关闭了 -> 全部在内存中

    master宕机,重启,是没有本地数据可以恢复的,然后就会直接认为自己IDE数据是空的

    master就会将空的数据集同步到slave上去,所有slave的数据全部清空

    100%的数据丢失

    master节点,必须要使用持久化机制

    第二个,master的各种备份方案,要不要做,万一说本地的所有文件丢失了; 从备份中挑选一份rdb去恢复master; 这样才能确保master启动的时候,是有数据的

    即使采用了后续讲解的高可用机制,slave node可以自动接管master node,但是也可能sentinal还没有检测到master failure,master node就自动重启了,还是可能导致上面的所有slave node数据清空故障


    1、主从架构的核心原理

    当启动一个slave node的时候,它会发送一个PSYNC命令给master node

    如果这是slave node重新连接master node,那么master node仅仅会复制给slave部分缺少的数据; 否则如果是slave node第一次连接master node,那么会触发一次full resynchronization

    开始full resynchronization的时候,master会启动一个后台线程,开始生成一份RDB快照文件,同时还会将从客户端收到的所有写命令缓存在内存中。RDB文件生成完毕之后,master会将这个RDB发送给slave,slave会先写入本地磁盘,然后再从本地磁盘加载到内存中。然后master会将内存中缓存的写命令发送给slave,slave也会同步这些数据。

    slave node如果跟master node有网络故障,断开了连接,会自动重连。master如果发现有多个slave node都来重新连接,仅仅会启动一个rdb save操作,用一份数据服务所有slave node。

    2、主从复制的断点续传

    从redis 2.8开始,就支持主从复制的断点续传,如果主从复制过程中,网络连接断掉了,那么可以接着上次复制的地方,继续复制下去,而不是从头开始复制一份

    master node会在内存中常见一个backlog,master和slave都会保存一个replica offset还有一个master id,offset就是保存在backlog中的。如果master和slave网络连接断掉了,slave会让master从上次的replica offset开始继续复制

    但是如果没有找到对应的offset,那么就会执行一次resynchronization

    3、无磁盘化复制

    master在内存中直接创建rdb,然后发送给slave,不会在自己本地落地磁盘了

    repl-diskless-sync
    repl-diskless-sync-delay,等待一定时长再开始复制,因为要等更多slave重新连接过来

    4、过期key处理

    slave不会过期key,只会等待master过期key。如果master过期了一个key,或者通过LRU淘汰了一个key,那么会模拟一条del命令发送给slave。

    =============================================================================================================================================

     


    1、复制的完整流程

    (1)slave node启动,仅仅保存master node的信息,包括master node的host和ip,但是复制流程没开始

    master host和ip是从哪儿来的,redis.conf里面的slaveof配置的

    (2)slave node内部有个定时任务,每秒检查是否有新的master node要连接和复制,如果发现,就跟master node建立socket网络连接
    (3)slave node发送ping命令给master node
    (4)口令认证,如果master设置了requirepass,那么salve node必须发送masterauth的口令过去进行认证
    (5)master node第一次执行全量复制,将所有数据发给slave node
    (6)master node后续持续将写命令,异步复制给slave node

    2、数据同步相关的核心机制

    指的就是第一次slave连接msater的时候,执行的全量复制,那个过程里面你的一些细节的机制

    (1)master和slave都会维护一个offset

    master会在自身不断累加offset,slave也会在自身不断累加offset
    slave每秒都会上报自己的offset给master,同时master也会保存每个slave的offset

    这个倒不是说特定就用在全量复制的,主要是master和slave都要知道各自的数据的offset,才能知道互相之间的数据不一致的情况

    (2)backlog

    master node有一个backlog,默认是1MB大小
    master node给slave node复制数据时,也会将数据在backlog中同步写一份
    backlog主要是用来做全量复制中断候的增量复制的

    (3)master run id

    info server,可以看到master run id
    如果根据host+ip定位master node,是不靠谱的,如果master node重启或者数据出现了变化,那么slave node应该根据不同的run id区分,run id不同就做全量复制
    如果需要不更改run id重启redis,可以使用redis-cli debug reload命令

    (4)psync

    从节点使用psync从master node进行复制,psync runid offset
    master node会根据自身的情况返回响应信息,可能是FULLRESYNC runid offset触发全量复制,可能是CONTINUE触发增量复制

    3、全量复制

    (1)master执行bgsave,在本地生成一份rdb快照文件
    (2)master node将rdb快照文件发送给salve node,如果rdb复制时间超过60秒(repl-timeout),那么slave node就会认为复制失败,可以适当调节大这个参数
    (3)对于千兆网卡的机器,一般每秒传输100MB,6G文件,很可能超过60s
    (4)master node在生成rdb时,会将所有新的写命令缓存在内存中,在salve node保存了rdb之后,再将新的写命令复制给salve node
    (5)client-output-buffer-limit slave 256MB 64MB 60,如果在复制期间,内存缓冲区持续消耗超过64MB,或者一次性超过256MB,那么停止复制,复制失败
    (6)slave node接收到rdb之后,清空自己的旧数据,然后重新加载rdb到自己的内存中,同时基于旧的数据版本对外提供服务
    (7)如果slave node开启了AOF,那么会立即执行BGREWRITEAOF,重写AOF

    rdb生成、rdb通过网络拷贝、slave旧数据的清理、slave aof rewrite,很耗费时间

    如果复制的数据量在4G~6G之间,那么很可能全量复制时间消耗到1分半到2分钟

    4、增量复制

    (1)如果全量复制过程中,master-slave网络连接断掉,那么salve重新连接master时,会触发增量复制
    (2)master直接从自己的backlog中获取部分丢失的数据,发送给slave node,默认backlog就是1MB
    (3)msater就是根据slave发送的psync中的offset来从backlog中获取数据的

    5、heartbeat

    主从节点互相都会发送heartbeat信息

    master默认每隔10秒发送一次heartbeat,salve node每隔1秒发送一个heartbeat

    6、异步复制

    master每次接收到写命令之后,现在内部写入数据,然后异步发送给slave node

    =============================================================================================================================================

    一主一从

    最基础的主从复制模型,主节点负责处理写请求,从节点负责处理读请求,主节点使用RDB持久化模式,从节点使用AOF持久化模式:

     

    一主多从

    一个主节点可以有多个从节点,但每个从节点只能有一个主节点。一主多从适用于写少读多的场景,多个从节点可以分担读请求负载,提升并发:

    树状主从

     

    主从复制过程大体可以分为3个阶段:连接建立阶段(即准备阶段)、数据同步阶段、命令传播阶段。

    在从节点执行 slaveof 命令后,复制过程便开始按下面的流程运作:

    保存主节点信息:配置slaveof之后会在从节点保存主节点的信息。
    主从建立socket连接:定时发现主节点以及尝试建立连接。
    发送ping命令:从节点定时发送ping给主节点,主节点返回PONG。若主节点没有返回PONG或因阻塞无法响应导致超时,则主从断开,在下次定时任务时会从新ping主节点。
    权限验证:若主节点开启了ACL或配置了requirepass参数,则从节点需要配置masteruser和masterauth参数才能保证主从正常连接。
    同步数据集:首次连接,全量同步。
    命令持续复制:全量同步完成后,保持增量同步。

    关键是怎么搭建呢???

    一主一从,往主节点去写,在从节点去读,可以读到,主从架构就搭建成功了

    打开之前配置好的环境,31-20的是已经具备了单机的环境的,31-186目前还是没有redis环境配置的。

    安装单机版redis

    大家可以自己去官网下载,当然也可以用课程提供的压缩包

    1
    2
    3
    4
    5
    wget http://downloads.sourceforge.net/tcl/tcl8.6.1-src.tar.gz
    tar -xzvf tcl8.6.1-src.tar.gz
    cd 当前安装目录/tcl8.6.1/unix/
    ./configure
    make && make install

    使用redis-4.0.11.tar.gz(稳定版)

    wget http://download.redis.io/releases/redis-4.0.11.tar.gz
    tar -zxvf redis-4.0.11.tar.gz
    cd redis-4.0.11.tar.gz
    make && make test && make install

    (1)redis utils目录下,有个redis_init_script脚本

    cp -r /root/redis-4.0.11/utils/redis_init_script /etc/init.d/

    (2)将redis_init_script脚本拷贝到linux的/etc/init.d目录中,将redis_init_script重命名为redis_6379,6379是我们希望这个redis实例监听的端口号

    cp -r /root/redis-4.0.11/utils/redis_init_script /etc/init.d/redis_6379


    (3)修改redis_6379脚本的第6行的REDISPORT,设置为相同的端口号(默认就是6379)
    (4)创建两个目录:/etc/redis(存放redis的配置文件),/var/redis/6379(存放redis的持久化文件)

    (5)修改redis配置文件(默认在根目录下,redis.conf),拷贝到/etc/redis目录中,修改名称为6379.conf
    cp /root/redis-4.0.11/redis.conf /etc/redis/6379.conf
    (6)修改redis.conf中的部分配置为生产环境

    daemonize yes 让redis以daemon进程运行
    pidfile /var/run/redis_6379.pid 设置redis的pid文件位置
    port 6379 设置redis的监听端口号
    dir /var/redis/6379 设置持久化文件的存储位置

    (7)让redis跟随系统启动自动启动

    在redis_6379脚本中,最上面,加入两行注释

    # chkconfig: 2345 90 10

    # description: Redis is a persistent key-value database

    控制行命令:  chkconfig redis_6379 on

    -------------------------------------------------------------------------


    31-186找到 6379.conf

    slave node上修改:      
    slaveof 192.168.31.20 6379   [从哪个服务器读取数据]
    slave-read-only      [只读]
    masterauth redis-pass   [连接主节点的钥匙]
    bind 192.168.31.186     [自己ip]
    -----------------------------------------
    master node 上修改:

    requirepass: redis-pass   [主节点的密码]

    bind 192.168.31.20     [自己ip]
    --------------------------------------
    在slave node上配置:slaveof 主节点ip 6379,即可
    redis slave node只读,默认开启,slave-read-only
    开启了只读的redis slave node,会拒绝所有的写操作,这样可以强制搭建成读写分离的架构
    master上启用安全认证,requirepass
    requirepass: redis-pass

    修改连接口令:
    slave 连接口令,masterauth
    修改远程访问的bind
    bind  本机ip

    连接master

     提示我们需要口令才能操作。

     主节点现在可以使用。

     接下来看从节点。

     yum install -y telnet

     master的宿主机连不通,需要配置一下主节点的6379.conf的bind 127.0.0.1 更改为具体自己的ip

     telnet 192.168.31.20 6379

     可以联通

     然后从节点也需要把bind改成自己需要连的ip,刚开始以为要连主节点的ip,发现使用redis-cli连不上,后来才知道需要 redis-cli -h 加自己ip的地址才可以拿到主节点添加的数据。

     从节点添加数据是不允许的。

    之后连接主节点,发现主节点连不上了。奇怪

     

     

     发现从节点连上之后,主节点之前的连接方式不好使了,需要通过redis-cli -h 192.168.31.20 ,才可以访问。

    那么我们来设置一下set个值试试。

     不行,需要主节点登录。

     从节点一样可以拿到

    ------------- 一波三折,之前搭建的并没成功,2022年2月3日重新来过------------

    为了保证数据完整性,把主节点和从节点都开启了日志,开启了读写分离,更改了密码。

    目前的现状:

    开机启动,通过脚本实现  etc/init.d下有个redis_6379文件
    /etc/redis(存放redis的配置文件)
    /var/redis/6379(存放redis的持久化文件)
    

      主节点修改:

    requirepass "123456"
    appendonly yes
    /usr/local/redis/log/redis.log
    新建文件夹避免报错:/usr/local/redis/log/
    masterauth "123456"
    

      从节点1:

    logfile  "/usr/local/redis/log/redis.log"
    masterauth "123456"
    appendonly yes
    requirepass "123456"
    slaveof  192.168.31.20 6379
    创建:/usr/local/redis/log 文件夹
    

      从节点2:

    logfile  "/usr/local/redis/log/redis.log"
    masterauth "123456"
    requirepass "123456"
    slaveof  192.168.31.20 6379
     
    创建:/usr/local/redis/log 文件夹
    

      这里需要注意的是:redis5.0以上的版本复制是使用replicaof代替

    删除对应日志文件

     cd /var/redis/6379 
     里面就 一个持久化文件,rm -rf 删除掉
     

    先重启主然后重启从

     远程连接后,set数据进行测试,完成。

  • 相关阅读:
    poj 2362 Square (dfs+剪枝)
    三种素数筛法汇总
    2009’河北省高教网络技能大赛一网站建设部分
    寒假每一天
    寒假每一天
    寒假每一天
    寒假每一天
    统计文本文件
    寒假每一天
    寒假每一天
  • 原文地址:https://www.cnblogs.com/q1359720840/p/15617316.html
Copyright © 2011-2022 走看看