zoukankan      html  css  js  c++  java
  • Redis Cluster

    1、单机redis在海量数据面前的瓶颈

    2、怎么才能够突破单机瓶颈,让redis支撑海量数据?

    3、redis的集群架构

    redis cluster

    支撑N个redis master node,每个master node都可以挂载多个slave node

    读写分离的架构,对于每个master来说,写就写到master,然后读就从mater对应的slave去读

    高可用,因为每个master都有salve节点,那么如果mater挂掉,redis cluster这套机制,就会自动将某个slave切换成master

    redis cluster(多master + 读写分离 + 高可用)

    我们只要基于redis cluster去搭建redis集群即可,不需要手工去搭建replication复制+主从架构+读写分离+哨兵集群+高可用

    4、redis cluster vs. replication + sentinal

    如果你的数据量很少,主要是承载高并发高性能的场景,比如你的缓存一般就几个G,单机足够了

    replication,一个mater,多个slave,要几个slave跟你的要求的读吞吐量有关系,然后自己搭建一个sentinal集群,去保证redis主从架构的高可用性,就可以了

    redis cluster,主要是针对海量数据+高并发+高可用的场景,海量数据,如果你的数据量很大,那么建议就用redis cluster

    hash算法 -> 一致性hash算法(memcached) -> redis cluster,hash slot算法

    用不同的算法,就决定了在多个master节点的时候,数据如何分布到这些节点上去,解决这个问题

    1、redis cluster介绍

    redis cluster

    (1)自动将数据进行分片,每个master上放一部分数据
    (2)提供内置的高可用支持,部分master不可用时,还是可以继续工作的

    在redis cluster架构下,每个redis要放开两个端口号,比如一个是6379,另外一个就是加10000的端口号,比如16379

    16379端口号是用来进行节点间通信的,也就是cluster bus的东西,集群总线。cluster bus的通信,用来进行故障检测,配置更新,故障转移授权

    cluster bus用了另外一种二进制的协议,主要用于节点间进行高效的数据交换,占用更少的网络带宽和处理时间

    2、最老土的hash算法和弊端(大量缓存重建)

    3、一致性hash算法(自动缓存迁移)+虚拟节点(自动负载均衡)

    3、一致性hash算法(自动缓存迁移)+虚拟节点(自动负载均衡)

    4、redis cluster的hash slot算法

    redis cluster有固定的16384个hash slot,对每个key计算CRC16值,然后对16384取模,可以获取key对应的hash slot

    redis cluster中每个master都会持有部分slot,比如有3个master,那么可能每个master持有5000多个hash slot

    hash slot让node的增加和移除很简单,增加一个master,就将其他master的hash slot移动部分过去,减少一个master,就将它的hash slot移动到其他master上去

    移动hash slot的成本是非常低的

    客户端的api,可以对指定的数据,让他们走同一个hash slot,通过hash tag来实现

     redis cluster: 自动,master+slave复制和读写分离,master+slave高可用和主备切换,支持多个master的hash slot支持数据分布式存储

    停止之前所有的实例,包括redis主从和哨兵集群

    redis-cli -h 192.168.31.187 -p 6379 SHUTDOW

    1、redis cluster的重要配置

    cluster-enabled <yes/no>

    cluster-config-file <filename>:这是指定一个文件,供cluster模式下的redis实例将集群状态保存在那里,包括集群中其他机器的信息,比如节点的上线和下限,故障转移,不是我们去维护的,给它指定一个文件,让redis自己去维护的

    cluster-node-timeout <milliseconds>:节点存活超时时长,超过一定时长,认为节点宕机,master宕机的话就会触发主备切换,slave宕机就不会提供服务

    2、在三台机器上启动6个redis实例

    (1)在eshop-cache03上部署目录

    /etc/redis(存放redis的配置文件),/var/redis/6379(存放redis的持久化文件)

    (2)编写配置文件

    redis cluster集群,要求至少3个master,去组成一个高可用,健壮的分布式的集群,每个master都建议至少给一个slave,3个master,3个slave,最少的要求

    正式环境下,建议都是说在6台机器上去搭建,至少3台机器

    保证,每个master都跟自己的slave不在同一台机器上,如果是6台自然更好,一个master+一个slave就死了

    3台机器去搭建6个redis实例的redis cluster

    mkdir -p /etc/redis-cluster
    mkdir -p /var/log/redis
    mkdir -p /var/redis/7001
    
    port 7001
    cluster-enabled yes
    cluster-config-file /etc/redis-cluster/node-7001.conf
    cluster-node-timeout 15000
    daemonize	yes							
    pidfile		/var/run/redis_7001.pid 						
    dir 		/var/redis/7001		
    logfile /var/log/redis/7001.log
    bind 192.168.31.187		
    appendonly yes
    

     至少要用3个master节点启动,每个master加一个slave节点,先选择6个节点,启动6个实例

    将上面的配置文件,在/etc/redis下放6个,分别为: 7001.conf,7002.conf,7003.conf,7004.conf,7005.conf,7006.conf

    (3)准备生产环境的启动脚本

    在/etc/init.d下,放6个启动脚本,分别为: redis_7001, redis_7002, redis_7003, redis_7004, redis_7005, redis_7006

    每个启动脚本内,都修改对应的端口号

    (4)分别在3台机器上,启动6个redis实例

    将每个配置文件中的slaveof给删除

    3、创建集群

    下面方框内的内容废弃掉

    wget https://cache.ruby-lang.org/pub/ruby/2.3/ruby-2.3.1.tar.gz
    tar -zxvf ruby-2.3.1.tar.gz
    ./configure -prefix=/usr/local/ruby
    make && make install
    cd /usr/local/ruby
    cp bin/ruby /usr/local/bin
    cp bin/gem /usr/local/bin
    
    wget http://rubygems.org/downloads/redis-3.3.0.gem
    gem install -l ./redis-3.3.0.gem
    gem list --check redis gem
    

      

    yum install -y ruby
    yum install -y rubygems
    gem install redis

    cp /usr/local/redis-3.2.8/src/redis-trib.rb /usr/local/bin

    redis-trib.rb create --replicas 1 192.168.31.187:7001 192.168.31.187:7002 192.168.31.19:7003 192.168.31.19:7004 192.168.31.227:7005 192.168.31.227:7006

    --replicas: 每个master有几个slave

    6台机器,3个master,3个slave,尽量自己让master和slave不在一台机器上

    yes

    redis-trib.rb check 192.168.31.187:7001

    4、读写分离+高可用+多master

    读写分离:每个master都有一个slave
    高可用:master宕机,slave自动被切换过去
    多master:横向扩容支持更大数据量

    redis cluster,提供了多个master,数据可以分布式存储在多个master上;
    每个master都带着slave,自动就做读写分离; 每个master如果故障,那么久会自动将slave切换成master,高可用

    1、实验多master写入 -> 海量数据的分布式存储

    你在redis cluster写入数据的时候,其实是你可以将请求发送到任意一个master上去执行

    但是,每个master都会计算这个key对应的CRC16值,然后对16384个hashslot取模,找到key对应的hashslot,找到hashslot对应的master

    如果对应的master就在自己本地的话,set mykey1 v1,mykey1这个key对应的hashslot就在自己本地,那么自己就处理掉了

    但是如果计算出来的hashslot在其他master上,那么就会给客户端返回一个moved error,告诉你,你得到哪个master上去执行这条写入的命令

    什么叫做多master的写入,就是每条数据只能存在于一个master上,不同的master负责存储不同的数据,分布式的数据存储

    100w条数据,5个master,每个master就负责存储20w条数据,分布式数据存储

    大型的java系统架构,还专注在大数据系统架构,分布式,分布式存储,hadoop hdfs,分布式资源调度,hadoop yarn,分布式计算,hadoop mapreduce/hive

    分布式的nosql数据库,hbase,分布式的协调,zookeeper,分布式通用计算引擎,spark,分布式的实时计算引擎,storm

    如果你要处理海量数据,就涉及到了一个名词,叫做大数据,只要涉及到大数据,那么其实就会涉及到分布式

    redis是作为大规模缓存架构中的底层的核心存储的支持

    高并发、高性能、每日上亿流量,redis持久化 -> 灾难的时候,做数据恢复,复制 -> 读写分离,扩容slave,支撑更高的读吞吐,
    redis怎么支撑读QPS超过10万,几十万; 哨兵,在redis主从,一主多从,怎么保证99.99%可用性; redis cluster,海量数据

    redis cluster,跟elasticsearch,很多底层的分布式原理,都是类似的

    redis AOF,fsync

    redis cluster,写可以到任意master,任意master计算key的hashslot以后,告诉client,重定向,路由到其他mater去执行,分布式存储的一个经典的做法

    elasticsearch,建立索引的时候,也会根据doc id/routing value,做路由,路由到某个其他节点,重定向到其他节点去执行

    分布式的一些,hadoop,spark,storm里面很多核心的思想都是类似的

    2、实验不同master各自的slave读取 -> 读写分离

    在这个redis cluster中,如果你要在slave读取数据,那么需要带上readonly指令,get mykey1

    redis-cli -c启动,就会自动进行各种底层的重定向的操作

    实验redis cluster的读写分离的时候,会发现有一定的限制性,默认情况下,redis cluster的核心的理念,主要是用slave做高可用的,
    每个master挂一两个slave,主要是做数据的热备,还有master故障时的主备切换,实现高可用的

    redis cluster默认是不支持slave节点读或者写的,跟手动基于replication搭建的主从架构不一样的

    slave node,readonly,get,这个时候才能在slave node进行读取

    读写分离,是为了什么,主要是因为要建立一主多从的架构,才能横向任意扩展slave node去支撑更大的读吞吐量

    redis cluster的架构下,实际上本身master就是可以任意扩展的,你如果要支撑更大的读吞吐量,或者写吞吐量,或者数据量,
    都可以直接对master进行横向扩展就可以了,也可以实现支撑更高的读吞吐的效果

    3、实验自动故障切换 -> 高可用性

    redis-trib.rb check 192.168.31.187:7001

    比如把master1,187:7001,杀掉,看看它对应的19:7004能不能自动切换成master,可以自动切换

    切换成master后的19:7004,可以直接读取数据

    再试着把187:7001给重新启动,恢复过来,自动作为slave挂载到了19:7004上面去

    redis cluster模式下,不建议做物理的读写分离了

    建议通过master的水平扩容,来横向扩展读写吞吐量,还有支撑更多的海量数据

    redis单机,读吞吐是5w/s,写吞吐2w/s

    扩展redis更多master,那么如果有5台master,不就读吞吐可以达到总量25/s QPS,写可以达到10w/s QPS

    redis单机,内存,6G,8G,fork类操作的时候很耗时,会导致请求延时的问题

    扩容到5台master,能支撑的总的缓存数据量就是30G,40G -> 100台,600G,800G,甚至1T+,海量数据

    redis扩容:

    1、加入新master

    mkdir -p /var/redis/7007
    
    port 7007
    cluster-enabled yes
    cluster-config-file /etc/redis-cluster/node-7007.conf
    cluster-node-timeout 15000
    daemonize	yes							
    pidfile		/var/run/redis_7007.pid 						
    dir 		/var/redis/7007		
    logfile /var/log/redis/7007.log
    bind 192.168.31.227		
    appendonly yes
    

      

    搞一个7007.conf,再搞一个redis_7007启动脚本

    手动启动一个新的redis实例,在7007端口上

    redis-trib.rb add-node 192.168.31.227:7007 192.168.31.187:7001
    
    redis-trib.rb check 192.168.31.187:7001
    

      连接到新的redis实例上,cluster nodes,确认自己是否加入了集群,作为了一个新的master

    2、reshard一些数据过去

    resharding的意思就是把一部分hash slot从一些node上迁移到另外一些node上

    redis-trib.rb reshard 192.168.31.187:7001

    要把之前3个master上,总共4096个hashslot迁移到新的第四个master上去

    How many slots do you want to move (from 1 to 16384)?

    3、添加node作为slave

    eshop-cache03
    
    mkdir -p /var/redis/7008
    
    port 7008
    cluster-enabled yes
    cluster-config-file /etc/redis-cluster/node-7008.conf
    cluster-node-timeout 15000
    daemonize	yes							
    pidfile		/var/run/redis_7008.pid 						
    dir 		/var/redis/7008		
    logfile /var/log/redis/7008.log
    bind 192.168.31.227		
    appendonly yes
    
    redis-trib.rb add-node --slave --master-id 28927912ea0d59f6b790a50cf606602a5ee48108 192.168.31.227:7008 192.168.31.187:7001
    

      

    4、删除node

    先用resharding将数据都移除到其他节点,确保node为空之后,才能执行remove操作

    redis-trib.rb del-node 192.168.31.187:7001 bd5a40a6ddccbd46a0f4a2208eb25d2453c2a8db

    2个是1365,1个是1366

    当你清空了一个master的hashslot时,redis cluster就会自动将其slave挂载到其他master上去

    这个时候就只要删除掉master就可以了

    slave的自动迁移

    比如现在有10个master,每个有1个slave,然后新增了3个slave作为冗余,有的master就有2个slave了,有的master出现了salve冗余

    如果某个master的slave挂了,那么redis cluster会自动迁移一个冗余的slave给那个master

    只要多加一些冗余的slave就可以了

    为了避免的场景,就是说,如果你每个master只有一个slave,万一说一个slave死了,然后很快,master也死了,那可用性还是降低了

    但是如果你给整个集群挂载了一些冗余slave,那么某个master的slave死了,冗余的slave会被自动迁移过去,作为master的新slave,此时即使那个master也死了

    还是有一个slave会切换成master的

    之前有一个master是有冗余slave的,直接让其他master其中的一个slave死掉,然后看有冗余slave会不会自动挂载到那个master

  • 相关阅读:
    html 问题
    bookshelf
    requireJS 用法
    autoprefixer
    移动端 代码块
    D3 学习资源
    折线图
    iscroll 4 下拉 上拉 加载
    iscroll
    重金悬赏的微软:提交Win8漏洞以及发布Win8应用
  • 原文地址:https://www.cnblogs.com/sunliyuan/p/11333088.html
Copyright © 2011-2022 走看看