zoukankan      html  css  js  c++  java
  • redis 缓存应用

     第1章 部署与安装

    wget http://download.redis.io/releases/redis-3.2.10.tar.gz

    tar xf redis-3.2.10.tar.gz

    cd redis-3.2.10/deps/

    make geohash-int  hiredis  jemalloc  linenoise  lua

    cd ..

    make

    简化路径

    [root@db-03 data]# tail -1  /etc/profile

    export PATH=$PATH:/server/tools/redis-3.2.10/src

    开启注意路径

    ./redis-server &

    进入

    redis-cli  (本机进入)

    [root@db2 src]# pwd     

    /root/redis-3.2.10/src

    [root@db2 src]# ./redis-cli -h 10.0.0.53   -a root(密码)(远程进入)

    或者

    redis-cli -h 10.0.0.52

    auth 123

    1.1 修改配置

    首先关闭redis

    [root@redis ~]# redis-cli

    127.0.0.1:6379> auth 123

    OK

    127.0.0.1:6379> shutdown

    创建data目录

    vim /etc/redis.conf

    daemonize  no/yes               #是否后台运行:

    port 6379                       #默认端口:                   

    appendonly no/yes               # AOF日志开关是否打开:

    logfile /data/6379/redis.log    #日志文件位置

    dbfilename dump.rdb             #RDB持久化数据文件:

    ===================================================================================================

    三种设置链接策略(配置文件中)

    Bind

        指定IP进行监听 bind 10.0.0.52  ip2 ip3 ip4             常用

    禁止protected-mode

        protected-mode yes/no (保护模式,是否只允许本地访问)  不常用

    增加requirepass  {password}                             常用

        requirepass root

    在redis-cli中使用

        auth {password} 进行认证

    ===================================================================================================

    在线查询配置信息:

    127.0.0.1:6379> config get  *

    获取的的信息一般两行为一对儿,上面是是键,下面是值。修改键值的时候config set *

    127.0.0.1:6379> config get requirepass      密码

    在线修改

    127.0.0.1:6379> config set requirepass 123

    第2章 Redis数据持久化

    2.1 RDB

    持久化:基于快照的持久化功能。保存一个时刻的数据状态。企业常用的持久化功能,一般还可以用作备份。

    配置如下黑体部分

    命令行每次执行一次save就相当于是持久化一次,但是在配置文件中可以使用指定时间+次数的持久化。

    [root@db-03 ~]# cat /etc/redis.conf

    daemonize yes

    port 6379

    logfile /data/6379/redis.log

    requirepass root

    dbfilename dump.rdb         #持久化文件名

    dir /data/6379              #持久化文件存放位置

    save 900 1                 #900秒(15分钟)内有1个更改

    save 300 10                 #300秒(5分钟)内有10个更改

    save 60 10000               #60秒内有10000个更改

    appendfsync everysec

    stop-writes-on-bgsave-error yes    #后台备份进程出错时,主进程停不停止写入? 主进程不停止容易造成数据不一致

    rdbcompression yes #导出的rdb文件是否压缩 如果rdb的大小很大的话建议这么做

    rdbchecksum yes  #导入rbd恢复时数据时,要不要检验rdb的完整性 验证版本是不是一致

    2.2 AOF

    持久化:只追加日志的模式,会将redis一段时间内修改命令记录下来。较为安全的一种持久化方式。

    appendonly yes                      #是否打开aof日志功能

    appendfilename "appendonly.aof"     # aof文件名字

    以下配置三选一:

    appendfsync always                  #每1个命令,都立即同步到aof

    appendfsync everysec                #每秒写1次

    appendfsync no                      #写入工作交给操作系统,由操作系统判断缓冲区大小,统一写入到aof.

    ===================================================================================================

    额外的配置参数:

    no-appendfsync-on-rewrite yes/no

    auto-aof-rewrite-percentage 100

    auto-aof-rewrite-min-size 64mb           一般会用到

    正在导出rdb快照的过程中,要不要停止同步aof

    aof文件大小比起上次重写时的大小,增长率100%时重写,缺点:业务开始的时候,会重复重写多次。

    aof文件,至少超过64M时,重写    

    第3章 五种数据类型

    String                  字符串类型

    Hash                 字典类型

    List                     列表

    Set                  集合

    Sorted set            有序集合

    3.1 全局key

    key:                value

    键   :            值

    name  :             zhang3

    stu:               id  1   name  zhang3

    name:           [zhangsan,lisi,wangwu]

    ---------------------------

    KEYS *                      查看KEY支持通配符

    DEL                         删除给定的一个或多个key

    EXISTS                      检查是否存在

    RENAME                      变更KEY名

    SORT                        键值排序,有非数字时报错

    TYPE                        返回键所存储值的类型

    DUMP RESTORE                序例化与反序列化

    EXPIRE PEXPIRE             以秒毫秒设定生存时间

    TTL PTTL                   以秒毫秒为单位返回生存时间

    PERSIST                     取消生存实现设置

    RANDOMKEY                   返回数据库中的任意键

    3.2 String 字符串类型

    String          字符串类型

    应用场景

    常规计数:微博数,粉丝数等

    incr            加

    decr           减

    INCRBY jnl 10000  

    decrby jnl 5000

    set test hello                        设置单个键值对儿

    get test     

    mset bq wangbaoqiang yf chengyufan    设置多个键值对儿

    mget bq yf                            取出多个键值对儿的值

    APPEND bq shigehaoren                 追加键值对的值

    ===================

    set mykey "test"                为键设置新值,并覆盖原有值

    getset mycounter 0              设置值,取值同时进行

    setex mykey 10 "hello"          设置指定 Key 的过期时间为10秒,在存活时间可以获取value

    setnx mykey "hello"             若该键不存在,则为键设置新值

    mset key3  "zyx"  key4 "xyz"    批量设置键

    del mykey                       删除已有键

    append mykey "hello"            若该键并不存在,返回当前 Value 的长度

                                    该键已经存在,返回追加后 Value的长度

    incr mykey                      值增加1,若该key不存在,创建key,初始值设为0,增加后结果为1

    decrby  mykey  5                值减少5

    setrange mykey 20 dd            把第21和22个字节,替换为dd, 超过value长度,自动补0

    查 

    exists mykey                    判断该键是否存在,存在返回 1,否则返回0

    get mykey                       获取Key对应的value

    strlen mykey                    获取指定 Key 的字符长度

    ttl mykey                       查看一下指定 Key 的剩余存活时间(秒数)

    getrange mykey 1 20             获取第2到第20个字节,若20超过value长度,则截取第2个和后面所有的

    mget key3 key4                  批量获取键

    3.3 hash

    应用场景:

    存储部分变更的数据,如用户信息等。

    stu1:

        id   name  age gender    filed

        1    2      3    4      value

    hmset stu id 1 name zhang3 age 20 gender male

    hmget stu  id name age gender  

    hgetall stu

    hset myhash field1 "s"   

    若字段field1不存在,创建该键及与其关联的Hashes, Hashes中,key为field1 ,并设value为s ,若存在会覆盖原value

    hsetnx myhash field1 s   

    若字段field1不存在,创建该键及与其关联的Hashes, Hashes中,key为field1 ,并设value为s, 若字段field1存在,则无效

    hmset myhash field1 "hello" field2 "world       一次性设置多个字段

    hdel myhash field1                      删除 myhash 键中字段名为 field1 的字段

    del myhash                              删除键

    改 

    hincrby myhash field 1                  给field的值加1

    hget myhash field1                      获取键值为 myhash,字段为 field1 的值

    hlen myhash                             获取myhash键的字段数量

    hexists myhash field1                   判断 myhash 键中是否存在字段名为 field1 的字段

    hmget myhash field1 field2 field3       一次性获取多个字段

    hgetall myhash                          返回 myhash 键的所有字段及其值

    hkeys myhash                            获取myhash 键中所有字段的名字

    hvals myhash       

    3.4 List列表

    应用场景

    消息队列系统

    比如sina微博:

    在Redis中我们的最新微博ID使用了常驻缓存,这是一直更新的。

    但是做了限制不能超过5000个ID,因此获取ID的函数会一直询问Redis。

    只有在start/count参数超出了这个范围的时候,才需要去访问数据库。

    系统不会像传统方式那样“刷新”缓存,Redis实例中的信息永远是一致的。

    SQL数据库(或是硬盘上的其他类型数据库)只是在用户需要获取“很远”的数据时才会被触发,

    而主页或第一个评论页是不会麻烦到硬盘上的数据库了。

    lpush weibo "today is happy  day"

    LRANGE weibo 0 -1                 从0开始到-1结束

    lpush mykey a b             若key不存在,创建该键及与其关联的List,依次插入a ,b, 若List类型的key存在,则插入value中

    lpushx mykey2 e             若key不存在,此命令无效, 若key存在,则插入value中

    linsert mykey before a a1  在 a 的前面插入新元素 a1

    linsert mykey after e e2   在e 的后面插入新元素 e2

    rpush mykey a b             在链表尾部先插入b,在插入a

    rpushx mykey e              若key存在,在尾部插入e, 若key不存在,则无效

    rpoplpush mykey mykey2      将mykey的尾部元素弹出,再插入到mykey2 的头部(原子性的操作)

    del mykey                   删除已有键

    lrem mykey 2 a              从头部开始找,按先后顺序,值为a的元素,删除数量为2个,若存在第3个,则不删除

    ltrim mykey 0 2             从头开始,索引为0,1,2的3个元素,其余全部删除

    lset mykey 1 e              从头开始, 将索引为1的元素值,设置为新值 e,若索引越界,则返回错误信息

    rpoplpush mykey mykey       将 mykey 中的尾部元素移到其头部

    lrange mykey 0 -1           取链表中的全部元素,其中0表示第一个元素,-1表示最后一个元素。

    lrange mykey 0 2            从头开始,取索引为0,1,2的元素

    lrange mykey 0 0            从头开始,取第一个元素,从第0个开始,到第0个结束

    lpop mykey                  获取头部元素,并且弹出头部元素,出栈

    lindex mykey 6              从头开始,获取索引为6的元素 若下标越界,则返回nil

    3.5 Set集合

    应用场景:

    案例:

        在微博应用中,可以将一个用户所有的关注人存在一个集合中,将其所有粉丝存在一个集合。

    Redis还为集合提供了求交集、并集、差集等操作,可以非常方便的实现如共同关注、共同喜好、二度好友等功能.

    对上面的所有集合操作,你还可以使用不同的命令选择将结果返回给客户端还是存集到一个新的集合中。

    sadd jnl a b c

    sadd lxl x y z b a

    siner

    sdiff

    sunion

    sadd myset a b c 

    若key不存在,创建该键及与其关联的set,依次插入a ,b,若key存在,则插入value中,若a 在myset中已经存在,则插入了 d 和 e 两个新成员。

    spop myset              尾部的b被移出,事实上b并不是之前插入的第一个或最后一个成员

    srem myset a d f        若f不存在, 移出 a、d ,并返回2

    smove myset myset2 a        将a从 myset 移到 myset2,

    sismember myset a           判断 a 是否已经存在,返回值为 1 表示存在。

    smembers myset          查看set中的内容

    scard myset             获取Set 集合中元素的数量

    srandmember myset       随机的返回某一成员

    sdiff myset1 myset2 myset3      1和2得到一个结果,拿这个集合和3比较,获得每个独有的值

    sdiffstore diffkey myset myset2 myset3      3个集和比较,获取独有的元素,并存入diffkey 关联的Set中

    sinter myset myset2 myset3              获得3个集合中都有的元素

    sinterstore interkey myset myset2 myset3  把交集存入interkey 关联的Set中

    sunion myset myset2 myset3              获取3个集合中的成员的并集

    sunionstore unionkey myset myset2 myset3  把并集存入unionkey 关联的Set中

    3.6 Sorted set有序集合

    应用场景:

    排行榜应用,取TOP N操作

    这个需求与上面需求的不同之处在于,前面操作以时间为权重,这个是以某个条件为权重,比如按顶的次数排序,

    这时候就需要我们的sorted set出马了,将你要排序的值设置成sorted set的score,将具体的数据设置成相应的value,

    每次只需要执行一条ZADD命令即可。

    zadd top10  1000 tm 2000 by

    zadd top10 6000000 bjjsxh  

    ZINCRBY top10 10000000000 by                   

    ZREVRANGE top10 0 -1 withscores                

    ------------------------------------                       

    zadd myzset 2 "two" 3 "three"           添加两个分数分别是 2 和 3 的两个成员

    zrem myzset one two                 删除多个成员变量,返回删除的数量

    zincrby myzset 2 one                将成员 one 的分数增加 2,并返回该成员更新后的分数

    zrange myzset 0 -1 WITHSCORES       返回所有成员和分数,不加WITHSCORES,只返回成员

    zrank myzset one                获取成员one在Sorted-Set中的位置索引值。0表示第一个位置

    zcard myzset                        获取 myzset 键中成员的数量

    zcount myzset 1 2                   获取分数满足表达式 1 <= score <= 2 的成员的数量

    zscore myzset three                 获取成员 three 的分数

    zrangebyscore myzset  1 2               获取分数满足表达式 1 < score <= 2 的成员

    #-inf 表示第一个成员,+inf最后一个成员

    #limit限制关键字

    #2  3  是索引号

    zrangebyscore myzset -inf +inf limit 2 3  返回索引是2和3的成员

    zremrangebyscore myzset 1 2         删除分数 1<= score <= 2 的成员,并返回实际删除的数量

    zremrangebyrank myzset 0 1              删除位置索引满足表达式 0 <= rank <= 1 的成员

    zrevrange myzset 0 -1 WITHSCORES        按位置索引从高到低,获取所有成员和分数

    #原始成员:位置索引从小到大

          one  0 

          two  1

    #执行顺序:把索引反转

          位置索引:从大到小

          one 1

          two 0

    #输出结果: two 

           one

    zrevrange myzset 1 3                获取位置索引,为1,2,3的成员

    #相反的顺序:从高到低的顺序

    zrevrangebyscore myzset 3 0             获取分数 3>=score>=0的成员并以相反的顺序输出

    zrevrangebyscore myzset 4 0 limit 1 2    获取索引是1和2的成员,并反转位置索引

    ------------------------------------                       

    3.7 发布订阅

    PUBLISH channel msg

        将信息 message 发送到指定的频道 channel?

    SUBSCRIBE channel [channel ...]

        订阅频道,可以同时订阅多个频道

    UNSUBSCRIBE [channel ...]

        取PSUBSCRIBE消订阅指定的频道, 如果不指定频道,则会取消订阅所有频道

    pattern [pattern ...]

        订阅一个或多个符合给定模式的频道,每个模式以 * 作为匹配符,比如 it* 匹配所  有以 it 开头的频道( it.news 、 it.blog 、 it.tweets 等等), news.* 匹配所有   以 news. 开头的频道( news.it 、 news.global.today 等等),诸如此类

    PUNSUBSCRIBE [pattern [pattern ...]]

        退订指定的规则, 如果没有参数则会退订所有规则

    PUBSUB subcommand [argument [argument ...]]

        查看订阅与发布系统状态

    注意:使用发布订阅模式实现的消息队列,当有客户端订阅channel后只能收到后续发布到该频道的消息,之前发送的不会缓存,必须Provider和Consumer同时在线。               

    -------------------------------------

    DISCARD

    取消事务,放弃执行事务块内的所有命令。

    EXEC

    执行所有事务块内的命令。

    MULTI

    标记一个事务块的开始。

    UNWATCH

    取消 WATCH 命令对所有 key 的监视。

    WATCH key [key ...]

    监视一个(或多个) key ,如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断。

    ---------------------------------                  

    ZADD salary 2000 user1

    ZADD salary 3000 user2

    ZRANGE salary 0 -1 WITHSCORES

    MULTI

    ZINCRBY salary 1000 user1

    ZINCRBY salary -1000 user2

    EXEC

    3.8 常用命令

    Info                         列出信息

    Clinet list            

    Client kill ip:port            杀掉远程redis服务

    config get *

    CONFIG RESETSTAT 重置统计

    CONFIG GET/SET 动态修改

    Dbsize            统计多少个键

    FLUSHALL 清空所有数据

    select 1

    FLUSHDB 清空当前库

    MONITOR 监控实时指令

    redis默认0-15 个库。高可用的时候默认是在0号库

    第4章 redis的事物

    redis中的事务跟关系型数据库中的事务是一个相似的概念,但是有不同之处。关系型数据库事务执行失败后面的sql语句不在执行,而redis中的一条命令执行失败,其余的命令照常执行。

    redis中开启一个事务是使用multi,相当于beginstart transact ion, exec:提交事务,discard取消队列命令(非回滚操作) 

    127.0.0.1:6379> multi                      开启一个事物(母体)

    OK

    127.0.0.1:6379> set num 1                  以消息队列的方式开始执行

    QUEUED

    127.0.0.1:6379> exec                        输入exec结束

    1) OK

    127.0.0.1:6379> get num                   

    "1"

    127.0.0.1:6379> multi               

    OK

    127.0.0.1:6379> set a 1

    QUEUED

    127.0.0.1:6379> sr 4 2

    (error) ERR unknown command 'sr'

    127.0.0.1:6379> exec

    (error) EXECABORT Transaction discarded because of previous errors.

    在开启事务的过程中如果输入的有错误就会在exec的时候提示discard掉了。全部取消,不同于MySQL中的滚

    MySQL是通过日志事物的方式执行的,redis中是通过消息队列的方式。

    4.1 redis事物中的锁机制

    举例:我正在买票

    Ticket -1  money -100

    而票只有1张,如果在我multi之 后,和exec之前,票被别人买了---即ticket变成0了.

    我该如何观察这种情景,并不再提交

    悲观的想法:

    世界充满危险,肯定有人和我抢,给ticket. 上锁,只有我能操作.  [悲观锁]

    乐观的想法: 

    没有那么人和我抢,因此,我只需要注意,有没有人更改ticket的值就可以了[乐观锁]

    Redis的事务中,启用的是乐观锁,只负责监测key没有被改动.

    实验

    第5章 慢日志查询

     

    slowlog-log-slower-than 10000 超过多少微秒

    CONFIG SET slowlog-log-slower-than 100

    CONFIG SET slowlog-max-len 1000 保存多少条慢日志

    CONFIG GET slow*

    SLOWLOG GET

    SLOWLOG RESET

    第6章 Redis主从复制

    6.1 原理

     

    6.2 SYNC执行实例

     

    6.3 命令传播

     

    6.4 SYNC和PSYNC的比较

    6.5 SYNC处理断线示例

     

    6.6 PSYNC处理断线示例

     

    6.7 针对以读写分离架构的复制的一致性问题

     

    6.7.1 复制安全性的提升

     

    6.8 目录规划

    原理:通过RDB快照技术实现的主从复制

    6380:

    /data/6380

    /data/6380/redis.conf

    6381

    /data/6380

    /data/6380/redis.conf

    6382

    /data/6380

    /data/6380/redis.conf

    创建目录

    mkdir -p /data/638{0..2}

    配置文件

    vim /data/6380/redis.conf

    port 6380

    daemonize yes

    pidfile /data/6380/redis.pid

    loglevel notice

    logfile "/data/6380/redis.log"

    dbfilename dump.rdb

    dir /data/6380

    protected-mode no

    vim /data/6381/redis.conf

    port 6381

    daemonize yes

    pidfile /data/6381/redis.pid

    loglevel notice

    logfile "/data/6381/redis.log"

    dbfilename dump.rdb

    dir /data/6381

    protected-mode no

    vim /data/6382/redis.conf

    port 6382

    daemonize yes

    pidfile /data/6382/redis.pid

    loglevel notice

    logfile "/data/6382/redis.log"

    dbfilename dump.rdb

    dir /data/6382

    protected-mode no

    6.9 启动多个实例

    redis-server /data/6380/redis.conf &

    redis-server /data/6381/redis.conf &

    redis-server /data/6382/redis.conf &

    6.10 开启主从复制

    从库6381、6382 主库6380

    [root@db-03 ~]# redis-cli -p 6381

    127.0.0.1:6381> SLAVEOF 127.0.0.1 6380

    [root@db-03 ~]# redis-cli -p 6382

    127.0.0.1:6382> SLAVEOF 127.0.0.1 6380

    ---------------------主库状态

    [root@ db-03 ~]# redis-cli -p 6380

    127.0.0.1:6380> info replication

    # Replication

    role:master

    connected_slaves:2

    slave0:ip=127.0.0.1,port=6381,state=online,offset=57,lag=1

    slave1:ip=127.0.0.1,port=6382,state=online,offset=57,lag=1

    master_repl_offset:57

    repl_backlog_active:1

    repl_backlog_size:1048576

    repl_backlog_first_byte_offset:2

    repl_backlog_histlen:56

    127.0.0.1:6380>

    ----------------------从库状态

    127.0.0.1:6382> info replication

    # Replication

    role:slave

    master_host:127.0.0.1

    master_port:6380

    master_link_status:up

    master_last_io_seconds_ago:9

    master_sync_in_progress:0

    slave_repl_offset:71

    slave_priority:100

    slave_read_only:1

    connected_slaves:0

    master_repl_offset:0

    repl_backlog_active:0

    repl_backlog_size:1048576

    repl_backlog_first_byte_offset:0

    repl_backlog_histlen:0

    127.0.0.1:6382>

    第7章 redis sentinel哨兵,实现redis主从高可用自动切换

    7.1 sentinel 介绍

     

    7.2 sentinel 构造

     

    7.2.1 发现并连接主服务器

    7.3 发现其他sentinel

    7.3.1 多个sentinel之间的连系

     

    7.3.2 检测示例的状态

     

    7.3.3 故障转移FAILOVER

     

    7.4 sentinel基本配置

    首先构建1主2从redis主从复制

    主节点:6380

    从节点:6381、6382

    mkdir  /data/26380

    vim /data/26380/sentinel.conf

    port 26380

    dir "/data/26380/"

    sentinel monitor mymaster 127.0.0.1 6380 1   这里就只有一题sentnel,假如有三台,如果改为2意味着只要有两台sentnel认为他当了就切换

    sentinel down-after-milliseconds mymaster 60000

    ---->单位是毫秒,换算过来是60秒

    启动

    redis-sentinel /data/26380/sentinel.conf &

    sentinel 管理

    PING :返回 PONG 。

    SENTINEL masters :列出所有被监视的主服务器

    SENTINEL slaves <master name>

    SENTINEL get-master-addr-by-name <master name> : 返回给定名字的主服务器的 IP 地址和端口号。

    SENTINEL failover <master name> : 当主服务器失效时, 在不询问其他 Sentinel 意见的情况下, 强制开始一次自动故障迁移。

    测试:

    宕掉主库6380

    redis-cli -p 6380

    shutdown

    观察切换过程和结果(通过info replication命令查看slave是否切换成master)

    7.5 sentinel命令

     

    127.0.0.1:26380> sentinel failover mymaster  强制切换master

    7.6 发布与订阅信息

     

    第8章 集群的实现redis cluster

    8.1 原生态支持的分布式的自动分片集群

    1、自动分片

    2、高可用

    8.2 节点划分(主备错开)

     

    7000 --7004    7001—7005  7002—7003

    8.3 运行机制

     

    8.4 集群的复制

     

    8.5 集群的故障转移

     

    8.6 命令发送给正确的节点

     

    8.7 安装集群软件

     

    yum install ruby rubygems -y

    [root@redis yum.repos.d]# gem sources -a https://mirrors.ustc.edu.cn/rubygems/   替换为阿里云的或者科技大学的

    https://mirrors.ustc.edu.cn/rubygems/ added to sources

    [root@redis yum.repos.d]# gem sources  --remove http://rubygems.org/

    source http://rubygems.org/ not present in cache

    [root@redis yum.repos.d]# gem sources -l

    *** CURRENT SOURCES ***

     

    https://rubygems.org/

    https://mirrors.ustc.edu.cn/rubygems/gem

    [root@redis yum.repos.d]# yum install redis -v 3.3.3

    8.8 准备集群所需节点(7001-7005)

    mkdir -p /data/700{0..5}

    -----------------------------------------------

    vim /data/7000/redis.conf

    port 7000

    daemonize yes

    pidfile /data/7000/redis.pid

    loglevel notice

    logfile "/data/7000/redis.log"

    dbfilename dump.rdb

    dir /data/7000

    protected-mode no

    cluster-enabled yes

    cluster-config-file nodes.conf

    cluster-node-timeout 5000

    appendonly yes

    -----------------------------------------------

    vim /data/7001/redis.conf

    port 7001

    daemonize yes

    pidfile /data/7001/redis.pid

    loglevel notice

    logfile "/data/7001/redis.log"

    dbfilename dump.rdb

    dir /data/7001

    protected-mode no

    cluster-enabled yes

    cluster-config-file nodes.conf

    cluster-node-timeout 5000

    appendonly yes

    ------------------------------------------------

    vim /data/7002/redis.conf

    port 7002

    daemonize yes

    pidfile /data/7002/redis.pid

    loglevel notice

    logfile "/data/7002/redis.log"

    dbfilename dump.rdb

    dir /data/7002

    protected-mode no

    cluster-enabled yes

    cluster-config-file nodes.conf

    cluster-node-timeout 5000

    appendonly yes

    -----------------------------------------------            

    vim /data/7003/redis.conf

    port 7003

    daemonize yes

    pidfile /data/7003/redis.pid

    loglevel notice

    logfile "/data/7003/redis.log"

    dbfilename dump.rdb

    dir /data/7003

    protected-mode no

    cluster-enabled yes

    cluster-config-file nodes.conf

    cluster-node-timeout 5000

    appendonly yes

    -----------------------------------------------                    

    vim /data/7004/redis.conf

    port 7004

    daemonize yes

    pidfile /data/7004/redis.pid

    loglevel notice

    logfile "/data/7004/redis.log"

    dbfilename dump.rdb

    dir /data/7004

    protected-mode no

    cluster-enabled yes

    cluster-config-file nodes.conf

    cluster-node-timeout 5000

    appendonly yes

    ----------------------------------------------

    vim /data/7005/redis.conf

    port 7005

    daemonize yes

    pidfile /data/7005/redis.pid

    loglevel notice

    logfile "/data/7005/redis.log"

    dbfilename dump.rdb

    dir /data/7005

    protected-mode no

    cluster-enabled yes

    cluster-config-file nodes.conf

    cluster-node-timeout 5000

    appendonly yes

    --------------------------------------------

    8.9 启动节点:

    [root@redis data]# redis-server /data/7000/redis.conf

    [root@redis data]# redis-server /data/7001/redis.conf

    [root@redis data]# redis-server /data/7002/redis.conf

    [root@redis data]# redis-server /data/7003/redis.conf

    [root@redis data]# redis-server /data/7004/redis.conf

    [root@redis data]# redis-server /data/7005/redis.conf

    8.10 加载节点并启动集群:

    redis-trib.rb create --replicas 1 127.0.0.1:7000 127.0.0.1:7001

    127.0.0.1:7002 127.0.0.1:7003 127.0.0.1:7004 127.0.0.1:7005

    replicas 副本

    启动的时候遇到问题

    /usr/share/rubygems/rubygems/core_ext/kernel_require.rb:55:in `require‘: cannot load such file -- redis (LoadError)

            from /usr/share/rubygems/rubygems/core_ext/kernel_require.rb:55:in `require‘

            from ./redis-trib.rb:25:in `<main>‘

    Ruby的redis接口没有安装,需要安装Redis接口,输入命令 " gem install redis " 进行安装

    在安装Redis接口的时候可能会遇到错误信息告诉我们Ruby版本太低

    ruby升级见:https://blog.csdn.net/hello_world_qwp/article/details/78261618 

    8.11 集群管理:

    集群状态查看

    redis-cli -p 7000 cluster nodes | grep master

    故障转移

    redis-cli -p 7002 debug segfault

    8.12 手动转移slot,手动删除节点。

    需求:将7002节点上的所有slot(10923-16383,共5461个)转移到7000节点上

    redis-trib.rb reshard 127.0.0.1:7000

    How many slots do you want to move (from 1 to 16384)? 5461

    --------------------------------------------------------

    -

    What is the receiving node ID? [7000的ID]

     

    ---------------------------------------------------------

    Please enter all the source node IDs.

      Type 'all' to use all the nodes as source nodes for the hash slots.

      Type 'done' once you entered all the source nodes IDs.

    Source node #1:[7002的ID]

    Source node #2:done 结束

    恢复的时候 如果7000和7001一样多的话。此处要写7001和7000合适,这样可以达到一个平均的效果

    ----------------------------------------------

    删除一个节点(注意,先将删除节点的slot移到其他节点)

    redis-trib.rb  del-node  127.0.0.1:7002  '734ce9b78350addf12f760034150bd934f32486f'   删掉主节点

    redis-trib.rb  del-node  127.0.0.1:7005  '44bfd6c7f57890c2161ac003ec084157f9a57e1b'   删掉副节点

    增加新的master节点(要保证7002是一个全新节点)将以前的清除

    redis-trib.rb add-node 127.0.0.1:7002 127.0.0.1:7000

    添加一个从节点

    ./redis-trib.rb  add-node  --slave  --master-id MASTERID 127.0.0.1:7005 127.0.0.1:7000

    第9章 redis的多API支持(链接redis)

    python为例

    9.1 安装Python-3.5.2

    第二种用源码包

    cd  Python-3.5.2

    ./configure

    make && make install

    mv /usr/bin/python  /usr/bin/pyhon2.6

    vim /usr/bin/yum

    #!/usr/bin/python2.6     ----修改这行为2.6

    cp /usr/local/bin/python3.5 /usr/bin/pyhon

    9.2 安装redis-cluser的客户端程序

    此处Python版本有时候不支持要此出用的是Python-3.5.2

    cd redis-py-cluster-unstable

    python setup.py install

    安装

    cd redis-py-master

    python setup.py install

    9.3 对redis的单实例进行连接操作

    python                               链接

    >>> import redis

    >>> r = redis.StrictRedis(host='localhost', port=6379, db=0,password='root')

    >>> r.set('foo', 'bar')               输入键值测试

    True

    >>> r.get('foo')

    'bar'

    9.4 sentinel集群连接并操作

    >>> from redis.sentinel import Sentinel 

    >>> sentinel = Sentinel([('localhost', 26380)], socket_timeout=0.1) 

    >>> sentinel.discover_master('mymaster') 

    >>> sentinel.discover_slaves('mymaster') 

    >>> master = sentinel.master_for('mymaster', socket_timeout=0.1) 

    >>> slave = sentinel.slave_for('mymaster', socket_timeout=0.1) 

    >>> master.set('oldboy', '123') 

    >>> slave.get('oldboy') 

    'bar'

    9.5 python连接rediscluster集群测试

    redis cluster的连接并操作(python2.7以上版本才支持redis cluster,我们选择的是3.5)

    https://github.com/Grokzen/redis-py-cluster

    ===================================================================================================

    python

    >>> from rediscluster import StrictRedisCluster 

    >>> startup_nodes = [{"host": "127.0.0.1", "port": "7000"}] 

    >>> # Note: decode_responses must be set to True when used with python3 

    >>> rc = StrictRedisCluster(startup_nodes=startup_nodes, decode_responses=True) 

    >>> rc.set("foo", "bar") 

    True 

    >>> print(rc.get("foo")) 

    'bar'

    去另一个查看结果

  • 相关阅读:
    CI 知识 :Git介绍及常用操作
    虚拟机的迁移(热迁移)
    kvm虚拟化网络管理
    Zabbix -----安装
    Mariadb 主从
    keepalived + lvs marster 与 backup 之间的 高可用
    LVS 负载均衡 (VS/DR模式 与 VS/TUN 模式)
    linux下部署tomcat 上线jpress博客系统
    docker (2)---存储、网络(利用docker容器上线静态网站)
    openstack(2) -------RabbitMQ集群部署
  • 原文地址:https://www.cnblogs.com/gmlkl/p/9381321.html
Copyright © 2011-2022 走看看