zoukankan      html  css  js  c++  java
  • Redis 基础使用(1)

    redis 数据库的使用场景介绍

    redis 是 NoSQL 数据库中的一种,特别适合解决一些使用传统关系数据库难以解决的问题,redis 作为内存数据库,如果在不合适的场合,对内存的消耗是很大的,甚至会让系统难以承受。

    数据通过两个角度来分类:
      通过大小:大数据、小数据
      通过热度分:冷数据、热数据(热数据是指读写比较频繁的数据,反之则是冷数据)

    大体而言,redis 最适合处理的是 小而热 的数据,而且是读写频繁的热数据。对于大而热的数据,如果其他方式很难解决问题,也可以考虑使用 redis 解决,但是一定要非常谨慎,防止数据无限膨胀。

    对于冷数据,无论大小,都不建议放在 redis 中,redis 数据要全部放在内存中,资源宝贵,把冷数据放在其中实在是一种资源浪费,冷数据建议放置在关系型数据库中,其次,对于热数据,尤其是写频繁的热数据,如果量比较小,是最适合放到 redis 中的。比如论坛最新发表列表,点赞数,可以控制在几百到几千内的规模,就是 redis 典型的应用。

    对于量比较大的热数据,使用 redis 时一定要比较谨慎。这种类型数据很容易引起数据膨胀,导致 redis 消耗内存巨大,让系统难以承受。我这里就有一个教训:把用户关注后生成的token id 存储在 redis 中,每个新用户来都会生成一个token id,之后是不会变的。这是一种数据量极大,而且冷热不均匀的数据。在其中一次需要手动修改 redis 数据的时候,造成了 redis 无法访问,庆幸 redis 中的数据后端 MySQL 也有。用户登录如果 redis中没有就会去后端 MySQL获取,然后缓存在 redis 中,所以对于大量冷热不均的数据,一定要采用 普通存储 + 缓存的方式,缓存只是为了加速读取数据,减轻后端关系型数据库的压力。

    redis在很多方面与其他数据解决方案不同:它使用内存提供主存储支持,而仅使用硬盘做持久性的存储;它的数据模型非常独特,用的是单线程。

    redis 的安装

    系统:CentOS Linux release 7.2.1511 (Core)
    redis 版本:redis-3.2.6

    1. 首先安装gcc之类的编译环境
    
    # yum install gcc* -y
    
    2. 安装 redis
    
    # mkdir /usr/local/redis
    # tar xf redis-3.2.6.tar.gz 
    # cd redis-3.2.6
    # make PREFIX=/usr/local/redis/ install
    上面执行完毕,/usr/local/redis/bin/ 应该有如下的目录和文件
    # ls /usr/local/redis/bin/
    redis-benchmark  redis-check-aof  redis-check-rdb  redis-cli  redis-sentinel  redis-server
    
    
    redis主要命令注解:
    
    redis-server     redis的服务端
    redis-benchmark    用于进行redis性能测试的工具
    redis-cli    redis的客户端
    redis-check-rdb    用于修复出问题的rdb文件
    redis-check-aof 用于修复出问题的AOF文件
    
    
    3. 配置 redis 并启动
    
    # mkdir -pv  /usr/local/redis/{conf,db,log}
    mkdir: created directory ‘/usr/local/redis/conf’
    mkdir: created directory ‘/usr/local/redis/db’
    mkdir: created directory ‘/usr/local/redis/log’
    
    # cp -a utils/redis_init_script /etc/init.d/redis
    # cp -a redis.conf /usr/local/redis/conf/6379.conf
    
    
    # vim /etc/init.d/redis
    #!/bin/sh
    #chkconfig: 2345 80 90    # 添加该行是为了设置成服务
    #
    # Simple Redis init.d script conceived to work on Linux systems
    # as it does use of the /proc filesystem.
    
    
    # chkconfig --add redis
    # systemctl status redis
    redis.service
       Loaded: loaded (/etc/rc.d/init.d/redis)
       Active: inactive (dead)
    
    修改 redis 主配置文件 
    
    # vim  /usr/local/redis/conf/6379.conf
    
     128 daemonize no # 修改为 daemonize yes 设置redis服务后台启动
     163 logfile ""    # 修改为 logfile "/usr/local/redis/log/redis.log" 设置redis日志文件
     247 dir ./ # 修改为  dir /usr/local/redis/db/ 设置 rdb 文件存储目录
    
    保存退出
    
    修改启动服务脚本:
    
      8 EXEC=/usr/local/bin/redis-server    # 修改为:EXEC=/usr/local/redis/bin/redis-server
      9 CLIEXEC=/usr/local/bin/redis-cli    # 修改为:CLIEXEC=/usr/local/redis/bin/redis-cli
     12 CONF="/etc/redis/${REDISPORT}.conf" # 修改为:CONF="/usr/local/redis/conf/${REDISPORT}.conf"
      61 bind 127.0.0.1    # 根据需要进行修改,这里修改为:
    
    保存退出
    
    将 redis 的命令添加到环境变量:
    
    # echo "export PATH=$PATH:/usr/local/redis/bin" >> /etc/profile.d/redis.sh
    # . /etc/profile.d/redis.sh
    
    
    启动 redis 服务
    
    # systemctl daemon-reload
    # systemctl start redis
    # systemctl status  redis
    redis.service
       Loaded: loaded (/etc/rc.d/init.d/redis)
       Active: active (running) since Wed 2017-08-30 15:04:09 CST; 9s ago
       CGroup: /system.slice/redis.service
               └─5199 /usr/local/redis/bin/redis-server 127.0.0.1:6379
    
    Aug 30 15:04:09 localhost.localdomain systemd[1]: Starting redis.service...
    Aug 30 15:04:09 localhost.localdomain redis[5197]: Starting Redis server...
    Aug 30 15:04:09 localhost.localdomain systemd[1]: Started redis.service.
    Aug 30 15:04:16 localhost.localdomain systemd[1]: Started redis.service.
    
    # netstat -ntplu | egrep redis
    tcp        0      0 0.0.0.0:6379            0.0.0.0:*               LISTEN      5231/redis-server 0
    
    启动成功。

    Redis 配置文件详解

    redis 配置文件从整体上分为以下几个部分:

        1.通用(general)
        2.快照(snapshotting)
        3.复制(replication)
        4.安全(security)
        5.限制(limits)
        6.追加模式(append only mode)
        7.LUA脚本(lua scripting)
        8.慢日志(slow log)
        9.事件通知(event notification)

    有些同学会问“如果redis不监听端口,还怎么与外界通信呢”,其实redis还支持通过unix socket方式来接收请求。可以通过unixsocket配置项来指定unix socket文件的路径,并通过unixsocketperm来指定文件的权限。
    unixsocket /tmp/redis.sock
    unixsocketperm 755
    
    当一个redis-client一直没有请求发向server端,那么server端有权主动关闭这个连接,可以通过timeout来设置“空闲超时时限”,0表示永不关闭。
    timeout 0
    
    TCP连接保活策略,可以通过tcp-keepalive配置项来进行设置,单位为秒,假如设置为60秒,则server端会每60秒向连接空闲的客户端发起一次ACK请求,以检查客户端是否已经挂掉,对于无响应的客户端则会关闭其连接。所以关闭一个连接最长需要120秒的时间。如果设置为0,则不会进行保活检测。
    tcp-keepalive 0
    
    redis支持通过loglevel配置项设置日志等级,共分四级,即debug、verbose、notice、warning。
    loglevel notice
    
    edis也支持通过logfile配置项来设置日志文件的生成位置。如果设置为空字符串,则redis会将日志输出到标准输出。假如你在daemon情况下将日志设置为输出到标准输出,则日志会被写到/dev/null中。
    logfile ""
    
    如果希望日志打印到syslog中,也很容易,通过syslog-enabled来控制。另外,syslog-ident还可以让你指定syslog里的日志标志,比如:
    syslog-ident redis
    
    而且还支持指定syslog设备,值可以是USER或LOCAL0-LOCAL7。具体可以参考syslog服务本身的用法。
    syslog-facility local0
    
    对于redis来说,可以设置其数据库的总数量,假如你希望一个redis包含16个数据库,那么设置如下:
    databases 16
    
    这16个数据库的编号将是0到15。默认的数据库是编号为0的数据库。用户可以使用select <DBid>来选择相应的数据库。
    【通用】
    快照,主要涉及的是redis的RDB持久化相关的配置,我们来一起看一看。
    我们可以用如下的指令来让数据保存到磁盘上,即控制RDB快照功能:
    save <seconds> <changes>
    
    举例来说:
    save 900 1 //表示每15分钟且至少有1个key改变,就触发一次持久化
    save 300 10 //表示每5分钟且至少有10个key改变,就触发一次持久化
    save 60 10000 //表示每60秒至少有10000个key改变,就触发一次持久化
    
    如果你想禁用RDB持久化的策略,只要不设置任何save指令就可以,或者给save传入一个空字符串参数也可以达到相同效果,就像这样:
    save ""
    
    如果用户开启了RDB快照功能,那么在redis持久化数据到磁盘时如果出现失败,默认情况下,redis会停止接受所有的写请求。这样做的好处在于可以让用户很明确的知道内存中的数据和磁盘上的数据已经存在不一致了。如果redis不顾这种不一致,一意孤行的继续接收写请求,就可能会引起一些灾难性的后果。
    如果下一次RDB持久化成功,redis会自动恢复接受写请求。
    当然,如果你不在乎这种数据不一致或者有其他的手段发现和控制这种不一致的话,你完全可以关闭这个功能,以便在快照写入失败时,也能确保redis继续接受新的写请求。配置项如下:
    stop-writes-on-bgsave-error yes
    
    对于存储到磁盘中的快照,可以设置是否进行压缩存储。如果是的话,redis会采用LZF算法进行压缩。如果你不想消耗CPU来进行压缩的话,可以设置为关闭此功能,但是存储在磁盘上的快照会比较大。
    rdbcompression yes
    
    在存储快照后,我们还可以让redis使用CRC64算法来进行数据校验,但是这样做会增加大约10%的性能消耗,如果你希望获取到最大的性能提升,可以关闭此功能。
    rdbchecksum yes
    
    我们还可以设置快照文件的名称,默认是这样配置的:
    dbfilename dump.rdb
    
    最后,你还可以设置这个快照文件存放的路径。比如默认设置就是当前文件夹:
    dir ./    # 建议更改为设定的目录,方便以后查询到
    【快照】
    redis提供了主从同步功能。
    通过slaveof配置项可以控制某一个redis作为另一个redis的从服务器,通过指定IP和端口来定位到主redis的位置。一般情况下,我们会建议用户为从redis设置一个不同频率的快照持久化的周期,或者为从redis配置一个不同的服务端口等等。
    slaveof <masterip> <masterport>
    
    如果主redis设置了验证密码的话(使用requirepass来设置),则在从redis的配置中要使用masterauth来设置校验密码,否则的话,主redis会拒绝从redis的访问请求。
    masterauth <master-password>
    
    当从redis失去了与主redis的连接,或者主从同步正在进行中时,redis该如何处理外部发来的访问请求呢?这里,从redis可以有两种选择:
    
    第一种选择:如果slave-serve-stale-data设置为yes(默认),则从redis仍会继续响应客户端的读写请求。
    第二种选择:如果slave-serve-stale-data设置为no,则从redis会对客户端的请求返回“SYNC with master in progress”,当然也有例外,当客户端发来INFO请求和SLAVEOF请求,从redis还是会进行处理。
    你可以控制一个从redis是否可以接受写请求。将数据直接写入从redis,一般只适用于那些生命周期非常短的数据,因为在主从同步时,这些临时数据就会被清理掉。自从redis2.6版本之后,默认从redis为只读。
    
    slave-read-only yes
    
    只读的从redis并不适合直接暴露给不可信的客户端。为了尽量降低风险,可以使用rename-command指令来将一些可能有破坏力的命令重命名,避免外部直接调用。比如:
    rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52
    
    从redis会周期性的向主redis发出PING包。你可以通过repl_ping_slave_period指令来控制其周期。默认是10秒。
    repl-ping-slave-period 10
    
    在主从同步时,可能在这些情况下会有超时发生:
    
    1.以从redis的角度来看,当有大规模IO传输时。
    2.以从redis的角度来看,当数据传输或PING时,主redis超时
    3.以主redis的角度来看,在回复从redis的PING时,从redis超时
    
    用户可以设置上述超时的时限,不过要确保这个时限比repl-ping-slave-period的值要大,否则每次主redis都会认为从redis超时。
    repl-timeout 60
    
    我们还可以设置同步队列长度。队列长度(backlog)是主redis中的一个缓冲区,在与从redis断开连接期间,主redis会用这个缓冲区来缓存应该发给从redis的数据。这样的话,当从redis重新连接上之后,就不必重新全量同步数据,只需要同步这部分增量数据即可。
    repl-backlog-size 1mb
    
    如果主redis等了一段时间之后,还是无法连接到从redis,那么缓冲队列中的数据将被清理掉。我们可以设置主redis要等待的时间长度。如果设置为0,则表示永远不清理。默认是1个小时。
    repl-backlog-ttl 3600
    
    我们可以给众多的从redis设置优先级,在主redis持续工作不正常的情况,优先级高的从redis将会升级为主redis。而编号越小,优先级越高。比如一个主redis有三个从redis,优先级编号分别为10、10025,那么编号为10的从redis将会被首先选中升级为主redis。当优先级被设置为0时,这个从redis将永远也不会被选中。默认的优先级为100。
    slave-priority 100
    
    假如主redis发现有超过M个从redis的连接延时大于N秒,那么主redis就停止接受外来的写请求。这是因为从redis一般会每秒钟都向主redis发出PING,而主redis会记录每一个从redis最近一次发来PING的时间点,所以主redis能够了解每一个从redis的运行情况。
    min-slaves-to-write 3
    min-slaves-max-lag 10
    
    上面这个例子表示,假如有大于等于3个从redis的连接延迟大于10秒,那么主redis就不再接受外部的写请求。上述两个配置中有一个被置为0,则这个特性将被关闭。默认情况下min-slaves-to-write为0,而min-slaves-max-lag为10。
    【复制】
    我们可以要求redis客户端在向redis-server发送请求之前,先进行密码验证。当你的redis-server处于一个不太可信的网络环境中时,相信你会用上这个功能。由于redis性能非常高,所以每秒钟可以完成多达15万次的密码尝试,所以你最好设置一个足够复杂的密码,否则很容易被黑客破解。
    requirepass zhimakaimen
    
    这里我们通过requirepass将密码设置成“芝麻开门”。
    redis允许我们对redis指令进行更名,比如将一些比较危险的命令改个名字,避免被误执行。比如可以把CONFIG命令改成一个很复杂的名字,这样可以避免外部的调用,同时还可以满足内部调用的需要:
    rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c89
    
    
    我们甚至可以禁用掉CONFIG命令,那就是把CONFIG的名字改成一个空字符串:
    rename-command CONFIG ""
    
    但需要注意的是,如果你使用AOF方式进行数据持久化,或者需要与从redis进行通信,那么更改指令的名字可能会引起一些问题。
    【安全】
    我们可以设置redis同时可以与多少个客户端进行连接。默认情况下为10000个客户端。当你无法设置进程文件句柄限制时,redis会设置为当前的文件句柄限制值减去32,因为redis会为自身内部处理逻辑留一些句柄出来。
    如果达到了此限制,redis则会拒绝新的连接请求,并且向这些连接请求方发出“max number of clients reached”以作回应。
    maxclients 10000
    
    我们甚至可以设置redis可以使用的内存量。一旦到达内存使用上限,redis将会试图移除内部数据,移除规则可以通过maxmemory-policy来指定。
    如果redis无法根据移除规则来移除内存中的数据,或者我们设置了“不允许移除”,那么redis则会针对那些需要申请内存的指令返回错误信息,比如SET、LPUSH等。但是对于无内存申请的指令,仍然会正常响应,比如GET等。
    maxmemory <bytes>
    
    需要注意的一点是,如果你的redis是主redis(说明你的redis有从redis),那么在设置内存使用上限时,需要在系统中留出一些内存空间给同步队列缓存,只有在你设置的是“不移除”的情况下,才不用考虑这个因素。
    
    对于内存移除规则来说,redis提供了多达6种的移除规则。他们是:
    
    1.volatile-lru:使用LRU算法移除过期集合中的key
    2.allkeys-lru:使用LRU算法移除key
    3.volatile-random:在过期集合中移除随机的key
    4.allkeys-random:移除随机的key
    5.volatile-ttl:移除那些TTL值最小的key,即那些最近才过期的key。
    6.noeviction:不进行移除。针对写操作,只是返回错误信息。
    
    
    无论使用上述哪一种移除规则,如果没有合适的key可以移除的话,redis都会针对写请求返回错误信息。
    maxmemory-policy volatile-lru
    
    LRU算法和最小TTL算法都并非是精确的算法,而是估算值。所以你可以设置样本的大小。假如redis默认会检查三个key并选择其中LRU的那个,那么你可以改变这个key样本的数量。
    maxmemory-samples 3
    
    最后,我们补充一个信息,那就是到目前版本(2.8.4)为止,redis支持的写指令包括了如下这些:
    set setnx setex append
    incr decr rpush lpush rpushx lpushx linsert lset rpoplpush sadd
    sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby
    zunionstore zinterstore hset hsetnx hmset hincrby incrby decrby
    getset mset msetnx exec sort
    【限制】
    默认情况下,redis会异步的将数据持久化到磁盘。这种模式在大部分应用程序中已被验证是很有效的,但是在一些问题发生时,比如断电,则这种机制可能会导致数分钟的写请求丢失。
    
    如博文上半部分中介绍的,追加文件(Append Only File)是一种更好的保持数据一致性的方式。即使当服务器断电时,也仅会有1秒钟的写请求丢失,当redis进程出现问题且操作系统运行正常时,甚至只会丢失一条写请求。
    
    我们建议大家,AOF机制和RDB机制可以同时使用,不会有任何冲突。对于如何保持数据一致性的讨论.
    appendonly no  # no 为关闭AOF模式, yes 为开启AOF模式
    
    我们还可以设置aof文件的名称:
    appendfilename "appendonly.aof"
    fsync()调用,用来告诉操作系统立即将缓存的指令写入磁盘。一些操作系统会“立即”进行,而另外一些操作系统则会“尽快”进行。
    
    redis支持三种不同的模式:
    1.no:不调用fsync()。而是让操作系统自行决定sync的时间。这种模式下,redis的性能会最快。
    2.always:在每次写请求后都调用fsync()。这种模式下,redis会相对较慢,但数据最安全。
    3.everysec:每秒钟调用一次fsync()。这是性能和安全的折衷(默认模式)。
    
    appendfsync everysec
    
    当fsync方式设置为always或everysec时,如果后台持久化进程需要执行一个很大的磁盘IO操作,那么redis可能会在fsync()调用时卡住。目前尚未修复这个问题,这是因为即使我们在另一个新的线程中去执行fsync(),也会阻塞住同步写调用。
    
    为了缓解这个问题,我们可以使用下面的配置项,这样的话,当BGSAVE或BGWRITEAOF运行时,fsync()在主进程中的调用会被阻止。这意味着当另一路进程正在对AOF文件进行重构时,redis的持久化功能就失效了,就好像我们设置了“appendsync none”一样。如果你的redis有时延问题,那么请将下面的选项设置为yes。否则请保持no,因为这是保证数据完整性的最安全的选择。
    no-appendfsync-on-rewrite no
    
    我们允许redis自动重写aof。当aof增长到一定规模时,redis会隐式调用BGREWRITEAOF来重写log文件,以缩减文件体积。
    
    redis是这样工作的:redis会记录上次重写时的aof大小。假如redis自启动至今还没有进行过重写,那么启动时aof文件的大小会被作为基准值。这个基准值会和当前的aof大小进行比较。如果当前aof大小超出所设置的增长比例,则会触发重写。另外,你还需要设置一个最小大小,是为了防止在aof很小时就触发重写。
    auto-aof-rewrite-percentage 100
    auto-aof-rewrite-min-size 64mb
    
    如果设置auto-aof-rewrite-percentage为0,则会关闭此重写功能。
    【追加】
    lua脚本的最大运行时间是需要被严格限制的,要注意单位是毫秒:
    lua-time-limit 5000
    如果此值设置为0或负数,则既不会有报错也不会有时间限制。
    【LUA脚本】
    redis慢日志是指一个系统进行日志查询超过了指定的时长。这个时长不包括IO操作,比如与客户端的交互、发送响应内容等,而仅包括实际执行查询命令的时间。
    针对慢日志,你可以设置两个参数,一个是执行时长,单位是微秒,另一个是慢日志的长度。当一个新的命令被写入日志时,最老的一条会从命令日志队列中被移除。
    
    单位是微秒,即1000000表示一秒。负数则会禁用慢日志功能,而0则表示强制记录每一个命令。
    slowlog-log-slower-than 10000
    
    慢日志最大长度,可以随便填写数值,没有上限,但要注意它会消耗内存。你可以使用SLOWLOG RESET来重设这个值。
    slowlog-max-len 128
    【慢日志】
    有关哈希数据结构的一些配置项:
    hash-max-ziplist-entries 512
    hash-max-ziplist-value 64
    
    有关列表数据结构的一些配置项:
    list-max-ziplist-entries 512
    list-max-ziplist-value 64
    
    有关集合数据结构的配置项:
    set-max-intset-entries 512
    
    有关有序集合数据结构的配置项:
    zset-max-ziplist-entries 128
    zset-max-ziplist-value 64
    
    关于是否需要再哈希的配置项:
    activerehashing yes
    
    关于客户端输出缓冲的控制项:
    client-output-buffer-limit normal 0 0 0
    client-output-buffer-limit slave 256mb 64mb 60
    client-output-buffer-limit pubsub 32mb 8mb 60
    
    有关频率的配置项:
    hz 10
    
    有关重写aof的配置项
    aof-rewrite-incremental-fsync yes
    【高级配置】(没有清楚的了解不建议随便更改)

    redis 持久化方案(RDB 和 AOF)

    redis 有两种持久化方案:RDB(Redis DataBase) 和 AOF (Append Only File)

    RDB:
        简而言之,就是在不同的时间点,将redis存储的数据生成快照并存储到磁盘等介质上;

    AOF:
        则是换了一个角度来实现持久化,那就是将redis执行过的所有写指令记录下来,在下次redis重新启动时,只要把这些写指令从前到后再重复执行一遍,就可以实现数据恢复了。

    其实RDB和AOF两种方式也可以同时使用,在这种情况下,如果redis重启的话,则会优先采用AOF方式来进行数据恢复,这是因为AOF方式的数据恢复完整度更高。如果你没有数据持久化的需求,也完全可以关闭RDB和AOF方式,这样的话,redis将变成一个纯内存数据库,就像memcache一样。

    【RDB】

    RDB方式,是将redis某一时刻的数据持久化到磁盘中,是一种快照式的持久化方法。

    redis在进行数据持久化的过程中,会先将数据写入到一个临时文件中,待持久化过程都结束了,才会用这个临时文件替换上次持久化好的文件。正是这种特性,让我们可以随时来进行备份,因为快照文件总是完整可用的。

    对于RDB方式,redis会单独创建(fork)一个子进程来进行持久化,而主进程是不会进行任何IO操作的,这样就确保了redis极高的性能。

    如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。

    虽然RDB有不少优点,但它的缺点也是不容忽视的。如果你对数据的完整性非常敏感,那么RDB方式就不太适合你,因为即使你每5分钟都持久化一次,当redis故障时,仍然会有近5分钟的数据丢失。所以,redis还提供了另一种持久化方式,那就是AOF。

    save 900 1     15分钟内有超过1个的key值被修改了就发起快照保存
    save 300 30    5分钟内有超过30个的key值被修改了就发起快照保存
    save 60  10000 1分钟内有超过10000个的key值被修改了就发起快照保存

    【AOF】

    AOF,英文是Append Only File,即只允许追加不允许改写的文件。
    AOF方式是将执行过的写指令记录下来,在数据恢复时按照从前到后的顺序再将指令都执行一遍,就这么简单。
    我们通过配置redis.conf中的appendonly yes就可以打开AOF功能。如果有写操作(如SET等),redis就会被追加到AOF文件的末尾。
    默认的AOF持久化策略是每秒钟fsync一次(fsync是指把缓存中的写指令记录到磁盘中),因为在这种情况下,redis仍然可以保持很好的处理性能,即使redis故障,也只会丢失最近1秒钟的数据。
    如果在追加日志时,恰好遇到磁盘空间满、inode满或断电等情况导致日志写入不完整,也没有关系,redis提供了redis-check-aof工具,可以用来进行日志修复。
    因为采用了追加方式,如果不做任何处理的话,AOF文件会变得越来越大,为此,redis提供了AOF文件重写(rewrite)机制,即当AOF文件的大小超过所设定的阈值时,redis就会启动AOF文件的内容压缩,只保留可以恢复数据的最小指令集。举个例子或许更形象,假如我们调用了100次INCR指令,在AOF文件中就要存储100条指令,但这明显是很低效的,完全可以把这100条指令合并成一条SET指令,这就是重写机制的原理。
    在进行AOF重写时,仍然是采用先写临时文件,全部完成后再替换的流程,所以断电、磁盘满等问题都不会影响AOF文件的可用性,这点大家可以放心。
    AOF方式的另一个好处,我们通过一个“场景再现”来说明。某同学在操作redis时,不小心执行了FLUSHALL,导致redis内存中的数据全部被清空了,这是很悲剧的事情。不过这也不是世界末日,只要redis配置了AOF持久化方式,且AOF文件还没有被重写(rewrite),我们就可以用最快的速度暂停redis并编辑AOF文件,将最后一行的FLUSHALL命令删除,然后重启redis,就可以恢复redis的所有数据到FLUSHALL之前的状态了。是不是很神奇,这就是AOF持久化方式的好处之一。但是如果AOF文件已经被重写了,那就无法通过这种方法来恢复数据了(已证实可用)。

    虽然优点多多,但AOF方式也同样存在缺陷,比如在同样数据规模的情况下,AOF文件要比RDB文件的体积大。而且,AOF方式的恢复速度也要慢于RDB方式。
    如果你直接执行BGREWRITEAOF命令,那么redis会生成一个全新的AOF文件,其中便包括了可以恢复现有数据的最少的命令集。
    如果运气比较差,AOF文件出现了被写坏的情况,也不必过分担忧,redis并不会贸然加载这个有问题的AOF文件,而是报错退出。这时可以通过以下步骤来修复出错的文件:

    1.备份被写坏的AOF文件
    2.运行redis-check-aof –fix进行修复
    3.用diff -u来看下两个文件的差异,确认问题点
    4.重启redis,加载修复后的AOF文件

    第二种方法是Append-only-file(aof):Append-only方法可以做到全部数据不丢失,但redis的性能就要差些。AOF就可以做到全程持久化,只需要在配置文件中开启,默认是不打开AOF功能的(appendonly no),appendonly yes开启AOF之后,redis每执行一个修改数据的命令,都会把它添加到aof文件中,当redis重启时,将会读取AOF文件进行“重放”以恢复到redis关闭前的最后时刻。

    appendfsync有三个选项:always、everysec和no

    1、always:服务器会在每执行一个事件就把AOF缓冲区的内容强制性的写入硬盘上的AOF文件里,可以看成你每执行一个redis写入命令就往AOF文件里记录这条命令,这保证了数据持久化的完整性,但效率是最慢的,却也是最安全的;
    2、everysec:服务端每执行一次写操作也会把该条命令追加到一个单独的AOF缓冲区的末尾,并将AOF缓冲区写入AOF文件,然后每隔一秒才会进行一次文件同步把内存缓冲区里的AOF缓存数据真正写入AOF文件里,这个模式兼顾了效率的同时也保证了数据的完整性,即使在服务器宕机也只会丢失一秒内对redis数据库做的修改;
    3、no:你完全可以接受Redis数据的丢失,它虽然也会把每条写命令追加到AOF缓冲区的末尾,然后写入文件,但什么时候进行文件同步真正把数据写入AOF文件里则由系统自身决定,即当内存缓冲区的空间被填满或者是超过了设定的时限后系统自动同步。这种模式下效率是最快的,但对数据来说也是最不安全的,如果redis里的数据都是从后台数据库如mysql中取出来的,属于随时可以找回或者不重要的数据,那么可以考虑设置成这种模式。

    appendfsync always     #每次有数据修改发生时都会写入AOF文件。
    appendfsync everysec  #每秒钟同步一次,该策略为AOF的缺省策略。
    appendfsync no          #从不同步。高效但是数据不会被持久化。

    AOF重写机制

    AOF重写的内部运行原理,我们有必要了解一下。

    在重写即将开始之际,redis会创建(fork)一个“重写子进程”,这个子进程会首先读取现有的AOF文件,并将其包含的指令进行分析压缩并写入到一个临时文件中。

    与此同时,主工作进程会将新接收到的写指令一边累积到内存缓冲区中,一边继续写入到原有的AOF文件中,这样做是保证原有的AOF文件的可用性,避免在重写过程中出现意外。

    当“重写子进程”完成重写工作后,它会给父进程发一个信号,父进程收到信号后就会将内存中缓存的写指令追加到新AOF文件中。

    当追加结束后,redis就会用新AOF文件来代替旧AOF文件,之后再有新的写指令,就都会追加到新的AOF文件中了。

    【RDB 和 AOF 比较和选择】

    RDB优势:

    1.一旦采用该方式,那么你的整个Redis数据库将只包含一个文件,这对于文件备份而言是非常完美的。比如,你可能打算每个小时归档一次最近24小时的数据,同时还要每天归档一次最近30天的数据。通过这样的备份策略,一旦系统出现灾难性故障,我们可以非常容易的进行恢复。

    2.对于灾难恢复而言,RDB是非常不错的选择。因为我们可以非常轻松的将一个单独的文件压缩后再转移到其它存储介质上。

    3.性能最大化。对于Redis的服务进程而言,在开始持久化时,它唯一需要做的只是fork出子进程,之后再由子进程完成这些持久化的工作,这样就可以极大的避免服务进程执行IO操作了。

    4.相比于AOF机制,如果数据集很大,RDB的启动效率会更高。

    RDB劣势:

    1.如果你想保证数据的高可用性,即最大限度的避免数据丢失,那么RDB将不是一个很好的选择。因为系统一旦在定时持久化之前出现宕机现象,此前没有来得及写入磁盘的数据都将丢失。
    2.由于RDB是通过fork子进程来协助完成数据持久化工作的,因此,如果当数据集较大时,可能会导致整个服务器停止服务几百毫秒,甚至是1秒钟。

    AOF优势:

    1.该机制可以带来更高的数据安全性,即数据持久性。Redis中提供了3中同步策略,即每秒同步、每修改同步和不同步。事实上,每秒同步也是异步完成的,其效率也是非常高的,所差的是一旦系统出现宕机现象,那么这一秒钟之内修改的数据将会丢失。而每修改同步,我们可以将其视为同步持久化,即每次发生的数据变化都会被立即记录到磁盘中。可以预见,这种方式在效率上是最低的。至于无同步,无需多言,我想大家都能正确的理解它。
    2.由于该机制对日志文件的写入操作采用的是append模式,因此在写入过程中即使出现宕机现象,也不会破坏日志文件中已经存在的内容。然而如果我们本次操作只是写入了一半数据就出现了系统崩溃问题,不用担心,在Redis下一次启动之前,我们可以通过redis-check-aof工具来帮助我们解决数据一致性的问题。
    3.如果日志过大,Redis可以自动启用rewrite机制。即Redis以append模式不断的将修改数据写入到老的磁盘文件中,同时Redis还会创建一个新的文件用于记录此期间有哪些修改命令被执行。因此在进行rewrite切换时可以更好的保证数据安全性。
    4.AOF包含一个格式清晰、易于理解的日志文件用于记录所有的修改操作。事实上,我们也可以通过该文件完成数据的重建。

    AOF劣势:
    1.对于相同数量的数据集而言,AOF文件通常要大于RDB文件。RDB 在恢复大数据集时的速度比 AOF 的恢复速度要快。
    2.根据同步策略的不同,AOF在运行效率上往往会慢于RDB。总之,每秒同步策略的效率是比较高的,同步禁用策略的效率和RDB一样高效。

    二者选择的标准,就是看系统是愿意牺牲一些性能,换取更高的缓存一致性(aof),还是愿意写操作频繁的时候,不启用备份来换取更高的性能,待手动运行save的时候,再做备份(rdb)。rdb这个就更有些 eventually consistent的意思了。

    RDB(Redis DataBase)持久性存储实例

    redis 默认为 RDB 持久化模式,在安装好 redis 之后建议针对 RDB 模式做以下参数的配置:
    提示:这部分的配置是基于上文安装后的redis进行的,如有报错,请参考下上文redis的安装配置

    # vim 6379.conf
    
      61 bind 0.0.0.0    # 绑定ip
     163 logfile "/usr/local/redis/log/redis.log"    # redis 的日志文件路径
     
     # 这三行可以根据自行根据需要进行配置
     202 save 900 1     15分钟内有超过1个的key值被修改了就发起快照保存
     203 300 30    5分钟内有超过30个的key值被修改了就发起快照保存
     204 60  10000 1分钟内有超过10000个的key值被修改了就发起快照保存
     
     247 dir /usr/local/redis/db/    # RDB 持久化文件的存储目录(非常重要)
    
    
    重启 redis 服务
    
    [root@redis-node1 conf]# systemctl restart redis
    [root@redis-node1 conf]# netstat -ntplu | egrep 6379
    tcp        0      0 0.0.0.0:6379            0.0.0.0:*               LISTEN      5518/redis-server 0
    
    接下来,就需要验证 RDB 持久化是否可用。
    
    在进行测试之前,可以先将 RDB 存储的时间改小
    
    [root@redis-node1 conf]# vim 6379.conf
    
     202 save 9 1        # 9秒内只要有1条输入修改就保存
     203 save 3 10        # 10秒内只要有3条数据修改就保存
     204 save 6 10000    # 6秒内只要有10000条数据修改就保存
    
    这样修改是为了测试节约时间,测试完毕,还是得修改回来。
     
     
    1. 首先在本机进行验证:
    
    [root@redis-node1 conf]# redis-cli 
    127.0.0.1:6379> keys *
    (empty list or set)
    127.0.0.1:6379> set p1 1
    OK
    127.0.0.1:6379> set p2 2
    OK
    127.0.0.1:6379> set p3 3
    OK
    127.0.0.1:6379> set p4 4
    OK
    127.0.0.1:6379> set p5 5
    OK
    127.0.0.1:6379> set p6 6
    OK
    
    等几秒种,我们就发现 db 目录下已经生成了 dump.rdb 持久化文件
    [root@redis-node1 conf]# cd ../db/
    [root@redis-node1 db]# ls
    dump.rdb
    [root@redis-node1 db]# pwd
    /usr/local/redis/db
    
    首先,我们通过重启redis查看刚刚插入的数据会不会丢失。
    
    [root@redis-node1 db]# systemctl restart redis    # 重启测试
    [root@redis-node1 db]# redis-cli 
    127.0.0.1:6379> keys *    # 数据未丢失
    1) "p1"
    2) "p5"
    3) "p3"
    4) "p6"
    5) "p4"
    6) "p2"
    127.0.0.1:6379> 
    [root@redis-node1 db]# systemctl stop redis    # 关闭服务
    [root@redis-node1 db]# sleep 30    # 等待30秒
    [root@redis-node1 db]# systemctl start redis    # 再开启服务
    [root@redis-node1 db]# redis-cli     
    127.0.0.1:6379> keys *    # 数据未丢失
    1) "p2"
    2) "p4"
    3) "p1"
    4) "p5"
    5) "p6"
    6) "p3"
    
    重启服务器
    
    [root@redis-node1 db]# reboot
    
    Connection closed by foreign host.
    
    [root@redis-node1 ~]# redis-cli 
    127.0.0.1:6379> keys *
    1) "p6"
    2) "p1"
    3) "p2"
    4) "p4"
    5) "p3"
    6) "p5"
    
    数据依然存在。

    总结:
        通过上面的正常测试,我们可以说,使用RDB持久化模式在本地测试中,是不会丢失大面积数据造成严重的后果。
        同时,我们也发现通过 keys * 查看 redis中的数据时,数据的排列是无序的。

    接下来,测试基于 RDB 文件进行迁移,检验数据的完整性

    还是基于上面的安装过程,我在第二台主机上安装相同版本的 redis 安装过程这里略过。

    [root@redis-node2 ~]# netstat -ntplu | egrep redis
    tcp        0      0 0.0.0.0:6379            0.0.0.0:*               LISTEN      5477/redis-server 0
    
    我们在另一台主机上已经安装完毕,并启动成功。
    
    声明:
        redis-node1: 为迁移前源主机
        redis-node2: 迁移后的主机
    
    首先,关闭 redis-node2 redis服务
    [root@redis-node2 db]# systemctl stop redis
    [root@redis-node2 db]# netstat -ntplu | egrep redis
    
    从 redis-node1 直接将 dump.rdb 拷贝到 redis-node2 对应的 /usr/local/redis/db/ 目录
    
    [root@redis-node1 db]# scp dump.rdb 192.168.118.105:/usr/local/redis/db/
    
    
    在 redis-node2 上查看 dump.rdb文件
    
    [root@redis-node2 db]# pwd
    /usr/local/redis/db
    [root@redis-node2 db]# ls
    dump.rdb
    
    启动服务
    [root@redis-node2 db]# systemctl start redis
    [root@redis-node2 db]# netstat -ntplu | egrep redis
    tcp        0      0 0.0.0.0:6379            0.0.0.0:*               LISTEN      5515/redis-server 0
    
    启动成功,查看数据是否依然存在。
    [root@redis-node2 db]# redis-cli
    127.0.0.1:6379> keys *
    1) "p3"
    2) "p6"
    3) "p1"
    4) "p4"
    5) "p5"
    6) "p2"

    数据依然存在,迁移成功。

    通过上面的实验,无论是本地服务关闭,或者服务器重启。网络迁移,使用RDB都不会造成大面积的数据丢失,而且跨网络迁移速度很简单,启动也很快,只需要将dump文件拷贝到迁移主机,启动服务就完成了迁移。

    AOF(Append Only File)持久性存储实例

    redis安装过程参考上文。

    修改配置文件(因为这里是为了单独测试AOF模式,所以关闭RDB模式):
    
    [root@redis-node1 conf]# vim 6379.conf 
    开启 save "" 并注释 save 三个选项就可以关闭 RDB模式
     200 save ""
     201 
     202 #save 9 1
     203 #save 3 10
     204 #save 6 10000
     
     247 dir /usr/local/redis/db/    # 设置AOF文件保存路径
    
     593 appendonly yes    # 开启 AOF 模式
     
    保存退出
    
    [root@redis-node1 db]# systemctl restart redis
    [root@redis-node1 db]# netstat -ntplu | egrep 6379
    tcp        0      0 0.0.0.0:6379            0.0.0.0:*               LISTEN      2310/redis-server 0
    
    插入数据
    
    [root@redis-node1 db]# redis-cli 
    127.0.0.1:6379> set p1 1
    OK
    127.0.0.1:6379> set p2 2
    OK
    127.0.0.1:6379> set p3 3
    OK
    127.0.0.1:6379> set p4 4
    OK
    127.0.0.1:6379> set p5 5
    OK
    127.0.0.1:6379> 
    [root@redis-node1 db]# redis-cli 
    127.0.0.1:6379> keys *
    1) "p4"
    2) "p2"
    3) "p3"
    4) "p1"
    5) "p5"
    
    关闭redis服务,30秒后在启动redis服务
    [root@redis-node1 db]# systemctl stop redis ; sleep 30 ; systemctl start redis
    [root@redis-node1 db]# netstat -ntplu | egrep redis
    tcp        0      0 0.0.0.0:6379            0.0.0.0:*               LISTEN      2337/redis-server 0 
    [root@redis-node1 db]# redis-cli 
    127.0.0.1:6379> keys *
    1) "p3"
    2) "p4"
    3) "p1"
    4) "p5"
    5) "p2"
    
    数据未丢失。
    
    接下来使用 AOF 模式进行迁移测试:
    
    声明:
        redis-node1: 为迁移前源主机
        redis-node2: 迁移后的主机
    
    redis-node2 配置文件的修改同 redis-node1 一样
    
    首先,停止 redis-node2 的服务
    [root@redis-node2 db]# systemctl stop redis
    
    将 redis-node1 的 AOF 文件直接拷贝到要迁移的主机对应的路径下
    [root@redis-node1 db]# scp appendonly.aof 192.168.118.105:/usr/local/redis/db/
    
    
    在 redis-node2 上查看并启动服务
    [root@redis-node2 db]# pwd
    /usr/local/redis/db
    [root@redis-node2 db]# ls
    appendonly.aof
    [root@redis-node2 db]# systemctl start redis
    [root@redis-node2 db]# netstat -ntplu | egrep redis
    tcp        0      0 0.0.0.0:6379            0.0.0.0:*               LISTEN      5561/redis-server 0 
    [root@redis-node2 db]# redis-cli 
    127.0.0.1:6379> keys *
    1) "p4"
    2) "p5"
    3) "p1"
    4) "p2"
    5) "p3"

    数据依然存在。

    通过上面的实验,AOF也是非常可靠的。已知AOF文件是将redis的修改插入删除操作通过语句记录下来的,可以打开appendonly.aof 查看

    [root@redis-node2 db]# vim appendonly.aof 
    
    *2
    $6
    SELECT
    $1
    0
    *3
    $3
    set
    $2
    p1
    $1
    1
    *3
    $3
    set
    $2
    p2
    $1
    2
    *3
    $3
    ......

    AOF的原理就是,redis启动后,通过读取appendonly.aof 将数据载入到内存中,这种方式相比较 RDB 来说,迁移的启动的速度是没有 RDB 快的。

    以上就是 redis 两种持久化存储的测试,这里需要提醒的是,如果 第一次使用 redis 开启了 RDB模式,使用一段时间后,再开启 AOF 模式会造成数据的丢失!
    因为 redis 启动后,首先会去读取 appendonly.aof 文件,当内存中已经存在数据后,启用AOF模式,重启redis服务,生成一个空的appendonly.aof文件,redis就会去读取这个空的 appendonly.aof 文件,
    并加载到内存中,原先的数据就丢失了。

    通过下面的例子,我们来证实这个说法:

    首先,确保 RDB模式开启,AOF 模式是关闭状态
    [root@redis-node1 conf]# vim 6379.conf
     200 #save ""
     201 
     202 save 9 1
     203 save 3 10
     204 save 6 10000
     
     593 appendonly no
    
    保存退出
    
    [root@redis-node1 db]# systemctl restart redis
    [root@redis-node1 db]# netstat -ntplu | egrep redi
    tcp        0      0 0.0.0.0:6379            0.0.0.0:*               LISTEN      2416/redis-server 0
    
    
    这里,使用 python 直接插入 10000条数据
    
    import redis
    
    conn = redis.Redis(host='192.168.118.104', port=6379, db='0')
    r = conn.pipeline()
    for i in range(10000):
        r.set(i, 'Test')
    r.execute()
    
    查看数据
    [root@redis-node1 db]# redis-cli
    127.0.0.1:6379> DBSIZE
    (integer) 10000
    
    重启服务验证是否持久化成功
    [root@redis-node1 db]# systemctl restart redis
    [root@redis-node1 db]# redis-cli 
    127.0.0.1:6379> DBSIZE
    (integer) 10000
    
    查看是否生成了 dump.rdb    文件
    [root@redis-node1 db]# ls -lsh 
    total 88K
    88K -rw-r--r-- 1 root root 88K Dec  2 21:31 dump.rdb
    
    
    接下来,我们开启 AOF 持久化模式
    
    [root@redis-node1 conf]# vim 6379.conf
     593 appendonly yes
    
    
    重启服务,查看数据信息
    [root@redis-node1 conf]# systemctl restart redis
    [root@redis-node1 conf]# redis-cli 
    127.0.0.1:6379> DBSIZE
    (integer) 0

    之前的 10000 条数据已经丢失。

    所以,在修改任何redis配置文件参数之前,至少都要备份下 dump.rdb 文件,避免造成损失。

    后面的文章再介绍 redis 集群。

  • 相关阅读:
    幸运的秘密
    125条常见的java面试笔试题大汇总之一
    转身离去
    古怪的问题
    125条常见的java面试笔试题大汇总之五
    125条常见的java面试笔试题大汇总之四
    125条常见的java面试笔试题大汇总之三
    关于PostGreSQL中的存储过程
    关于文件编码
    javascript高级程序设计(2)ECMAScript基础
  • 原文地址:https://www.cnblogs.com/hukey/p/10053557.html
Copyright © 2011-2022 走看看