zoukankan      html  css  js  c++  java
  • 08 redis的缓存预热,雪崩,击穿,穿透问题以及常用的监控参数

    0 redis的缓存四类问题概述

    名称 现象 策略 备注
    缓存预热 应用服务刚上线后迅速宕机 1)优先加载热点数据 2)提升数据加载速度 3)主从数据同时加载 需要日常工作中统计热点数据
    缓存雪崩 Redis服务器大量key过期,数据库连接量激增 系统设计与平时维护层面:1)多级缓存 2)热点页面静态化处理。3)优化数据库查询 4)灾难预警机制:监控+限流+熔断+隔离。 具体的解决策略:1)为不同的key设置不同超时时间。2)永久key。3)加锁 4)定期对热点数据的key进行延时 5)更改淘汰策略 预防策略+具体策略结合
    缓存击穿 Redis服务器无大量key过期并且工作平稳,数据库连接量瞬间激增 1)加锁 2)预先设定可能成为穿透key的过期时间 3)定期对热点数据的key进行延时 4)二级缓存 与雪崩的解决策略相接,只不过需要根据实际业务数据对特定key重点关注
    缓存穿透 Redis服务器命中率随时间逐步降低且CPU占用激增,数据库服务器压力激增 1)缓存null 2) 设置白名单(bitmap/布隆过滤器)3)key加密 4)监控+黑名单 建立监控机制,黑白名单对系统的性能有影响,没有这个问题应该撤销

    1 redis的缓存预热问题

    1-1 缓存预热的场景

    问题:采用redis的应用服务上线后迅速宕机了?

    宕机的可能原因分析

    1. 请求数量较高
    2. 主从之间数据吞吐量较大,数据同步操作频度较高
    3. 关系型数据库读取的频率也比较高。
    

    1-2 缓存预热的流程

    前置准备工作:平时去维护和统计热点数据

    策略1(基于经验统计):日常例行统计数据访问记录,统计访问频度较高的热点数据
    策略2(基于算法维护): 利用LRU数据删除策略,构建数据留存队列(比如利用storm与kafka v )

    例如: storm与kafka配合
    Apache Storm是一个分布式实时大数据处理系统。Storm设计用于在容错和水平可扩展方法中处理大量数据。它是一个流数据框架,具有最高的摄取率。
    Kafka专为分布式高吞吐量系统而设计,其他消息传递系统相比,Kafka具有更好的吞吐量,内置分区,复制和固有的容错能力,这使得它非常适合大规模消息处理应用程序。
    

    准备工作

    1. 将统计结果中的数据分类,根据级别, redis优先加载级别较高的热点数据
    2. 利用分布式多服务器同时进行数据读取, 提速数据加载过程
    3. 热点数据主从同时预热

    实施

    1.使用脚本程序固定触发数据预热过程

    2.条件允许, 使用了CDN(内容分发网络),效果会更好

    1-3 缓存预热的总结

    缓存预热就是系统启动前, 提前将相关的缓存数据直接加载到缓存系统。避免在用户请求的时候,先查询数据库,然后再将数据缓存的问题!用户直接查询事先被预热的缓存数据

    2 redis的缓存雪崩问题

    2-1 雪崩问题出现的场景

    场景:系统平稳运行过程中,忽然数据库连接量激增(流量激增),

    客户端:应用服务器无法及时处理请求,大量408, 500错误页面出现,客户反复刷新页面获取数据
    服务端: 数据库崩溃,应用服务器崩溃,重启应用服务器无效,Redis服务器崩溃,Redis集群崩溃
    ,重启数据库后再次被瞬间流量放倒
    
    • 408 Request Timeout 请求超时
    • 500 内部服务器出现了问题

    问题原因分析:在一个较短的时间内,缓存中较多的key集中过期

       由于大量的key集中过期,redis短时期内需要向存储数据的数据库发送大量请求,数据库短期内无法及时处理大量请求,崩溃,redis的数据请求无法得到及时响应,出现超时现象。由于资源被大量请求占用,redis服务器崩溃,集群崩溃,应用服务器无法获取数据,被大量请求给淹没,崩溃。
    

    缓存雪崩的可能有二种原因造成

    1)缓存服务某个时刻出现了问题,后面的请求都直接落到了数据库上,造成数据库短时间内承受大量请求

    2)热点缓存在某一时刻大面积失效,导致对应的请求直接落到了数据库上

    2-2 解决策略

    缓存雪崩出现前预防策略

    1. 系统日常维护:更多的页面静态化处理
    2. 系统设计:构建多级缓存架构
    3. 系统日常维护:检测Mysql严重耗时业务进行优化:对数据库的瓶颈排查:例如超时查询、耗时较高事务等
    4. 系统设计:建立灾难预警机制,监控redis服务器性能指标+限流、降级
         CPU占用、 CPU使用率
         内存容量
         查询平均响应时间
         线程数
    限流,降级:短时间范围内牺牲一些客户体验,限制一部分请求访问,降低应用服务器压力,待业务低速运转后再逐步放开访问  
    

    对于高频访问的页面进行静态化处理,目的是缓解服务器压力
    

    缓存的请求顺序是:用户请求 → HTTP 缓存 → CDN 缓存 → 代理服务器缓存 → 进程内缓存 → 分布式缓存 → 数据库。
    
    缓存名称 缓存的数据类型
    HTTP 缓存 静态资源
    CDN 缓存 静态资源
    负载均衡缓存(负载均衡服务器) 动态资源
    进程内缓存(应用服务器) 较流行的实现有 Ehcache、GuavaCache、Caffeine。这些架构把热点数据放到进程内的缓存中。 动态资源
    分布式缓存(Redis集群) 动态资源

    各种缓存的特点

    • CDN 缓存和 HTTP 缓存是好搭档。
    • 负载均衡器缓存相对稳定资源,需要服务协助工作。
    • 进程内缓存,效率高,但容量有限制缓存同步问题可以通过消息队列与定时器两种方案实现
    • 分布式缓存容量大,能力强

    • 监控redis服务器性能指标+限流、降级
    - 熔断机制:某个缓存节点不能工作的时候,需要通知缓存代理(负载均衡器)不要把请求路由到该节点,减少用户等待和请求时长(调整负载均衡策略)
    - 限流机制:在接入层和代理层可以做限流,当缓存服务无法支持高并发的时候,前端可以把无法响应的请求放入到队列或者丢弃(限制请求)
    - 隔离机制:缓存无法提供服务或者正在预热重建的时候,把该请求放入队列中,这样该请求因为被隔离就不会被路由到其他的缓存节点(隔离请求)。
    

    具体解决缓存雪崩的策略

    1)调整缓存置换策略,LRU与LFU切换

    2)避免缓存同时失效,不同的 key 设置不同的超时时间。

    • 根据业务数据有效期进行分类错峰, A类90分钟, B类80分钟, C类70分钟
    • 过期时间使用固定时间+随机值的形式,稀释集中到期的key的数量

    3)超热数据使用永久key

    4)定期维护(自动+人工)

    • 对即将过期数据做访问量分析,确认是否延时,配合访问量统计,做热点数据的延时

    5)加锁(慎用)

    • 增加互斥锁,对缓存的更新操作进行加锁保护,保证只有一个线程进行缓存更新。缓存一旦失效可以通过缓存快照的方式迅速重建缓存。对缓存节点增加主备机制,当主缓存失效以后切换到备用缓存继续工作。

    2-3 缓存雪崩总结(心中有图)

    用户请求 → HTTP 缓存 → CDN 缓存 → 代理服务器缓存(Nginx) → 进程内缓存(Tomact等应用服务器) → 分布式缓存(redis集群) → 数据库(MySQL)。
    

    总结:缓存雪崩就是瞬间过期数据量太大,导致对数据库服务器(MySQL数据库)造成压力。如能够有效避免过期时间集中,可以有效解决雪崩现象的出现
    (约40%),配合其他策略一起使用,并监控服务器的运行数据,根据运行记录做快速调整

    3 redis的缓存击穿问题

    3-1 击穿问题出现场景

    场景

    系统平稳运行过程中并且Redis服务器无大量key过期并且工作平稳,但是数据库连接量瞬间激增,数据库崩溃。
    
    • 电商平台中某些货物成为“爆款”了

    问题排查

    1 Redis中某个key过期,该key访问量巨大
    2. 多个数据请求从服务器直接压到Redis后,均未命中
    3. Redis在短时间内发起了大量对数据库中同一数据的访问
    

    原因分析

    单个key高热数据并且出现key过期
    
    • 缓存击穿区别于缓存雪崩在于key过期的数量

    3-2 击穿问题的解决策略

    各种策略的核心目的:避免可能被击穿的key过期(主要是对业务数据进行分析

    1. 预先设定(预先确定哪些key可能成为被击穿的key)
    电商为例,每个商家根据店铺等级, 指定若干款主打商品,
    注意:购物节不仅仅指当天,以及后续若干天,访问峰值呈现
    2. 现场调整(监控key,将那些频繁被访问的延长过期时间)
    监控访问量,对自然流量激增的数据延长过期时间或设置为永
    3. 后台刷新数据(定时更新数据有效期)
    启动定时任务,高峰期来临之前, 刷新数据有效期,确保不丢
    4. 二级缓存
    设置不同的失效时间,保障不会被同时淘汰就行
    5. 加锁
    分布式锁,防止被击穿,但是要注意也是性能瓶颈,慎重!
    

    3-3 缓存击穿总结

    缓存击穿单个高热数据过期的瞬间,数据访问量较大,未命中redis后,发起了大量对同一数据的数据库访问。导致对数据库服
    务器造成压力。

    应对策略:应该在业务数据分析与预防方面进行,配合运行监控测试与即时调整策略,毕竟单个key的过期监控难度较高,配合雪崩处理策略即可

    4 redis的缓存穿透问题

    4-1 穿透问题出现的场景

    场景:服务器命中率随时间逐步降低且CPU占用激增

    系统平稳运行过程中,应用服务器流量随时间增量较大并且Redis内存平稳,
    但是Redis服务器命中率随时间逐步降低且CPU占用激增,数据库服务器压力激增导致数据库崩溃
    

    问题排查:请求的数据并不是合法的key,没有对应的value

    1. Redis中大面积出现未命中
    2. 出现非正常URL访问(不是正常用户的访问,是黑客攻击,通过无效URL瘫痪应用服务)
    

    问题分析

    获取的数据在数据库中也不存在,数据库查询未得到对应数据,Redis获取到null数据未进行持久化,直接返回,黑客攻击服务器
    

    4-2 缓存穿透问题解决策略

    1)缓存null(治标不治本,短期策略)

    • 对查询结果为null的数据进行缓存(长期使用,定期清理), 设定短时限,例如30-60秒, 最高5分钟

    2)白名单策略(每次都需要访问白名单,这会成为系统瓶颈,布隆过滤器也是基于这种策略比bitmaps效率高)

    • 提前预热各种分类数据id对应的bitmaps, id作为bitmaps的offset,相当于设置了数据白名单。 当加载正常数据时,放
      行,加载异常数据时直接拦截(效率偏低)
    • 使用布隆过滤器(有关布隆过滤器的命中问题对当前状况可以忽略)

    3)实施监控+黑名单:根据倍数不同,启动不同的排查流程。然后使用黑名单进行防控(运营)

    • 实时监控redis命中率( 业务正常范围时,通常会有一个波动值)与null数据的占比
      • 非活动时段波动:通常检测3-5倍,超过5倍纳入重点排查对象
      • 活动时段波动:通常检测10-50倍, 超过50倍纳入重点排查对象

    4) key加密(在应用服务器前进行拦截)

    • 问题出现后,临时启动防灾业务key,对key进行业务层传输加密服务,设定校验程序,对key校验。

    4-3 缓存穿透问题总结

    缓存穿透:访问了不存在的数据,跳过了合法数据的redis数据缓存阶段(穿透访问的数据必定不存在),每次访问数据库,导致对数据库服务器造成压力。

    • 通常此类数据的出现量是一个较低的值,当出现此类情况以毒攻毒,并及时报警。

    应对策略:应该在临时预案防范方面多做文章。无论是黑名单还是白名单,都是对整体系统的压力,警报解除后尽快移除

    5 redis的性能监控指标

    5-1 性能监控的常用指标

    性能指标: Performance

    Name 说明 备注
    Latency redis响应一个请求的时间
    instantaneous_ops_per_sec 平均每秒处理请求总数( QPS: query per second)
    hit rate(calculated) 缓存命中率 命中率低说明服务器压力比较大,缓存的过期策略会影响命中率

    内存指标: Memory

    Name 说明
    used_memory 已使用内存
    mem_framentation_ratio 内存碎片率
    evicted_keys 由于最大内存限制被移除的key数量 删除策略对该指标影响大
    blocked_clients 由于BLPOP,BRPOP或者BRPOPLPUSH而被阻塞客户端信息对内存占用 阻塞操作

    在 Redis 的 列表(list) 命令中,有一些命令是阻塞模式的,比如:BRPOP, BLPOP, BRPOPLPUSH, 这些命令都有可能造成客户端的阻塞

    详细见Redis 列表阻塞命令的实现


    基本活动指标: Basic

    Name 描述
    connected_clients 客户端连接数
    connected_slaves Slave数量
    master_last_io_seconds_ago 最近一次主从交互之后的秒数
    keyspace 数据库中key的总数 通常key的范围都是有一个正常的范围,如果key数量大量减少,可能会发生雪崩

    持久性指标: Persist(灾难恢复需要关注)

    Name 描述
    rdb_last_save_time 最后一次持久化保存到磁盘的时间戳
    rdb_change_since_last_save 最后一次持久化以来,数据库更新数

    错误指标: Error

    名称 描述
    rejected_connections 由于最大客户端数量的限制而被拒绝的连接数目
    keyspace_misses key值没用命中的次数
    master_link_down_since_seconds 主从断开的持续时间(断开时间长,从服务器压力大)

    5-2 性能监控的工具

    监控方式
     工具
     Cloud Insight Redis
     Prometheus
     Redis-stat
     Redis-faina
     RedisLive
     zabbix
     命令
     benchmark
     redis cli
     monitor
     showlog
    

    常用工具命令

    redis-benchmark [-h ] [-p ] [-c ] [-n <requests]> [-k ]
    monitor
    showlong [operator]          # get :获取慢查询日志 len :获取慢查询日志条目数 reset :重置慢查询日志
    slowlog-log-slower-than 1000 #设置慢查询的时间下线,单位:微妙
    slowlog-max-len 100          #设置慢查询命令对应的日志显示长度,单位:命令数
    

    知识点:布隆过滤器(Bloom Filter)

    常见的应用场景:用户注册的时候迅速判断该用户名是否重复

    定义:布隆过滤器(Bloom Filter)可以看成是由bit数组和多个hash函数组成,用于判断元素是否存在于集合中的非常节约空间的数据结构。

    特点

    1 固定大小的空间可以添加任意数量的元素,但是空间大小不变的情况下,加的越大,错误判断的可能性也越大,当bit数组都为1时,所有元素都会被判断是存在的。
    2.布隆过滤器会产生fasle positive结果但不会产生false negative的结果
    --false positive: 该结果不存在的时候,判断其存在
    --false negative:结果存在的时候,判断其不存在
    3. 布隆过滤器不能删除元素
    

    2.布隆过滤器的原理介绍

    当一个元素加入布隆过滤器中的时候,会进行如下操作:

    1. 使用布隆过滤器中的K个哈希函数对元素值进行计算,得到K哈希值
    2. 根据得到的K个哈希值(对hash值取模),在位数组中把对应的K个下标的值置为 1。

    当我们需要判断一个元素是否存在于布隆过滤器的时候,会进行如下操作:

    1. 对给定元素再次进行相同的哈希计算;

    2. 得到值之后判断位数组中的每个元素是否都为 1,如果值都为 1,那么说明这个值在布隆过滤器中,如果存在一个值不为 1,说明该元素不在布隆过滤器中。

    更多关于布隆过滤器参考

    Bloom Filters – Introduction and Implementation

    布隆过滤器总结

    书籍程序员代码面试指南:第6章

    参考资料

    redis的基础课程

    redis重点知识面试总结

    JavaGuide的Redis

    redis重点知识汇总

  • 相关阅读:
    iOS 简单获取当前地理坐标
    iOS 企业账号申请证书和打包ipa
    iOS 代码片段的添加!
    iOS 扩展类方法之category!
    iOS 数组和字典排序
    iOS 字符串NSString 的一些常用方法
    iOS 一些常见问题
    iOS 数据库sqlite完整增删改查操作
    iOS pch文件的创建
    iOS 通过网络请求获取图片的下载歌曲
  • 原文地址:https://www.cnblogs.com/kfcuj/p/14772496.html
Copyright © 2011-2022 走看看