zoukankan      html  css  js  c++  java
  • zkclient大量节点事件导致CPU飙升

    概述

    ​ 项目背景 : 我们的某个服务是专门执行自动任务的 , 对外提供一个 jar 包里面有个自动任务的接口 , 然后各种自动任务的实现在其他各个项目, 并且作为服务提供者注册到zookeeper 上 . 项目在开发阶段时开发环境出现了CPU彪升 , 占用大量内存的现象.

    现象

    ​ 先按 top 命令 ,然后再按大写的 P

    1297993-20210722165340614-2080457078.png

    ​ 可以看到 PID 29960 占的 CPU 已经达到 91% , (有时候也可能超过 100% , 这是因为多核 CPU 的原因) , 我们首先确定这个PID 对应的应用是什么

    ps -aux | grep '29960'
    

    ​ 比如说这个应用是 admin , 下面我们在查看一下该 PID 下那个线程消耗的 CPU 资源高 .

    top -p 41843 -H
    

    1297993-20210722180137525-2088397126.png

    ​ OK , 这里我们已经知道了该 PID 的最忙的线程, 我们稍微看一下这个线程在干什么事

    strace -p 30021
    

    1297993-20210722180333414-15773441.png

    ​ 可以看到多个线程正在进行大量的自旋中(自旋锁) , 那么下面我们利用 jstace 命令进行查看这个线程的位置和堆栈 . 使用 jstace
    找到某个线程的时候会用到16进制

    printf "%x
    " 30021
    

    ​ 然后使用 jstace 命令

    jstack -l 30021 | grep 0x7545 -A20 
    

    1297993-20210725155513338-546846647.png

    ​ ok , 我们每过几秒在运行一下上面的命令就可以知道该线程是否给阻塞了.

    dump 内存文件分析

    ​ 我们通过上面了知道 CPU 飙升地厉害, 而内存也占用了不少, 于是我们 dump 下了文件进行分析, 我们用 jmap 命令, 然后放大 MAT工具进行分析.

    jmap  -dump:live,format=b,file=2021-7-17-21-05.dump 29960
    

    ​ 一般dump 下来的文件比较大, 我们可以压缩一下文件

    tar -zcvf 2021-7-17-21-05.gz  2021-7-17-21-05.dump
    

    ​ 然后下载下来扔到 MAT工具里

    1297993-20210725160836994-1167205403.png

    ​ 可以看到下面的分析, 其中画红色圈圈的需要关注一下, 我们首先看一下创建实例的数量排序

    1297993-20210725161220500-815757926.png

    ​ 可以看到 zkClient里面的一个内部类对象创建了很多个实例, 并且从占用的内存也可以看出确实是这些对象占用了大量的内存

    1297993-20210725162712300-878099997.png

    ​ 我们看一下引用该对象的有哪些呢? 下面我们先来看看该类在哪里定义, 又为何创建那么多的对象

    1297993-20210725162848620-216754782.png

    ​ dubbo 框架应用了它, dubbo进入了我们观察的视野, 再看一下大对象分析,

    1297993-20210725163443784-2513196.png

    ​ 可以看到 zkClient 这个类的某个实例占的内存高达 95% 也就是大概 5G 左右的内存都是消耗在这个对象上的, 我们点开它的属性,发现了里面的一个队列占了大部分的内存比例, 而这些对象都有个特点就是 , zkClient 的某个字段都是 : Children of /dubbo/com.midea.mdp.dubbo.service.SchedulerDubboJobService/providers changed sent to com.alibaba.dubbo.remoting.zookeeper.zkclient.ZkclientZookeeperClient$2@7ecbb7e6
    再看看下面的图

    1297993-20210725164050951-1865005916.png

    ​ 这个队列的数量达到了千万级别的数目, 非常不正常. OK , 下面将根据我们的线索, 我们将会分析占用内存和占用CPU 的原因

    class ZkEventThread extends Thread {
    
        private static final Logger LOG = LoggerFactory.getLogger(ZkEventThread.class);
    
        private BlockingQueue<ZkEvent> _events = new LinkedBlockingQueue<ZkEvent>();
    
        private static AtomicInteger _eventId = new AtomicInteger(0);
    
        static abstract class ZkEvent {
    
            private String _description;
    
            public ZkEvent(String description) {
                _description = description;
            }
    
            public abstract void run() throws Exception;
    
            @Override
            public String toString() {
                return "ZkEvent[" + _description + "]";
            }
        }
    
        ZkEventThread(String name) {
            setDaemon(true);
            setName("ZkClient-EventThread-" + getId() + "-" + name);
        }
    
        @Override
        public void run() {
            LOG.info("Starting ZkClient event thread.");
            try {
                while (!isInterrupted()) {
                    ZkEvent zkEvent = _events.take();
                    int eventId = _eventId.incrementAndGet();
                    LOG.debug("Delivering event #" + eventId + " " + zkEvent);
                    try {
                        zkEvent.run();
                    } catch (InterruptedException e) {
                        interrupt();
                    } catch (ZkInterruptedException e) {
                        interrupt();
                    } catch (Throwable e) {
                        LOG.error("Error handling event " + zkEvent, e);
                    }
                    LOG.debug("Delivering event #" + eventId + " done");
                }
            } catch (InterruptedException e) {
                LOG.info("Terminate ZkClient event thread.");
            }
        }
    
        public void send(ZkEvent event) {
            if (!isInterrupted()) {
                LOG.debug("New event: " + event);
                _events.add(event);
            }
        }
    }
    
    

    ​ 该类继承了 Thread , 可以知道是线程任务类, 该类持有一个阻塞队列, 执行的任务就是不断从中拿去任务出来,然后进行处理. 我们通过代码可以知道该线程的作用是处理 zk 发过来的事件.

    1297993-20210725164529131-1056378252.png

    ​ 我们可以看到这个 EventThread 在 zkClient 中进行初始化并运行线程执行任务的调用. 知道了这些 , 我分析有两种情况会导致这种现象

    1. 大量发过来的 event ,直接压垮了处理事件的线程 , event 都在阻塞队列中, 所以我们可以看到那么多的自旋锁在不断尝试获得锁
    2. 队列的处理过程中遇到了阻塞 ,相当于生产者的效率大大大于消费者, 所以时间久了自然就堆积了.
      我先对第二种情况进行了验证, 这里用到了阿里的一个工具 arthas,
    trace org.I0Itec.zkclient.ZkEventThread$ZkEvent run
    

    1297993-20210726222017998-2054117815.png

    ​ 我们可以看到处理事件的线程并没有啥问题 , 处理一个任务都是以毫秒计算的. ok ,既然第二种猜想是不成力的, 那么第一种呢?假设第一种猜想是正确的, 那么事件为什么又会产生那么多呢? 根据我们前面的 MAT 的分析 , 看到了都是
    Children of /dubbo/com.xx.mdp.dubbo.service.SchedulerDubboJobService/providers changed sent to com.alibaba.dubbo.remoting.zookeeper.zkclient.ZkclientZookeeperClient$2@7ecbb7e6
    ​ 这一个相关的事件 ,于是我在代码中进行了跟踪, 找到了事件插入队列的地方 :

    1297993-20210726222438741-571981176.png

    ​ 依然使用 trace命令进行查看插入队列的方法是否正常, 判断是否是应该插入的速率远远大于取出的速率

    1297993-20210728095413087-1415181933.png

    通过上面的分析, 我们基本可以确定的是 :

    1. 大量的 zk 节点事件阻塞在队列中, 导致自旋锁, 导致CPU 上升, 由于大量数量事件对象导致占用了大量的内存
    2. 一种可能是由于事件太多, 导致事件堆积; 处理事件的线程处理效率低导致大量事件堆积, 从上面的 trace 查看已经证明处理线程并没有阻塞, 处理速度也正常, 下面我们将按照大量事件导致事件堆积的思路进行排查

    项目背景

    ​ 其他项目提供自动任务的提供者 , 最后都由 admin 进行调用消费, zk 节点情况如下 。 admin 应用作用自动任务的执行者, 会定时去调用外部的定时任务接口, 而外部的定时任务接口是使用dubbo, 注册在 zk 上的某个固定节点下, 那么外部的应用是 dubbo 提供者, 而 admin 应用作为消费者,我们刚好在该环境内进行开发测试, 会频繁地上下线应用. 节点结构如下图,

    1297993-20210801110136805-1419520819.png

    验证猜想

    ​ 也就是说所有的消费者都在 admin 应用, 而外部的应用充当提供者 , 既然节点是 zk 发的, 那么有没有可能是由于频繁地上下线导致的zk节点变化事件大量产生呢?于是我做了以下实验 , 通过打印日志的方式得到收到事件的数量.

    demo案例模拟

    为了模拟dubbo 消费者和生产者之间上下线产生的节点变化事件 , 我写了一个 consumer 项目模拟成 admin 一样的角色, 对外提供接口给外围系统实现, 外围作为提供者注册到 zk 节点, 可以看到提供者有4个. 我们将模拟以下场景

    consumer 消费者

    1297993-20210801110507534-1032688552.png

    provider1 提供者

    1297993-20210801110623166-453897030.png

    provider2 提供者

    1297993-20210801110642230-416637675.png

    步骤一 : 部分提供者下线

    ​ 下面两个提供者下线收到的事件 , 共四个 , 下线两个 , 共收到 4个事件 .

    1297993-20210801110843578-730830384.png

    步骤二 : 部分提供者上线

    ​ 刚才下线了两个提供者 , 剩下两个提供者 , 现在我们再重新上线 . 可以看到我们此时收到的是 12 - 4 = 8个事件.

    1297993-20210801110820743-105989046.png

    步骤三 : 再次下线

    1297993-20210801111312622-1571289185.png

    步骤四 : 再次上线

    1297993-20210801111347875-987030351.png

    demo 总结

    ​ 我们通过上面基本上确定了是 provider 上线会触发上线事件 ,并且是数量是 上线提供者数量 * 集体消费者数量 ,频繁上下线会触发事件的数量是可怕的, 而出现事件的线程刚好是单线程 , 并且消费者的应用只有一个 : admin , 于是大量的事件打满了出现事件的线程 , 全都堆积在阻塞队列中进行自旋阻塞 ,从而 CPU 上升 , 内存上升。

    总结

    ​ 通过这一次的分析, 熟悉了一下排查问题的流程, 并通过分析验证了自己的猜想.

    参考资料

  • 相关阅读:
    spring cloud 和 阿里微服务spring cloud Alibaba
    为WPF中的ContentControl设置背景色
    java RSA 解密
    java OA系统 自定义表单 流程审批 电子印章 手写文字识别 电子签名 即时通讯
    Hystrix 配置参数全解析
    spring cloud 2020 gateway 报错503
    Spring Boot 配置 Quartz 定时任务
    Mybatis 整合 ehcache缓存
    Springboot 整合阿里数据库连接池 druid
    java OA系统 自定义表单 流程审批 电子印章 手写文字识别 电子签名 即时通讯
  • 原文地址:https://www.cnblogs.com/Benjious/p/15086283.html
Copyright © 2011-2022 走看看