zoukankan      html  css  js  c++  java
  • jvm内存溢出抓取

     问题爆发

    本以为这次值班就起这么一个小波浪,结果在晚上八点多,各种接口的报警邮件蜂拥而至,打得准备收拾东西过周日单休的我措手不及。

    这次几乎所有的接口都在超时,而我们那个大量网络 I/O 的接口则是每次探测必超时,难道是整个机房故障了么。

    我再次通过服务器和监控看到各个接口的指标都很正常,自己测试了下接口也完全 OK,既然不影响线上服务,我准备先通过探测服务的接口把探测任务停掉再慢慢排查。

    结果给暂停探测任务的接口发请求好久也没有响应,这时候我才知道没这么简单。

    | 解决

    内存泄漏

    于是赶快登录探测服务器,首先是 top free df 三连,结果还真发现了些异常。

    图片

    我们的探测进程 CPU 占用率特别高,达到了 900%。

    我们的 Java 进程,并不做大量 CPU 运算,正常情况下,CPU 应该在 100~200% 之间,出现这种 CPU 飙升的情况,要么走到了死循环,要么就是在做大量的 GC。

    使用 jstat -gc pid [interval] 命令查看了 java 进程的 GC 状态,果然,FULL GC 达到了每秒一次。

    图片

    这么多的 FULL GC,应该是内存泄漏没跑了,于是 使用 jstack pid > jstack.log 保存了线程栈的现场,使用 jmap -dump:format=b,file=heap.log pid 保存了堆现场,然后重启了探测服务,报警邮件终于停止了。

    jstat

    jstat 是一个非常强大的 JVM 监控工具,一般用法是:jstat [-options] pid interval

    它支持的查看项有:

    • -class 查看类加载信息
    • -compile 编译统计信息
    • -gc 垃圾回收信息
    • -gcXXX 各区域 GC 的详细信息 如 -gcold

    使用它,对定位 JVM 的内存问题很有帮助。

    | 排查

    问题虽然解决了,但为了防止它再次发生,还是要把根源揪出来。

    分析栈

    栈的分析很简单,看一下线程数是不是过多,多数栈都在干嘛。

    > grep 'java.lang.Thread.State' jstack.log  | wc -l
    > 464

    才四百多线程,并无异常。

    > grep -A 1 'java.lang.Thread.State' jstack.log  | grep -v 'java.lang.Thread.State' | sort | uniq -c |sort -n

         10  at java.lang.Class.forName0(Native Method)
         10  at java.lang.Object.wait(Native Method)
         16  at java.lang.ClassLoader.loadClass(ClassLoader.java:404)
         44  at sun.nio.ch.EPollArrayWrapper.epollWait(Native Method)
        344  at sun.misc.Unsafe.park(Native Method)

    线程状态好像也无异常,接下来分析堆文件。

    下载堆 dump 文件

    堆文件都是一些二进制数据,在命令行查看非常麻烦,Java 为我们提供的工具都是可视化的,Linux 服务器上又没法查看,那么首先要把文件下载到本地。

    由于我们设置的堆内存为 4G,所以 dump 出来的堆文件也很大,下载它确实非常费事,不过我们可以先对它进行一次压缩。

    gzip 是个功能很强大的压缩命令,特别是我们可以设置 -1 ~ -9 来指定它的压缩级别,数据越大压缩比率越大,耗时也就越长,推荐使用 -6~7, -9 实在是太慢了,且收益不大,有这个压缩的时间,多出来的文件也下载好了。

    使用 MAT 分析 jvm heap

    MAT 是分析 Java 堆内存的利器,使用它打开我们的堆文件(将文件后缀改为 .hprof), 它会提示我们要分析的种类,对于这次分析,果断选择 memory leak suspect

    图片 从上面的饼图中可以看出,绝大多数堆内存都被同一个内存占用了,再查看堆内存详情,向上层追溯,很快就发现了罪魁祸首。图片

    分析代码

    找到内存泄漏的对象了,在项目里全局搜索对象名,它是一个 Bean 对象,然后定位到它的一个类型为 Map 的属性。

    这个 Map 根据类型用 ArrayList 存储了每次探测接口响应的结果,每次探测完都塞到 ArrayList 里去分析,由于 Bean 对象不会被回收,这个属性又没有清除逻辑,所以在服务十来天没有上线重启的情况下,这个 Map 越来越大,直至将内存占满。

    内存满了之后,无法再给 HTTP 响应结果分配内存了,所以一直卡在 readLine 那。而我们那个大量 I/O 的接口报警次数特别多,估计跟响应太大需要更多内存有关。

    给代码 owner 提了 PR,问题圆满解决。

    | 小结

    其实还是要反省一下自己的,一开始报警邮件里还有这样的线程栈:

    groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:166)
    groovy.json.internal.JsonParserCharArray.decodeJsonObject(JsonParserCharArray.java:132)
    groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:186)
    groovy.json.internal.JsonParserCharArray.decodeJsonObject(JsonParserCharArray.java:132)
    groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:186)

    看到这种报错线程栈却没有细想,要知道 TCP 是能保证消息完整性的,况且消息没有接收完也不会把值赋给变量,这种很明显的是内部错误,如果留意后细查是能提前查出问题所在的,查问题真是差了哪一环都不行啊。

  • 相关阅读:
    H5新增——html概述
    H5新增———html5概述
    ASP.NET Web API Demo OwinSelfHost 自宿主 Swagger Swashbuckle 在线文档
    如何写个死循环,既不独占线程,又不阻塞UI线程?
    C# 扩展TaskScheduler实现独立线程池,支持多任务批量处理,互不干扰,无缝兼容Task
    C# async await 异步执行方法封装 替代 BackgroundWorker
    巨坑!
    C# .NET Socket SocketHelper 高性能 5000客户端 异步接收数据
    一个简单的例子看明白 async await Task
    一个非常轻量级的 Web API Demo
  • 原文地址:https://www.cnblogs.com/cheyunhua/p/15429883.html
Copyright © 2011-2022 走看看