文档章节

一次线上问题排查所引发的思考

crossoverJie
 crossoverJie
发布于 2018/07/09 08:25
字数 1676
阅读 913
收藏 8

前言

之前或多或少分享过一些内存模型对象创建之类的内容,其实大部分人看完都是懵懵懂懂,也不知道这些的实际意义。

直到有一天你会碰到线上奇奇怪怪的问题,如:

  • 线程执行一个任务迟迟没有返回,应用假死。
  • 接口响应缓慢,甚至请求超时。
  • CPU 高负载运行。

这类问题并不像一个空指针、数组越界这样明显好查,这时就需要刚才提到的内存模型、对象创建、线程等相关知识结合在一起来排查问题了。

正好这次借助之前的一次生产问题来聊聊如何排查和解决问题。

生产现象

首先看看问题的背景吧:

我这其实是一个定时任务,在固定的时间会开启 N 个线程并发的从 Redis 中获取数据进行运算。

业务逻辑非常简单,但应用一般涉及到多线程之后再简单的事情都要小心对待。

果不其然这次就出问题了。

现象:原本只需要执行几分钟的任务执行了几个小时都没退出。翻遍了所有的日志都没找到异常。

于是便开始定位问题之路。

定位问题

既然没办法直接从日志中发现异常,那就只能看看应用到底在干嘛了。

最常见的工具就是 JDK 自带的那一套。

这次我使用了 jstack 来查看线程的执行情况,它的作用其实就是 dump 当前的线程堆栈。

当然在 dump 之前是需要知道我应用的 pid 的,可以使用 jps -v 这样的方式列出所有的 Java 进程。

当然如果知道关键字的话直接使用 ps aux|grep java 也是可以的。

拿到 pid=1523 了之后就可以利用 jstack 1523 > 1523.log 这样的方式将 dump 文件输出到日志文件中。

如果应用简单不复杂,线程这些也比较少其实可以直接打开查看。

但复杂的应用导出来的日志文件也比较大还是建议用专业的分析工具。

我这里的日志比较少直接打开就可以了。

因为我清楚知道应用中开启的线程名称,所以直接根据线程名就可以在日志中找到相关的堆栈:

所以通常建议大家线程名字给的有意义,在排查问题时很有必要。

其实其他几个线程都和这里的堆栈类似,很明显的看出都是在做 Redis 连接。

于是我登录 Redis 查看了当前的连接数,发现已经非常高了。

这样 Redis 的响应自然也就变慢了。

接着利用 jps -v 列出了当前所以在跑的 Java 进程,果不其然有好几个应用都在查询 Redis,而且都是并发连接,问题自然就找到了。

解决办法

所以问题的主要原因是:大量的应用并发查询 Redis,导致 Redis 的性能降低。

既然找到了问题,那如何解决呢?

  • 减少同时查询 Redis 的应用,分开时段降低 Redis 的压力。
  • 将 Redis 复制几个集群,各个应用分开查询。但是这样会涉及到数据的同步等运维操作,或者由程序了进行同步也会增加复杂度。

目前我们选择的是第一个方案,效果很明显。

本地模拟

上文介绍的是线程相关问题,现在来分析下内存的问题。

以这个类为例:

https://github.com/crossoverJie/Java-Interview/blob/master/src/main/java/com/crossoverjie/oom/heap/HeapOOM.java

public class HeapOOM {

    public static void main(String[] args) {
        List<String> list = new ArrayList<>(10) ;
        while (true){
            list.add("1") ;
        }
    }
}

启动参数如下:

-Xms20m
-Xmx20m
-XX:+HeapDumpOnOutOfMemoryError
-XX:HeapDumpPath=/Users/xx/Documents

为了更快的突出内存问题将堆的最大内存固定在 20M,同时在 JVM 出现 OOM 的时候自动 dump 内存到 /Users/xx/Documents(不配路径则会生成在当前目录)。

执行之后果不其然出现了异常:

同时对应的内存 dump 文件也生成了。

内存分析

这时就需要相应的工具进行分析了,最常用的自然就是 MAT 了。

我试了一个在线工具也不错(文件大了就不适合了):

http://heaphero.io/index.jsp

上传刚才生成的内存文件之后:

因为是内存溢出,所以主要观察下大对象:

也有相应提示,这个很有可能就是内存溢出的对象,点进去之后:

看到这个堆栈其实就很明显了:

在向 ArrayList 中不停的写入数据时,会导致频繁的扩容也就是数组复制这些过程,最终达到 20M 的上限导致内存溢出了。

更多建议

上文说过,一旦使用了多线程,那就要格外小心。

以下是一些日常建议:

  • 尽量不要在线程中做大量耗时的网络操作,如查询数据库(可以的话在一开始就将数据从从 DB 中查出准备好)。
  • 尽可能的减少多线程竞争锁。可以将数据分段,各个线程分别读取。
  • 多利用 CAS+自旋 的方式更新数据,减少锁的使用。
  • 应用中加上 -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/tmp 参数,在内存溢出时至少可以拿到内存日志。
  • 线程池监控。如线程池大小、队列大小、最大线程数等数据,可提前做好预估。
  • JVM 监控,可以看到堆内存的涨幅趋势,GC 曲线等数据,也可以提前做好准备。

总结

线上问题定位需要综合技能,所以是需要一些基础技能。如线程、内存模型、Linux 等。

当然这些问题没有实操过都是纸上谈兵;如果第一次碰到线上问题,不要慌张,反而应该庆幸解决之后你又会习得一项技能。

号外

最近在总结一些 Java 相关的知识点,感兴趣的朋友可以一起维护。

地址: https://github.com/crossoverJie/Java-Interview

欢迎关注公众号一起交流:

© 著作权归作者所有

crossoverJie

crossoverJie

粉丝 752
博文 101
码字总数 196561
作品 0
江北
后端工程师
私信 提问
加载中

评论(10)

y
yishuai18

引用来自“yishuai18”的评论

感觉没找出根本的问题

引用来自“crossoverJie”的评论

经过反复复现 以及查看网络 可以确定是这个问题。
也许你做了很多验证,但是博文当中提到的非常少。只有一个猜测的原因:因为并发连接多,导致redis查询慢。这个并不足以说明就是导致redis查询慢的原因。连接多,并不一定慢。因为你要看配置的redis支持的连接数是多少。如果配置得比较少地话,那么就需要优化redis的配置或者需要优化应用程序连接池的最大数量。其次,即使连接数多了,如果没有超过redis支持的最大连接数的话,那么导致redis慢的原因一般是QPS太高(一般redisQPS都是几万级别的),还有就是redis中又大key。导致级联慢查
crossoverJie
crossoverJie 博主

引用来自“yishuai18”的评论

感觉没找出根本的问题
经过反复复现 以及查看网络 可以确定是这个问题。
y
yishuai18
感觉没找出根本的问题
crossoverJie
crossoverJie 博主

引用来自“Gillian_Male”的评论

这分析的是个啥?根据一个Runnable的线程栈看出来了啥?
还不明显嘛?都在做网络 IO。
crossoverJie
crossoverJie 博主

引用来自“young7”的评论

洋洋洒洒写了半天也没看到分析出啥,最重要的并发数多少没有说,然后突然就得出了结论说
“所以问题的主要原因是:大量的应用并发查询 Redis,导致 Redis 的性能降低。”

根据网上的测试结果,最高redis插入吞吐量是 4.9W/S,单线程客户端最高吞吐 1.7W/S,博主那点并发量恐怕远未达到redis的极限,因此我觉得博主连问题的原因都还没有找到。
别什么都网上的测试结果,具体情况具体分析。

至少在得出这个结论之前将应用连接数降低确实是解决了问题。
crossoverJie
crossoverJie 博主

引用来自“young7”的评论

洋洋洒洒写了半天也没看到分析出啥,最重要的并发数多少没有说,然后突然就得出了结论说
“所以问题的主要原因是:大量的应用并发查询 Redis,导致 Redis 的性能降低。”

根据网上的测试结果,最高redis插入吞吐量是 4.9W/S,单线程客户端最高吞吐 1.7W/S,博主那点并发量恐怕远未达到redis的极限,因此我觉得博主连问题的原因都还没有找到。
这个和网络 IO 也是有关系啊,所有的请求都发自一台机器,IO 也撑不住的。
young7
young7
洋洋洒洒写了半天也没看到分析出啥,最重要的并发数多少没有说,然后突然就得出了结论说
“所以问题的主要原因是:大量的应用并发查询 Redis,导致 Redis 的性能降低。”

根据网上的测试结果,最高redis插入吞吐量是 4.9W/S,单线程客户端最高吞吐 1.7W/S,博主那点并发量恐怕远未达到redis的极限,因此我觉得博主连问题的原因都还没有找到。
Gillian_Male
Gillian_Male
这分析的是个啥?根据一个Runnable的线程栈看出来了啥?
crossoverJie
crossoverJie 博主

引用来自“每周精粹”的评论

没看出来什么问题。。。 Redis 连接数 单台达到 6000 这样 性能才会 急剧下降;
这个和网络 IO 也是有关系啊,所有的请求都发自一台机器,IO 也撑不住的。
每周精粹
每周精粹
没看出来什么问题。。。 Redis 连接数 单台达到 6000 这样 性能才会 急剧下降;
上周热点回顾(7.9-7.15)

热点随笔: · 上海程序员 落户攻略(小坦克) · 欠的债,这一次都还给你们(阿豪聊干货) · 男程序猿和女程序猿的网恋(一)(56899◎か) · 给正在努力的您几条建议(附开源代码)(陈珙...

博客园团队
2018/07/16
0
0
CPU 100% 异常排查实践与总结

CPU 100% 异常排查实践与总结 leejun2005的个人页面2018-01-041 阅读 java 1、问题背景 昨天下午突然收到运维邮件报警,显示数据平台服务器cpu利用率达到了98.94%,而且最近一段时间一直持续...

leejun_2005的个人页面
2018/01/04
0
0
CPU 100% 异常排查实践与总结

1、问题背景 昨天下午突然收到运维邮件报警,显示数据平台服务器cpu利用率达到了98.94%,而且最近一段时间一直持续在70%以上,看起来像是硬件资源到瓶颈需要扩容了,但仔细思考就会发现咱们的...

大数据之路
2018/01/04
2.7K
2
在线数据链路跟踪的平台化发展及思考

Tracer的平台化背景和发展历程 对于每一个应用来说,无论是在生产环境还是在线下测试环境,都会有一些重要的底层或者上层数据,甚至这些数据的正确与否能决定此应用的请求返回结果是否准确无...

潇晴
2018/07/22
0
0
CPU负载过高异常排查实践与总结

导读 昨天下午突然收到运维邮件报警,显示数据平台服务器cpu利用率达到了98.94%,而且最近一段时间一直持续在70%以上,看起来像是硬件资源到瓶颈需要扩容了,但仔细思考就会发现咱们的业务系...

问题终结者
2018/11/24
49
1

没有更多内容

加载失败,请刷新页面

加载更多

vue 2打包注意点

使用npm run build打包之后往往直接本地运行,路径类似这样:http://127.0.0.1:5500/xa/dist/index.html 或者http://127.0.0.1:5500/dist/index.html。然后页面打开是空白的,打开控制台查看...

牧云橙
27分钟前
4
0
归并排序

1.原理图 2.代码 public static void merge(int []a,int left,int mid,int right){ int []tmp=new int[a.length];//辅助数组 int p1=left,p2=mid+1,k=left;//p1、p2是检测......

wen123
31分钟前
4
0
css实现透明的两种方法

一、opacity:0~1 值越高,透明度越低: div{opacity:0.5 } 选择器匹配到的节点们,包括节点们的孩子节点,都会实现%50透明,另 0.5 可直接写成 .5 二、rgba(0~255,0~255,0~255,0~1) r...

Bing309
34分钟前
4
0
Tomcat 配置访问路径

此处只是部署完成后idea打开的默认路径,并非项目部署路径, 此处才是项目实际部署路径,可以有多个项目部署路径,idea可以配置默认打开一个

Aeroever
37分钟前
4
0
将ApiBoot Logging采集的日志上报到Admin

通过ApiBoot Logging可以将每一条请求的详细信息获取到,在分布式部署方式中,一个请求可能会经过多个服务,如果是每个服务都独立保存请求日志信息,我们没有办法做到统一的控制,而且还会存...

恒宇少年
37分钟前
5
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部