重启大法好!线上常见问题排查手册

一 线上常见问题定位

常见问题 1:CPU 利用率高

CPU 使用率是衡量系统繁忙程度的重要指标,一般情况下单纯的 CPU 高并没有问题,它代表系统正在不断的处理我们的任务,但是如果 CPU 过高,导致任务处理不过来,从而引起 load 高,这个是非常危险需要关注的。 CPU 使用率的安全值没有一个标准值,取决于你的系统是计算密集型还是 IO 密集型,一般计算密集型应用 CPU 使用率偏高 load 偏低,IO 密集型相反。

问题原因及定位:

1 频繁 FullGC/YongGC

  • 查看 gc 日志
  • jstat -gcutil pid 查看内存使用和 gc 情况

2 代码消耗,如死循环,md5 等内存态操作

1)arthas (已开源:https://github.com/alibaba/arthas

  • thread -n 5 查看 CPU 使用率最高的前 5 个线程(包含堆栈,第二部分有详解)

2)jstack 查找

  • ps -ef | grep java 找到 Java 进程 id
  • top -Hp pid 找到使用 CPU 最高的线程
  • printf ‘0x%x’ tid 线程 id 转化 16 进制
  • jstack pid | grep tid 找到线程堆栈

    重启大法好!线上常见问题排查手册

ps:输入“1”可查看每个 CPU 的情况,之前有团队遇到单个 CPU 被中间件绑定导致 CPU 飚高的 case。

常见问题 2:load 高

load 指单位时间内活跃进程数,包含运行态(runnable 和 running)和不可中断态( IO、内核态锁)。关键字是运行态和不可中断态,运行态可以联想到 Java 线程的 6 种状态,如下,线程 new 之后处于 NEW 状态,执行 start 进入 runnable 等待 CPU 调度,因此如果 CPU 很忙会导致 runnable 进程数增加;不可中断态主要包含网络 IO、磁盘 IO 以及内核态的锁,如 synchronized 等。

重启大法好!线上常见问题排查手册

问题原因及定位:

1 CPU 利用率高,可运行态进程数多

  • 排查方法见常见问题一

2 iowait,等待 IO

  • vmstat 查看 blocked 进程状况
  • jstack -l pid | grep BLOCKED 查看阻塞态线程堆栈

3 等待内核态锁,如 synchronized

  • jstack -l pid | grep BLOCKED 查看阻塞态线程堆栈
  • profiler dump 线程栈,分析线程持锁情况

常见问题 3:持续 FullGC

在了解 FullGC 原因之前,先花一点时间回顾下 jvm 的内存相关知识:

内存模型

新 new 的对象放在 Eden 区,当 Eden 区满之后进行一次 MinorGC,并将存活的对象放入 S0;

当下一次 Eden 区满的时候,再次进行 MinorGC,并将存活的对象和 S0 的对象放入S1(S0 和 S1 始终有一个是空的);

依次循环直到 S0 或者 S1 快满的时候将对象放入 old 区,依次,直到 old 区满进行 FullGC。

jdk1.7 之前 Java 类信息、常量池、静态变量存储在 Perm 永久代,类的原数据和静态变量在类加载的时候放入 Perm 区,类卸载的时候清理;在 1.8 中,MetaSpace 代替 Perm 区,使用本地内存,常量池和静态变量放入堆区,一定程度上解决了在运行时生成或加载大量类造成的 FullGC,如反射、代理、groovy 等。

回收器

年轻代常用 ParNew,复制算法,多线程并行;

老年代常用 CMS,标记清除算法(会产生内存碎片),并发收集(收集过程中有用户线程产生对象)。

关键常用参数

CMSInitiatingOccupancyFraction 表示老年代使用率达到多少时进行 FullGC;

UseCMSCompactAtFullCollection 表示在进行 FullGC 之后进行老年代内存整理,避免产生内存碎片。

问题原因及定位:

1 prommotion failed

从S区晋升的对象在老年代也放不下导致 FullGC(fgc 回收无效则抛 OOM)。

1)survivor 区太小,对象过早进入老年代。

  • jstat -gcutil pid 1000 观察内存运行情况;
  • jinfo pid 查看 SurvivorRatio 参数;

2)大对象分配,没有足够的内存。

  • 日志查找关键字 “allocating large”;
  • profiler 查看内存概况大对象分布;

3)old 区存在大量对象。

  • 实例数量前十的类:jmap -histo pid | sort -n -r -k 2 | head -10
  • 实例容量前十的类:jmap -histo pid | sort -n -r -k 3 | head -10
  • dump 堆,profiler 分析对象占用情况

2 concurrent mode failed

在 CMS GC 过程中业务线程将对象放入老年代(并发收集的特点)内存不足。详细原因:

1)fgc 触发比例过大,导致老年代占用过多,并发收集时用户线程持续产生对象导致达到触发 FGC 比例。

  • jinfo 查看 CMSInitiatingOccupancyFraction 参数,一般 70~80 即可

2)老年代存在内存碎片。

  • jinfo 查看 UseCMSCompactAtFullCollection 参数,在 FullGC 后整理内存

常见问题 4:线程池满

Java 线程池以有界队列的线程池为例,当新任务提交时,如果运行的线程少于 corePoolSize,则创建新线程来处理请求。如果正在运行的线程数等于 corePoolSize 时,则新任务被添加到队列中,直到队列满。当队列满了后,会继续开辟新线程来处理任务,但不超过 maximumPoolSize。当任务队列满了并且已开辟了最大线程数,此时又来了新任务,ThreadPoolExecutor 会拒绝服务。

问题原因及定位:

1 下游 RT 高,超时时间不合理

  • 业务监控
  • sunfire
  • eagleeye

2 数据库慢 sql 或者数据库死锁

  • 日志关键字 “Deadlock found when trying to get lock”
  • Jstack 或 zprofiler 查看阻塞态线程

3 Java 代码死锁

  • jstack –l pid | grep -i –E 'BLOCKED | deadlock'
  • dump thread 通过 zprofiler 分析阻塞线程和持锁情况

常见问题 5:NoSuchMethodException

问题原因及定位:

1 jar 包冲突

java 在装载一个目录下所有 jar 包时,它加载的顺序完全取决于操作系统。

  • mvn dependency:tree 分析报错方法所在的 jar 包版本,留下新的
  • arthas:sc -d ClassName
  • XX:+TraceClassLoading

2 同类问题

  • ClassNotFoundException
  • NoClassDefFoundError
  • ClassCastException

二 常用工具介绍

常用命令

1 tail

  • -f 跟踪文件

2 grep

  • -i 忽略大小写
  • -v 反转查找
  • -E 扩展正则表达式 :grep -E 'pattern1|pattern2' filename

3 pgm

  • -b 开启并发
  • -p 指定并发数
  • -A 开启 askpass

4 awk

  • -F 指定分隔符:awk -F “|” '{print $1}‘ | sort -r | uniq -c

5 sed

  • 时间段匹配:sed '/2020-03-02 10:00:00/,/2020-03-02 11:00:00/p' filename

arthas

阿里巴巴开源 Java 诊断工具(开源地址:https://github.com/alibaba/arthas),基于 javaAgent 方式,使用 Instrumentation 方式修改字节码方式进行 Java 应用诊断。

基础功能介绍

  • dashboard:系统实时数据面板, 可查看线程,内存,gc 等信息
  • thread:jvm 线程堆栈信息,如查看最繁忙的前 n 线程
  • getstatic:获取静态属性值,如 getstatic className attrName 可用于查看线上开关真实值
  • sc:查看 jvm 已加载类信息,可用于排查 jar 包冲突
  • sm:查看 jvm 已加载类的方法信息
  • jad:反编译 jvm 加载类信息,排查代码逻辑没执行原因
  • watch:观测方法执行数据,包含出入参,异常等;

    • watch xxxClass xxxMethod " {params, throwExp} " -e -x 2
    • watch xxxClass xxxMethod "{params,returnObj}" "params[0].sellerId.equals('189')" -x 2
    • watch xxxClass xxxMethod sendMsg '@com.taobao.eagleeye.EagleEye@getTraceId()'
  • trace:方法内部调用时长,并输出每个节点的耗时,用于性能分析
  • tt:用于记录方法,并做回放

三 常见问题恢复

1 线程池满

  • rpc 框架线程池满

    • 高 RT 接口进行线程数限流
  • 应用内线程池满

    • 重启可短暂缓解,具体还得看问题原因

2 CPU 高,load 高

  • 单机置换或重启,可短暂缓解,恢复看具体原因
  • 集群高且流量大幅增加,扩容,恢复看具体原因

3 下游 RT 高

  • 限流
  • 降级

4 数据库

  • 死锁

    • kill 进程
  • 慢 sql

    • sql 限流

线上问题的排查是一个积累的过程,只有了解问题背后的原理才能更快速的定位和恢复,除此之外更需要有一些趁手的工具来辅助排查,从而降低整个团队问题定位和快恢的门槛。

上一篇:npm 创建 node.js 项目


下一篇:Serverless 领域近一年行业发展回顾