CPU 100% 异常排查实践与总结

标签: java | 发表时间:2018-01-04 22:39 | 作者:
出处:https://my.oschina.net/leejun2005

1、问题背景

昨天下午突然收到运维邮件报警,显示数据平台服务器cpu利用率达到了98.94%,而且最近一段时间一直持续在70%以上,看起来像是硬件资源到瓶颈需要扩容了,但仔细思考就会发现咱们的业务系统并不是一个高并发或者CPU密集型的应用,这个利用率有点太夸张,硬件瓶颈应该不会这么快就到了,一定是哪里的业务代码逻辑有问题。

2、排查思路

2.1 定位高负载进程 pid

首先登录到服务器使用top命令确认服务器的具体情况,根据具体情况再进行分析判断。

通过观察load average,以及负载评判标准(8核),可以确认服务器存在负载较高的情况;

观察各个进程资源使用情况,可以看出进程id为682的进程,有着较高的CPU占比

2.2 定位具体的异常业务

这里咱们可以使用 pwdx 命令根据 pid 找到业务进程路径,进而定位到负责人和项目:

可得出结论:该进程对应的就是数据平台的web服务。

2.3 定位异常线程及具体代码行

传统的方案一般是4步:

  1. top oder by with P:1040 // 首先按进程负载排序找到  maxLoad(pid)
  2. top -Hp 进程PID:1073    // 找到相关负载 线程PID
  3. printf “0x%x\n”线程PID: 0x431  // 将线程PID转换为 16进制,为后面查找 jstack 日志做准备
  4. jstack  进程PID | vim +/十六进制线程PID -        // 例如:jstack 1040|vim +/0x431 -

但是对于线上问题定位来说,分秒必争,上面的 4 步还是太繁琐耗时了,之前介绍过 淘宝的oldratlee 同学就将上面的流程封装为了一个工具: show-busy-java-threads.sh,可以很方便的定位线上的这类问题:

可得出结论:是系统中一个时间工具类方法的执行cpu占比较高,定位到具体方法后,查看代码逻辑是否存在性能问题。

※ 如果线上问题比较紧急,可以省略 2.1、2.2 直接执行 2.3,这里从多角度剖析只是为了给大家呈现一个完整的分析思路。

3、根因分析

经过前面的分析与排查,最终定位到一个时间工具类的问题,造成了服务器负载以及cpu使用率的过高。

  • 异常方法逻辑:是把时间戳转成对应的具体的日期时间格式;
  • 上层调用:计算当天凌晨至当前时间所有秒数,转化成对应的格式放入到set中返回结果;
  • 逻辑层:对应的是数据平台实时报表的查询逻辑,实时报表会按照固定的时间间隔来,并且在一次查询中有多次(n次)方法调用。

那么可以得到结论,如果现在时间是当天上午10点,一次查询的计算次数就是 10*60*60*n次=36,000*n次计算,而且随着时间增长,越接近午夜单次查询次数会线性增加。由于实时查询、实时报警等模块大量的查询请求都需要多次调用该方法,导致了大量CPU资源的占用与浪费。

4、解决方案

定位到问题之后,首先考虑是要减少计算次数,优化异常方法。排查后发现,在逻辑层使用时,并没有使用该方法返回的set集合中的内容,而是简单的用set的size数值。确认逻辑后,通过新方法简化计算(当前秒数-当天凌晨的秒数),替换调用的方法,解决计算过多的问题。上线后观察服务器负载和cpu使用率,均恢复至正常状态,至此该问题得已解决。

5、总结

  • 在编码的过程中,除了要实现业务的逻辑,也要注重代码性能的优化。一个业务需求,能实现,和能实现的更高效、更优雅其实是两种截然不同的工程师能力和境界的体现,而后者也是工程师的核心竞争力。
  • 在代码编写完成之后,多做 review,多思考是不是可以用更好的方式来实现。
  • 线上问题不放过任何一个小细节!细节是魔鬼,技术的同学需要有刨根问题的求知欲和追求卓越的精神,只有这样,才能不断的成长和提升。

Refer:

[1] 线上服务 CPU 100%?一键定位 so easy!

https://my.oschina.net/leejun2005/blog/1524687

[2] linux 系统监控、诊断工具之 top 详解

https://my.oschina.net/leejun2005/blog/157910

相关 [cpu 异常 实践] 推荐:

CPU 100% 异常排查实践与总结

- - leejun2005的个人页面
昨天下午突然收到运维邮件报警,显示数据平台服务器cpu利用率达到了98.94%,而且最近一段时间一直持续在70%以上,看起来像是硬件资源到瓶颈需要扩容了,但仔细思考就会发现咱们的业务系统并不是一个高并发或者CPU密集型的应用,这个利用率有点太夸张,硬件瓶颈应该不会这么快就到了,一定是哪里的业务代码逻辑有问题.

一次生产 CPU 100% 排查优化实践

- - crossoverJie's Blog
到了年底果然都不太平,最近又收到了运维报警:表示有些服务器负载非常高,让我们定位问题. 还真是想什么来什么,前些天还故意把某些服务器的负载提高( 没错,老板让我写个 BUG. ),不过还好是不同的环境互相没有影响. 拿到问题后首先去服务器上看了看,发现运行的只有我们的 Java 应用. 于是先用 ps 命令拿到了应用的 PID.

基于CPU的深度学习推理部署优化实践

- - 机器之心
随着人工智能技术在爱奇艺视频业务线的广泛应用,深度学习算法在云端的部署对计算资源,尤其是 GPU 资源的需求也在飞速增长. 如何提高深度学习应用部署效率,降低云平台运行成本,帮助算法及业务团队快速落地应用和服务,让 AI 发挥真正的生产力,是深度学习云平台团队努力的目标. 从基础架构的角度,GPU资源的紧缺和GPU 利用率的不足是我们面临的主要挑战.

又一次生产 CPU 高负载排查实践

- - crossoverJie's Blog
前几日早上打开邮箱收到一封监控报警邮件:某某 ip 服务器 CPU 负载较高,请研发尽快排查解决,发送时间正好是凌晨. 其实早在去年我也处理过类似的问题,并记录下来: 《一次生产 CPU 100% 排查优化实践》. 不过本次问题产生的原因却和上次不太一样,大家可以接着往下看. 收到邮件后我马上登陆那台服务器,看了下案发现场还在(负载依然很高).

一个Java应用频繁抛异常导致cpu us诡异现象的案例

- - BlueDavy之技术Blog
某Java应用在生产环境运行时cpu us呈现了非常诡异的现象,在qps(每秒请求数)基本稳定的情况下,cpu us会进入一个上涨–迅速下降然后又上涨的循环中,我第一眼看到这cpu us的图的时候都以为是java gc的图,于是着手排查是什么原因造成的. 1、用perf看看是什么地方在耗cpu,跟踪了一段时间后,看到主要是StringTable::intern在消耗cpu,幸运的是淘宝JVM团队之前在做一个应用的优化的时候,也碰到了StringTable::intern是cpu us消耗的主要因素的现象,当时排查的原因是应用里抛异常比较多造成的,于是同样按照这个思路继续;.

异常处理的最佳实践

- - 博客 - 伯乐在线
译者注:这是一篇2003年的文章,因为时间久远,可能有些观点已经过时,但里面讨论的大部分方法如今仍能适用. 如若有其他好的错误处理的方法,欢迎留言. 异常处理的关键就在于知道何时处理异常以及如何使用异常. 这篇文章,我会提到一些最佳的异常处理方法. 我也会总结checked exception的用法.

一次死锁导致CPU异常飘高的整个故障排查过程 - 自由早晚乱余生 - 博客园

- -
如何快速清理僵尸进程(Z). 如何查看哪些文件被哪些进程被锁. 2021年4月2号,晚上10.45分左右,线上业务异常,后排查 线上服务器CPU 异常高,机器是 16核 64G的. 但是实际负载已经达到了 140左右. 虚拟机所属于物理机是否有故障. 虚拟机所用的资源是否有抖动或者变更. 查看日志,觉得很大可能性是: cache 落盘故障,有可能是 io 的问题.

.NET中异常处理的最佳实践

- - 极客521 | 极客521
可信任的设备:摄像头、鼠标以及键盘. 不要抛出“new Exception()”. 不要将重要的异常信息存储在Message属性中. 每个线程要包含一个try/catch块. 不要只记录Exception.Message的值,还需要记录Exception.ToString(). 清理代码要放在finally块中.

外卖订单量预测异常报警模型实践

- - 美团点评技术团队
外卖业务的快速发展对系统稳定性提出了更高的要求,每一次订单量大盘的异常波动,都需要做出及时的应对,以保证系统的整体稳定性. 如何做出较为准确的波动预警,显得尤为重要. 从时间上看,外卖订单量时间序列有两个明显的特征(如下图所示):. 每天订单量的变化趋势都大致相同,午高峰和晚高峰订单量集中. 当天的订单量可能会受天气等因素影响,呈现整体的上涨或下降.

8086 CPU 寄存器简介

- 田野 - 博客园-首页原创精华区
打算写几篇稍近底层或者说是基础的博文,浅要介绍或者说是回顾一些基础知识,. 自然,还是得从最基础的开始,那就从汇编语言开刀吧,. 从汇编语言开刀的话,我们必须还先要了解一些其他东西,. 像  CPU ,内存这些知识点还是理解深刻一点的比较好,. 所以这一篇博文就绕着 80x86  CPU 中寄存器的基础部分下手,至于其他的一些将会在后续的博文中介绍.