一个应用占用CPU很高,除了确实是计算密集型应用以外,一般缘由都是出现了死循环。java
(友情提示:本博文章欢迎转载,但请注明出处:hankchen,http://www.blogjava.net/hankchen)web
以咱们最近出现的一个实际故障为例,介绍怎么定位和解决这类问题。vim
根据top命令,发现PID为28555的Java进程占用CPU高达200%,出现故障。tomcat
经过ps aux | grep PID命令,能够进一步肯定是tomcat进程出现了问题。可是,怎么定位到具体线程或者代码呢?服务器
首先显示线程列表:markdown
ps -mp pid -o THREAD,tid,time网络
找到了耗时最高的线程28802,占用CPU时间快两个小时了!多线程
其次将须要的线程ID转换为16进制格式:并发
printf "%x\n" tid运维
最后打印线程的堆栈信息:
jstack pid |grep tid -A 30
找到出现问题的代码了!
如今来分析下具体的代码:ShortSocketIO.readBytes(ShortSocketIO.java:106)
ShortSocketIO是应用封装的一个用短链接Socket通讯的工具类。readBytes函数的代码以下:
public byte[] readBytes(int length) throws IOException { if ((this.socket == null) || (!this.socket.isConnected())) { throw new IOException("++++ attempting to read from closed socket"); } byte[] result = null; ByteArrayOutputStream bos = new ByteArrayOutputStream(); if (this.recIndex >= length) { bos.write(this.recBuf, 0, length); byte[] newBuf = new byte[this.recBufSize]; if (this.recIndex > length) { System.arraycopy(this.recBuf, length, newBuf, 0, this.recIndex - length); } this.recBuf = newBuf; this.recIndex -= length; } else { int totalread = length; if (this.recIndex > 0) { totalread -= this.recIndex; bos.write(this.recBuf, 0, this.recIndex); this.recBuf = new byte[this.recBufSize]; this.recIndex = 0; } int readCount = 0; while (totalread > 0) { if ((readCount = this.in.read(this.recBuf)) > 0) { if (totalread > readCount) { bos.write(this.recBuf, 0, readCount); this.recBuf = new byte[this.recBufSize]; this.recIndex = 0; } else { bos.write(this.recBuf, 0, totalread); byte[] newBuf = new byte[this.recBufSize]; System.arraycopy(this.recBuf, totalread, newBuf, 0, readCount - totalread); this.recBuf = newBuf; this.recIndex = (readCount - totalread); } totalread -= readCount; } } }
问题就出在标红的代码部分。若是this.in.read()返回的数据小于等于0时,循环就一直进行下去了。而这种状况在网络拥塞的时候是可能发生的。
至于具体怎么修改就看业务逻辑应该怎么对待这种特殊状况了。
最后,总结下排查CPU故障的方法和技巧有哪些:
一、top命令:Linux命令。能够查看实时的CPU使用状况。也能够查看最近一段时间的CPU使用状况。
二、PS命令:Linux命令。强大的进程状态监控命令。能够查看进程以及进程中线程的当前CPU使用状况。属于当前状态的采样数据。
三、jstack:Java提供的命令。能够查看某个进程的当前线程栈运行状况。根据这个命令的输出能够定位某个进程的全部线程的当前运行状态、运行代码,以及是否死锁等等。
四、pstack:Linux命令。能够查看某个进程的当前线程栈运行状况。
解决方案
1. 排查应用是否建立了过多的线程
经过jstack肯定应用建立了多少线程?超量建立的线程的堆栈信息是怎样的?谁建立了这些线程?一旦明确了这些问题,便很容易解决。
2. 调整操做系统线程数阈值 操做系统会限制进程容许建立的线程数,使用ulimit -u命令查看限制。某些服务器上此阈值设置的太小,好比1024。一旦应用建立超过1024个线程,就会遇到java.lang.OutOfMemoryError: unable to create new native thread问题。若是是这种状况,能够调大操做系统线程数阈值。
3. 增长机器内存 若是上述两项未能排除问题,多是正常增加的业务确实须要更多内存来建立更多线程。若是是这种状况,增长机器内存。
4. 减少堆内存 一个老司机也常常忽略的很是重要的知识点:线程不在堆内存上建立,线程在堆内存以外的内存上建立。因此若是分配了堆内存以后只剩下不多的可用内存,依然可能遇到java.lang.OutOfMemoryError: unable to create new native thread。考虑以下场景:系统总内存6G,堆内存分配了5G,永久代512M。在这种状况下,JVM占用了5.5G内存,系统进程、其余用户进程和线程将共用剩下的0.5G内存,颇有可能没有足够的可用内存建立新的线程。若是是这种状况,考虑减少堆内存。
5. 减小进程数 这和减少堆内存原理类似。考虑以下场景:系统总内存32G,java进程数5个,每一个进程的堆内存6G。在这种状况下,java进程总共占用30G内存,仅剩下2G内存用于系统进程、其余用户进程和线程,颇有可能没有足够的可用内存建立新的线程。若是是这种状况,考虑减小每台机器上的进程数。
6. 减少线程栈大小
线程会占用内存,若是每一个线程都占用更多内存,总体上将消耗更多的内存。每一个线程默认占用内存大小取决于JVM实现。能够利用-Xss参数限制线程内存大小,下降总内存消耗。例如,JVM默认每一个线程占用1M内存,应用有500个线程,那么将消耗500M内存空间。若是实际上256K内存足够线程正常运行,配置-Xss256k,那么500个线程将只须要消耗125M内存。(注意,若是-Xss设置的太低,将会产生java.lang.StackOverflowError错误)
一、问题背景
昨天下午忽然收到运维邮件报警,显示数据平台服务器cpu利用率达到了98.94%,并且最近一段时间一直持续在70%以上,看起来像是硬件资源到瓶颈须要扩容了,但仔细思考就会发现我们的业务系统并非一个高并发或者CPU密集型的应用,这个利用率有点太夸张,硬件瓶颈应该不会这么快就到了,必定是哪里的业务代码逻辑有问题。
二、排查思路
首先登陆到服务器使用top命令确认服务器的具体状况,根据具体状况再进行分析判断。
经过观察load average,以及负载评判标准(8核),能够确认服务器存在负载较高的状况;
观察各个进程资源使用状况,能够看出进程id为682的进程,有着较高的CPU占比
这里我们可使用 pwdx 命令根据 pid 找到业务进程路径,进而定位到负责人和项目:
可得出结论:该进程对应的就是数据平台的web服务。
传统的方案通常是4步:
一、top oder by with P:1040 // 首先按进程负载排序找到 maxLoad(pid)
二、top -Hp 进程PID:1073 // 找到相关负载 线程PID
三、printf “0x%x ”线程PID: 0x431 // 将线程PID转换为 16进制,为后面查找 jstack 日志作准备
四、jstack 进程PID | vim +/十六进制线程PID - // 例如:jstack 1040|vim +/0x431 -
可是对于线上问题定位来讲,分秒必争,上面的 4 步仍是太繁琐耗时了,以前介绍过淘宝的oldratlee 同窗就将上面的流程封装为了一个工具:show-busy-java-threads.sh,能够很方便的定位线上的这类问题:
可得出结论:是系统中一个时间工具类方法的执行cpu占比较高,定位到具体方法后,查看代码逻辑是否存在性能问题。
※ 若是线上问题比较紧急,能够省略 2.一、2.2 直接执行 2.3,这里从多角度剖析只是为了给你们呈现一个完整的分析思路。
三、根因分析
通过前面的分析与排查,最终定位到一个时间工具类的问题,形成了服务器负载以及cpu使用率的太高。
那么能够获得结论,若是如今时间是当天上午10点,一次查询的计算次数就是 10*60*60*n次=36,000*n次计算,并且随着时间增加,越接近午夜单次查询次数会线性增长。因为实时查询、实时报警等模块大量的查询请求都须要屡次调用该方法,致使了大量CPU资源的占用与浪费。
四、解决方案
定位到问题以后,首先考虑是要减小计算次数,优化异常方法。排查后发现,在逻辑层使用时,并无使用该方法返回的set集合中的内容,而是简单的用set的size数值。确认逻辑后,经过新方法简化计算(当前秒数-当天凌晨的秒数),替换调用的方法,解决计算过多的问题。上线后观察服务器负载和cpu使用率,对比异常时间段降低了30倍,恢复至正常状态,至此该问题得已解决。
五、总结