很久不见的干货重现江湖!今日的内容是基于UCloud运维同窗反馈的个别宿主机上存在进程CPU峰值使用率异常现象问题进行的相关阐述。本文详细介绍了该问题的完整分析思路和用热补丁的方式成功解决此问题的实践分享,若是以为还不错,欢迎点赞分享!正文开始~服务器
最开始公司运维同窗反馈,个别宿主机上存在进程CPU峰值使用率异常的现象。而数万台机器中只出现了几例,也就是说万分之几的几率。监控产生的些小偏差,不会形成宕机等严重后果,很容易就此被忽略了。但咱们考虑到这个异常转瞬即逝、并不易被察觉,可能还存在更多这样的机器,又或者如今正常未来又不正常,内核研发本能的好奇心让咱们感到:此事必有蹊跷!因而追查下去。运维
问题现象工具
现象一:CPU监控非0即100%测试
该问题现象表如今Redis进程CPU监控的峰值时而100% 时而为0,有的甚至是几十分钟都为0,突发1秒100%后又变为0,以下图。优化
而从大量机器的统计规律看,这个现象在2.6.32 内核不存在,在4.1内核存在几例。2.6.32是咱们较早期采用的版本,为平台的稳定发展作了有力支撑,4.1 能够知足不少新技术需求,如新款CPU、新板卡、RDMA、NVMe和binlog2.0等。后台无缝维护着两个版本,并为了能力提高和优化而逐步向4.1及更高版本过渡。线程
现象二:top显示非0即300%设计
登陆到机器上执行top -b -d 1 –p | grep , 能够看到进程的CPU利用率每隔几分钟到几十分钟出现一次300%,这意味着该进程3个线程占用的3个CPU都跑满了,跟监控程序呈现一样的异常。cdn
问题分析blog
上述异常程序使用的是一样的数据源:/proc/pid/stat中进程运行占用的用户态时间utime和内核态时间stime。咱们抓取utime和stime更新状况后,发现utime或者stime每隔几分钟或者几十分钟才更新,更新的步进值达到几百到1000+,而正常进程看到的是每几秒更新,步进值是几十。进程
定位到异常点后,还要找出缘由。排除了监控逻辑、IO负载、调用瓶颈等可能后,确认是4.1内核的CPU时间统计有 bug
cputime统计逻辑
检查/proc/pid/stat中utime和stime被更新的代码执行路径,在cputime_adjust()发现了一处可疑的地方:
当utime+stime>=rtime的时候就直接跳出了,也就是不更新utime和stime了!这里的rtime是runtime,表明进程运行占用的全部CPU时长,正常应该等于或近似进程用户态时间+内核态时间。 但内核配置了CONFIG_VIRT_CPU_ACCOUNTING_GEN选项,这会让utime和stime分别单调增加。而runtime是调度器里统计到的进程真正运行总时长。
内核每次更新/proc/pid/stat的utime和stime的时候,都会跟rtime对比。若是utime+stime很长一段时间都大于rtime,那代码直接goto out了, /proc/pid/stat就不更新了。只有当rtime持续更新追上utime+stime后,才更新utime和stime。
冷补丁和热补丁
第一回合:冷补丁
出现问题的代码位置已经找到,那就先去内核社区看看有没有成熟补丁可用,看一下kernel/sched/cputime.c的 changelog,看到一个patch:确保stime+utime=rtime。再看描述:像top这样的工具,会出现超过100%的利用率,以后又一段时间为0,这不就是咱们遇到的问题吗?真是踏破铁鞋无觅处,得来全不费工夫!(patch连接:lore.kernel.org/patchwork/p…
该补丁在4.3内核及之后版本才提交, 却并未提交到4.1稳定版分支,因而移植到4.1内核。打上该补丁后进行压测,再没出现cputime时而100%时而0%的现象,而是0-100%之间平滑波动的值。
至此,你可能以为问题已经解决了。可是,问题才解决了一半。而每每“可是”后边才是重点。
第二回合:热补丁
给内核代码打上该冷补丁只能解决新增服务器的问题,但公司还有数万存量服务器是没法升级内核后重启的。
若是没有其它好选择,那存量更新将被迫采用以下的妥协方案:监控程序修改统计方式进行规避,再也不使用utime和stime,而是经过runtime来统计进程的执行时间。
虽然该方案快速可行,但也有很大的缺点:
不少业务部门都要修改统计程序,研发成本较高; /proc/pid/stat的utime和stime是标准统计方式,一些第三方组件并不容易修改; 并无根本解决utime和stime不许的问题,用户、研发、运维使用ps、top命令时还会产生困惑,产生额外的沟通协调成本。 幸亏,咱们还能够依靠UCloud已屡次成功应用的技术:热补丁技术。
所谓热补丁技术,是指在有缺陷的服务器内核或进程正在运行时,对已经加载到内存的程序二进制打上补丁,使得程序实时在线状态下执行新的正确逻辑。能够简单理解为像关二爷那样不打麻药在清醒状态下刮骨疗伤。固然,对内核刮骨疗伤内核是不会痛的,但刮很差内核就会直接死给你看,没有丝毫犹豫,很是干脆利索又耿直。
热补丁修复
而本次热补丁修复存在两个难点:
难点一: 热补丁制做
此次热补丁在结构体新增了spinlock成员变量,那就涉及新成员的内存分配和释放,在结构体实例被复制和释放时,都要额外的对新成员作处理,稍有遗漏可能会形成内存泄漏进而致使宕机,这就加大了风险。
再一个就是,结构体实例是在进程启动时初始化的,对于已经存在的实例如何塞进新的spinlock成员?所谓兵来将挡水来土掩,咱们想到能够在原生补丁使用spinlock成员的代码路径上拦截,若是发现实例不含该成员,则进行分配、初始化、加锁、释放锁。
要解决问题,既要攀登困难的山峰,又得控制潜在的风险。团队编写了脚本进行几百万次的加载、卸载热补丁测试,并没有内存泄漏,单机稳定运行,再下一城。
难点二:难以复现
另外一个难题是该问题难以复现,只有在现网生产环境才有几个case可验证热补丁,而又不能够拿用户的环境去冒险。针对这种状况咱们已经有标准化处理流程去应对,那就是设计完善的灰度策略,这也是UCloud内部一直在强调的核心理念和能力。通过分析,这个问题能够拆解为验证热补丁稳定性和验证热补丁正确性。因而咱们采起了以下灰度策略:
稳定性验证:先拿几台机器测试正常,再拿公司内部500台次级重要的机器打热补丁,灰度运行几天正常,从而验证了稳定性,风险尽在掌控之中。 正确性验证:找到一台出现问题的机器,同时打印utime+stime以及rtime,根据代码的逻辑,当rtime小于utime+stime时会执行老逻辑,当rtime大于utime+stime时会执行新的热补丁逻辑。以下图所示,进入热补丁的新逻辑后,utime+stime打印正常且与rtime保持了同步更新,从而验证了热补丁的正确性。
全网变动: 最后再分批在现网环境机器上打热补丁,执行全网变动,问题获得根本解决,此处要感谢运维同窗的全力协助。
总结
综上,咱们详细介绍了进程cputime统计异常问题的完整分析和解决思路。该问题并不是严重的宕机问题,但却可能会让用户对监控数据产生困惑,误认为可能机器负载过高须要加资源,问题的解决会避免产生没必要要的开支。此外,该问题也会让研发、运维和技术支持的同窗们使用top和ps命令时产生困惑。最终咱们对问题的本质仔细分析并求证,用热补丁的方式妥善的解决了问题。