linux后端诊断与调试技术

本文发布时间: 2019-Mar-22
本文不是liunx命令使用教程,也不打算全方面阐明其用法,互联网公司项目很多,服务程序之间相互依赖调用很复杂,各种因素会影响线程服务正常运行,特别是基础服务组件更是如此,当出现各种问题时,如何诊断linux下哪个环节出现问题或状况。从linux系统层面看,通过各种操作命令和手段快速定位线上程序的症状和要害很有必要。比如说:当线上服务长时间正常运行,张三某天突然监控到自己的程序出问题了,自己负责某个程序不提供服务或服务处于挂死(进程还在,但无法接收外部响应)状态,查看应用程序日志没发现明显错误或可提示信息(看了隐藏比较深),可能(压力比较大,时间紧迫)经验丰富开发工程师也一时半会找不出症状所在,笔者想尽量覆盖关键和重要部分分享给读者,以期待提供有价值可参考的依据,笔者更想提供一些自己遇到问题的解决方法和思路作为大家的参考,但限于水平限制,难免有疏漏和不足之处,欢迎大家提出宝贵意见和想法以帮助我更正或提高。下面出现的问题是工程师日常开发中真实写照。诊断技术与调试解释笔者从上述6个方面扩展到多个维度剖析,应用程序或服务出现问题的症状所在,正因为互联网公司特殊性,技术工程师流动相对比较频繁,岗位变更交接等原因,造成了后来接手人(新手)无法及时应对线上出现各种状况。或因为经验不足,或因为对线上情况不了解等,增加了很多不确定因素。如果我们有一套简单通用可行检测和衡量规则,就大大降低风险。希望能通过这个参考手册的帮助,分析大量在线参数数据并从中找到蛛丝马迹,也能缩小排查有问题程序的范围。正因为程序出现问题需要诊断和调试,那需要通过分析和判断哪些方面因素会引起linux性能波动。孙子.谋攻知己知彼,百战不殆;不知彼而知己,一胜一负;不知彼,不知己,每战必殆。影响Linux性能因素操作系统CPU内存磁盘I/O及性能网络I/O状况及性能linux系统性能评估标准注:关于swap和paging含义后面有名称解释linux 系统性能分析命令或工具常用命令:dstat,vmstat、sar、iostat、netstat、free、ps、top等性能分析和诊断工具用vmstat、sar、iostat检测是否是CPU、磁盘,内存瓶颈用free、vmstat检测是否是内存、IO瓶颈用iostat检测是否是磁盘I/O瓶颈用dstat检测是否是网络带宽、磁盘io、内存、负载等综合瓶颈分析用mpstat检测是否cpu调用不均衡,也可以使用top替代用pidstat检测相应进程cpu消耗情况用netstat检测socket buffer有未发送或处理的数据,从而判断程序处理能力下降或出现问题.用lsof检测打开文件描述(网络文件和磁盘文件,管道等)符过多,导致资源不足用df和du组合检测挂载磁盘或目录占用空间巨大或inode节点消耗殆尽。用iftop检查2台主机间是否存在流量瓶颈.下面命令中参数名词解释:buffer是用于存放(缓存)要输出到disk(块设备)的数据的,cache是存放从disk上读出的数据。这buffer和cache是为了提高IO性能的,并由OS管理。swap: linux内核读写虚拟内存是以 “页” 为单位操作的,把内存转移到硬盘交换空间(SWAP)和从交换空间读取到内存 的时候都是按页来读写的。Paging:内存和SWAP的这种交换过程称为页面交换(Paging)Linux - toptopshift + h 按线程查看cpu消耗情况查看每个核消耗情况us 过高说明应用程序消耗了大部分cpusy 过高表示系统线程切换频繁wa 表示为在执行过程中等待io所占的百分比 hi 硬件中断(ex:网卡接收数据频发)top -p pid 多列信息列表中直显示对应进程信息. Linux - freefree -m-/+ buffers/cacheused应用程序总共使用的内存数=Mem.used-Mem.buffers-Mem.cached应用程序还未使用的内存数=Mem.free+Mem.buffers+Mem.cached上面是free -m的运行结果,一共有4行。为了方便说明,笔者加上了列号。这样可以把free的输出看成一个二维数组rowcols(Free Output),下面可以使用2个等式表示两个等式rowcols[3][2] = rowcols[2][2] - rowcols[2][5] - rowcols[2][6]rowcols[3][3] = rowcols[2][3] + rowcols[2][5] + rowcols[2][6]注:free命令中内存参数与top中第四行,五行--对应,top就是少了free第三行参数值Linux - netstat / ssnetstat –an | grep 端口Recv-Q 网络接收队列 一般情况为0,如果持续为非0表示收到的数据已经在本地接收缓冲,应用程序还没处理,可能是应用程序处理性能下降。Send-Q 发送队列 一般情况为0,如果持续为非0可能是应用向外发送数据包过快,或者是 对方接收数据包不够快。netstat –an | grep 端口 (查看应用程序端口是否正常监听)以前遇到过分布式缓存memcached在高峰访问中会出现这种现象,由于高峰时期极端情况下多线程lock内存池原因,导致服务端性能急剧下降。Linux - vmstatvmstat 1 10vmstat CPU使用率,内存使用,虚拟内存交换情况,IO读写情况一般使用格式为:vmstat interval count //表示输出频率1秒,连续输出10次使用实例: vmstat 1 10如果CPU的sy和us值相加的百分比接近100%,或者运行队列(r)中等待 的进程数总是不等于0,且经常大于4,同时id也经常小于40,则该系 统受限于CPU;如果bi、bo的值总是不等于0,则该系统受限于内存。 swpd值过高一般情况由于物理内存不够用.free列表示当前空闲的物理内存数量(以k为单位)buff列表示buffers cache的内存数量,一般对块设备的读写才需要缓冲。memorycache列表示page cached的内存数量,一般作为文件系统cached,频繁访问的文件都会被cached,如果cache值较大,说明cached的文件数较多,如果此时IO中bi比较小,说明文件系统效率比较好。swapsi列表示由磁盘调入内存,也就是内存进入内存交换区的数量。so列表示由内存调入磁盘,也就是内存交换区进入内存的数量。 一般情况下,si、so的值都为0,如果si、so的值长期不为0,则表示系统内存不足。需要增加系统内存。in 每秒CPU的中断次数cs 每秒上下文切换次数 //如果上下文切换过多(远高于平常数值),则可能是线程创建过多us 用户CPU时间占百分比sy 系统CPU时间占百分比id 空闲 CPU时间占百分比wt 等待IOLinux - sarsar 1 10格式如下:sar -d interval count需要关注几个参数:await表示平均每次设备I/O操作的等待时间(以毫秒为单位)。svctm表示平均每次设备I/O操作的服务时间(以毫秒为单位)。%util表示一秒中有百分之几的时间用于I/O操作。利用sar作性能评估磁盘IO性能,一般有如下评判标准:正常情况下svctm应该是小于await值的,而svctm的大小和磁盘性能有关,CPU、内存的负荷也会对svctm值造成影响,过多的请求也会间接的导致svctm值的增加。await值的大小一般取决与svctm的值和I/O队列长度以及I/O请求模式,如果svctm的值与await很接近,表示几乎没有I/O等待,磁盘性能很好,如果await的值远高于svctm的值,则表示I/O队列等待太长,系统上运行的应用程序将变慢,此时可以通过更换更快的硬盘来解决问题。%util项的值也是衡量磁盘I/O的一个重要指标,如果%util接近100%,表示磁盘产生的I/O请求太多,I/O系统已经满负荷的在工作,该磁盘可能存在瓶颈。长期下去,势必影响系统的性能,可以通过优化程序或者通过更换更高、更快的磁盘来解决此问题。Linux - iostatiostat 1 10iostat interval cont上面每项的输出解释如下:平均百分比为 = 总cpu占百分比/cpu核心数%user 表示平均处理用户进程所使用 CPU 的百分比。%nice 表示平均使用 nice 命令对进程进行降级时 CPU 的百分比。在之前的部分中已经对nice命令进行了介 绍。简单来说,nice命令更改进程的优先级。%system 表示平均内核进程使用的CPU百分比%iowait 表示平均等待进行 I/O 所使用的CPU时间百分比%irq 表示用于处理系统中断的CPU百分比%steal 表示列显示了在内存相对紧张的环境下pagein强制对不同的页面进行的s%idle 显示CPU的空闲时间百分比Blk_read/s 表示每秒读取的数据块数。Blk_wrtn/s 表示每秒写入的数据块数。Blk_read 表示读取的所有块数。Blk_wrtn 表示写入的所有块数。可以通过Blk_read/s和Blk_wrtn/s的值对磁盘的读写性能有一个基本的了解,如果Blk_wrtn/s值很大,表示磁盘的写操作很频繁,可以考虑优化磁盘或者优化程序,如果Blk_read/s值很大,表示磁盘直接读取操作很多,可以将读取的数据放入内存中进行操作。对于这两个选项的值没有一个固定的大小,根据系统应用的不同,会有不同的值,但是有一个规则还是可以遵循的:长期的、超大的数据读写,肯定是不正常的,这种情况一定会影响系统性能。Linux - mpstatmpstat -P ALL 1 10格式如下:mpstat -P ALL interval count它显示了系统中CPU的各种统计信息。–P ALL 选项指示该命令显示所有 CPU 的统计信息.%user 表示处理用户进程所使用 CPU 的百分比。%nice 表示使用 nice 命令对进程进行降级时 CPU 的百分比。在之前的部分中已经对nice命令进行了介绍。简单来 说,nice命令更改进程的优先级。%system 表示内核进程使用的 CPU 百分比%iowait 表示等待进行 I/O 所使用的 CPU 时间百分比%irq 表示用于处理系统中断的 CPU 百分比%steal 表示列显示了在内存相对紧张的环境下pagein强制对不同的页面进行的s%idle 显示CPU的空闲时间百分比Linux - dstatdstat -tcdnmlpygs 1 10格式:dstat -tcdnmlpygs interval countdstat是多功能系统资源统计工具dstat具体参数说明就不列出了,上述其他命令已经有说明在获取的信息上有点类似于top、free、iostat、vmstat等多个工具的合集.CPU状态:CPU的使用率磁盘统计:磁盘的读写操作,这一栏显示磁盘的读、写总数。网络流量统计:网络设备发送和接受的数据,这一栏显示的网络收、发数据总数。分页统计:系统的分页活动系统统计:这一项显示的是中断(int)和上下文切换(csw)内存统计:这一项列出应用程序已使用物理内存,buffer,cache,free空闲内存linux - iftopiftopiftop显示了系统上所有源主机或者目的主机网络带宽使用的列表,此列表定期更新。iftop部分参数说明与解释主机显示n: 切换是否解析主机名,你可以选择显示域名还是 IP 地址;s/d: 切换是否显示源主机或者目的主机;t: 切换主机接收和发送显示的模式:两行显示、一行显示、只显示发送流量、只显示发送流量;端口显示N: 切换显示服务名称还是端口号,例如 ssh 或者 22;S/D:切换是否显示源主机端口或者目的主机端口;p:切换是否显示端口号;排序显示1/2/3:根据最近 2 秒、10 秒、40 秒的平均网络流量排序;<:根据源主机地址排序;>:根据目的主机地址排序;o:固定显示当前连接,用来观察当前连接的流量情况,避免刷新后连接顺序变化;下面部分含义TX:发送流量RX:接收流量TOTAL:总流量Cumm:运行iftop到目前时间的总流量peak:流量峰值rates:分别表示过去 2s 10s 40s 的平均流量linux - df & du查看磁盘空间使用、挂载和inode情况du命令查看文件和目录磁盘使用的空间输出当前目录下各个子目录所使用的空间:du -h --max-depth=1按照子目录大小排序(降序):du -s * | sort -rn | cut -f2- | xargs -d " " du -shlinux诊断与调试部分命令使用汇总//本机监听端口来自客户端连接数统计排序(降序)lsof -i:9092 | awk '{print $9}' | cut -d ">" -f2 | awk '{ cidx=index($1,":");print substr($1,0,cidx-1)}' | sort | uniq -c | sort -rn案例剖析案例1 创建大量网络连接数导致服务进程挂死或假死当某台或几台机器作为基础服务组件或中间件节点(不一定为java,或python,go,c/c++等等)集群部署时,会有大量客户端会依赖此服务而连接此目标集群。笔者遇到真实情况,集群正常运行好长一段时间后,有一天突然发现集群中某个节点处于不可用状态。观察其应用程序日志没有任何错误信息,而且服务程序却无法正常对外提供响应。笔者通过相关命令按照以上几个法则(cpu,内存,磁盘io,网络io,网络流量),当我们查看cpu,io,网络流量,磁盘容量,发现监听端口连接数数量巨大,存在问题,经定位分析发现某台客户端主机创建大量网络连接没有释放。一般情况下linux系统最大文件描述数量设置都非常大,到达100W以上,多数是其他资源先消耗。下面是模拟当时环境的一幅图。[lizhitao@host ] netstat -an | grep 9094[lizhitao@host ] lsof -i:9094 | awk '{print $9}' | cut -d ">" -f2 | awk '{ cidx=index($1,":");print substr($1,0,cidx-1)}' | sort | uniq -c | sort -rn很明显mafka.sankuai.com这台主机创建了大量连接,导致资源耗尽。说明:netstat一般显示是ip,lsof一般显示主机名,因为客户端连接比较多(在TCP里好像每个socket占用500byte),很难一下子看出哪个客户主机数比较多,所以2命令组合使用就比较方便。扩展阅读:上面案例是网络连接(网络文件描述符)问题,而有些可能是磁盘文件(描述符)打开量巨大,而没有释放资源导致程序bug。典型就是存储图片或小文件的分布式文件系统。递归查找某个目录中所有打开的文件[lizhitao@host ] lsof +D /DIR/lsof的列表中Type为REG和DIR分别表示打开磁盘文件和目录[lizhitao@host ] lsof -p [pid] | "REG" //列举该进程所有打开的磁盘文件.然后通过计算和分析就能知道是否有大量磁盘文件没有释放,然后定位出问题的代码块.案例2 线上java服务进程突然cpu占用很高。java进程cpu的消耗排序[lizhitao@host ] ps p 31476 -L -o pcpu,pid,tid,time,tname,stat,psr | gawk '{printf("%s %d %d %s %s %s %x ",$1,$2,$3,$4,$5,$6,$3) }' | sort -n -k1 -r假如上述图片列表中显示的cpu消耗很高且大约80%cpu,则我们可以通过上述命令操作,找到对应线程号nid=31510转换为十六进制0x7b16[lizhitao@host ] jstack 31476 | grep "7b16"[lizhitao@host ] jstack 31476缩小代码排查范围,顺藤摸瓜找到对应的调用堆栈信息和代码,然后对相关代码逻辑进行分析。案例3 某个进程启动时无法创建文件如果遇到上述错误,可以先检测一下硬盘状态信息(一般是这类问题概率不大,除非是数据库或做存储用的服务器)请参考硬盘检测smartctl:Linux系统下检测硬盘的健康状态Linux硬盘的检测如果磁盘状态一切正常,则分析可能为挂载磁盘空间占满。执行 :df -h 查看磁盘空间占用情况然后到相应的应用程序软件部署目录或数据存储目录下执行:du -s * | sort -rn | cut -f2- | xargs -d " " du -sh就可以顺利找到占用空间比较大的目录,然后做相应处理。总结以上,就是我在linux下后端诊断与调试时遇到的问题和收获,以及解决办法,下面是我对这些方面的总结:linux下后端诊断与调试是复杂而比较有挑战性工作,需要操作者或工程师综合运用各种手段找到问题所在,从而逐步地缩小范围,定位到某个点上,不同的应用程序也会不一样,比如说:普通的java(tomcat)服务与memcached分布式缓存遇到问题也不尽相同。首先我们可以从系统层面上划清界限,是操作系统,本机服务程序,还是其他主机访问导致的。通过六种手段,比如说网络io,磁盘io,内存,cpu,打开文件,线程等,分析其瓶颈方向。所以没有一种命令或方法能“包治百病”,需要工程师在不同应用环境下,巧妙选择且综合运用不同手段,搭配多种命令组合才能完成。


(以上内容不代表本站观点。)
---------------------------------
本网站以及域名有仲裁协议。
本網站以及域名有仲裁協議。

2024-Mar-04 02:09pm
栏目列表