Linux性能监控以及优化之CPU

本文发布时间: 2019-Mar-22
1.0性能监控介绍性能优化就是找到系统处理中的瓶颈以及去除这些的过程,多数管理员相信看一些相关的"cookbook"就可以实现性能优化,通常通过对内核的一些配置是可以简单的解决问题,但并不适合每个环境,性能优化其实是对OS各子系统达到一种平衡的定义,这些子系统包括了:CPUMemoryIONetwork这些子系统之间关系是相互彼此依赖的,任何一个高负载都会导致其他子系统出现问题.比如:大量的页调入请求导致内存队列的拥塞网卡的大吞吐量可能导致更多的CPU开销大量的CPU开销又会尝试更多的内存使用请求大量来自内存的磁盘写请求可能导致更多的CPU以及IO问题所以要对一个系统进行优化,查找瓶颈来自哪个方面是关键,虽然看似是某一个子系统出现问题,其实有可能是别的子系统导致的.1.1确定应用类型基于需要理解该从什么地方来入手优化瓶颈,首先重要的一点,就是理解并分析当前系统的特点,多数系统所跑的应用类型,主要为2种:IOBound(译注:IO范畴):在这个范畴中的应用,一般都是高负荷的内存使用以及存储系统,这实际上表示IO范畴的应用,就是一个大量数据处理的过程.IO范畴的应用不对CPU以及网络发起更多请求(除非类似NAS这样的网络存储硬件).IO范畴的应用通常使用CPU资源都是为了产生IO请求以及进入到内核调度的sleep状态.通常数据库软件(译注:mysql,oracle等)被认为是IO范畴的应用类型.CPUBound(译注:CPU范畴):在这个范畴中的应用,一般都是高负荷的CPU占用.CPU范畴的应用,就是一个批量处理CPU请求以及数学计算的过程.通常webserver,mailserver,以及其他类型服务被认为是CPU范畴的应用类型.简单总结下:IO范畴就是CPU处理大量数据的过程;CPU范畴就是处理CPU大量请求的过程;1.2确定基准线统计系统利用率情况,一般随管理员经验以及系统本身用途来决定.唯一要清楚的就是,系统优化希望达成什么效果,以及哪些方面是需要优化,还有参考值是什么?因此就建立一个基准线,这个统计数据必须是系统可用性能状态值,用来比较不可用性能状态值.在以下例子中,1个系统性能的基准线快照,用来比较当高负荷时的系统性能快照.#vmstat1procsmemoryswapiosystemcpurbswpdfreebuffcachesisobiboincsussywaid10138592179321262722142440011810919211960013859217932126272214244000010546010990013859217932126272214244000019862401404500138592179321262722142440000117490001000013859217924126272214244000176220938341380001385921792412627221424400003581522817075101385921792412627221424400003681447424072001385921792412627221424400003521277912079#vmstat1procsmemoryswapiosystemcpurbswpdfreebuffcachesisobiboincsussywaid2014594017752118600215592011181091921196201459401585611860421565200046878910886140030146208138841186002146400360036049871919002014638813764118600213788034003406724187130020147092137881186002124520740013246206192800201473601384811860021158007200720690419640020147912137441181922105920720072060544955002014845213900118192209260037203726394581190020149132136921178242084120372037245747901000从上面第一个结果可看到,最后一列(id)表示的是空闲时间,我们可以看到,在基准线统计时,CPU的空闲时间在79%-100%.在第二个结果可看到,系统处于100%的占用率以及没有空闲时间.从这个比较中,我们就可以确定是否是CPU使用率应该被优化.3.0CPU介绍CPU利用率主要依赖于是什么资源在试图存取.内核调度器将负责调度2种资源种类:线程(单一或者多路)和中断.调度器去定义不同资源的不同优先权.以下列表从优先级高到低排列:Interrupts(中断)---->KernelProcesse(内核处理过程)---->UserProcesses(用户进程) Interrupts(译注:中断)-设备通知内核,他们完成一次数据处理的过程.例子,当一块网卡设备递送网络数据包或者一块硬件提供了一次IO请求Kernel(System)Processes(译注:内核处理过程)-所有内核处理过程就是控制优先级别.UserProcesses(译注:用户进程)-这块涉及"userland".所有软件程序都运行在这个userspace.这块在内核调度机制中处于低优先级.从上面,我们可以看出内核是怎样管理不同资源的.还有几个关键内容需要介绍,以下部分就将介绍context(译注:上下文换),runqueues(译注:运行队列)以及utilization(译注:利用率).3.1上下文切换多数现代处理器都能够运行一个进程(单一线程)或者线程.多路超线程处理器有能力运行多个线程.然而,Linux内核还是把每个处理器核心的双核心芯片作为独立的处理器.比如,以Linux内核的系统在一个双核心处理器上,是报告显示为两个独立的处理器.一个标准的Linux内核可以运行50至50,000的处理线程.在只有一个CPU时,内核将调度并均衡每个进程线程.每个线程都分配一个在处理器中被开销的时间额度.一个线程要么就是获得时间额度或已抢先获得一些具有较高优先级(比如硬件中断),其中较高优先级的线程将从区域重新放置回处理器的队列中.这种线程的转换关系就是我们提到的上下文切换.每次内核的上下文切换,资源被用于关闭在CPU寄存器中的线程和放置在队列中.系统中越多的上下文切换,在处理器的调度管理下,内核将得到更多的工作.3.2运行队列每个CPU都维护一个线程的运行队列.理论上,调度器应该不断的运行和执行线程.进程线程不是在sleep状态中(译注:阻塞中和等待IO中)或就是在可运行状态中.如果CPU子系统处于高负荷下,那就意味着内核调度将无法及时响应系统请求.导致结果,可运行状态进程拥塞在运行队列里.当运行队列越来越巨大,进程线程将花费更多的时间获取被执行.比较流行的术语就是"load",它提供当前运行队列的详细状态.系统load就是指在CPU队列中有多少数目的线程,以及其中当前有多少进程线程数目被执行的组合.如果一个双核系统执行了2个线程,还有4个在运行队列中,则load应该为6.top这个程序里显示的loadaverages是指1,5,15分钟以内的load情况.3.3CPU利用率CPU利用率就是定义CPU使用的百分比.评估系统最重要的一个度量方式就是CPU的利用率.多数性能监控工具关于CPU利用率的分类有以下几种:UserTime(译注:用户进程时间)-关于在userspace中被执行进程在CPU开销时间百分比.SystemTime(译注:内核线程以及中断时间)-关于在kernelspace中线程和中断在CPU开销时间百分比.WaitIO(译注:IO请求等待时间)-所有进程线程被阻塞等待完成一次IO请求所占CPU开销idle的时间百分比.Idle(译注:空闲)-一个完整空闲状态的进程在CPU处理器中开销的时间百分比.4.0CPU性能监控理解运行队列,利用率,上下文切换对怎样CPU性能最优化之间的关系.早期提及到,性能是相对于基准线数据的.在一些系统中,通常预期所达到的性能包括:RunQueues-每个处理器应该运行队列不超过1-3个线程.例子,一个双核处理器应该运行队列不要超过6个线程.CPUUtiliation-如果一个CPU被充分使用,利用率分类之间均衡的比例应该是65%-70%UserTime30%-35%SystemTime0%-5%IdleTimeContextSwitches-上下文切换的数目直接关系到CPU的使用率,如果CPU利用率保持在上述均衡状态时,大量的上下文切换是正常的.很多Linux上的工具可以得到这些状态值,首先就是vmstat和top这2个工具.4.1vmstat工具的使用vmstat工具提供了一种低开销的系统性能观察方式.因为vmstat本身就是低开销工具,在非常高负荷的服务器上,你需要查看并监控系统的健康情况,在控制窗口还是能够使用vmstat输出结果.这个工具运行在2种模式下:average和sample模式.sample模式通过指定间隔时间测量状态值.这个模式对于理解在持续负荷下的性能表现,很有帮助.下面就是vmstat运行1秒间隔的示例:#vmstat1procs-----------memory-------------swap-------io------system------cpu----rbswpdfreebuffcachesisobiboincsussyidwa00104300168009532872200005267144195000104300168009532872200000241021641198000104300168009532872200000010095911980Table1:ThevmstatCPUstatisticsFieldDescriptionrTheamountofthreadsintherunqueue.Thesearethreadsthatarerunnable,buttheCPUisnotavailabletoexecutethem.当前运行队列中线程的数目.代表线程处于可运行状态,但CPU还未能执行.bThisisthenumberofprocessesblockedandwaitingonIOrequeststofinish.当前进程阻塞并等待IO请求完成的数目inThisisthenumberofinterruptsbeingprocessed.当前中断被处理的数目csThisisthenumberofcontextswitchescurrentlyhappeningonthesystem.当前kernelsystem中,发生上下文切换的数目usThisisthepercentageofuserCPUutilization.CPU利用率的百分比sysThisisthepercentageofkernelandinterruptsutilization.内核和中断利用率的百分比waThisisthepercentageofidleprocessortimeduetothefactthatALLrunnablethreadsareblockedwaitingonIO.所有可运行状态线程被阻塞在等待IO请求的百分比idThisisthepercentageoftimethattheCPUiscompletelyidle.CPU空闲时间的百分比4.2案例学习:持续的CPU利用率在这个例子中,这个系统被充分利用#vmstat1procsmemoryswapiosystemcpurbswpdfreebuffcachesisobiboincsussywaid302065641509280336176080000071826811900202065641477280336176120000075823964001020656414208803361761360000820209640010206956138847918017596404120268010088093700202073481444878800175576041204127637084160020207348157567880017542400008742589110010207348163687880017559600009402486140010207348166007880017560400009292795302302073481697678548175876000250896935937004020734816216785481757040000874369360140207348164247854817577600008502677230020207348174967855617584000007362383170000207348176807855617586800008612191801根据观察值,我们可以得到以下结论:1,有大量的中断(in)和较少的上下文切换(cs).这意味着一个单一的进程在产生对硬件设备的请求.2,进一步显示某单个应用,usertime(us)经常在85%或者更多.考虑到较少的上下文切换,这个应用应该还在处理器中被处理.3,运行队列还在可接受的性能范围内,其中有2个地方,是超出了允许限制.总结:某一个进程已经大大在影响到了CPU的整体处理能力,已经出现性能的降低趋势。4.3案例学习:超负荷调度在这个例子中,内核调度中的上下文切换处于饱和#vmstat1procsmemoryswapiosystemcpurbswpdfreebuffcachesisobiboincsussywaid21207740984768134418097200249609002883412572701207740964488330418098400196832881025598983001207740944048534818098400204408292879967870120774092576871761809840018280689208839781020207740913008845218098400127605652182768343120774090124896281809840011760551221927910422077408924090512180984008805204439072210670532077408805691680180984001168062812481211770422077408685292880180984001200065415056787061207740857369399618098400111605261512510850012077408484494888180984008920438155664900根据观察值,我们可以得到以下结论:1,上下文切换数目高于中断数目,说明kernel中相当数量的时间都开销在上下文切换线程.2,大量的上下文切换将导致CPU利用率分类不均衡.很明显实际上等待io请求的百分比(wa)非常高,以及usertime百分比非常低(us).3,因为CPU都阻塞在IO请求上,所以运行队列里也有相当数目的可运行状态线程在等待执行.总结:大部分的CPU都浪费在的线程交换,以及队列等待上,超负载工作状况。


(以上内容不代表本站观点。)
---------------------------------
本网站以及域名有仲裁协议。
本網站以及域名有仲裁協議。

2024-Mar-04 02:10pm
栏目列表