性能指标简介
Linux服务器性能评估与优化指南 本文介绍了影响Linux服务器性能的关键因素和评估方法。主要从CPU、内存和磁盘I/O三个方面进行分析: CPU评估:通过vmstat和sar命令监控,当%user+%sys>80%时可能存在CPU瓶颈;单线程应用可能导致个别CPU满载而整体利用率不高。 内存评估:使用free和vmstat命令检查,当可用内存占比<20%时需要扩容;swap交换频繁
一、影响Linux服务器性能的因素
- 操作系统级
- cpu
- 内存
- 磁盘I/O带宽
- 网络I/O带宽
- 程序应用级
二、系统性能评估标准
| 影响性能因素 | 评判标准 | ||
|---|---|---|---|
| 好 | 坏 | 糟糕 | |
| CPU | %user + %sys < 70% | %user + %sys = 85% | %user + %sys >= 90% |
| 内存 | Swip In(si) = 0 Swip Out(so) = 0 | Per CPU with 10 page/s | More Swap in & Swap Out |
| 磁盘 | iowait % < 20% | iowait % < 35% | iowait % >= 50% |
说明:
%user:表示CPU处在用户模式下的时间百分比。
%sys:表示CPU处在系统模式下的时间百分比。
%iowait:表示CPU等待输入输出完成时间的百分比。
swap in:即si,表示虚拟内存的页导入,即从SWAP DISK交换到RAM
swap out:即so,表示虚拟内存的页导出,即从RAM交换到SWAP DISK。
三、系统性能分析工具
- 常用系统命令
vmstat、sar、iostat、netstat、free、ps、top等 - 常用组合方式
- 用vmstat、sar、iostat检测是否是CPU瓶颈
- 用free、vmstat检测是否是内存瓶颈
- 用iostat检测是否是磁盘I/O瓶颈
- 用netstat检测是否是网络带宽瓶颈
四、Linux性能评估与优化
1. 系统整体性能评估(uptime命令)
[root@server ~]# uptime
17:46:51 up 9 days, 22:12, 1 user, load average: 0.00, 0.01, 0.00
这里需要注意的是:load average这个输出值,这三个值的大小一般不能大于系统CPU的个数,例如,本输出中系统有8个CPU,如果load average的三个值长期大于8时,说明CPU很繁忙,负载很高,可能会影响系统性能,但是偶尔大于8时,倒不用担心,一般不会影响系统性能。相反,如果load average的输出值小于CPU的个数,则表示CPU还有空闲的时间片,比如本例中的输出,CPU是非常空闲的。
2. CPU性能评估
(1)利用vmstat命令监控系统CPU
该命令可以显示关于系统各种资源之间相关性能的简要信息,这里我们主要用它来看CPU一个负载情况。
下面是vmstat命令在某个系统的输出结果:
[root@server ~]# vmstat 2 3
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 22384 481716 1009948 3038640 0 0 0 4 4 2 1 0 99 0 0
0 0 22384 481692 1009948 3038640 0 0 0 0 760 1089 0 0 100 0 0
0 0 22384 480660 1009948 3038640 0 0 0 0 1348 2087 1 0 99 0 0
说明
- procs
r列表示运行和等待cpu时间片的进程数,这个值如果长期大于系统CPU的个数,说明CPU不足,需要增加CPU。
b列表示在等待资源的进程数,比如正在等待I/O、或者内存交换等。 - cpu
us列显示了用户进程消耗的CPU 时间百分比。us的值比较高时,说明用户进程消耗的cpu时间多,但是如果长期大于50%,就需要考虑优化程序或算法。
sy列显示了内核进程消耗的CPU时间百分比。Sy的值较高时,说明内核消耗的CPU资源很多。
根据经验,us+sy的参考值为80%,如果us+sy大于 80%说明可能存在CPU资源不足。
(2)利用sar命令监控系统CPU
sar功能很强大,可以对系统的每个方面进行单独的统计,但是使用sar命令会增加系统开销,不过这些开销是可以评估的,对系统的统计结果不会有很大影响。
下面是sar命令对某个系统的CPU统计输出:
[root@server ~]# sar -u 3 5
Linux 6.6.87.2-microsoft-standard-WSL2 02/02/26 _x86_64_ (28 CPU)
17:53:42 CPU %user %nice %system %iowait %steal %idle
17:53:45 all 1.35 0.00 1.01 0.00 0.00 97.64
17:53:48 all 0.01 0.00 0.07 0.01 0.00 99.90
17:53:51 all 0.04 0.00 0.06 0.00 0.00 99.90
17:53:54 all 1.09 0.00 0.63 0.01 0.00 98.27
17:53:57 all 0.11 0.00 0.12 0.00 0.00 99.77
Average: all 0.52 0.00 0.38 0.00 0.00 99.10
说明:
- %user列显示了用户进程消耗的CPU 时间百分比。
- %nice列显示了运行正常进程所消耗的CPU 时间百分比。
- %system列显示了系统进程消耗的CPU时间百分比。
- %iowait列显示了IO等待所占用的CPU时间百分比
- %steal列显示了在内存相对紧张的环境下pagein强制对不同的页面进行的steal操作 。
- %idle列显示了CPU处在空闲状态的时间百分比。
问题
1.你是否遇到过系统CPU整体利用率不高,而应用缓慢的现象?
在一个多CPU的系统中,如果程序使用了单线程,会出现这么一个现象,CPU的整体使用率不高,但是系统应用却响应缓慢,这可能是由于程序使用单线程的原因,单线程只使用一个CPU,导致这个CPU占用率为100%,无法处理其它请求,而其它的CPU却闲置,这就导致了整体CPU使用率不高,而应用缓慢现象的发生。
3. 内存性能评估
(1)利用free指令监控内存
free是监控linux内存使用状况最常用的指令,看下面的一个输出:
[root@server ~]# free -m
total used free shared buff/cache available
Mem: 31973 1729 28937 17 1306 29856
Swap: 8192 0 8192
一般有这样一个经验公式:应用程序可用内存/系统物理内存>70%时,表示系统内存资源非常充足,不影响系统性能,应用程序可用内存/系统物理内存<20%时,表示系统内存资源紧缺,需要增加系统内存,20%<应用程序可用内存/系统物理内存<70%时,表示系统内存资源基本能满足应用需求,暂时不影响系统性能。
(2)利用vmstat命令监控内存
[root@server ~]# vmstat 2 3
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 22384 481716 1009948 3038640 0 0 0 4 4 2 1 0 99 0 0
0 0 22384 481692 1009948 3038640 0 0 0 0 760 1089 0 0 100 0 0
0 0 22384 480660 1009948 3038640 0 0 0 0 1348 2087 1 0 99 0 0
说明 :
-
memory
swpd列表示切换到内存交换区的内存数量(以k为单位)。如果swpd的值不为0,或者比较大,只要si、so的值长期为0,这种情况下一般不用担心,不会影响系统性能。
free列表示当前空闲的物理内存数量(以k为单位)
buff列表示buffers cache的内存数量,一般对块设备的读写才需要缓冲。
cache列表示page cached的内存数量,一般作为文件系统cached,频繁访问的文件都会被cached,如果cache值较大,说明cached的文件数较多,如果此时IO中bi比较小,说明文件系统效率比较好。 -
swap
si列表示由磁盘调入内存,也就是内存进入内存交换区的数量。
so列表示由内存调入磁盘,也就是内存交换区进入内存的数量。
一般情况下,si、so的值都为0,如果si、so的值长期不为0,则表示系统内存不足。需要增加系统内存。
4.磁盘I/O性能评估
(1)磁盘存储基础
- 熟悉RAID存储方式,可以根据应用的不同,选择不同的RAID方式。
- 尽可能用内存的读写代替直接磁盘I/O,使频繁访问的文件或数据放入内存中进行操作处理,因为内存读写操作比直接磁盘读写的效率要高千倍
- 将经常进行读写的文件与长期不变的文件独立出来,分别放置到不同的磁盘设备上。
- 对于写操作频繁的数据,可以考虑使用裸设备代替文件系统。
使用裸设备的优点有:
- 数据可以直接读写,不需要经过操作系统级的缓存,节省了内存资源,避免了内存资源争用。
- 避免了文件系统级的维护开销,比如文件系统需要维护超级块、I-node等。
- 避免了操作系统的cache预读功能,减少了I/O请求。
使用裸设备的缺点是:
- 数据管理、空间管理不灵活,需要很专业的人来操作。
(2)利用iostat评估磁盘性能
[root@server ~]# iostat -d 2 3
Linux 6.6.87.2-microsoft-standard-WSL2 02/02/26 _x86_64_ (28 CPU)
Device tps kB_read/s kB_wrtn/s kB_dscd/s kB_read kB_wrtn kB_dscd
loop0 0.14 13.07 0.00 0.00 387064 0 0
loop1 0.42 35.46 0.00 0.00 1050347 0 0
sda 0.05 2.67 0.00 0.00 79157 0 0
sdb 0.01 0.42 0.00 0.00 12421 0 0
sdc 0.00 0.08 0.00 0.00 2228 4 0
sdd 0.64 1.52 604.48 36254.53 45042 17902808 1073741856
sde 5.36 110.67 20.28 0.00 3277725 600576 0
sdf 1.80 34.35 12.56 30.96 1017393 372028 917028
Device tps kB_read/s kB_wrtn/s kB_dscd/s kB_read kB_wrtn kB_dscd
loop0 0.00 0.00 0.00 0.00 0 0 0
loop1 0.00 0.00 0.00 0.00 0 0 0
sda 0.00 0.00 0.00 0.00 0 0 0
sdb 0.00 0.00 0.00 0.00 0 0 0
sdc 0.00 0.00 0.00 0.00 0 0 0
sdd 0.00 0.00 0.00 0.00 0 0 0
sde 0.00 0.00 0.00 0.00 0 0 0
sdf 0.00 0.00 0.00 0.00 0 0 0
Device tps kB_read/s kB_wrtn/s kB_dscd/s kB_read kB_wrtn kB_dscd
loop0 0.00 0.00 0.00 0.00 0 0 0
loop1 0.00 0.00 0.00 0.00 0 0 0
sda 0.00 0.00 0.00 0.00 0 0 0
sdb 0.00 0.00 0.00 0.00 0 0 0
sdc 0.00 0.00 0.00 0.00 0 0 0
sdd 0.00 0.00 0.00 0.00 0 0 0
sde 4.00 0.00 46.00 0.00 0 92 0
sdf 0.00 0.00 0.00 0.00 0 0 0
说明:
- Blk_read/s表示每秒读取的数据块数
- Blk_wrtn/s表示每秒写入的数据块数。
- Blk_read表示读取的所有块数。
- Blk_wrtn表示写入的所有块数。
- 可以通过Blk_read/s和Blk_wrtn/s的值对磁盘的读写性能有一个基本的了解,如果Blk_wrtn/s值很大,表示磁盘的写操作很频繁,可以考虑优化磁盘或者优化程序,如果Blk_read/s值很大,表示磁盘直接读取操作很多,可以将读取的数据放入内存中进行操作。
- 对于这两个选项的值没有一个固定的大小,根据系统应用的不同,会有不同的值,但是有一个规则还是可以遵循的:长期的、超大的数据读写,肯定是不正常的,这种情况一定会影响系统性能。
(3)利用sar评估磁盘性能
[root@server ~]# sar -d 2 3
Linux 6.6.87.2-microsoft-standard-WSL2 02/02/26 _x86_64_ (28 CPU)
19:03:37 DEV tps rkB/s wkB/s dkB/s areq-sz aqu-sz await %util
19:03:39 dev7-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:39 dev7-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:39 dev8-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:39 dev8-16 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:39 dev8-32 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:39 dev8-48 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:39 dev8-64 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:39 dev8-80 7.50 234.00 0.00 0.00 31.20 0.00 0.27 0.40
19:03:39 DEV tps rkB/s wkB/s dkB/s areq-sz aqu-sz await %util
19:03:41 dev7-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:41 dev7-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:41 dev8-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:41 dev8-16 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:41 dev8-32 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:41 dev8-48 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:41 dev8-64 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:41 dev8-80 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:41 DEV tps rkB/s wkB/s dkB/s areq-sz aqu-sz await %util
19:03:43 dev7-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:43 dev7-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:43 dev8-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:43 dev8-16 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:43 dev8-32 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:43 dev8-48 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
19:03:43 dev8-64 4.00 0.00 48.00 0.00 12.00 0.01 1.00 0.40
19:03:43 dev8-80 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
Average: DEV tps rkB/s wkB/s dkB/s areq-sz aqu-sz await %util
Average: dev7-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
Average: dev7-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
Average: dev8-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
Average: dev8-16 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
Average: dev8-32 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
Average: dev8-48 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
Average: dev8-64 1.33 0.00 16.00 0.00 12.00 0.00 1.00 0.13
Average: dev8-80 2.50 78.00 0.00 0.00 31.20 0.00 0.27 0.13
说明:
- await表示平均每次设备I/O操作的等待时间(以毫秒为单位)。
- svctm表示平均每次设备I/O操作的服务时间(以毫秒为单位)。
- %util表示一秒中有百分之几的时间用于I/O操作。
对以磁盘IO性能,一般有如下评判标准
正常情况下svctm应该是小于await值的,而svctm的大小和磁盘性能有关,CPU、内存的负荷也会对svctm值造成影响,过多的请求也会间接的导致svctm值的增加。
await值的大小一般取决与svctm的值和I/O队列长度以及I/O请求模式,如果svctm的值与await很接近,表示几乎没有I/O等待,磁盘性能很好,如果await的值远高于svctm的值,则表示I/O队列等待太长,系统上运行的应用程序将变慢,此时可以通过更换更快的硬盘来解决问题。
%util项的值也是衡量磁盘I/O的一个重要指标,如果%util接近100%,表示磁盘产生的I/O请求太多,I/O系统已经满负荷的在工作,该磁盘可能存在瓶颈。长期下去,势必影响系统的性能,可以通过优化程序或者通过更换更高、更快的磁盘来解决此问题。
5. 网络性能评估
(1)通过ping命令检测网络的连通性
(2)通过netstat –i组合检测网络接口状况
(3)通过netstat –r组合检测系统的路由表信息
(4)通过sar –n组合显示系统的网络运行状态
更多推荐



所有评论(0)