zoukankan      html  css  js  c++  java
  • Linux 系统监控.诊断工具之 IO wait

    1. 常用组合方式有如下几种:

    • 用vmstat、sar、iostat检测是否是CPU瓶颈
    • 用free、vmstat检测是否是内存瓶颈
    • 用iostat、dmesg 检测是否是磁盘I/O瓶颈
    • 用netstat检测是否是网络带宽瓶颈

    ps -eo state,pid,cmd|grep "^D"

    2.1 vmstat

    vmstat命令的含义为显示虚拟内存状态(“Viryual Memor Statics”),但是它可以报告关于进程、内存、I/O等系统整体运行状态。

    linux 系统监控.诊断工具之 IO wait

    它的相关字段说明如下:

    Procs(进程)
    • r: 运行队列中进程数量,这个值也可以判断是否需要增加CPU。(长期大于1)
    • b: 等待IO的进程数量,也就是处在非中断睡眠状态的进程数,展示了正在执行和等待CPU资源的任务个数。当这个值超过了CPU数目,就会出现CPU瓶颈了
    
    Memory(内存)
    • swpd: 使用虚拟内存大小,如果swpd的值不为0,但是SI,SO的值长期为0,这种情况不会影响系统性能。
    • free: 空闲物理内存大小。
    • buff: 用作缓冲的内存大小。
    • cache: 用作缓存的内存大小,如果cache的值大的时候,说明cache处的文件数多,如果频繁访问到的文件都能被cache处,那么磁盘的读IO bi会非常小。
    
    Swap
    • si: 每秒从交换区写到内存的大小,由磁盘调入内存。
    • so: 每秒写入交换区的内存大小,由内存调入磁盘。
    注意:内存够用的时候,这2个值都是0,如果这2个值长期大于0时,系统性能会受到影响,磁盘IO和CPU资源都会被消耗。有些朋友看到空闲内存(free)很少的或接近于0时,就认为内存不够用了,不能光看这一点,还要结合si和so,如果free很少,但是si和so也很少(大多时候是0),那么不用担心,系统性能这时不会受到影响的。
    
    IO(现在的Linux版本块的大小为1kb)
    • bi: 每秒读取的块数
    • bo: 每秒写入的块数
    注意:随机磁盘读写的时候,这2个值越大(如超出1024k),能看到CPU在IO等待的值也会越大。
    
    system(系统)
    • in: 每秒中断数,包括时钟中断。
    • cs: 每秒上下文切换数。
    注意:上面2个值越大,会看到由内核消耗的CPU时间会越大。
    
    CPU(以百分比表示)
    • us: 用户进程执行时间百分比(user time)
    us的值比较高时,说明用户进程消耗的CPU时间多,但是如果长期超50%的使用,那么我们就该考虑优化程序算法或者进行加速。
    • sy: 内核系统进程执行时间百分比(system time)
    sy的值高时,说明系统内核消耗的CPU资源多,这并不是良性表现,我们应该检查原因。
    • wa: IO等待时间百分比
    wa的值高时,说明IO等待比较严重,这可能由于磁盘大量作随机访问造成,也有可能磁盘出现瓶颈(块操作)。
    • id: 空闲时间百分比
    

    从 vmstat 中可以看到,CPU大部分的时间浪费在等待IO上面,可能是由于大量的磁盘随机访问或者磁盘的带宽所造成的,bi、bo 也都超过 1024k,应该是遇到了IO瓶颈。

    2.2 iostat

    下面再用更加专业的磁盘 IO 诊断工具来看下相关统计数据。

    linux 系统监控.诊断工具之 IO wait

    它的相关字段说明如下:

    rrqm/s:    每秒进行 merge 的读操作数目。即 delta(rmerge)/s
    wrqm/s:    每秒进行 merge 的写操作数目。即 delta(wmerge)/s
    r/s:       每秒完成的读 I/O 设备次数。即 delta(rio)/s
    w/s:       每秒完成的写 I/O 设备次数。即 delta(wio)/s
    rsec/s:    每秒读扇区数。即 delta(rsect)/s
    wsec/s:    每秒写扇区数。即 delta(wsect)/s
    rkB/s:     每秒读K字节数。是 rsect/s 的一半,因为每扇区大小为512字节。(需要计算)
    wkB/s:     每秒写K字节数。是 wsect/s 的一半。(需要计算)
    avgrq-sz:  平均每次设备I/O操作的数据大小 (扇区)。delta(rsect+wsect)/delta(rio+wio)
    avgqu-sz:  平均I/O队列长度。即 delta(aveq)/s/1000 (因为aveq的单位为毫秒)。
    await:     平均每次设备I/O操作的等待时间 (毫秒)。即 delta(ruse+wuse)/delta(rio+wio)
    svctm:     平均每次设备I/O操作的服务时间 (毫秒)。即 delta(use)/delta(rio+wio)
    %util:     一秒中有百分之多少的时间用于 I/O 操作,或者说一秒中有多少时间 I/O 队列是非空的。即 delta(use)/s/1000 (因为use的单位为毫秒)
    

    可以看到两块硬盘中的 sdb 的利用率已经 100%,存在严重的 IO 瓶颈,下一步我们就是要找出哪个进程在往这块硬盘读写数据。

    2.3 iotop

    linux 系统监控.诊断工具之 IO wait

    根据 iotop 的结果,我们迅速的定位到是 flume 进程的问题,造成了大量的 IO wait。

    但是在开头我已经说了,集群中的机器配置一样,部署的程序也都 rsync 过去的一模一样,难道是硬盘坏了?

    这得找运维同学来查证了,最后的结论是:

    Sdb为双盘raid1,使用raid卡为“LSI Logic / Symbios Logic SAS1068E”,无cache。近400的IOPS压力已经达到了硬件极限。而其它机器使用的raid卡是“LSI Logic / Symbios Logic MegaRAID SAS 1078”,有256MB cache,并未达到硬件瓶颈,解决办法是更换能提供更大IOPS的机器,比如最后我们换了一台带 PERC6/i 集成RAID控制器卡的机器。需要说明的是,raid信息是在raid卡和磁盘固件里面各存一份,磁盘上的raid信息和raid卡上面的信息格式要是匹配的,否则raid卡识别不了就需要格式化磁盘。
    IOPS本质上取决于磁盘本身,但是又很多提升IOPS的方法,加硬件cache、采用RAID阵列是常用的办法。如果是DB那种IOPS很高的场景,现在流行用SSD来取代传统的机械硬盘。
    不过前面也说了,我们从软硬件两方面着手的目的就是看能否分别寻求代价最小的解决方案:

    知道硬件的原因了,我们可以尝试把读写操作移到另一块盘,然后再看看效果:

    linux 系统监控.诊断工具之 IO wait

    3、最后的话:另辟蹊径

    其实,除了用上述专业的工具定位这个问题外,我们可以直接利用进程状态来找到相关的进程。

    我们知道进程有如下几种状态:

    PROCESS STATE CODES
     D uninterruptible sleep (usually IO)
     R running or runnable (on run queue)
     S interruptible sleep (waiting for an event to complete)
     T stopped, either by a job control signal or because it is being traced.
     W paging (not valid since the 2.6.xx kernel)
     X dead (should never be seen)
     Z defunct ("zombie") process, terminated but not reaped by its parent.
    

    其中状态为 D 的一般就是由于 wait IO 而造成所谓的”非中断睡眠“,我们可以从这点入手然后一步步的定位问题:

    for x in `seq 10`; do ps -eo state,pid,cmd | grep "^D"; echo "----"; sleep 5; done
     D 248 [jbd2/dm-0-8]
     D 16528 bonnie++ -n 0 -u 0 -r 239 -s 478 -f -b -d /tmp
     ----
     D 22 [kdmflush]
     D 16528 bonnie++ -n 0 -u 0 -r 239 -s 478 -f -b -d /tmp
     ----
    # 或者:
    while true; do date; ps auxf | awk '{if($8=="D") print $0;}'; sleep 1; done
     Tue Aug 23 20:03:54 CLT 2011
     root       302  0.0  0.0      0     0 ?        D    May22   2:58  \_ [kdmflush]
     root       321  0.0  0.0      0     0 ?        D    May22   4:11  \_ [jbd2/dm-0-8]
     Tue Aug 23 20:03:55 CLT 2011
     Tue Aug 23 20:03:56 CLT 2011
    
    cat /proc/16528/io
     rchar: 48752567
     wchar: 549961789
     syscr: 5967
     syscw: 67138
     read_bytes: 49020928
     write_bytes: 549961728
     cancelled_write_bytes: 0
    
    lsof -p 16528
     COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
     bonnie++ 16528 root cwd DIR 252,0 4096 130597 /tmp
     <truncated>
     bonnie++ 16528 root 8u REG 252,0 501219328 131869 /tmp/Bonnie.16528
     bonnie++ 16528 root 9u REG 252,0 501219328 131869 /tmp/Bonnie.16528
     bonnie++ 16528 root 10u REG 252,0 501219328 131869 /tmp/Bonnie.16528
     bonnie++ 16528 root 11u REG 252,0 501219328 131869 /tmp/Bonnie.16528
     bonnie++ 16528 root 12u REG 252,0 501219328 131869 <strong>/tmp/Bonnie.16528</strong>
    
    df /tmp
     Filesystem 1K-blocks Used Available Use% Mounted on
     /dev/mapper/workstation-root 7667140 2628608 4653920 37% /
    
    fuser -vm /tmp
            USER        PID ACCESS COMMAND
     /tmp:  db2fenc1   1067 ....m db2fmp
            db2fenc1   1071 ....m db2fmp
            db2fenc1   2560 ....m db2fmp
            db2fenc1   5221 ....m db2fmp
  • 相关阅读:
    老调重弹之整除与实数除
    #define 预处理指令(C++,C#,VB.NET)
    char类型和string类型(C++,C#)
    使用XPATH对XML数据进行解析
    SQL Server查询优化之:使用提示(Hints)
    XSLT几种应用场景
    在C++中定义常量的两种方法的比较
    为SSIS编写自定义任务项(Task)之高级篇
    利用反射绑定事件处理程序(C#)
    自定义打开Reflector的方式
  • 原文地址:https://www.cnblogs.com/Jack1023/p/6744348.html
Copyright © 2011-2022 走看看