[转帖]ioping测试

ioping,测试 · 浏览次数 : 0

小编点评

内容生成时需要带简单的排版,以确保内容的清晰性和易懂性。以下是一些排版建议: 1. **使用标题和段落标题**:标题和段落标题可以帮助用户识别内容的主题和内容。建议使用标题来描述内容的主题,段落标题则可以描述内容的具体内容。 2. **使用图片和视频**:图片和视频可以帮助用户理解内容的细节。建议使用图片来描述内容的细节,视频则可以帮助用户理解内容的整体内容。 3. **使用缩写**:缩写可以帮助用户缩短内容的长度。建议使用缩写来缩短内容的长度,例如缩短成“”。 4. **使用颜色**:颜色可以帮助用户识别内容的主题。建议使用颜色来给内容添加主题,例如使用蓝色给内容添加主题。 5. **使用排列**:排列可以帮助用户展示内容的顺序。建议使用排列来展示内容的顺序,例如使用顺序的“”。 6. **使用标题和段落标题**:标题和段落标题可以帮助用户识别内容的主题和内容。建议使用标题来描述内容的主题,段落标题则可以描述内容的具体内容。 7. **使用图片和视频**:图片和视频可以帮助用户理解内容的细节。建议使用图片来描述内容的细节,视频则可以帮助用户理解内容的整体内容。 8. **使用缩写**:缩写可以帮助用户缩短内容的长度。建议使用缩写来缩短内容的长度,例如缩短成“”。 9. **使用颜色**:颜色可以帮助用户识别内容的主题。建议使用颜色来给内容添加主题,例如使用蓝色给内容添加主题。 10. **使用排列**:排列可以帮助用户展示内容的顺序。建议使用排列来展示内容的顺序,例如使用顺序的“”。

正文

https://www.cnblogs.com/ishmaelwanglin/p/10839702.html

 

一个实时显示磁盘io延时的工具,以类似ping 的输出一样展示输出结果

常用参数:

-c count 
	stop after count requests.
-i interval
	Set time between requests to interval(Default 1s).
-l 速度
	default size(-s size)/speed = interval(-i)
	如果size=4k 如果要实现80iops则-l 320k
-L 顺序,同时每次操作块大小会变成256k.(即-s 256k)
-D Derect IO
-s size
	指定请求数据块的大小(默认:4k)
    4k时那么平均每次读写的扇区就是8个
-S wsize
	指定工作路径的大小,如果不指定,默认是1m的,也就是io会只在这个1m的块上执行,指定该参数执行ioping会先创建一个指定大小的块文件,再开始读写。
-W 写io。会从0磁道开始写,要与-WWW一起使用。
-G 混合读写
-k 在使用目录做测试时,保留ioping.tmp(-S 创建的文件,默认会完成测试后自动删除)。
-Y sync IO

把要测试的盘挂载到一个目录比如/test,cd /test开始测试

测试4k随机写(写测试必须使用目录或者文件)

ioping -W -WWW -S 1G -D -c 100 .  

测试顺序读(读可以测试设备)

ioping -L -D -S 1G -c 100 .

以下是man page方法:

简单用法:

使用默认值和当前目录显示磁盘I / O延迟,直到被中断

[root@node-1 ops]# ioping -D /dev/sda
4 KiB <<< /dev/sda (block device 557.9 GiB): request=1 time=56.1 ms (warmup)
4 KiB <<< /dev/sda (block device 557.9 GiB): request=2 time=8.89 ms
4 KiB <<< /dev/sda (block device 557.9 GiB): request=3 time=9.45 ms
4 KiB <<< /dev/sda (block device 557.9 GiB): request=4 time=5.37 ms
4 KiB <<< /dev/sda (block device 557.9 GiB): request=5 time=5.34 ms
4 KiB <<< /dev/sda (block device 557.9 GiB): request=6 time=7.24 ms
4 KiB <<< /dev/sda (block device 557.9 GiB): request=7 time=2.62 ms (fast)
4 KiB <<< /dev/sda (block device 557.9 GiB): request=8 time=8.16 ms
4 KiB <<< /dev/sda (block device 557.9 GiB): request=9 time=10.2 ms (slow)
4 KiB <<< /dev/sda (block device 557.9 GiB): request=10 time=7.02 ms
^C
--- /dev/sda (block device 557.9 GiB) ioping statistics ---
9 requests completed in 64.3 ms, 36 KiB read, 140 iops, 560.3 KiB/s
generated 10 requests in 9.11 s, 40 KiB, 1 iops, 4.39 KiB/s
min/avg/max/mdev = 2.62 ms / 7.14 ms / 10.2 ms / 2.24 ms

测量磁盘搜索率(iops,avg)

$ ioping -R /dev/sda

--- /dev/sda (device 465.8 GiB) ioping statistics ---
186 requests completed in 3004.6 ms, 62 iops, 0.2 MiB/s
min/avg/max/mdev = 6.4/16.0/26.8/4.7 ms

测量磁盘顺序速度(MiB / s)

$ ioping -RL /dev/sda

--- /dev/sda (device 465.8 GiB) ioping statistics ---
837 requests completed in 3004.1 ms, 292 iops, 72.9 MiB/s
min/avg/max/mdev = 2.0/3.4/28.9/2.0 ms

获取磁盘每秒顺序速度(bytes)

[root@node-1 ops]# ioping -RLB . | awk '{printf "%s MB\n",$4/1024/1024}'
1129.74 MB

raw 统计

ioping -p 100 -c 200 -i 0 -q .
       100 26694 3746 15344272 188 267 1923 228 100 26694
       100 24165 4138 16950134 190 242 2348 214 100 24165
       (1) (2)   (3)  (4)      (5) (6) (7)  (8) (9) (10)

       (1) 请求次数统计
       (2) 运行时间         (usec)
       (3) 每秒的请求次数  (iops)
       (4) 传输速度       (bytes/sec)
       (5) 最低的请求时长 (usec)
       (6) 平均请求时长 (usec)
       (7) 最大的请求时长 (usec)
       (8) request time standard deviation (usec)
       (9) 总的请求数       (including too slow and too fast)
       (10) 总的运行时长  (usec)

名词解释

tps: 每秒接收的I/O请求数,等于r/s + w/s

avgrq-sz: 平均每次io请求扇区数

avgqu-sz: 平均每次io等待队列数

maxsect: max sectors per request

​ 通过blockdev --getmaxsect /dev/sdx获取,sas默认值512,sata默认值128

sector: 扇区,每个扇区512Bytes,1k=2sect

iops: 每秒的io次数

此次测试使用的硬盘为sas 10k, iops为140, 平均io time/per为14ms

写测试实例

同步IO写

测试一:

ioping -DWWW -S 1G -s 4k -l 560k . 
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  140.00     0.00     0.55     8.00     0.02    0.15    0.00    0.15   0.15   2.10

扇区达到8之后,tps、avgrq、avgqu和await符合预期

测试二:

测试命令:
ioping -DWWW -S 1g -s 256k -l 35m .  
04/20/2019 03:07:59 PM
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  140.00     0.00    35.00   512.00     0.03    0.20    0.00    0.20   0.20   2.80

Note:

扇区达到512后,符合预期

size为256k时,刚好avgrq为512个sector;

此时tps = 35m / 256k = 140 , 与测试结果w/s相符,也于10k sas盘的iops参数相符;

观察此时avgqu为0.04,几乎没有队列等待, iops = 140 / (1 + 0.04) = 134;

w_wait: 0.29;

且util值为4%,接近0;

可以认为此时是硬盘的最佳io处理状态,可以作为基准状态;

测试三:

ioping -DWWW -S 1g -s 256k -l 70m .
正常的盘:
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  280.00     0.00    70.00   512.00     0.05    0.18    0.00    0.18   0.17   4.80
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdc1              0.00     0.00    0.00  153.00     0.00    38.25   512.00     0.95    6.21    0.00    6.21   6.19  94.70

Note:

稳定后,wMB/s和avgrq达到参数值后,也符合预期,此时如果wMB达不到参数值的话就会增加util,并tps也会达不到预期。

正常的盘和异常的盘在这个压力下,已经显现了差距

size不变,增加数据量及加快给数据的速度,speed为70m,此时util开始接近100%;

此时计算tps = 70m / 256 k = 280 ,与实际测出结果有一定差距,

但是此时avgqu-sz已经达到0.95,接近1,

根据avgqu,计算iops ≈ 280 / (1 + 0.95) = 143 接近153;

w_wait: 6.21有所增加,但是依然符合io time;

再增加speed,后实际结果也没有大的变化,只增加这个值此时已经没有测试效果;

测试四:

增加size
测试命令:
ioping -DWWW -S 1g -s 512k -l 35m .
iostat输出:

正常的盘:
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  140.00     0.00    35.00   512.00     0.02    0.16    0.00    0.16   0.09   1.20
异常的盘
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdc1              0.00     0.00    0.00  140.00     0.00    35.00   512.00     0.06    0.42    0.00    0.42   0.24   3.40

Note:

wMB/s和avgrq达到参数值后,符合预期

低压力的情况下,正常的盘和异常的盘区别不大

size为512k=1024sector,为测试一的两倍,也就是每次request都要分成两次完成,因为每次是512个sector;

计算tps = 35m / 512k = 70 , 但是结果是140, 结合size,那么新的tps计算方法就应该是: tps = speed / size × (size_k *2 /maxsect)

tps = 35 * 1024 / 512 * (512 * 2 / 512) = 140

avgqu-sz: 0.06

w_wait: 0.42;

数据总量不变的情况下,增加request的size,会增加tps,并保持io处理能力不下降。

测试五:

ioping -DWWW -S 1g -s 512k -l 70m .
正常的盘:
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  280.00     0.00    70.00   512.00     0.05    0.17    0.00    0.17   0.11   3.00
异常的盘:
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdc1              0.00     0.00    0.00  220.00     0.00    55.00   512.00     1.44    6.52    0.00    6.52   4.15  91.20

Note:

正常的盘在wMB/s avgrq达到参数值后符合预期,如果达不到参数值则会出现iops降低,util增加和avgqu增加,以及await增加

异常的盘已经基本上达不到参数值了

size: 512k

计算tps: 70 * 1024 / 512 * 2 = 280, 与实际测试的值略有差距;

avgqu: 1.44 , 根据avgqu 没有avgqu时的tps = 280 / (1 + 1.44) = 114;

此时w_wait: 6.52,处于合理状态的范围;

测试六:

ioping -DWWW  -S 1g -s 5m -l 150m .
正常的盘:
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  600.00     0.00   150.00   512.00     1.07    1.79    0.00    1.79   0.14   8.30
异常的盘:
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdc1              0.00     0.00    0.00  460.00     0.00   115.00   512.00     9.31   20.33    0.00   20.33   1.99  91.60

Note:

此时正常的盘,达到参数值后,依然符合预期,而异常的盘已经远远达不到了。

size: 5m

计算tps: 150 / 50 * (5 * 1024 * 2 / 512) = 600

由于有avgqu值偏大,此时已经不具有生产使用意义

测试名称sizespeed测试tps计算tpsavgqu-szwaitutilMB/s
256k 35m 140 140 0.04 0.29 4% 35
256k 70m 153 280 0.95 6.21 94.7% 38.25
512k 35m 140 140 0.06 0.42 3.4% 35
512k 70m 220 280 1.44 6.52 91.2% 55
5m 150m 460 600 9.31 20.33 91.6% 115

当size为256k时 avgrq-sz就已经等于maxsect,此时增加-l speed的值并不能提升iops了,只能增加-s的size,
而增加size必然会带来增加avgqu-sz即等待队列,也就会导致wait上升.

10k的sas的iops为140,此时140256k = 140/4m = 35m 此时-l 35m,基本上就是硬盘最高繁忙度了util接近100%,此时要降低util,就必须增加-s的size(增加了等待的队列,也可以理解是增加了io通道或者iodepth), 比如size=512k,此时util降低一半,tps=35m/0.5m2 =140

io供给速度快时,util增加的情况下,tps就达不到计算的结果。

读测试实例

ioping -D -S 100g -s 4m -l 160m /dev/sdc1
iostat输出
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdc1              0.00     0.00  486.00    0.00   121.50     0.00   512.00     9.66   19.78   19.78    0.00   2.04  99.30
此时看wait开始增加到较高的值了,且avgqu-sz已经很高了。

磁盘测试可以根据计算的方式获取预期的瓶颈范围

avgqu-sz开始接近1的时候就是盘的性能最佳状态。

即最佳状态为-s 256k -l 35m此时tps 140 util接近100%

磁盘在等待队列avgqu-sz <= 4的情况下处于较好的状态,最终获取最大承受范围约 -s 1.5m -l 150m,此时承载能里达到最大承载临界值。(队列avgqu-sz每增加1几乎tps就增加一倍)

04/19/2019 12:03:34 AM
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdc1              0.00     0.00  388.00    0.00    97.00     0.00   512.00     4.32   11.20   11.20    0.00   2.56  99.50

04/19/2019 12:03:35 AM
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdc1              0.00     0.00  370.00    0.00    92.50     0.00   512.00     4.37   11.83   11.83    0.00   2.68  99.10

异步IO 写

测试一:

ioping -ADWWW -S 1g -s 4k -l 560k .
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  140.00     0.00     0.55     8.00     0.00    0.01    0.00    0.01   0.01   0.20

wMB/s和 avgrq达到预期后,其他的输出都符合预期

ioping -AD -W -WWW -S 1G -s 256k -l 35m .
04/20/2019 02:42:57 PM
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  140.00     0.00    35.00   512.00     0.02    0.16    0.00    0.16   0.16   2.20

符合预期

ioping -AD -W -WWW -S 1G -s 256k -l 70m .
04/20/2019 02:46:11 PM
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  280.00     0.00    70.00   512.00     0.05    0.17    0.00    0.17   0.17   4.90

开始阶段avgrq只能到达256,此时iops为500左右

异步io的util不高

ioping -AD -W -WWW -S 1G -s 512k -l 35m .
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  140.00     0.00    35.00   512.00     0.03    0.21    0.00    0.21   0.11   1.60

表现与sync io一样,此时iops一致

ioping -AD -W -WWW -S 1G -s 512k -l 70m .
04/20/2019 02:50:49 PM
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  280.00     0.00    70.00   512.00     0.07    0.26    0.00    0.26   0.14   3.90

符合预期

ioping -AD -W -WWW -S 1G -s 512k -l 140m .

04/20/2019 02:52:43 PM
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  542.00     0.00   135.50   512.00     0.21    0.39    0.00    0.39   0.24  12.80

04/20/2019 02:52:44 PM
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  440.00     0.00   110.00   512.00     0.85    1.93    0.00    1.93   1.43  62.80

数据量增大后,tps就很难稳定了

ioping -AD -W -WWW -S 1G -s 2m -l 140m .
04/20/2019 02:54:11 PM
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     3.00    0.00  623.00     0.00   140.20   460.88     0.44    0.70    0.00    0.70   0.12   7.50
ioping -AD -W -WWW -S 1G -s 5m -l 140m .
04/20/2019 02:55:19 PM
Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sdb4              0.00     0.00    0.00  540.00     0.00   135.00   512.00     2.54    4.71    0.00    4.71   0.29  15.40
异步IO读

与[转帖]ioping测试相似的内容:

[转帖]ioping测试

https://www.cnblogs.com/ishmaelwanglin/p/10839702.html 一个实时显示磁盘io延时的工具,以类似ping 的输出一样展示输出结果 常用参数: -c count stop after count requests. -i interval Set t

[转帖]

Linux ubuntu20.04 网络配置(图文教程) 因为我是刚装好的最小系统,所以很多东西都没有,在开始配置之前需要做下准备 环境准备 系统:ubuntu20.04网卡:双网卡 网卡一:供连接互联网使用网卡二:供连接内网使用(看情况,如果一张网卡足够,没必要做第二张网卡) 工具: net-to

[转帖]

https://cloud.tencent.com/developer/article/2168105?areaSource=104001.13&traceId=zcVNsKTUApF9rNJSkcCbB 前言 Redis作为高性能的内存数据库,在大数据量的情况下也会遇到性能瓶颈,日常开发中只有时刻

[转帖]ISV 、OSV、 SIG 概念

ISV 、OSV、 SIG 概念 2022-10-14 12:29530原创大杂烩 本文链接:https://www.cndba.cn/dave/article/108699 1. ISV: Independent Software Vendors “独立软件开发商”,特指专门从事软件的开发、生产、

[转帖]Redis 7 参数 修改 说明

2022-06-16 14:491800原创Redis 本文链接:https://www.cndba.cn/dave/article/108066 在之前的博客我们介绍了Redis 7 的安装和配置,如下: Linux 7.8 平台 Redis 7 安装并配置开机自启动 操作手册https://ww

[转帖]HTTPS中间人攻击原理

https://www.zhihu.com/people/bei-ji-85/posts 背景 前一段时间,公司北京地区上线了一个HTTPS防火墙,用来监听HTTPS流量。防火墙上线之前,邮件通知给管理层,我从我老大那里听说这个事情的时候,说这个有风险,然后意外地发现,很多人原来都不知道HTTPS防

[转帖]关于字节序(大小端)的一点想法

https://www.zhihu.com/people/bei-ji-85/posts 今天在一个技术群里有人问起来了,当时有一些讨论(不完全都是我个人的观点),整理一下: 为什么网络字节序(多数情况下)是大端? 早年设备的缓存很小,先接收高字节能快速的判断报文信息:包长度(需要准备多大缓存)、地

[转帖]awk提取某一行某一列的数据

https://www.jianshu.com/p/dbcb7fe2da56 1、提取文件中第1列数据 awk '{print $1}' filename > out.txt 2、提取前2列的文件 awk `{print $1,$2}' filename > out.txt 3、打印完第一列,然后打

[转帖]awk 中 FS的用法

https://www.cnblogs.com/rohens-hbg/p/5510890.html 在openwrt文件 ar71xx.sh中 查询设备类型时,有这么一句, machine=$(awk 'BEGIN{FS="[ \t]+:[ \t]"} /machine/ {print $2}' /

[转帖]Windows Server 2022 简体中文版、英文版下载 (updated Oct 2022)

https://sysin.org/blog/windows-server-2022/ Windows Server 2022 正式版,2022 年 10 月更新,VLSC Posted by sysin on 2022-10-27 Estimated Reading Time 8 Minutes