十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
磁盘 IO 和网络 IO 该如何评估、监控、性能定位和优化
成都创新互联公司网站建设由有经验的网站设计师、开发人员和项目经理组成的专业建站团队,负责网站视觉设计、用户体验优化、交互设计和前端开发等方面的工作,以确保网站外观精美、成都网站设计、成都网站建设易于使用并且具有良好的响应性。
生产中经常遇到一些IO延时长导致的系统吞吐量下降、响应时间慢等问题,例如交换机故障、网线老化导致的丢包重传;存储阵列条带宽度不足、缓存不足、QoS限制、RAID级别设置不当等引起的IO延时。
一、评估 IO 能力的前提
评估一个系统IO能力的前提是需要搞清楚这个系统的IO模型是怎么样的。那么IO模型是什么,为什么要提炼IO模型呢?
(一)、IO模型
在实际的业务处理过程中,一般来说IO比较混杂,比如说读写比例、IO尺寸等等,都是有波动的。所以我们提炼IO模型的时候,一般是针对某一个特定的场景来建立模型,用于IO容量规划以及问题分析。
最基本的模型包括:
如果是磁盘IO,那么还需要关注:
(二)、为什么要提炼IO模型
不同模型下,同一台存储,或者说同一个LUN,能够提供的IOPS、带宽(MBPS)、响应时间3大指标的最大值是不一样的。
当存储中提到IOPS最大能力的时候,一般采用随机小IO进行测试,此时占用的带宽是非常低的,响应时间也会比顺序的IO要长很多。如果将随机小IO改为顺序小IO,那么IOPS还会更大。当测试顺序大IO时,此时带宽占用非常高,但IOPS却很低。
因此,做IO的容量规划、性能调优需要分析业务的IO模型是什么。
二、评估工具
(一)、磁盘IO评估工具
磁盘IO能力的评估工具有很多,例如orion、iometer,dd、xdd、iorate,iozone,postmark,不同的工具支持的操作系统平台有所差异,应用场景上也各具特色。
有的工具可以模拟应用场景,比如orion是oracle出品,模拟Oracle数据库IO负载(采用与Oracle相同的IO软件栈)。
即模拟oracle应用对文件或磁盘分区进行读写(可指定读写比例、io size,顺序or随机)这里就需要提前知道自己的IO模型。如果不知道,可以采用自动模式,让orion自动的跑一遍,可以得出不同进程的并发读写下,最高的IOPS、MBPS,以及对应的响应时间。
比对dd,仅仅是对文件进行读写,没有模拟应用、业务、场景的效果。
postmark可以实现文件读写、创建、删除这样的操作。适合小文件应用场景的测试。
(二)、网络IO评估工具
ping:最基本的,可以指定包的大小。
iperf、ttcp:测试tcp、udp协议最大的带宽、延时、丢包。
衡量windows平台下的带宽能力,工具比较多:NTttcp、LANBench、pcattcp、LAN Speed Test (Lite)、NETIO、NetStress。
三、主要监控指标和常用监控工具
(一)、磁盘IO
对于存储IO:unix、linux平台,Nmon、iostat是比较好的工具。
nmon用于事后分析,iostat可用于实时查看,也可以采用脚本记录下来事后分析。
1.IOPS
总IOPS:Nmon DISK_SUMM Sheet:IO/Sec
每个盘对应的读IOPS :Nmon DISKRIO Sheet
每个盘对应的写IOPS :Nmon DISKWIO Sheet
总IOPS:命令行iostat -Dl:tps
每个盘对应的读IOPS :命令行iostat -Dl:rps
每个盘对应的写IOPS :命令行iostat -Dl:wps
2.带宽
总带宽:Nmon DISK_SUMM Sheet:Disk Read KB/s,Disk Write KB/s
每个盘对应的读带宽:Nmon DISKREAD Sheet
每个盘对应的写带宽:Nmon DISKWRITE Sheet
总带宽:命令行iostat -Dl:bps
每个盘对应的读带宽:命令行iostat -Dl:bread
每个盘对应的写带宽:命令行iostat -Dl:bwrtn
3.响应时间
每个盘对应的读响应时间:命令行iostat -Dl:read - avg serv,max serv
每个盘对应的写响应时间:命令行iostat -Dl:write - avg serv,max serv
4.其他
磁盘繁忙程度、队列深度、每秒队列满的次数等等。
(二)、网络IO
1.带宽
最好在网络设备处直接查看流量(比较准),如果在业务的服务器也可以查看
Nmon:NET Sheet
命令行topas:Network:BPS、B-In、B-Out
2.响应时间
简单的方法,可采用ping命令查看ping的延时是否在合理范围,是否有丢包现象。
有些交换机对ping命令设置了较低的优先级,可能在回复、转发ping包的时候有延迟,因此ping的结果不一定能反映真实情况。如果需要更为精确的测量可以探针捕获从某服务器建立TCP连接时发送的SYN包后开始计时起,到其收到对端发回的TCP SYNACK后的时间差。
更为准确、利于后期分析的方法是采用专业的网络设备在网络设备的端口处进行报文捕获和计算分析。
四、性能定位与优化
(一)、对磁盘IO争用的调优思路有哪些?
典型问题:针对主要争用是IO相关的场景下,调优的思路有哪些?主要的技术或者方法是什么?
一、首先要搞清楚IO争用是因为应用等层面的IO量过大导致,还是系统层面不能承载这些IO量。
如果应用层面有过多不必要的读写,首先解决应用问题。
举例1:数据库里面用于sort的buffer过小,当做sort的时候,有大量的内存与磁盘之间的数据交换,那么这类IO可以通过扩大sort buffer的内存来减少或避免。
举例2:从应用的角度,一些日志根本不重要,不需要写,那么可以把日志级别调低、甚至不记录日志,数据库层面可以加hint “no logging”。
二、存储问题的分析思路
存储IO问题可能出现在IO链路的各个环节,分析IO瓶颈是主机/网络/存储中的哪个环节导致的。
IO从应用->内存缓存->块设备层->HBA卡->驱动->交换网络->存储前端->存储cache->RAID组->磁盘,经过了一个很长的链条。
需要逐段分析:
1、主机侧:应用->内存缓存->块设备层→HBA卡->驱动
2、网络侧:交换网络
3、存储侧:存储前端-》存储cache-》RAID组-》磁盘
分析思路:
1、主机侧
当主机侧观察到的时延很大,存储侧的时延较小,则可能是主机侧或网络存在问题。
主机是I/O的发起端,I/O特性首先由主机的业务软件和操作系统软件和硬件配置等决定。例如,在“服务队列满”这一章节介绍的I/O 队列长度参数(queue_depth),当然,还有许多其他的参数(如: driver 可以向存储发的最大的 I/O、光纤卡DMA memor区域大小、块设备并发数、HBA卡并发数)。
若排查完成,性能问题还是存在,则需要对组网及链路、存储侧进行性能问题排查。
2、网络侧
当主机侧观察到的时延很大,存储侧的时延较小,且排查主机侧无问题时,则性能问题可能出现在链路上。
可能的问题有:带宽达到瓶颈、交换机配置不当、交换机故障、多路径选路错误、线路的电磁干扰、光纤线有损、接口松动等。带宽达到瓶颈、交换机配置不当、多路径选路错误、线路的电磁干扰等。
3、存储侧
如果主机侧时延与存储侧时延都很大且相差较小,说明问题可能出现在存储上。首先需要了解当前存储侧所承载的IO模型、存储资源配置,并从存储侧收集性能数据,按照I/O路径进行性能问题的定位。
常见原因如硬盘性能达到上限、镜像带宽达到上限、存储规划(如条带过小)、硬盘域和存储池划分(例如划分了低速的磁盘)、thin LUN还是thick LUN、LUN对应的存储的缓存设置(缓存大小、缓存类型,内存还是SSD);
IO的Qos限制的磁盘IO的带宽、LUN优先级设置、存储接口模块数量过小、RAID划分(比如RAID10>RAID5>RAID6)、条带宽度、条带深度、配置快照、克隆、远程复制等增值功能拖慢了性能、是否有重构、balancing等操作正在进行、存储控制器的CPU利用率过高、LUN未格式化完成引起短时的性能问题、cache刷入磁盘的参数(高低水位设置),甚至数据在盘片的中心还是边缘等等。
具体每个环节 都有一些具体的方法、命令、工具来查看性能表现,这里不再赘述。
(二)、关于低延迟事务、高速交易的应用在IO方面可以有哪些调优思路和建议?
典型问题:关于近期在一些证券行业碰到的低延迟事务、高速交易的应用需求,在IO模型路径方面可以有哪些可以调优的思路和建议?
对于低延迟事务,可以分析一下业务是否有持久化保存日志的需要,或者说保存的安全程度有多高,以此来决定采用什么样的IO。
1.从业务角度
比如说业务上不需要保存日志,那就不用写IO。
或者保存级别不高,那就可以只写一份数据,对于保存级别较高的日志,一般要双写、或多写。
2.从存储介质角度
1)可以全部采用SSD
2)或者采用SSD作为存储的二级缓存(一级缓存是内存)
3)或者存储服务器里面采用存储分级(将热点数据迁移到SSD、SAS等性能较好的硬盘上)
4)可以采用RAMDISK(内存作为磁盘用)
5)增加LUN所对应的存储服务器的缓存
3.从配置的角度
普通磁盘存储的LUN,可以设置合理的RAID模式(比如RAID10)去适应你的业务场景。
分条的深度大于等于一个IO的大小、有足够的宽度支持并发写。
4.IO路径的角度
采用高速的组网技术,而不用iSCSI之类的低速方式。
(三)、网络IO问题定位思路和方法
与磁盘IO类似,网络IO同样需要分段查找和分析。通过网络抓包和分析的工具,诊断网络的延时、丢包等异常情况出现在哪一段,然后具体分析。
同时,抓主机端的IPtrace可以帮助诊断不少的网络问题
性能指标之资源指标-网络IO--初步诊断-trace查看
字数 2817阅读 4748评论 0赞 1
如果从应用层面或者ping等手段定位到网络有延时、抖动、丢包、中断等异常情况时,需要进行深入的诊断分析。
此时最好的方法是采用专业的网络抓包设备进行网络包捕获,并采用该厂商相应的工具进行分析诊断。不但不影响服务器本身的性能,并且可以比较快速地得出一些诊断结论。目前市场上这方面的厂商和工具也比较多。
然而本节将介绍另一种初步分析问题的手段-iptrace。通过在业务系统上监控iptrace日志,之后通过wireshark工具进行分析,即可对问题有个大致的判断。
1、iptrace抓取
举例说明
开启监控:startsrc -s iptrace "-a -s 目标机IP -b -S 1500 -L 1073741824 /var/trace/iptrace.out"
该命令的含义是:iptrace记录本机与目标机双向传输的信息,抓取的数据包最大限制为1500字节,日志记录最大为1073741824字节(1G大小)。
关闭监控:stopsrc -s iptrace
2、Wireshark简介
Wireshark是windows平台用于查看网口数据包的工具。核心功能是快速筛选自己需要的信息然后快速定位问题。使用Wireshark打开iptrace.out文件如下图:
No --- 截获的网络包序号
Time --- 时间
Source --- 数据源IP
Destination --- 目标IP
Length --- 消息包总字节长度
Protocol --- 消息包协议类型
Info --- 消息包相关基本信息
以下是对应的OSI七层模型
Frame:物理层的数据帧概况
Ethernet II:数据链路层以太网帧头部信息
Internet Protocol Version 4:互联网层IP包头部信息
Transmission Control Protocol:传输层TCP的数据段头部信息
WebSphere MQ:应用层的信息,此处是MQ
常用筛选命令
可以按照需求筛选显示网络包列表,常用筛选条件如下:
1 按消息包长度筛选frame.len== (Length的值)
2 按数据源ip 筛选 ip.src eq 10.x.x.x
3 同时筛选源IP 以及协议类型ip.src eq 10.x.x.x && mq
4 按需求的协议类型筛选 mq && tcp
3、分析实例
打开iptrace文件后,首先查看右侧标黑色的部分,这是wireshark认为有问题的网络传输。
以作者实践当中的一个例子,系统环境当中网络延时非常不稳定,抓取iptrace用wireshark打开之后,发现大量的黑色条带,几乎找不到不出错的时间段。
这其中的问题五花八门,例如有:
在几分钟的trace当中竟然有这么多问题,也是醉了。
3.1 大量的tcp keep-alive / tcp keep-alive ack
几乎10个数据包里面就有2个tcp keep-alive / tcp keep-alive ack的数据包,大量占用网络带宽
首先,服务器的keep alive相关参数设置略有问题
no -a| grep tcp
tcp_keepcnt = 8
tcp_keepidle = 20
tcp_keepinit = 50
tcp_keepintvl = 2
这些参数的含义是:如果tcp连接有10秒钟空闲,没有报文传输(tcp_keepidle = 20,单位是0.5秒),那么开始发送探测(tcp alive),如果探测不成功,则后续每1秒发送一次 (tcp_keepintvl = 2),如果连续发送8次,对方没反应,把这个tcp连接关了。
这个探测比默认值来讲的确有些频繁,但试想,如果探测一次成功了的话,后续就不需要探测了。为什么有这么多的探测呢?
3.2 大量下一个回复包的SEQ值不等于ACK
正常情况下回复的seq数值=等于上一条请求的ACK数值,而trace中看到几乎所有keep alive的确认包(ACK)中的SEQ值=keep alive发起方的ACK+1。即每次探测后,对方的回复都不是期望的结果,因此后续不停的继续探测,导致了大量的keep alive包。
Seq和Ack两个字段是TCP可靠传输服务的关键部分,Seq是网络包序列号(TCP把数据看成是有序的字节流,TCP隐式地对数据流的每个字节进行编号)。Ack是期望得到的下一个回复包的序列号(即Seq值)。
3.3 RST ACK
RST可能是B发的太多,A告诉B 不要发包,直到A再次通知B可以发包。 或者是A关闭异常连接,清空缓存。
由于只发现一条RST ACK,因此并未深入分析。
3.4 大量Retransmission重传
重传意味着网络质量不佳,可能的原因有拥堵、目标机回复延迟、网络设备丢包、网线质量不佳、接口松动、电磁干扰等。
3.5 Previous segment uncaptured
先前片段未能捕获,当前收到报文的序列号值高于该连接的下一个期望序列号值时,表明之前的一个或多个网络包未捕获到。Previous segment uncaptured在正常通讯过程中也经常出现,且出现次数不多,因此并未深入分析。
3.6 ACKed Unseen segment
Tcp ACKed unseen segment 网络包回复的先前片段未截获到,与Tcp Previoud segment not captured先前片段未能捕获,问题相似。由于Previous segment uncaptured在正常通讯过程中也经常出现,且出现次数不多,因此并未深入分析。
3.7 大量Dup ack
Dup ACK是没有收到对方的应答(ACK),需要对方重复应答,3次以上的Dup ACK会造成重传和传输降速。后分析发现,系统环境中对方服务器发送出来的数据包在核心交换大机侧的接口处就有大量乱序。
3.8 Destination unreachable
目标不可达。由于只出现一次这个报错,因此并未深入分析
综上,从iptrace的结果中可以看到表现出来的问题很多,但经过初步分析,主要问题归结起来是1)对端回复的TCP包的SEQ值不是预期值,2)网络质量不佳。下一步就需要研究出问题的对端节点以及采用网络抓包设备判断哪一段网络质量不佳。
(四)、误判为IO问题的案例
很多时候,应用响应时间很慢,看似是IO问题,实则不然,这里举两个例子
1.【案例分享】:Oracle buffer等待占总时间的大头
在一个场景中,oracle的awr报告top10事件的第一名是:buffer busy waits
buffer busy waits是个比较general的等待,是session等待某个buffer引起的,但具体是什么buffer并不清楚,比如log sync等待也会引起buffer busy wait。
这是个连带指标,分析是暂且不管,需要看看他临近的问题事件是什么。
awr报告top10事件的第二名是enq:TX - index contention
这里的临近事件就是enq:TX - index contention, index contention常由大量并发INSERT 造成的 index split 引起,也就是说不断更新索引的过程中,二叉树不断长大。需要分裂,分裂的时候,其他session就需要等着。(这里的分析需要些数据库知识)
之后的调优过程中,将索引分区,避免竞争。调整后重新测试,Index contention、Bufferbusy wait双双从top10事件中消失了
这类数据库相关的等待事件非常常见,看似是等待IO,实际上是数据库的规划设计有问题。
2.【案例分享】:ping延时间歇性暴增
某业务系统的响应时间很不稳定,该系统有两类服务器构成,可以简单理解为A和B,A为客户端,B为服务端,A处业务的响应时间非常不稳定。
第一步:
从各类资源(CPU、内存、网络IO、磁盘IO)中追查原因。最终发现A与B直接的网络延时非常不稳定。A ping B,在局域网环境,按理说延时应该是0ms-1ms之间,而我们在业务高峰时发现,隔一小段时间就有100-200ms的延时出现。即使在没有业务的情况下,ping也30-40ms的延时。
第二步:
那么好,着手定位网络问题吧。
开始排查网路。换A的物理端口、换交换机、换网线、换对端的物理端口等等一系列措施之后,发现问题依然存在。
第三步:
采用网络探测设备,从交换机两侧端口抓包,分析一个tcp连接的建立过程时间消耗在哪里。分析后发现,200ms的延时,都是在B测。即一个tcp连接建立过程在A侧和交换机侧几乎没有什么时间消耗。
第四步:
B侧多台分区共用一个物理机。猜测是否是分区过多导致。当只有一个LPAR启动的时候,没有ping的延时,当启动一部分LPAR时候,延时较小,当所有LPAR均启动,ping 延时较大。
问题根本原因:
此时,问题水落石出,原来是由于分区过多导致了B回复A的ping有了延时。那么为什么会出现这种情况呢?一个物理机上CPU资源是有限的(本环境中是3颗),即使只有一个LPAR,其上面的N个进程也会去轮流使用CPU,何况此时是M台LPAR,MN个进程去轮流使用这三个CPU,当然调度算法并不是这么简单,这里仅仅是从理论上做个说明。
假设每个CPU时间片是10ms,那么极端情况下,一个进程要等到CPU需要等待(MN-1)*10(ms)/3。
况且,这么多LPAR的进程轮询一遍CPU,CPU里面的cache 数据估计早就被挤走了,重新加载是比较耗时的。
应对方法:
之前LPAR也设置了保障的CPU(MIPS数量的保障),但只有数量没有质量(上述提到的CPU cache问题,即亲和性问题)
应对方法是:将重要的LPAR分配dedicated CPU,保证CPU资源的质量,保证轮询CPU的客户尽量少,这样CPU cache中的数据尽量不被清走。经验证,ping延时基本消失,方法有效。
本案例是一起看似是网络问题,但实际是资源调度方式的问题。
顺便提一句,很多情况下,客户端的响应时间不稳定都是由服务器端的服务能力不稳定造成的。一般情况下都是应用、数据库的问题造成。而本案例是操作系统层面答复ping出现间歇性延时,很容易误导我们的分析判断。